Cari Blog Ini

Pengikut

Laman

Minggu, 30 Desember 2007

Google And The Wisdom of Clouds

Google and the Wisdom of Clouds

A lofty new strategy aims to put incredible computing power in the hands of many
by Stephen Baker

Lazowska calls the University of Washington's Google cloud "a gift from heaven"
Brian Smale

One simple question. That's all it took for Christophe Bisciglia to bewilder confident job applicants at Google (GOOG). Bisciglia, an angular 27-year-old senior software engineer with long wavy hair, wanted to see if these undergrads were ready to think like Googlers. "Tell me," he'd say, "what would you do if you had 1,000 times more data?"

What a strange idea. If they returned to their school projects and were foolish enough to cram formulas with a thousand times more details about shopping or maps or heaven forbid—with video files, they'd slow their college servers to a crawl.

At that point in the interview, Bisciglia would explain his question. To thrive at Google, he told them, they would have to learn to work—and to dream—on a vastly larger scale. He described Google's globe-spanning network of computers. Yes, they answered search queries instantly. But together they also blitzed through mountains of data, looking for answers or intelligence faster than any machine on earth. Most of this hardware wasn't on the Google campus. It was just out there, somewhere on earth, whirring away in big refrigerated data centers. Folks at Google called it "the cloud." And one challenge of programming at Google was to leverage that cloud—to push it to do things that would overwhelm lesser machines. New hires at Google, Bisciglia says, usually take a few months to get used to this scale. "Then one day, you see someone suggest a wild job that needs a few thousand machines, and you say: Hey, he gets it.'"

What recruits needed, Bisciglia eventually decided, was advance training. So one autumn day a year ago, when he ran into Google CEO Eric E. Schmidt between meetings, he floated an idea. He would use his 20% time, the allotment Googlers have for independent projects, to launch a course. It would introduce students at his almamater, the University of Washington, to programming at the scale of a cloud. Call it Google 101. Schmidt liked the plan. Over the following months, Bisciglia's

Google 101 would evolve and grow. It would eventually lead to an ambitious partnership with IBM (IBM), announced in October, to plug universities around the world into Google-like computing clouds.

As this concept spreads, it promises to expand Google's footprint in industry far beyond search, media, and advertising, leading the giant into scientific research and perhaps into new businesses. In the process Google could become, in a sense, the world's primary computer.

"I had originally thought [Bisciglia] was going to work on education, which was fine," Schmidt says late one recent afternoon at Google headquarters. "Nine months later, he comes out with this new [cloud] strategy, which was completely unexpected." The idea, as it developed, was to deliver to students, researchers, and entrepreneurs the immense power of Google-style computing, either via Google's machines or others offering the same service.

What is Google's cloud? It's a network made of hundreds of thousands, or by some estimates 1 million, cheap servers, each not much more powerful than the PCs we have in our homes. It stores staggering amounts of data, including numerous copies of the World Wide Web. This makes search faster, helping ferret out answers to billions of queries in a fraction of a second. Unlike many traditional supercomputers, Google's system never ages. When its individual pieces die, usually after about three years, engineers pluck them out and replace them with new, faster boxes. This means the cloud regenerates as it grows, almost like a living thing.

A move towards clouds signals a fundamental shift in how we handle information. At the most basic level, it's the computing equivalent of the evolution in electricity a century ago when farms and businesses shut down their own generators and bought power instead from efficient industrial utilities. Google executives had long envisioned and prepared for this change. Cloud computing, with Google's machinery at the very center, fit neatly into the company's grand vision, established a decade ago by founders Sergey Brin and Larry Page: "to organize the world's information and make it universally accessible." Bisciglia's idea opened a pathway toward this future. "Maybe he had it in his brain and didn't tell me," Schmidt says. "I didn't realize he was going to try to change the way computer scientists thought about computing. That's a much more ambitious goal."

ONE-WAY STREET
For small companies and entrepreneurs, clouds mean opportunity—a leveling of the playing field in the most data-intensive forms of computing. To date, only a select group of cloud-wielding Internet giants has had the resources to scoop up huge masses of information and build businesses upon it. Our words, pictures, clicks, and searches are the raw material for this industry. But it has been largely a one-way street. Humanity emits the data, and a handful of companies—the likes of Google, Yahoo! (YHOO), or Amazon.com (AMZN)—transform the info into insights, services, and, ultimately, revenue.

This status quo is already starting to change. In the past year, Amazon has opened up its own networks of computers to paying customers, initiating new players, large and small, to cloud computing. Some users simply park their massive databases with Amazon. Others use Amazon's computers to mine data or create Web services. In November, Yahoo opened up a cluster of computers—a small cloud—for researchers at Carnegie Mellon University. And Microsoft (MSFT) has deepened its ties to communities of scientific researchers by providing them access to its own server farms. As these clouds grow, says Frank Gens, senior analyst at market research firm IDC, "A whole new community of Web startups will have access to these machines. It's like they're planting Google seeds." Many such startups will emerge in science and medicine, as data-crunching laboratories searching for new materials and drugs set up shop in the clouds.

For clouds to reach their potential, they should be nearly as easy to program and navigate as the Web. This, say analysts, should open up growing markets for cloud search and software tools—a natural business for Google and its competitors. Schmidt won't say how much of its own capacity Google will offer to outsiders, or under what conditions or at what prices. "Typically, we like to start with free," he says, adding that power users "should probably bear some of the costs." And how big will these clouds grow? "There's no limit," Schmidt says. As this strategy unfolds, more people are starting to see that Google is poised to become a dominant force in the next stage of computing. "Google aspires to be a large portion of the cloud, or a cloud that you would interact with every day," the CEO says. The business plan? For now, Google remains rooted in its core business, which gushes with advertising revenue. The cloud initiative is barely a blip in terms of investment. It hovers in the distance, large and hazy and still hard to piece together, but bristling with possibilities.

Changing the nature of computing and scientific research wasn't at the top of Bisciglia's agenda the day he collared Schmidt. What he really wanted, he says, was to go back to school. Unlike many of his colleagues at Google, a place teeming with PhDs, Bisciglia was snatched up by the company as soon as he graduated from the University of Washington, or U-Dub, as nearly everyone calls it. He'd never been a grad student. He ached for a break from his daily routines at Google—the 10-hour workdays building search algorithms in his cube in Building 44, the long commutes on Google buses from the apartment he shared with three roomies in San Francisco's Duboce Triangle. He wanted to return to Seattle, if only for one day a week, and work with his professor and mentor, Ed Lazowska. "I had an itch to teach," he says. He didn't think twice before vaulting over the org chart and batting around his idea directly with the CEO. Bisciglia and Schmidt had known each other for years. Shortly after landing at Google five years ago as a 22-year-old programmer, Bisciglia worked in a cube across from the CEO's office. He'd wander in, he says, drawn in part by the model airplanes that reminded him of his mother's work as a United Airlines(UAUA) hostess. Naturally he talked with the soft-spoken, professorial CEO about computing. It was almost like college. And even after Bisciglia moved to other buildings, the two stayed in touch. ("He's never too hard to track down, and he's incredible about returning e-mails," Bisciglia says.)

On the day they first discussed Google 101, Schmidt offered one nugget of advice: Narrow down the project to something Bisciglia could have up and running in two months. "I actually didn't care what he did," Schmidt recalls. But he wanted the young engineer to get feedback in a hurry. Even if Bisciglia failed, he says, "he's smart, and he'd learn from it."

To launch Google 101, Bisciglia had to replicate the dynamics and a bit of the magic of Google's cloud—but without tapping into the cloud itself or revealing its deepest secrets. These secrets fuel endless speculation among computer scientists. But Google keeps much under cover. This immense computer, after all, runs the company. It automatically handles search, places ads, churns through e-mails. The computer does the work, and thousands of Google engineers, including Bisciglia, merely service the machine. They teach the system new tricks or find new markets for it to invade. And they add on new clusters—four new data centers this year alone, at an average cost of $600 million apiece.

In building this machine, Google, so famous for search, is poised to take on a new role in the computer industry. Not so many years ago scientists and researchers looked to national laboratories for the cutting-edge research on computing. Now, says Daniel Frye, vice-president of open systems development at IBM, "Google is doing the work that 10 years ago would have gone on in a national lab."

How was Bisciglia going to give students access to this machine? The easiest option would have been to plug his class directly into the Google computer. But the company wasn't about to let students loose in a machine loaded with proprietary software, brimming with personal data, and running a $10.6 billion business. So Bisciglia shopped for an affordable cluster of 40 computers. He placed the order, then set about figuring out how to pay for the servers. While the vendor was wiring the computers together, Bisciglia alerted a couple of Google managers that a bill was coming. Then he "kind of sent the expense report up the chain, and no one said no."

He adds one of his favorite sayings: "It's far easier to beg for forgiveness than to ask for permission." ("If you're interested in someone who strictly follows the rules, Christophe's not your guy," says Lazowska, who refers to the cluster as "a gift from heaven.")

A FRENETIC LEARNER
On Nov. 10, 2006, the rack of computers appeared at U-Dub's Computer Science building. Bisciglia and a couple of tech administrators had to figure out how to hoist the 1-ton rack up four stories into the server room. They eventually made it, and then prepared for the start of classes, in January.

Bisciglia's mother, Brenda, says her son seemed marked for an unusual path from the start. He didn't speak until age 2, and then started with sentences. One of his first came as they were driving near their home in Gig Harbor, Wash. A bug flew in the open window, and a voice came from the car seat in back: "Mommy, there's something artificial in my mouth."

At school, the boy's endless questions and frenetic learning pace exasperated teachers. His parents, seeing him sad and frustrated, pulled him out and home schooled him for three years. Bisciglia says he missed the company of kids during that time but developed as an entrepreneur. He had a passion for Icelandic horses and as an adolescent went into business raising them. Once, says his father, Jim, they drove far north into Manitoba and bought horses, without much idea about how to transport the animals back home. "The whole trip was like a scene from one of Chevy Chase's movies," he says. Christophe learned about computers developing Web pages for his horse sales and his father's luxury-cruise business. And after concluding that computers promised a brighter future than animal husbandry, he went off to U-Dub and signed up for as many math, physics, and computer courses as he could.

In late 2006, as he shuttled between the Googleplex and Seattle preparing for Google 101, Bisciglia used his entrepreneurial skills to piece together a sprawling team of volunteers. He worked with college interns to develop the curriculum, and he dragooned a couple of Google colleagues from the nearby Kirkland (Wash.) facility to use some of their 20% time to help him teach it. Following Schmidt's advice, Bisciglia worked to focus Google 101 on something students could learn quickly. "I was like, what's the one thing I could teach them in two months that would be useful and really important?" he recalls. His answer was "MapReduce."

Bisciglia adores MapReduce, the software at the heart of Google computing. While the company's famous search algorithms provide the intelligence for each search, MapReduce delivers the speed and industrial heft. It divides each task into hundreds, or even thousands, of tasks, and distributes them to legions of computers. In a fraction of a second, as each one comes back with its nugget of information, MapReduce quickly assembles the responses into an answer. Other programs do the same job. But MapReduce is faster and appears able to handle near limitless work. When the subject comes up, Bisciglia rhapsodizes. "I remember graduating, coming to Google, learning about MapReduce, and really just changing the way I thought about computer science and everything," he says. He calls it "a very simple, elegant model." It was developed by another Washington alumnus, Jeffrey Dean. By returning to U-Dub and teaching MapReduce, Bisciglia would be returning this software "and this way of thinking" back to its roots.

There was only one obstacle. MapReduce was anchored securely inside Google's machine and it was not for outside consumption, even if the subject was Google 101. The company did share some information about it, though, to feed an open-source version of MapReduce called Hadoop. The idea was that, without divulging its crown jewel, Google could push for its standard to become the architecture of cloud computing.

The team that developed Hadoop belonged to a company, Nutch, that got acquired. Oddly, they were now working within the walls of Yahoo, which was counting on the MapReduce offspring to give its own computers a touch of Google magic. Hadoop remained open source, though, which meant the Google team could adapt it and install it for free on the U-Dub cluster.

Students rushed to sign up for Google 101 as soon as it appeared in the winter semester syllabus. In the beginning, Bisciglia and his Google colleagues tried teaching. But in time they handed over the job to professional educators at U-Dub. "Their delivery is a lot clearer," Bisciglia says. Within weeks the students were learning how to configure their work for Google machines and designing ambitious Web-scale projects, from cataloguing the edits on Wikipedia to crawling the Internet to identify spam. Through the spring of 2007, as word about the course spread to other universities, departments elsewhere started asking for Google 101.

Many were dying for cloud knowhow and computing power—especially for scientific research. In practically every field, scientists were grappling with vast piles of new data issuing from a host of sensors, analytic equipment, and ever-finer measuring tools. Patterns in these troves could point to new medicines and therapies, new forms of clean energy. They could help predict earthquakes. But most scientists lacked the machinery to store and sift through these digital El Dorados. "We're drowning in data," said Jeannette Wing, assistant director of the National Science Foundation.

BIG BLUE LARGESSE
The hunger for Google computing put Bisciglia in a predicament. He had been fortunate to push through the order for the first cluster of computers. Could he do that again and again, eventually installing mini-Google clusters in each computer science department? Surely not. To extend Google 101 to universities around the world, the participants needed to plug into a shared resource. Bisciglia needed a bigger cloud.

That's when luck descended on the Googleplex in the person of IBM Chairman Samuel J. Palmisano. This was "Sam's day at Google," says an IBM researcher. The winter day was a bit chilly for beach volleyball in the center of campus, but Palmisano lunched on some of the fabled free cuisine in a cafeteria. Then he and his team sat down with Schmidt and a handful of Googlers, including Bisciglia. They drew on whiteboards and discussed cloud computing. It was no secret that IBM wanted to deploy clouds to provide data and services to business customers. At the same time, under Palmisano, IBM had been a leading promoter of open-source software, including Linux. This was a key in Big Blue's software battles, especially against Microsoft.

If Google and IBM teamed up on a cloud venture, they could construct the future of this type of computing on Google-based standards, including Hadoop. Google, of course, had a running start on such a project: Bisciglia's Google 101. In the course of that one day, Bisciglia's small venture morphed into a major initiative backed at the CEO level by two tech titans. By the time Palmisano departed that afternoon, it was established that Bisciglia and his IBM counterpart, Dennis Quan, would build a prototype of a joint Google-IBM university cloud.

Over the next three months they worked together at Google headquarters. (It was around this time, Bisciglia says, that the cloud project evolved from 20% into his full-time job.) The work involved integrating IBM's business applications and Google servers, and equipping them with a host of open-source programs, including Hadoop.

In February they unveiled the prototype for top brass in Mountain View, Calif., and for others on video from IBM headquarters in Armonk, N.Y. Quan wowed them by downloading data from the cloud to his cell phone. (It wasn't relevant to the core project, Bisciglia says, but a nice piece of theater.)

The Google 101 cloud got the green light. The plan was to spread cloud computing first to a handful of U.S. universities within a year and later to deploy it globally. The universities would develop the clouds, creating tools and applications while producing legions of computer scientists to continue building and managing them.

Those developers should be able to find jobs at a host of Web companies, including Google. Schmidt likes to compare the data centers to the prohibitively expensive particle accelerators known as cyclotrons. "There are only a few cyclotrons in physics," he says. "And every one if them is important, because if you're a top-flight physicist you need to be at the lab where that cyclotron is being run. That's where history's going to be made; that's where the inventions are going to come. So my idea is that if you think of these as supercomputers that happen to be assembled from smaller computers, we have the most attractive supercomputers, from a science perspective, for people to come work on."

As the sea of business and scientific data rises, computing power turns into a strategic resource, a form of capital. "In a sense," says Yahoo Research Chief Prabhakar Raghavan, "there are only five computers on earth." He lists Google, Yahoo, Microsoft, IBM, and Amazon. Few others, he says, can turn electricity into computing power with comparable efficiency.

All sorts of business models are sure to evolve. Google and its rivals could team up with customers, perhaps exchanging computing power for access to their data. They could recruit partners into their clouds for pet projects, such as the company's clean energy initiative, announced in November. With the electric bills at jumbo data centers running upwards of $20 million a year, according to industry analysts, it's only natural for Google to commit both brains and server capacity to the search for game-changing energy breakthroughs.

What will research clouds look like? Tony Hey, vice-president for external research at Microsoft, says they'll function as huge virtual laboratories, with a new generation of librarians—some of them human—"curating" troves of data, opening them to researchers with the right credentials. Authorized users, he says, will build new tools, haul in data, and share it with far-flung colleagues. In these new labs, he predicts, "you may win the Nobel prize by analyzing data assembled by someone else."

Mark Dean, head of IBM's research operation in Almaden, Calif., says that the mixture of business and science will lead, in a few short years, to networks of clouds that will tax our imagination. "Compared to this," he says, "the Web is tiny. We'll be laughing at how small the Web is." And yet, if this "tiny" Web was big enough to spawn Google and its empire, there's no telling what opportunities could open up in the giant clouds.

It's a mid-November day at the Googleplex. A jetlagged Christophe Bisciglia is just back from China, where he has been talking to universities about Google 101. He's had a busy time, not only setting up the cloud with IBM but also working out deal with six universities—U-Dub, Berkeley, Stanford, MIT, Carnegie Mellon, and the University of Maryland—to launch it. Now he's got a camera crew in a conference room, with wires and lights spilling over a table. This is for a promotional video about cloud education that they'll release, at some point, on YouTube (GOOG).

Eric Schmidt comes in. At 52, he is nearly twice Bisciglia's age, and his body looks a bit padded next to his protégé's willowy frame. Bisciglia guides him to a chair across from the camera and explains the plan. They'll tape the audio from the interview and then set up Schmidt for some stand-alone face shots. "B-footage," Bisciglia calls it. Schmidt nods and sits down. Then he thinks better of it. He tells the cameramen to film the whole thing and skip stand-alone shots. He and Bisciglia are far too busy to stand around for B footage.

Baker is a senior writer for BusinessWeek in New York .
http://www.businessweek.com/magazine/content/07_52/b4064048925836.htm

Data Mining & Knowledge Discovery in Databases

Pengantar Data Mining dan Knowledge Discovery in Databases

Oleh: Romeo, ST & Betty Yulistiowati S.Kom


"Komputerisasi menjanjikan banyak kebajikan, namun menyediakan data yang tak terhingga banyaknya untuk dianalisa."
Romeo.


Di era informasi digital, dunia IT menghadapi masalah lubernya jumlah data. Terjadi gap antara kemampuan manusia dalam menganalisa dan memahami sekumpulan data, dengan kemampuan manusia dalam mengumpulkan dan menyimpan data. Dan pada saat yang bersamaan, berkembang suatu realita dan harapan terhadap data-data tersebut untuk dapat dianalisa dan dihadirkan dalam suatu bentuk informasi yang berguna atau dapat
memberikan keuntungan dalam berkompetisi.

Metode tradisional untuk mengubah data menjadi pengetahuan bergantung pada analisa dan interpretasi manual. Pada suatu organisasi, umumnya dibutuhkan spesialis yang secara periodik menganalisa kecenderungan dan perubahan pola distribusi data terkini. Spesialis memberikan suatu laporan hasil analisa kepada pihak manajemen dan eksekutif organisasi, dan laporan ini akan menjadi dasar pertimbangan dalam
merencanakan dan menetapkan keputusan-keputusan atau kebijakan-kebijakan organisasi. Dalam penerapannya, proses ini berjalan dengan lambat, mahal, dan sangat subyektif.

Volume data tumbuh berkembang secara dramatis, sehingga analisa data secara manual menjadi tidak praktis lagi. Peningkatan ukuran database terjadi dalam 2 hal, yaitu
(1) jumlah data atau obyek tersimpan dalam database, secara umum dapat mencapai 109 obyek (misal data astronomi), dan
(2) jumlah kolom atau atribut suatu obyek data, secara umum dapat mencapai 102 atau
bahkan 103 (misal pada aplikasi diagnosa medis).

Estimasi jumlah informasi di dunia akan meningkat 2 kali setiap 20 bulan. Sedangkan ukuran dan jumlah database akan meningkat lebih cepat. Di tahun 1989, estimasi jumlah total database di dunia telah mencapai 5 miliar, dan sebagian besar adalah database kecil, seperti DBASE III (Frawley, dkk, 1992).

Otomatisasi aktifitas bisnis menghasilkan peningkatan yang tajam terhadap jumlah data. Karena otomatisasi yang dilakukan mencakup semua transaksi, bahkan yang sederhana sekalipun, seperti panggilan telepon, penggunaan kartu kredit, tes medis, dan lain sebagainya.

Database keilmuan dan pemerintahan juga berkembang dengan sangat cepat. Sebagai contoh, The National Aeronautics and Space Administration memiliki data yang amat besar untuk dapat dianalisa.

Satelit untuk observasi Bumi, yang dirancang di tahun 1990-an, diharapkan dapat menghasilkan 1 terabyte data tiap hari. Dengan berdasarkan pada kecepatan rata-rata gambar yang dihasilkan tiap detik, akan membutuhkan waktu kerja beberapa tahun, siang dan malam, termasuk pada hari libur, bagi 1 orang, hanya untuk melihat semua
gambar yang dihasilkan dalam 1 hari.

Apa yang seharusnya dilakukan terhadap lubernya data ini? Nilai dari data yang disimpan tergantung pada kemampuan manusia dalam mengekstraksi laporan-laporan yang berguna, menyoroti kecenderungan dan kejadian yang menarik, mendukung keputusan dan kebijakan berdasarkan pada analisa dan inferensi statistik, serta mengeksploitasi data untuk mencapai tujuan bisnis dan organisasi. Sedangkan kemampuan manusia sangatlah terbatas. Karenanya dibutuhkan suatu teknik dan alat bantu komputasi generasi baru dalam mendukung ekstraksi pengetahuan yang berguna dari perkembangan volume data yang sangat cepat.

Pengembangan teknik dan alat bantu ini merupakan subyek dalam bidang penggalian data (DM - Data Mining) dan penemuan pengetahuan dalam database (KDD – Knowledge Discovery in Databases). Artikel ini memberikan pengantar terhadap perkembangan DM dan KDD, termasuk keterkaitan antara keduanya dan dengan bidang yang lain (seperti mesin belajar, statistik, dan database), definisi dari proses penemuan pengetahuan.

Penerapan DM dan KDD di Dunia Nyata

DM dan KDD telah banyak diterapkan sebagai solusi terhadap permasalahan pada dunia nyata dalam bidang keilmuan dan bisnis. Dalam bidang keilmuan, dapat dilihat pada area astronomi. Keberhasilan yang dicapai oleh SKICAT, suatu sistem yang digunakan oleh para ahli astronomi untuk melakukan analisa gambar (image), klasifikasi, dan membuat katalog obyek angkasa dari gambar survei angkasa (Fayyad, Djorgovski, dan Weir, 1996). Dalam bidang bisnis, area utama aplikasi KDD, antara lain, pemasaran, keuangan (khususnya investasi), deteksi kecurangan, manufaktur, telekomunikasi, dan agen internet.

Pemasaran:
Di area ini DM dan KDD banyak digunakan untuk menganalisa database pelanggan guna mengidentifikasikan dan mengklasifikasikan grup-grup pengguna, serta memprediksikan tingkah laku mereka.

Business Week (Berry, 1994) mengestimasi lebih dari separuh dari keseluruhan retailer sedang menggunakan atau merencanakan untuk memakai database pemasaran. Dan mereka yang menggunakannya, telah mendapatkan hasil sebagaimana yang diharapkan, misalnya American Express yang menyatakan bahwa sistem manajemen pelanggan mereka telah berhasil memberikan kenaikan 10% hingga 15% dalam penggunaan kartu kredit. Penerapan pada aplikasi pemasaran lainnya adalah pada sistem analisa market-basket (Agrawal, dkk, 1996), digunakan untuk menemukan pola-pola tertentu yang berguna bagi retailer ataupun pelanggan, misal pada Amazon.com, bila pelanggan membeli atau mencari suatu buku, maka sistem akan juga memberikan suatu informasi tambahan, seperti "Pelanggan yang membeli barang X, biasanya juga akan membeli barang Y dan Z."

Investasi:
Beberapa perusahaan menggunakan DM untuk membantu dalam pengambilan keputusan berinvestasi. Manajemen pendanaan LBS, menggunakan sistem pakar, jaringan syaraf tiruan, dan algoritma genetika untuk mengelola portofolio, dengan total 600 milyar US
Dolar, sejak tahun 1993 (Hall, Mani, dan Barr, 1996).

Deteksi kecurangan:
Terdapat sistem PRISM, yang dikembangkan oleh HNC Falcon and Nestor digunakan untuk memonitor kecurangan yang terjadi pada kartu kredit dengan jutaan akun. Sistem FAIS (Senator, dkk, 1995), dari the U.S. Treasury Financial Crimes Enforcement Network, digunakan untuk identifikasi transaksi finansial yang mungkin termasuk dalam aktivitas pembersihan keuangan (money laundering).

Manufaktur:
Terdapat sistem penemuan masalah CASSIOPEE, dikembangkan sebagai bagian dari kerja sama antara General Electric dan SNECMA. Telah diterapkan oleh 3 maskapai penerbangan besar Eropa untuk mendiagnosa dan memprediksi masalah-masalah pada Boeing 737, dengan menggunakan metode clustering (Manago dan Auriol, 1996).

Telekomunikasi:
The telecommunications alarm-sequence analyzer (TASA) yang dikembangkan dengan menggunakan kerangka kerja novel, digunakan untuk lokalisasi episode-episode alarm dari suatu jaringan alarm, dan menampilkannya dalam bentuk aturan-aturan. Sekumpulan besar aturan-aturan yang ditemukan dapat dieksplorasi dengan alat bantu
penerima informasi yang fleksibel, interaktif, dan mendukung aktifitas iterasi. Sehingga TASA dapat menjadi alat bantu yang dapat mengoptimalkan proses pencarian aturan-aturan.

Pembersihan data (Data cleaning):
Sistem MERGE-PURGE yang diaplikasikan untuk identifikasi duplikasi klaim kesejahteraan (Hernandez dan Stolfo, 1995), telah berhasil diimplementasikan pada
Departemen Kesejahteraan Amerika Serikat. Di area lain, sistem ADVANCED SCOUT yang dikembangkan oleh IBM, suatu sistem DM khusus yang membantu National Basketball Association (NBA) dalam mengorganisasikan dan menginterpretasikan data pertandingan NBA (U.S. News, 1995). ADVANCED SCOUT digunakan oleh beberapa tim NBA di tahun 1996, termasuk Seattle Supersonics, yang berhasil membawanya ke final.

Agen Internet:
Terdapat suatu tipe penemuan yang berdasarkan pada penggunaan agen intelijen untuk melakukan navigasi dalam lingkungan yang memiliki banyak sekali informasi, seperti halnya lingkungan internet. Sistem ini menerima masukan spesifikasi suatu profil ketertarikan dari pengguna dan mencari informasi yang berhubungan di berbagai domain publik dan sumber-sumber tertentu yang jumlahnya sangatlah banyak. Sebagai contoh, FIREFLY adalah agen yang berfungsi memberikan rekomendasi musik secara personal. Ia membutuhkan masukan opini dari pengguna terhadap beberapa jenis musik dan kemudian menyarankan musik lain yang disukai pengguna (http://www.ffly.com/). CRAYON (http://crayon.net/) memungkinkan pengguna dalam membuat sendiri korannya (didukung iklan). NEWSHOUND (http://www/sjmercury.com/hound/) dari San Jose Mercury News dan FARCAST (http://www.farcast.com/) yang berfungsi untuk mencari informasi dari sumber-sumber yang sangat banyak dan tersebar, termasuk berita dan dokumen-dokumen e-mail yang berkaitan, secara langsung terhadap permintaan pengguna.

Demikianlah sedikit contoh nyata sistem-sistem yang menggunakan teknik KDD untuk menghasilkan informasi yang berguna secara otomatis dari sekumpulan besar data. Pengantar terhadap hal-hal yang berkaitan dengan pengembangan aplikasi KDD di industri dapat dilihat pada artikel Piatetsky-Saphiro, dan kawan-kawan (1996).

DM dan KDD
Dalam sejarahnya, penemuan pola yang berguna dalam data memiliki berbagai nama, termasuk data mining, knowledge extraction, information discovery, information harvesting, data archaeology, dan data pattern processing. Istilah data mining telah banyak digunakan dalam komunitas statistik, analis data, dan manajemen sistem informasi (MIS). Frase KDD diperkenalkan pertama kali dalam workshop KDD di tahun 1989 (piatetsky-Saphiro, 1991), yang menekankan pada pengetahuan sebagai produk akhir dari proses penemuan yang berdasarkan pada data. KDD lebih populer di area artificial intelligent (AI) dan mesin belajar (machine learning).

KDD merupakan suatu proses penemuan pengetahuan secara utuh dari data, dan DM merupakan suatu bagian tahapan dari proses ini. DM adalah suatu penerapan algoritma tertentu untuk melakukan ekstraksi pola-pola dari data. Tahapan tambahan dalam proses KDD, seperti persiapan data (data preparation), penyeleksian data (data selection), dan pembersihan data (data cleaning), adalah tahapan yang esensial untuk memastikan dihasilkannya pengetahuan yang berguna dari data, dan mencegah penemuan pola yang salah dan tidak berarti.

KDD terus berevolusi dari interseksi area penelitian, seperti mesin belajar, pengenalan pola, database, statistik, AI, akusisi pengetahuan untuk sistem pakar, visualisasi data dan komputasi dengan kinerja tinggi. Hal yang menjadi pengikat adalah tujuan utama dalam mengekstraksi pengetahuan tingkat tinggi dari data tingkat rendah dalam kontek kumpulan data yang amat besar. DM sebagai komponen dari KDD sangat bergantung pada penerapan teknik-teknik dari mesin belajar, pengenalan pola, dan statistik untuk menemukan pola-pola dari data dalam penggalian data, yang merupakan salah satu tahapan proses KDD.

Permasalahan utama dari penerapan KDD adalah pengelolaan sumber daya komputasi (seperti memori, hard disk, dll) dalam proses DM dan KDD untuk sekumpulan data yang sangat besar. Bidang yang berkaitan dengan evolusi database adalah DataWarehouse (DW), yang berhubungan dengan pengumpulan dan pembersihan data transaksional untuk dapat digunakan dalam OnLine Analytical Processing (OLAP) dan Decision Support System (DSS). DW memberikan sekumpulan tahapan bagi KDD dengan 2 cara yang penting, yaitu
(1) pembersihan data (data cleaning), dan
(2) akses data (data access).

Pembersihan data (Data cleaning):
Organisasi dipaksa untuk memandang data yang amat besar dan tersebar dalam berbagai database sebagai satu kesatuan yang utuh. Organisasi harus memetakan data ke dalam satu konvensi penamaan, secara seragam merepresentasikan dan menangani data yang hilang, dan menangani gangguan dan kesalahan yang mungkin ada.

Akses data (Data access):
Metode yang seragam dan terdefinisi dengan baik harus diciptakan untuk pengaksesan data, dan penyediaan akses jalur-jalur penghubung ke data yang secara historis sulit untuk didapatkan (misal, penyimpanan secara offline).


Definisi Dasar

KDD merupakan bukan proses nontrivial dalam mengekstraksi data yang implisit, belum diketahui sebelumnya, dan berpotensi menjadi informasi yang berguna (Fayyad, Piatetsky-Shapiro, dan Smyth, 1996).

Data adalah sekumpulan fakta, dan pola adalah suatu ekspresi dalam beberapa bahasa, yang menggambarkan suatu kumpulan data atau suatu model yang dapat diaplikasikan pada suatu kumpulan data.

Nontrivial karena beberapa pencarian atau inferensi yang dilibatkan bukan merupakan hasil komputasi secara langsung terhadap kuantitas yang telah didefinisikan sebelumnya, seperti komputasi nilai rata-rata sekumpulan bilangan. Pola yang ditemukan harus valid terhadap data baru pada suatu tingkat kepastian tertentu. Pola-pola tersebut harus dapat menjadi suatu deskripsi atau gambaran tentang suatu pengetahuan yang secara potensial berguna dan menguntungkan bagi pengguna atau tugas tertentu. Akhirnya, pola-pola tersebut juga harus dapat dipahami dan dimengerti, walaupun terdapat kemungkinan tidak dapat secara langsung dan harus melewati beberapa proses dahulu.

DM adalah suatu tahapan dalam proses KDD yang terdiri dari penerapan analisa data dan algoritma penemuan, yang dapat diterima dalam batasan efisiensi komputasi, menghasilkan suatu enumerasi pola tertentu (atau model) dari data. Proses KDD melibatkan penggunaan database selama seleksi, proses awal, subsampling dan transformasi yang dibutuhkan. Termasuk juga penerapan metode (algortima) DM dalam
mengenumerasi pola dan evaluasi hasil DM untuk mengidentifikasi suatu kumpulan pola yang telah dienumerasi dan dipercayai merupakan suatu pengetahuan. Secara keseluruhan proses KDD meliputi evaluasi dan interpretasi yang memungkinkan dari
penggalian pola-pola untuk menentukan pola-pola mana yang dapat dipertimbangkan menjadi pengetahuan baru.

Proses KDD
Proses KDD adalah interaktif dan iteratif, meliputi beberapa tahapan dan membutuhkan banyak keputusan-keputusan dari pengguna. Brachman dan Anand (1996) memberikan pandangan praktis terhadap proses KDD, yang menekankan pada interaktif natural dari proses. Berikut ini adalah 9 tahapan dasar yang umum:

• Pertama adalah pengembangan suatu pemahaman domain aplikasi dan relevansinya terhadap pengetahuan tertentu dan pengidentifikasian tujuan dari proses KDD dari sudut pandang pelanggan.

• Kedua adalah pembuatan sekumpulan data target. Pemilihan sekumpulan data, atau fokus pada sekumpulan variabel atau sampel data, di mana penemuan akan dilaksanakan.

• Ketiga adalah pembersihan dan pemrosesan awal terhadap data. Operasi dasar termasuk penghilangan gangguan jika dibutuhkan, pengumpulan informasi yang dibutuhkan sebagai model atau perhitungan bagi gangguan, penetapan strategi dalam menangani kolom data yang hilang, dan perhitungan informasi sekuensial waktu dan perubahan yang diketahui.

• Keempat adalah reduksi dan proyeksi data. Penemuan fitur yang berguna untuk merepresentasikan data tergantung pada tujuan akhir dari tugas. Dengan metode-metode reduksi atau transformasi secara dimensional, sejumlah variabel efektif yang diperhitungkan dapat direduksi, atau representasi alternatif dari data dapat ditemukan.

• Kelima adalah menyesuaikan dengan tujuan proses KDD (tahap 1) dengan metode DM tertentu. Misalnya, penjumlahan, klasifikasi, regresi, klustering, dan lainnya.

• Keenam adalah eksplorasi analisa dan model dan pemilihan hipotesa. Pemilihan algoritma DM dan pemilihan metode yang digunakan untuk pencarian pola-pola data. Proses ini meliputi penetapan model-model dan parameter-parameter yang tepat (misal, model-model data kategorikal berbeda dengan model-model vektor real) dan menyesuaikan suatu metode DM tertentu dengan keseluruhan kriteria proses KDD (misal, pengguna akhir akan lebih tertarik dalam memahami model daripada kemampuan prediksinya).

• Ketujuh adalah penggalian data. Pencarian pola yang menarik dalam suatu bentuk representasi tertentu atau sekumpulan representasi tertentu, meliputi aturan klasifikasi, regresi, dan klustering.

• Kedelapan adalah pengintepretasian pola-pola yang telah digali, berkemungkinan membutuhkan untuk kembali ke tiap langkah sebelumnya (langkah 1 sampai 7) untuk iterasi lebih lanjut. Tahap ini juga meliputi visualisasi pola-pola, dan model-model yang diekstraksi, atau visualisasi data yang dihasilkan oleh model-model yang diekstraksi.

• Kesembilan adalah mengolah pengetahuan yang ditemukan, seperti menggunakan pengetahuan yang didapat secara langsung, menghubungkan pengetahuan ke sistem lain untuk diolah lebih lanjut, atau mendokumentasikannya dan melaporkannya pada pihak yang berkepentingan. Pada proses ini juga meliputi pengecekan dan pemecahan konflik yang berpotensi dengan pengetahuan yang telah didapatkan sebelumnya dan diyakini benar.

Kebanyakan penilitian KDD berfokus pada langkah ke 7, DM. Namun, bagaimanapun juga, langkah yang lain tak kalah pentingnya (bahkan mungkin lebih) untuk dipertimbangkan bagi kesuksesan penerapan KDD secara praktis.

Walaupun beberapa aspek penemuan dalam database, seperti pencarian formula sederhana untuk suatu data, atau penerapan pohon keputusan (decision trees) untuk klasifikasi, secara relatif telah dapat dipahami, namun masih banyak aspek yang membutuhkan penelitian lebih lanjut di area KDD ini. Penelitian ini hendaknya tidak hanya dilakukan oleh para akademisi saja, namun juga membutuhkan keikutsertaan para praktisi untuk dapat lebih menganalisa data yang lebih komplek daripada sebelumnya, termasuk database berorientasi obyek, CAD-CAM, tekstual, dan multimedia.

Kompleksitas data akan membuat KDD lebih berguna dalam proses penemuan pengetahuan. Database yang besar akan membutuhkan algoritma yang efisien. Demikian pula dalam menghadapi masalah lingkungan yang berubah dengan cepat, akan menuntut peningkatan kinerja dari metode-metode yang ada. Masalah komplek, seperti pengendalian jaringan akan membutuhkan integrasi dari berbagai pendekatan penemuan. Yang pada akhirnya, hasil proses penemuan pengetahuan ini harus dapat dipresentasikan pada pengguna dalam beberapa cara yang dapat dimengerti, menggunakan pendekatan iteraktif.

Menatap 2008 Dengan Optimistis

Menatap 2008 dengan Optimistis
SINDO, Senin, 31/12/2007

BARU saja kita dikejutkan oleh peristiwa penembakan Benazir Bhutto pada 27 Desember 2007. Peristiwa ini memilukan karena terjadi di negara yang sudah lama mendengungdengungkan demokrasi. Bhutto yang ini adalah seorang ibu, mantan perdana menteri dua periode, dan yang baru saja kembali dari pengasingan selama delapan tahun di Inggris.

Dengan latar belakang itu, Bhutto kali ini mungkin dianggap lebih hebat dari Bhutto delapan tahun lalu. Peristiwa seperti itu sering terjadi di negara berkembang. Lihat umpamanya Filipina saat Benigno Aquino dibunuh beberapa tahun lalu. Pembunuhan bahkan juga terjadi terhadap mereka yang sedang berkuasa, seperti Anwar Sadat di Mesir, Gandhi di India, Begin di Israel. Toh, di negara yang dianggap kampiunnya demokrasi, Amerika Serikat (AS), upaya pembunuhan juga terjadi. Presiden John F Kennedy meninggal dunia karena ditembak.

Pelaku biasanya “ekstremis” yang bisa dimanfaatkan orang atau organisasi tertentu dan tidak ada kaitannya dengan agama. Pembunuh Sadat adalah seorang penganut Islam; pembunuh Begin adalah seorang Yahudi; pembunuh Aquino dan Kennedy saya yakin beragama Katolik/Kristen. Lalu, apakah dunia akan kiamat? Bagi yang pesimistis jawabannya mungkin ya, namun menurut saya tidak. Ada pengaruh perkembangan politik dunia, tetapi itu tidak seberapa. Justru pengaruh besar yang akan ada pada tahun depan adalah perubahan politik di AS. Jika yang menang dari Demokrat akan terjadi perubahan sangat besar dalam peta dan kondisi politik dunia. Saya yakin itu positif. Kita tunggu drama politik internasional di tahun 2008 yang sudah di depan mata kita dengan optimistis.

Bagaimana dengan Indonesia?
Kita sedih dalam segi kemanusiaan karena di pengujung Desember 2007 ini kita terkena musibah bencana alam di beberapa tempat. Langkah pertama adalah penanganan gawat darurat: bantuan, evakuasi, dan sejenisnya. Dari aspek agama (Islam), ketika terjadi musibah kita diharuskan kembali kepada Allah.

Bukan lantas bunuh diri, namun kita harus merenungkan, mencari akar permasalahan, dan sejenisnya. Dalam premis mayor (muqaddimah kubra), kehancuran itu terjadi sekadar akibat dari ulah manusia sendiri, bahkan bahasanya lebih lugas,”Agar manusia merasakan akibat ulahnya” (Dhaharal fasadu fil barri wal bahri bima kasabat aidinnas liyudziqahum). Yang saya sebut premis mayor itu juga bisa kita katakan lebih tajam lagi sebagai kesimpulan (conclusion/natijah) atau proposisi. Tugas kita mencari akar persoalannya, sebab akibatnya, latar belakangnya, dan sejenisnya. Bisa dilakukan multidisipliner: dari ahli Agama, ahli lingkungan, biologi, dan semua disiplin yang diperlukan baik dari rumpun ilmu sosial, humaniora, maupun sains untuk pengkajian secara detail dan menyeluruh (radikal).

Hasilnya, saya yakin akan bertemu pada titik kerusakan etika/moralitas kita. Saya haqqul yaqin pula akan kebenaran firman Allah bahwa kerusakan bumi itu sebagai akibat ulah manusia. Kini, sudah diakui bahwa di samping sedang terjadi perubahan iklim, juga kelalaian kita yang menyebabkan longsor dan sejenisnya. Kalau setuju, berarti solusinya mudah, setidaknya untuk diucapkan, yaitu benahi moralitas kita. Kita dibolehkan mengeksploitasi bumi demi kemakmuran masyarakat (bukan segelintir orang), namun dengan batasan kita tidak boleh membuat kerusakan bumi. Kita disuruh berbuat baik untuk manusia, bukan mencelakan manusia demi egoisme pribadi/golongan.

Di dalam Alquran banyak sekali peringatan dan ancaman yang akan terjadi ketika melakukan perusakan daratan atau lautan (fasad fil ardh). Pada saat kita membuat keseimbangan antara eksploitasi demi kemakmuran rakyat dengan menjaga bumi atau tidak berbuat kerusakan di atas bumi, di sinilah tugas ilmuwan untuk menjadikan pengetahuan sebagai prosedur operasional. Tugas penguasa (semua lembaga) untuk menetapkan kebijakan publik, menjaga, dan mengawasinya, serta memutuskan hukuman yang prokesejahteraan rakyat dan pelestarian bumi. Tugas penguasa untuk melakukan pengendalian dan pengawasan agar tidak terjadi kezaliman, entah karena salah prosedur, salah implementasi, atau lainnya. Di sini,tugas pengawas untuk menjaga keseimbangan tersebut.

Di sini pula tugas masyarakat menjaga lingkungan demi keberlanjutan kehidupan anak cucu, yaitu bila diperlukan harus diberi pendidikan sekaligus disediakan sanksi dan yang tegas dan adil jika terjadi pelanggaran. Nah, jika terjadi kelacuran ilmuwan, di situlah hilangnya etika. Jika terjadi main mata antara pengawas dengan perusak, di situlah terjadi dekadensi moral. Jika terjadi keserakahan, di situlah pelanggaran agama dan etika. Begitu seterusnya. Di ujung 2007 ini kita disuguhi beberapa peristiwa yang tidak menyenangkan terkait dengan pelaksanaan pemilihan kepala daerah (pilkada) di beberapa daerah.

Bentrok antarpendukung dan sejenisnya. Yang paling meracuni sebenarnya masalah politik uang. Money politics yang tidak ada dalam kamus negara maju sebenarnya merupakan virus jangka panjang bangsa kita, virus yang mematikan dan lebih berbahaya dari segala macam virus. Pada 2008 yang sudah di depan mata kita ini, semoga kita sadar betul dengan peringatan atau bahkan azab Tuhan kepada kita. Caranya, kembali menjaga nilai-nilai etika dan ajaran-ajaran agama kita untuk keamanan, ketenteraman, dan kesejahteraan masyarakat. Kalau ini sudah kita sepakati, maka akan dengan mudah mencari solusi beberapa permasalahan yang terjadi di tahun 2007 untuk tidak terulang pada 2008. Akan tetapi, jika kita masih munafik (dari lembaga apa saja), tunggu kehancuran lebih parah pada 2008 nanti.

Demokrasi Tanpa Moral Sama dengan Kehancuran
Saya yakin, subjudul di atas akan terjadi sungguhan. Definisi terkenal tentang demokrasi dari Abraham Lincoln adalah government of the people, by the people, for the people (pemerintahan rakyat, oleh rakyat, dan untuk rakyat). Jangan sampai dilupakan kata-kata “untuk” rakyat. Jika berbicara untuk rakyat, berarti rakyat mendapatkan kemanfaatan dari sebuah sistem yang disebut demokrasi, yaitu kesejahteraan rakyat. Demokrasi tidak bisa dipisahkan dengan kesejahteraan rakyat. Bahkan mengenai sistemnya, apakah langsung, tidak langsung, atau lewat perwakilan telah terjadi pelbagai model dalam sejarah dan referensi ilmu politik. Namun, tentang hasil akhirnya tidak dapat diperdebatkan, yaitu kesejahteraan rakyat. Sekali menyebut demokrasi, haruslah orientasi pada kesejahteraan rakyat.

Wakil rakyat, elite rakyat, pengabdi rakyat, adalah bagian dari rakyat. Artinya, kalau sistemnya bisa dengan berbagai model, termasuk perwakilan, namun tujuan dan hasil akhir tidak bisa diwakilkan untuk kesejahteraan wakilnya, elitenya, atau pemukanya. Sama sekali tidak. Maka demokrasi tidak sekadar perebutan kekuasaan untuk egoisme. Namun, merupakan perebutan kekuasaan dengan sistem yang akuntabel, jujur, dan berintegritas demi kesejahteraan rakyat tadi. Ketika Alexis de Tocqueville menulis buku yang sangat populer, Democracy in America, dia memasukkan semangat membantu orang lain merupakan perwujudan demokrasi. Wajar jika Tocqueville juga dinobatkan sebagai bapak voluntarisme.

Lalu, mengapa moral? Moral, moralitas, etika dan akhlak di sini saya maksudkan sama; tidak mendefinisikannya secara spesifik,yaitu mengarah pada perilaku baik(bermoral) dan buruk atau jahat (tidak bermoral). Nilai-nilai baik yang tercakup dalam pengertian moral dari perilaku pribadi, tanggung jawab, kejujuran, ketulusan, dan berorientasi pada kemanfaatan kepada umat manusia. Ketika perilaku atau perbuatan, termasuk kebijakan publik, tidak mengarah pada kemaslahatan umum, berarti tidak bermoral. Bila keputusan diambil demi kepentingan pribadi, berarti egois dan tidak bermoral. Kalau kita sudah bekerja, tetapi masih menggerogoti uang orang lain, berarti tidak bermoral. Menipu rakyat juga berarti tidak bermoral.

Melanggar atau merampas hak orang lain berarti tidak bermoral. Mengintervensi wilayah orang atau lembaga lain dengan tujuan kepentingan pribadi atau golongan berarti tidak bermoral. Ketika berbuat sesuatu atau mengambil keputusan besar dan tidak mau bertanggung jawab, berarti tidak bermoral. Ketika mempunyai atau menerima amanat, namun tidak menjalankan dengan adil, jujur dan tanggung jawab, berarti tidak bermoral. Mengutak-atik aturan demi kepentingan pribadi atau golongan berarti melakukan siasat, trik, hilah, juga tidak bermoral.

Lalu, bagaimana dengan pelanggaran moral dan pelanggaran hukum? Seseorang melanggar moral belum tentu bisa dianggap melanggar hukum.Namun, kita perlu ingat kata-kata Thomas Aquinas, ”law without moral, no law at all” (hukum tanpa nilai-nilai moral bukanlah hukum yang sebenarnya). Sangat mungkin kita bisa mengelabui jeratan hukum, namun belum tentu bisa mengelabui jeratan moral. Terlebih moral agama harus yakin benar akan adanya penilaian (hisab) di akhirat kelak yang sama sekali tidak bisa dikelabui secara formalitas administratif.

Apa kaitannya antara moral dan politik? Politik tanpa moral akan membuat kehidupan menjadi hutan rimba. Yang kuat memakan yang lemah. Tidak ada konsep membantu, menolong, atau sejenisnya. Jelaslah hasilnya akan berupa kehancuran. Segala jenis tindakan atau perilaku yang akan mengakibatkan gagalnya tujuan demokrasi berupa kesejahteraan rakyat adalah tindakan melawan hukum, setidaknya tindakan tidak bermoral. Money politics, pemberian uang kepada pemilih agar mereka memilih seseorang dalam jabatan politik bukan hanya tidak bermoral, namun sudah sampai pada pelanggaran hukum. Ketika demokrasi kita masih dinodai money politics, saya yakin demokrasi kita belum akan mencapai hasil, yaitu kesejahteraan rakyat. Money politics akan membikin korban secara karambol, nyodok satu sama lain dan berakhir pada kegagalan tujuan demokrasi itu sendiri.

Di negara sekuler, money polics itu tidak ada dalam kamus; dan ketika ada praktik, habislah kandidat yang menggunakan money politics itu. Selama para wakil rakyat atau pejabat masih meminta fee kepada rakyat dalam menjalankan tugasnya, seperti dalam pelayanan publik, selama itu pula demokrasi di Indonesia 2008 akan suram. Menurut hemat saya, selama ini problem utama kita adalah moralitas ini.Jika dalam tahun 2008 kita mampu dan tentu ada kesanggupan membenahinya, saya yakin demokrasi dan kehidupan politik kita akan menghasilkan kesejahteraan rakyat yang semakin nyata. Lalu, solusinya apa? Hanya satu kata: kemauan. Ilmu pengetahuan sudah cukup.

Perangkat hukum sudah bisa dibilang cukup. Aturan main sudah cukup. Kritik sudah cukup. Tinggal mau atau tidak. Itu saja. Kemauan ini harus didasari ketulusan, kejujuran, integritas, dan tanggung jawab.

Demokrasi versus Civil Society
Menarik untuk kita kaji pelajaran dari Eropa Timur di akhir 1980-an yang merasa baru merdeka dari jajahan elite bangsanya sendiri. Mereka lebih senang menggunakan istilah civil society atau masyarakat madani daripada menggunakan demokrasi. Alasannya, mereka sudah jenuh dengan istilah demokrasi yang dalam praktiknya tetap sering melahirkan keputusan dan kebijakan yang incivil (tidak beradab) — atau meminjam istilah John Hall, democracy can be decidedly incivil.

Ini perlu menjadi inspirasi kita ketika demokrasi yang kita usung sejak reformasi banyak terjebak dalam kendala untuk mewujudkan kesejahteraan rakyat. Ketika demokrasi kita harus dengan money politics, ketika demokrasi kita hanya berorientasi pada elite, ketika demokrasi kita lebih pada formalitas mayoritas versus minoritas tujuan kemaslahatan umum, ketika dalam demokrasi kita terjadi pemerasan dan pemalakan, maka demokrasi sudah dinodai dengan nilai-nilai yang sama sekali tidak bermoral dan dapat dipastikan akan kegagalannya.

Mungkin ketika kita menyebut demokrasi tidak secara otomatis terbayang kesejahteraan rakyat, sehingga masyarakat Eropa Timur lebih suka menggunakan istilah civil society tadi. Dengan civil society, secara otomatis akan terbayang kesejahteraan rakyat, karena dalam civil society harus ada unsur saling membantu, termasuk dalam hal bagaimana bisnis juga memberi kemanfaatan kepada rakyat (untuk lebih lengkap, lihat Azizy, Melawan Globalisasi, 125-182).

Optimisme 2008
Perjalanan tahun 2008 harus kita hadapi dengan optimisme (hope, expectation) untuk membangun kehidupan berbangsa dan bernegara yang lebih baik dari tahun sebelumnya. Modalnya hanya satu, yaitu kemauan yang dilandasi niat dari lubuk hati terdalam yang biasa disebut dengan moral. Jika sudah ada kemauan, di sana ada jalan. Jalan untuk mewujudkan masyarakat yang adil dan sejahtera dalam negara kesatuan republik Indonesia.

Ini satu-satunya modal kita untuk menghadapi tahun 2009 yang akan ada pemilu dan pemilihan presiden. Dengan demikian, insya Allah peristiwa seperti yang terjadi di Pakistan barubaru ini tidak akan terjadi di Indonesia. Dalam waktu bersamaan, ketika sudah menyadari akan kesalahan atau kelengahan kita selama ini, kita bertobat dan mewujudkan kemauan untuk memperbaiki diri. Dengan begitu, dijamin sudah hampir dipastikan keberhasilannya.

PROF A QODRI AZIZY PHD *
* Penulis buku Melawan Globalisasi: Reinterpretasi Ajaran Islam (Persiapan SDM dan Terciptanya Masyarakat Madani).

Business Continuity Management

Business Continuity Management

Be prepared, and have a Business Continuity plan
New Government legislation called the Civil Contingencies Act 2004, has given Local

Authorities the duty to provide businesses and voluntary organisations with advice on Business Continuity Management. This duty aims to ensure our local businesses are able to quickly recover from disruptions. A resilient business community creates a resilient County.

What is Business Continuity?
Business Continuity is a management process that provides a framework to ensure the resilience of your business to any eventuality, to help ensure continuity of service to your key customers and the protection of your brand and reputation. It provides a basis for planning to ensure your long-term survivability following a disruptive event. Business Continuity Plans need to be clear, concise and tailored to the needs of the business. Unplanned events can have catastrophic effects and the disruptive incidents can come from accidents, criminal activity or natural disasters.

Business Continuity should become part of the way you perform business. It is better to plan for incidents, which may affect your business, rather than having to "catch up" when a problem occurs.

Business Continuity needs to be considered by small companies as well as larger corporations. If you are a smaller business, not all of this leaflet will apply. However, the key principles are the same for multi-nationals and small traders. There are five steps to the Business Continuity Management process. See below for more information.

Step 1 - Understand the vulnerabilities of your business
What are the key activities of your business?
What are the activities in your organisation that, if they were to be stopped for any reason, would cause the greatest impact upon your business?
Impacts may be on cash flow, reputation, and meeting legal and statutory requirements.

How are these activities delivered by your organisation? What processes are in place and what resources are used to support them? Resources may be:
• People
• Plant and Machinery
• Premises and Furniture
• Computing and Telecommunications
• Data and Information
• Suppliers and Distributors

Some key questions to ask are:
• Who in the organisation is essential?
• What equipment, IT, telecoms and other systems, does the organisation need to be able to function appropriately?
• Who does the organisation depend on to carry out key activities?
• Who depends on the organisation?
• Are there any service level agreements, legal or regulatory obligations on the organisation?
• Do disaster recovery, business continuity and emergency plans already exist and do they cover the key activities?
• Are there any natural fluctuations of operational activity e.g. Month-end for payroll, or end of year for accounts?

How long can your business manage without key activities?
It may be that the impact would be felt immediately, after several days or it could escalate over time. Understanding the time it would take for the organisation to feel the pain from the impact is important as this will dictate what you need to concentrate on first.

Consider for each of your Departments
How essential is the department's work to the overall performance of the business on a day-to-day basis?

Risks
Having identified the resources needed to deliver your key activities it is important to consider the likelihood that these resources would be lost, i.e. what are the risks to these resources?

Always try to consider the worst-case scenario when carrying out your risk assessment. This will mean that less serious incidents will be easier to manage. To identify risk you must look at the vulnerable resources of your business, as well as considering some of the more generic "what if?" scenarios.

For example - "What if the power failed?" "What if a virus wiped out our IT system?" Look for single points of failure in your organisation.

The essential part of a Risk Assessment is that you ask two simple questions for each risk that you identify:

1. How likely is it to happen?
2. What factors can reduce the likelihood or effect or mitigate the risk entirely?

Step 2 - Define your business continuity strategy
Once your key activities and resources have been identified together with the associated risks, it is now important to determine how you will manage these risks.
The following lists of strategies are those that are more commonly applied:
• Accept the risks and change nothing
• Attempt to reduce the risks
• Attempt to reduce the risks and make plans to restore key activities as soon as possible
• Cease the activity altogether

All of these approaches will need a detailed plan outlining the arrangements for the incident.
You should also consider how quickly recovery would need to take place for the strategic areas of your business or various departments.
It may be useful to draw a chart of the timescales involved in re-establishing certain functions.
One essential decision is how you respond to risks that cannot be reduced.

Step 3 - Develop your plan
Your business continuity plan should contain the key areas as listed below. This is not an exhaustive list and you may find other key pieces of information that may be required as part of your strategy.

Roles and responsibilities
• Identify who needs to take responsibility for each action, including deputies to cover key roles.
• Identify a Recovery Team and a coordinator.

Incident checklists for key staff
• Use checklists that readers can easily follow.

Initial stage
• Include clear, direct instructions or a checklist for the crucial first hour following an incident.

Following stages
• Include a checklist of things that can wait until after the first hour.

Document review
• Agree how often, when & how you will check your plan to make sure it is current.
• Update your plan to reflect changes in your organisation and in the risks you might face.

Remember, always plan for worst-case scenarios.
If your plan covers how to get back in business if a flood destroys your building, it will also work if only one floor is flooded.

Information from outside your business
Consider getting specialist information on the roles of other organisations that may be involved in the emergency such as:
• Landlord
If you rent your business space, find out what plans and assistance your landlord or management company may be able to provide

• Neighbouring businesses
What are the activities carried out by your neighbours?
Could an incident at their site impact on your operations?

• Utility companies
Telephone, electricity, water, gas.
Find out what they will need to know and what their emergency supply procedures and targets are.

• Your insurance company
What information do they need from you?
Do you need their permission to replace damaged critical equipment immediately?
Will the existence of a Plan reduce your premiums?
They may also be able to give you advice.

• Suppliers and customers
How will you contact them to tell them you have been affected by an incident, and what their critical timescales are?
They will be affected by your decisions, so involve them if you can and they may be reassured by your planning process.
Do critical suppliers have business continuity plans in place to ensure they can supply you if they are disrupted for any reason?

• Emergency Planning Officer
Find out what your local authority would do in response to a major incident.

• Emergency services
What information will the emergency services require from you.
How can you help them by ensuring access routes, and providing information (key holders etc)?

Points to remember
• Make your plan usable
• Do not include information that will be irrelevant or can be accessed in other places.
• Use existing organizational roles and responsibilities and build on them in the plan.
• Specify the escalation of the plan.
• Who decides when to invoke the special arrangements and who manages the process?
• How will the stand-down process be managed?

Step 4 - Cultural Change
It is essential to have the active support of the senior team in your organisation. It is possible that during your planning you will have the opportunity to convince your staff of the importance of Business Continuity Management and promote the concept internally and externally.

With this approach Business Continuity becomes the normal process of day-to-day activity.

Business Continuity must be included in the preparation of new contracts, partnerships and business processes.

It is every manager's responsibility to ensure Business Continuity is an integral part of their normal business activity.

Step 5 - Rehearse your plan
Testing and rehearsing your plan is one of the fundamental parts of contingency planning. It gives you an opportunity to test the arrangements and principles of the plan in a "safe" environment, without risk to the business. There are various levels of rehearsal or evaluation that can be used. They will obviously vary with cost and value, however, a planning lifecycle should allow for periodic tests of different types.

Table Top exercise
Test your plan using a 'what if?' written scenario.
New pieces of information can be added as the scenario unfolds, in the same way that more details would become clear in a real incident.

Communications Test
With or without warning, a test message is sent out to everyone at the top of the call cascade lists in the plan(s).
An audit can then determine how well the information was communicated through your organisation.

Full rehearsal
A full rehearsal will show you how well different elements in your plan work together, which may not have become clear when you tested the individual parts.
However, this can be an expensive way to test your plan.
What have you got to lose?

If you do not have a Business Continuity Plan, you may be at risk of
• losing work to competitors,
• being exposed to failures in your supply chain,
• suffering loss of reputation and
• higher insurance premiums.

Business Continuity affects everyone
• customers,
• staff,
• the community,
• the economy.

www.businesscontinuity.com

Persaingan Bisnis Ritel

INNChannels, Jakarta - Persaingan bisnis retail besar akan makin keras seiring penguasaan 75% saham PT Alfa Retailindo Tbk oleh PT Carrefour Indonesia. Sejumlah praktisi menilai potensi penguasaan pasar industri retail oleh pebisnis asing akan semakin gampang. Sebab untuk menaikkan pendapatan, Carrefour cukup memanfaatkan pangsa pasar dari supermarket milik Alfa, sehingga porsi investasi di gerai baru relatif minim.

Ketua Umum Gabungan Pengusaha Makanan dan Minuman Indonesia (GAPMMI) Thomas Darmawan mengatakan pemerintah perlu mempertegas aturan main industri retail setelah proses pengambilalihan kepemilikan saham pebisnis retail besar nasional itu.

'Perlu diteliti lebih jauh apakah penguasaan saham Alfa oleh Carrefour tidak melanggar aturan main. Itu merupakan domain di lembaga semacam Bapepam atau Departemen Keuangan,' kata Thomas saat dihubungi INNChannels, Minggu (23/12).

Hal senada diungkapkan Ketua Umum Asosiasi Pengusaha Ritel Indonesia (Aprindo)Handaka Santosa. Ia menyebutkan Carrefour akan semakin gencar berekspansi ke pasar retail di Tanah Air.

'Saya tidak melihat adanya ancaman monopoli setelah masuknya Carrefour. Toh selama ini gerai retail mereka memang sudah menguasai sebagian besar pasar di Indonesia. Tapi memang pengambilalihan saham Alfa Retailindo akan memudahkan ekspansi Carrefour serta meningkatkan market share retail asal Prancis tersebut,' jelas Handaka.

Terkait persaingan yang semakin ketat, Handaka mengatakan sebaliknya, yakni pengambilalihan saham itu tidak akan mengubah peta. 'Peta persaingan tidak akan berubah kecuali, jika Carrefour membuka 20 gerai supermarket di Jakarta. Itu tentu akan mengubah wajah persaingan di industri retail,' ungkapnya.

Menurutnya, pengambilalihan saham Alfa oleh Carrefour tidak lebih dari sekadar strategi bisnis. Dengan menguasai saham Alfa, Carrefour tidak perlu repot membuka outlet baru, karena cukup memanfaatkan jaringan yang sudah dimiliki Alfa. 'Alfa sendiri mendapat keuntungan dari penjualan sahamnya,' kata Handaka.

Handaka menegaskan, potensi persaingan usaha tidak sehat di industri retail pasca masuknya Carrefour ke Alfa mustahil terjadi. Pasalnya, dari sisi income Carrefour sudah jauh melampaui perolehan Alfa.

'Saat ini penghasilan Carrefour per tahun mencapai kisaran Rp7 triliun hingga Rp9 triliun. Sedangkan Alfa Supermarket sendiri hanya mampu mencetak Rp2 triliun per tahun. Itu tidak mungkin terkejar,' tegasnya.

'Memang persaingan akan lebih ketat. Tapi kita tidak perlu takut. Bagi Alfa, mereka sudah bisa menikmati hasil penjualan sahamnya dan mungkin mereka bisa berinvestasi lagi di retail atau jalur lainnya,' ujar Handaka.

Thomas menyebutkan praktisi industri tidak mempersoalkan pengalihan kepemilikan perusahaan retail. Industrialis hanya berkepentingan terhadap pebisnis retail baik kecil maupun besar sebagai ujung tombak pemasaran produknya.

'Kami hanya mempersoalkan penerapan kebijakan manajemen Carrefour terkait listing fee untuk meningkatkan porsi pendapatan perusahaan. Padahal mekanisme itu sangat memberatkan kalangan produsen,' kata Thomas.

Total pembelian saham Alfa oleh Carrefour maksimum Rp680 miliar pada level harga di bawah Rp1.950 per lembar saham. Mengacu harga penutupan penjualan saham Alfa di angka Rp2.175, berarti Carrefour memperoleh diskon harga maksimum pembelian Alfa sebesar 10,34%.

Sesuai hasil survei majalah Retail Asia, pebisnis retail yang masuk ke pasar Indonesia sejak 1998 dengan format hipermarket itu menduduki peringkat teratas toko modern di nusantara dengan total penjualan Rp7,2 triliun pada 2006.

Sedangkan Alfa, telah merintis usaha di sektor retail sejak 1989. Perusahaan tersebut pernah menjalankan usaha hipermarket (Alfa Gudang Rabat) dan Alfa Supermarket. Belakangan Alfa menutup lima gerai Alfa Gudang Rabat yang sudah dirintis sejak 1996. Salah satu alasan penutupan outlet itu akibat babak belur setelah bersaing dengan Carrefour.

Selain Carrefour, pebisnis retail besar lainnya yang juga bernafsu membeli saham Alfa adalah PT Ramayana Lestari Sentosa Tbk. Malah perusahaan itu sudah mencapai kesepakatan awal untuk mengakuisisi 55% saham atau 257,5 juta lembar saham Alfa milik PT Sigmantara Alfindo di level harga Rp 1.600 per saham atau senilai Rp411,85 miliar.

Manajemen Ramayana terpaksa mengubur hasratnya. Padahal harga saham Ramayana sempat meroket saat rencana akuisisi itu diutarakan ke publik. Selain Sigmantara, pemegang saham terbesar kedua Alfa adalah Prime Horizon (investor asal Singapura) sebesar 40% dan sisanya dimiliki publik. [P1]