yang membahas tentang hadoop, namun pembahasan yang ditemukan masih terpotong-
potong.
Sebagai contoh ada artikel yang hanya membahas pengertian hadoop saja, manfaat hadoop
saja, sejarah hadoop saja, cara kerja hadoop saja, cara install hadoop saja, dan sebagainya.
Melalui artikel ini saya mencoba menyajikan dalam satu kali bahasan tentang apa itu hadoop,
artikel ini saya tujukan untuk rekans yang antusias belajar terkait hadoop dan menginginkan
kemudahan dalam proses belajar tentang hadoop.
Saya sempat berfikir... apakah dengan saya gabungkan menjadi satu artikel, malahan akan
membosankan untuk rekans yang membacanya? karena artikel yang terlalu panjang.
Namun setelah saya melihat ke dalam diri saya, yang merasa kurang nyaman dengan bahasan
yang terpotong-potong ketika proses belajar tentang Hadoop. Saya merasa akan sangat
membantu jika ada yang bisa memberikan bahasan tersebut dalam satu artikel saja, namun
dengan bahasa yang ringkas.
Atas dasar itulah saya coba buat artikel ini, sehingga rekans yang sama-sama belajar seperti
saya mendapatkan kemudahan untuk memahami konsep dasar apa itu hadoop.
Bagaimana dengan rekans? jika merasa sama dengan yang saya rasakan dapat melanjutkan
membacanya sampai akhir.
Hadoop Adalah
1. Pengertian Hadoop
Hadoop adalah framework open source berbasis Java di bawah lisensi Apache untuk
mensupport aplikasi yang jalan pada Big Data. Hadoop berjalan pada lingkungan yang
menyediakan storage dan komputasi secara terdistribusi ke kluster-kluster dari
komputer/node.
Dalam pendekatan ini, suatu perusahaan akan memiliki komputer skala enterprise (High-End
Hardware) untuk menyimpan dan mengolah data besar. Data besar tersebut akan disimpan
dalam RDBMS skala enterprise seperti Oracle Database, MS SQL Server atau DB2.
Dibutuhkan software canggih untuk dapat menulis, mengakses dan mengolah data besar
tersebut dalam rangka kebutuhan analisis.
Pendekatan Tradisional
Limitasi Pendekatan Tradisional :
Kesulitan menggolah data berukuran sangat besar (Big Data), misal 1 file berukut 500
GB, 1 TB, dst.
Kelebihan Solusi Hadoop dengan didukung oleh dua komponen utama tersebut:
Sangat baik untuk mengolah data berukuran besar, bahkan untuk ukuran 1 TB
sekalipun
Lebih bervariasi data yang bisa disimpan dan diolah dalam bentuk HDFS
Namun dengan kelebihan tersebut bukan berarti tanpa kekurangan, berikut ini limitasi-nya.
Tidak cocok untuk OLTP (Online Transaction Processing), di mana data dapat diakses
secara randon ke Relational Database
Proses update tidak bisa untuk dilakukan (seperti pada hadoop 2.2), namun untuk
Append bisa dilakukan
Berdasarkan beberapa limitasi tersebut dapat disimpulkan bahwa Hadoop adalah sebagai
Solusi Big Data untuk pengolahan data besar, menjadi pelengkap OLTP, OLAP, dan DSS,
jadi hadoop bukan untuk menggantikan RDBMS. Saya rasa untuk saat ini, namun bisa jadi
suatu saat hadoop bisa lepas dari limitasi tersebut
4. Hadoop Common adalah berisi libraries dan utilities yang dibutuhkan oleh modul
Hadoop lainnya.
Semenjak tahun 2008 framework hadoop bukan hanya empat modul utama tersebut namun
merupakan kumpulan modul open source seperti Hive, Pig, Oozie, Zookeeper, Flume Sqoop,
Mahout, Hbase, Ambari, Spark, dsb.
Sekelompok modul dalam arsitektur hadoop kadang di sebut juga sebagai Ekosistem
Hadoop.
Sebuah kluster HDFS terdiri dari NameNode, yang mengelola metadata dari kluster, dan
DataNode yang menyimpan data/file. File dan direktori diwakili pada NameNode oleh inode.
Inode menyimpan atribut seperti permission, modifikasi dan waktu akses, atau kuota
namespace dan diskspace.
Isi file dibagi menjadi blok-blok file( biasanya 128 MB), dan setiap blok file tersebut
direplikasi di beberapa DataNodes. Blok file disimpan pada sistem file lokal dari DataNode.
Namenode aktif memonitor jumlah salinan/replika blok file. Ketika ada salinan blok file yang
hilang karena kerusakan pada DataNode, NameNode akan mereplikasi kembali blok file
tersebut ke datanode lainnya yang berjalan baik. NameNode mengelola struktur namespace
dan memetakan blok file pada datanode.
MapReduce bertugas membagi data yang besar ke dalam potongan lebih kecil dan mengatur
mereka kedalam bentuk tupel untuk pemrosesan paralel. Tupel adalah kombinasi antara key
dan value-nya, dapat disimbolkan dengan notasi : "(k1, v1)". Dengan pemrosesan bersifat
paralel tersebut, tentunya akan meningkatkan kecepatan dan keandalan komputasi pada
sistem klustering.
MapReduce terdiri atas tiga tahap, yaitu tahap map, shuffle, dan terakhir reduce. Shuffle dan
reduce digabungkan kedalam satu tahap saja yaitu tahap reduce.
1. Map berfungsi memproses data inputan yang umumnya berupa file yang tersimpan dalan
HDFS (dapat di baca di Sistem file terdistribusi), inputan tersebut kemudian diubah menjadi
tuple yaitu pasangan antara key dan value-nya.
2. Tahap reduce, memproses data inputan dari hasil proses map, yang kemudian dilakukan
tahap shuffle dan reduce yang hasil data set baru-nya disimpan di HDFS kembali.
Dengan melihat vendor-vendor besar seperti IBM, Microsoft, Amazon yang ikut bermain di
dalam menyediakan solusi Big data dengan Hadoop, dapat kita simpulkan bahwa solusi big
data dengan hadoop bisa jadi hal yang sangat menjanjikan di masa yang akan datang.
Berikut ini Top 10 Vendor yang menyediakan solusi Big Data dengan hadoop, yang
dipaparkan oleh "Bernard Marr" pada artikel di situsnya.
1. IBM
2. Cloudera
4. Hortonworks
5. MapR
6. Microsoft HDInsight
10. Pivotal HD
Cara setup lab termudah adalah dengan menggunakan paket virtual yang biasanya sudah
disiapkan oleh sebagian besar vendor hadoop, untuk contoh setup hadoop kali ini, saya
gunakan adalah versi free dari Hortonworks.
Untuk cara-cara instalasinya sangat mudah, dapat dilakukan bahkan oleh orang awam
sekalipun. Yaitu cukup dijalankan file installer hasil download tersebut, dan cukup lanjutkan
sampai proses instalasi selesai.
2. Download dan load SandBox dari Hortonworks yang sudah termasuk hadoop di dalamnya.
Dapat didownload di Situs Hostonworks berikut.
Demikian artikel ini saya tulis, semoga dapat memudahkan pemahaman rekans tentang apa
itu hadoop.