(PRAKTIKUM)
PERTEMUAN KE-3
Disusun oleh :
(195410254)
AKAKOM
YOGYAKARTA
2020
HDFS & MapReduce
Jika berhasil maka akan muncul popup window cmd baru namenode dan datanode seperti
dibawah.
Gambar 3 Hasil datanode
Lalu kita akan langsung membuat direktori baru dengan nama bebas, disini saya akan
menamai direktori tersebut dengan nama “hadoopbigdata”. Kitikkan command “hdfs dfs
-mkdir /hadoopbigdata” pada cmd.
Gambar 5 Membuat direktori dengan nama hadoopbigdata
- Pengecekkan direktori
Untuk mengecek apakah direktori berhasil dibuat ketikkan command “hdfs dfs -ls /” pada
cmd.
Untuk mengcopy file ke HDFS ketikkan command “hdfs dfs -put testtexthadoop.txt
/hadoopbigdata” pada cmd.
Lalu lakukan pengecekkan pada apakah file tersebut sudah dicopy dengan command “hdfs
dfs -ls /hadoopbigdata” pada cmd.
Lalu ketikkan command “hdfs dfs -rmdir /hadoopbigdata” pada cmd untuk menghapus
direktori “hadoopbigdata”.
Lalu buat direktori baru pada HDFS dengan nama “utility” dan copykan file yang di
download tadi ke direktori “utility” menggunakan command “hdfs dfs -mkdir /utility/”
pada cmd.
Lalu buat class java baru sebagai Reduce program bernama “UtilityReducer” pada IDE
Eclipse seperti gambar dibawah.
Gambar 21 Membuat class java bernama UtilityReduce
Yang berikutnya buatlah class java dengan nama “UtilityMapper” seperti gambar dibawah
ini.
Lalu tambahkan file jar eksternal dengan cara klik kanan pada project Build Path →
Configure Build Path → Add External Jar.
Gambar 23 Menambahkan file eksternal Jar pada project java
Kemudian masuk ke folder share pada direktori Hadoop, lalu masuk ke folder client,
masukkan semua file yang ada pada folder client.
Kemudian klik kanan pada project → export → java → JAR file. Lalu ceklis semua
resource yang hendak di eksport, lalu klik tombol Next.
Pilih main class java, disini saya menggunakan main class UtiliytBillSummary seperti
dibawah ini.
3. Tugas Halaman 74: Menjelaskan berbagai macam project ASF terkait Big Data. Project yang
akan saya jelaskan pada tugas kali ini adalah Apache Storm dan Apache REEF.
- Apache Storm
Apache Storm adalah sistem komputasi real-time terdistribusi, bersifat open source.
Apache Storm mempermudah proses arus data yang tak terbatas limitnya, selain itu juga dapat
melakukan pemrosesan secara real-time untuk data dalam bentuk batch. Apache Storm juga
sangat kompatibel dengan banyak bahasa pemrograman dan easy to use, kelebihan lainnya
adalah menawarkan pemrosesan data yang cepat, yang mana cocok untuk normalisasi data,
log server, machine learning dan lain-lain
- Apache REEF
Apache REEF menyediakan sebuah kontrol abstraksi terpusat yang dapat digunakan untuk
membuat sebuah data terpisah (decentralized) untuk membantu sistem pada Big Data. s
KESIMPULAN
Pada mata kuliah Praktikum Infrastruktur Big Data dapat ditarik suatu kesimpulan bahwa pada
HDFS terdapat sejumlah command/perintah dasar dalam memanipulasi suati file dan folder
sekaligus melihat direktori yang dibuat. Semua perintah tersebut dilakukan pada Command
Prompt di folder sbin Hadoop. Khusus praktikum kali ini saya melakukan copy file dari local
system ke HDFS dan sebaliknya. Ada juga penghapusan file dan direktori yang telah dibuat.
Untuk MapReduce, berdasarkan sumber/referensi belajar yang diberikan berfungsi untuk
menjumlahkan total nilai yang terdapat pada file log.txt. Tetapi sayangnya disini saya mengalami
sedikit trouble yang mana tidak dapat menampilkan hasil penjumlahan nilai tersebut pada
command prompt.
Terkait tugas halaman 74, disini saya memilih 2 contoh project ASF terkait Big Data yaitu
Apache Storm dan Apache REFF. Masing-masing contoh project ASF tersebut memiliki
keunggulannya, selain itu juga sangat membantu dalam bidang Bid Data.