Anda di halaman 1dari 21

This is your presentation

title
Kelompok 3 :
1. Safaat Anugrah P 2004411615


2. Ikhwan Halim 191106041461
3. Muhammad Rifki 191106041400
4. Damara Tri F 191106041432
5. Muhammad Adjie M 191106041401

2
PENGINSTALAN DAN
INPLEMENTASI
HADOOP

3
A. Langkah-langka Penginstalan
HADOOP
1. Download java melalui link berikut:

https://www.oracle.com/java/technologies/javase/javase-jdk8-downloads.html
setelah itu install java di laptop
2. Download hadoop versi 3.1.0 melalui link berikut:

https://mirrors.huaweicloud.com/apache/hadoop/core/hadoop-3.1.0/
extract file hadoop yang sudah di download lalu pindahkan ke direktori C:\
3. Jalankan system environment dengan cara mengetik environment di kotak pencarian
yang ada di taksbar laptop, lalu klik pada environment variabeles

4
4. Klik new dan buat variabel baru dengan nama HADOOP_HOME dan tempel jalur file
bin hadoop dalam nilai variabel
5. Klik dan buat variabel baru yang di sebut JAVA_HOME dan tempel jalur file java
bin dalam nilai variabel


6
6. Klik pada path dan klik edit lalu klik new untuk menambahkan jalur
untuk java bin dan hadoop bin dan klik ok setelah menambahkan jalur
filnya.

7
7. Selanjutnya melakukan konfigurasi dengan cara membuka
etc di direktori Hadoop

8
8. Buka core-site.xml di direktori Hadoop menggunakan teks editor dan
tempel perintah di bawah ini ke dalam konfigurasi
<konfigurasi>
<properti>
<nama>fs.defaultFS</name>
<nilai>hdfs://localhost:9000</nilai>
</properti>
</konfigurasi>

9. Buka file mapred-site.xml dengan teks editor dan tempel perintah ini
kedalam konfigurasi

<konfigurasi>
<properti>
<nama>mapreduce.framework.name</nama>
<nilai>benang</nilai>
</properti>
</konfigurasi>

9
10. Buat folder bernama “data” di direktori Haddop

10
11. Buat dua folder yang diberi nama “datanode” dan
“namanode” didalam folder data

11
12. Buka hdfs-site.xml menggunakan teks editor dan tempel code ini kedalam
file konfigurasi. (NOTE: jalur namenode dan datanode akan menjadi jalur
datanode dan namenode yang baru saja anda buat)

<konfigurasi>
<properti>
<nama>dfs.replication</name>
<nilai>1</nilai>
</properti>
<properti>
<nama>dfs.namenode.name.dir</name>
<nilai>E:\hadoop-3.1.0\data\namenode</value>
</properti>
<properti>
<nama>dfs.datanode.data.dir</name>
<nilai>E:\hadoop-3.1.0\data\datanode</value>
</properti>
</konfigurasi>

12
13. Buka yarn-site.xml dan ubah konfigurasinya dengan code perintah
berikut

<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.nodemanager.auxservices.mapreduce.shuff
le.class</name>
<value>org.apache.hadoop.mapred.ShuffleHandler</
value>
</property></configuration>

13
14. Buka Hadoop-env.cmd di direktori Hadoop
menggunakan teks editor dan atur jalur JAVA_HOME

14
15. Unduh folder bin dari :  
https://github.com/s911415/apache-hadoop-3.1.0-winutils
lalu ganti folder bin ini dengan yang saat ini di direktori hadoop
16. Melakukan verifikasi apakah haddop diinstal dengan menjalankan perintah
“hadoop version” di CMD
17. Format namenode dengan mengetikkan perintah “hdfs namenode –format”
di CMD
18. Ubah direktori ke folder sbin dengan mengetikkan perintah “cd C:\hadoop-
3.1.0\hadoop-3.1.0\sbin” di CMD
19. Mulai datanode dan namenode dengan mengetikkan perintah “start-dfs.cmd”
di CMD dan dua jendela CMD terpisah akan terbuka untuk namenode dan
datanode
20. Mulai yarn dengan mengetikkan perintah “start-yarn.cmd” di CMD dan dua
jendela CMD terpisah akan muncul untuk yarn resource manager dan yarn
node manager

15
21. Mulai Hadoop di browser
ketik “localhost:9870” pada browser untuk informasi
namenode

first second last

16
Ketik “localhost:8042” di browser untuk mengecek informasi
nodemanager

20%

40%

60%

80%

100%

17
B. IMPLEMENTASI HADOOP WORDCOUN
MAPREDUCE
1. Buat file dengan ekstensi "txt" lalu simpan ke direktori C:/

2. Unduh MapReduce Client.jar melalui link ini:


https://github.com/MuhammadBilalYar/HADOOP-INSTALLATION-ON-
WINDOW-10/blob/master/MapReduceClient.jar

3. Buka cmd dalam mode Administratif dan pindah ke "C:\hadoop-3.1.0\


hadoop-3.1.0\sbin" dan mulai kluster dengan mengetik Start-all.cmd

18
4000

3. Buat direktori
3000 input di HDFS dengan mengetikkan “hadoop fs -mkdir
/input_dir” di CMD
2000
4. Salin file teks input bernama input_file.txt di direktori input (input_dir)
HDFS dengan mengetikkan “hadoop fs –put C:/file.txt /input_dir” di CMD
1000
5. Pastikan file.txt tersedia di direktori input HDFS (input_dir) dengan
mengetikkan “hadoop fs –ls /input_dir/” di CMD
0

6. Verifikasi konten file yang disalin dengan mengetikkan “hadoop dfs –cat
/inpit_dir/file.txt

19
7. Jalankan MapReduceClient.jar dan juga menyediakan direktori input dan
output dengan mengetikkan perintah di cmd
hadoop jar C:/MapReduceClient.jar wordcount /input_dir /output_dir

20
8. Verivikasi konten untuk output yang di hasilkan dengan mengetikkan
“hadoop dfs –cat /output_dir/*” di CMD

21

Anda mungkin juga menyukai