Anda di halaman 1dari 13

METODE

K-NN
Analisis Kuantitatif (Kelompok B-8)
01
Al Izza Nugraza Wijaya Putra
NIM
10201008

ANGGOTA
02
Aliet Firdaus Marsyah

KELOMPOK
NIM
10201010

03
Arif Fadhillah
NIM
10201016
METODE ALGORITMA K-NEAREST NEIGHBOUR
Algoritma K-Nearest Neighbor (K-NN) adalah sebuah
metode klasifikasi terhadap sekumpulan data berdasarkan
pembelajaran data yang sudah terklasifikasikan sebelumya.
Termasuk dalam supervised learning, dimana hasil query
instance yang baru diklasifikasikan berdasarkan mayoritas
kedekatan jarak dari kategori yang ada dalam K-NN.
KELEBIHAN DAN
KEKURANGAN
METODE K-NN
KELEBIHAN

● Sangat Nonlinear
● Mudah Diimplementasikan
KEKURANGAN
● Harus Menunjukan Parameter K
● Tidak Menangani Missing Value Secara Implisit
● Sensitif Terhadap Data Outlier
● Rentan Terhadap Variabel Non-informatif
● Rentan Terhadap Dimensionalitas yang Tinggi
● Nilai Komputasi yang Tinggi
● Rentan Terhadap Perbedaan Rentang variabel
Cara Kerja Algoritma K-NN
● Menentukan Parameter K (variabel jumlah
tetangga terdekat yang akan diambil untuk
proses klasifikasi)
● Menghitung Kuadrat Jarak Euclidean Objek
Terhadap Data Training yang Diberikan
● Mengurutkan Hasil Dari Kuadrat Jarak
Euclidean Tadi Secara berurutan Dari Nilai
Tinggi ke Rendah
● Mengumpulkan Kategori Y (klasifikasi
nearest neighbour berdasarkan nilai k)
● Memprediksikan Kategori Objek Dengan
Menggunakan Kategori Nearest Neighbour
Mayoritas
Contoh Kasus

Diberikan data Training berupa dua X Y KATEGORI


atribut Bad dan Good untuk
mengklasifikasikan sebuah data 7 6 BAD
apakah tergolong Bad atau Good ,
berikut ini adalah contoh datanya : 6 6 BAD

Kita diberikan data baru yang akan kita 6 5 BAD


klasifikasikan, yaitu X = 3 dan Y = 5.
1 3 GOOD
Jadi termasuk klasifikasi apa data baru
ini ? Bad atau Good ?
2 4 GOOD

2 2 GOOD

3 5 ?
PENYELESAIAN
Langkah 1 Kita tentukan parameter K nya. Disini kita gunakan K = 3

Langkah 2
Hitung jarak antara data baru dengan semua data training. Kita menggunakan
Euclidean Distance. Kita hitung seperti pada table berikut

X Y Euclidean Distance (3.5)

7 6 √((7-3)^2+(6-5)^2 )= √((4)^2+(1)^2 )= √17=4.12

6 6 √((6-3)^2+(6-5)^2 )= √((3)^2+(1)^2 )= √10=3.16

6 5 √((6-3)^2+(5-5)^2 )= √((3)^2+(0)^2 )= √9=3

1 3 √((1-3)^2+(3-5)^2 )= √((-2)^2+(-2)^2 )= √8=2.82

2 4 √((2-3)^2+(4-5)^2 )= √((-1)^2+(-1)^2 )= √2=1.41

2 2 √((2-3)^2+(2-5)^2 )= √((-1)^2+(-3)^2 )= √10=3.16


PENYELESAIAN
Langkah 3
Kemudian kita urutkan jarak dari data baru dengan data training dan
menentukan tetangga terdekat berdasarkan jarak minimum K.

X Y Euclidean Distance Urutan Jarak Apakah Termasuk Dari kolom 4 (urutan jarak)
(3.5) 3-NN kita mengurutkan dari yang
terdekat ke terjauh antara
7 6 4.13 5 Tidak (K>3) jarak data baru dengan data
training. ada 2 jarak yang
sama (yaitu 4) pada data
6 6 3.16 4 Tidak (K>3)
baris 2 dan baris 6, sehingga
memiliki urutan yang sama.
6 5 3 3 Ya (K<3) Pada kolom 5 (Apakah
termasuk 3-NN?)
1 3 2.82 2 Ya (K<3) maksudnya adalah K-NN
menjadi 3-NN , karena nilai
2 4 1.41 1 Ya (K<3) K ditentukan sama dengan 3.

2 2 3.16 4 Tidak (K>3)


PENYELESAIAN
Langkah 4 Tentukan kategori dari tetangga terdekat. Kita perhatikan baris 3, 4, dan 5 pada
gambar sebelumnya (diatas). Kategori Ya diambil jika nilai K<=3. Jadi baris 3, 4, dan 5
termasuk kategori Ya dan sisanya Tidak.
Kategori ya untuk K-NN
X Y Euclidean Urutan Jarak Apakah Kategori Ya pada kolom 6, mencakup
Distance (3.5) Termasuk untuk K-NN baris 3,4, dan 5. Kita
3-NN berikan kategori
berdasarkan tabel awal.
7 6 4.13 5 Tidak (K>3) - baris 3 memiliki kategori
Bad, dan 4,5 memiliki
6 6 3.16 4 Tidak (K>3) - kategori Good.

6 5 3 3 Ya (K=3) BAD

1 3 2.82 2 Ya (K<3) GOOD

2 4 1.41 1 Ya (K<3) GOOD

2 2 3.16 4 Tidak (K>3) -


Langkah Terakhir
X Y KATEGORI

7 6 BAD

6 6 BAD

6 5 BAD

1 3 GOOD

2 4 GOOD

2 2 GOOD

3 5 GOOD

Data yang kita miliki pada baris 3, 4 dan 5 kita punya 2 kategori Good dan 1 kategori Bad. Dari jumlah
mayoritas (Good > Bad) tersebut kita simpulkan bahwa data baru (X=3 dan Y=5) termasuk dalam
kategori Good.
TERIMA
KASIH
Atas Perhatiannya

Anda mungkin juga menyukai