Sebagai nilai awal dipilih learning rate (α) = 0.05, dengan pengurangan α sebesar 0.1
* α, min α 0.01.
Untuk mencegah pada perhitungan jarak euclidean, atribut berskala panjang dapat
mempunyai pengaruh besar daripada atribut berskala pendek. Oleh sebab itu, perlu dilakukan
normalisasi terhadap nilai atribut yakni transformasi nilai menjadi kisaran 0 dan 1. Proses
normalisasi aalah sebagai berikut :
1. Nilai X : 0, 1, 2, 2.3, 2.7, 3, 3.3, 3.7, 4
2. Nilai min X = 0
3. Nilai max X = 4
4. Maka nilai X* (normalilasi) = X-min(X) / max(X)-min(X)
5. Normalisasi 0= 0-0/4-0 0/4=0
6. Begitu seterusnya hingga X=4
Epoch 1
Data ke 1 – W1
= √(0.925 − 0.75)2 + (0.75 − 1)2 + (0.75 − 1)2 + (0.825 − 1)2 + (0.675 − 1)2 + (0.675 − 0.925)2 + (0.675 − 1)2 + (0.75 − 1)2
=0,764035
Data ke 1 – W2
= √(0.925 − 0.75)2 + (0.75 − 0.675)2 + (0.75 − 1)2 + (0.825 − 0.75)2 + (0.675 − 0.925)2 + (0.675 − 075)2
= 0,58843
Jarak terkecil adalah pada W2, target data ke 1 adalah 1. Karena Target data ke-1 tidak
sama dengan W2, maka W2 baru adalah :
𝑊2𝑏𝑎𝑟𝑢 = 𝑊2𝑙𝑎𝑚𝑎 - α (data 1- 𝑊2𝑙𝑎𝑚𝑎 )
= 0.75 - 0.05 (0.925 – 0.75) = 0.74125
= 0.675 - 0.05 (0.75 – 0.675) = 0.67125
= 1 - 0.05 (0.75 – 1) = 1.0125
= 0.75 - 0.05 (0.825 – 0.75) = 0.74625
= 0.925 - 0.05 (0.675 – 0.925) = 0.9375
= 0.75 - 0.05 (0.675 – 0.75) = 0.75375
= 1 - 0.05 (0.675 – 1) = 1.01625
= 0.675 - 0.05 (0.75 – 0.675) = 0.67125
= 0.925 - 0.05 (0.575 – 0.925) = 0.9425
= 0.825 - 0.05 (0.825 – 0.825) = 0.825
𝑊2𝑏𝑎𝑟𝑢 = (0.75125, 0.67125, 1.0125, 0.74625, 0.9375, 0.75375, 1.01625, 0.67125,
0.9425, 0.825)
Data ke 2 – W1
= √(0.825 − 0.75)2 + (0.5 − 1)2 + (0.825 − 1)2 + (0.825 − 1)2 + (0.75 − 1)2 + (0.75 − 0.925)2 + (0.675 − 1)2
= 0.895475
Data ke 2 – W2 𝑊2𝑏𝑎𝑟𝑢
= √(0.825 − 0.75125)2 + (0.5 − 0.67125)2 + (0.825 − 1.0125)2 + (0.825 − 0.74625)2 + (0.75 − 0.9375)2 + (0.75 − 0.75375)2
= 0.529979
Jarak terkecil adalah pada W2, target data ke 2 adalah 1. Karena Target data ke-2 tidak
sama dengan W2, maka W2 baru adalah :
𝑊2𝑏𝑎𝑟𝑢 = 𝑊2𝑙𝑎𝑚𝑎 - α (data 2 - 𝑊2𝑙𝑎𝑚𝑎 )
= 0.75125 - 0.05 (0.825 – 0.75125) = 0.747563
= 0.67125 - 0.05 (0.5 – 0.67125) = 0.679813
= 1.0125 - 0.05 (0.825 – 1.0125) = 1.021875
= 0.74625 - 0.05 (0.825 – 0.74625) = 0.742313
= 0.9375 - 0.05 (0.75 – 0.9375) = 0.946875
= 0.75375 - 0.05 (0.75 – 0.75375) = 0.753938
= 1.01625 - 0.05 (0.675 – 1.01625) = 1.033313
= 0.67125 - 0.05 (0.5 – 0.67125) = 0.679813
= 0.9425- 0.05 (0.825 – 0.9425) = 0.948375
= 0.825 – 0.05 (0.925 – 0.825) = 0.82
𝑊2𝑏𝑎𝑟𝑢 = (0.747563, 0.679813, 1.021875, 0.742313, 0.946875, 0.753938,
1.033313, 0.679813, 0.948375, 0.82)
Data ke 3 – W1
= √(0.675 − 0.75)2 + (0.5 − 1)2 + (0.75 − 1)2 + (0.925 − 1)2 + (0.675 − 1)2 + (0.75 − 0.925)2
= 0.8788194
Data ke 3 – W2 𝑊2𝑏𝑎𝑟𝑢
= √(0.675 − 0.747563)2 + (0.5 − 0.679813)2 + (0.75 − 1.021875)2 + (0.925 − 0.742313)2 + (0.675 − 0.946875)2
√(0.75 − 0.753938)2 + (0.75 − 1.033313)2 + (0.75 − 0.679813)2 + (0.925 − 0.948375)2 + (0.675 − 0.82)2
= 0.5706
Jarak terkecil adalah pada W2, target data ke 3 adalah 2. Karena Target data ke-3 sama
dengan W2, maka W2 baru adalah :
𝑊2𝑏𝑎𝑟𝑢 = 𝑊2𝑙𝑎𝑚𝑎 + α (data 3 - 𝑊2𝑙𝑎𝑚𝑎 )
= 0.747563+ 0.05 (0.675 – 0.747563) = 0,743935
= 0.679813+ 0.05 (0.5 – 0.679813) = 0,670822
= 1.021875+ 0.05 (0.75 – 1.021875) = 1,008281
= 0.742313+ 0.05 (0.925 – 0.742313) = 0,751447
= 0.946875+ 0.05 (0.675 – 0.946875) = 0,933281
= 0.753938+ 0.05 (0.75 – 0.753938) = 0,753741
= 1.033313+ 0.05 (0.75 – 1.033313) = 1,019147
= 0.679813+ 0.05 (0.75 – 0.679813) = 0,683322
= 0.948375+ 0.05 (0.925 – 0.948375) = 0,947206
= 0.82+ 0.05 (0.675 – 0.82) = 0.81275
𝑊2𝑏𝑎𝑟𝑢 = (0.743935, 0.670822, 1.008281, 0.751447, 0.933281, 0.753741,
1.019147, 0.683322, 0.947206, 0.81275)
Data ke 4 – W1 𝑊1𝑏𝑎𝑟𝑢
= √(0.575 − 0.75)2 + (0.675 − 1)2 + (0.825 − 1)2 + (0.825 − 1)2 + (0.675 − 1)2 + (0.825 − 0.925)2
= 0.855132
Data ke 4 – W2 𝑊2𝑏𝑎𝑟𝑢
= √(0.575 − 0.743935)2 + (0.675 − 0.670822)2 + (0.825 − 1.008281)2 + (0.825 − 0.751447)2 + (0.675 − 0.933281)2
= 0.644712
Jarak terkecil adalah pada W2, target data ke 4 adalah 2. Karena Target data ke-4 sama
dengan W2, maka W2 baru adalah :
𝑊2𝑏𝑎𝑟𝑢 = 𝑊2𝑙𝑎𝑚𝑎 + α (data 4 - 𝑊2𝑙𝑎𝑚𝑎 )
= 0,743935+ 0.05 (0.575 – 0,743935) = 0,735488
= 0,670822+ 0.05 (0.675 – 0,670822) = 0,671031
= 1,008281+ 0.05 (0.825 – 1,008281) = 0,999117
= 0,751447+ 0.05 (0.825 – 0,751447) = 0,755125
= 0,933281+ 0.05 (0.675 – 0,933281) = 0,920367
= 0,753741+ 0.05 (0.825– 0,753741) = 0,757304
= 1,019147+ 0.05 (0.5 – 1,019147) = 0,99319
= 0,683322+ 0.05 (0.675 – 0,683322) = 0,682906
= 0,947206+ 0.05 (1 – 0,947206) = 0,949846
= 0,81275+ 0.05 (0.675– 0,81275) = 0,809613
𝑊2𝑏𝑎𝑟𝑢 = (0,735488, 0,671031, 0,999117, 0,755125, 0,920367, 0,757304, 0,99319,
0,682906, 0,949846, 0,809613)
Stelah tercapai 1 epoch, maka nilai α berkurang sebagi berikut :
α = α – 0.1*α =0.05 - 0.1*0.05 = 0.045
Proses diteruskan hingga nilai α 0.01. Dengan menggunakan cara yang sama. Hingga
di dapatkan epoch terakhir. Seandainya di epoch terakhir diperoleh nilai bobot :
W1 : (0.75, 1, 1, 1, 1, 0.925, 1, 1, 0.925, 0.925)
W2 : (0.735488, 0.671031, 0.999117, 0.755125, 0.920367, 0.757304, 0.99319, 0.682906,
0.949846, 0.809613)
Tersimpan ke dalam database dan melakukan pengujian data menggunakan w1, w2
baru yg tersimpan. Untuk pengujiannya menggunakan data baru yaitu:
Tabel 4.4 Contoh pengujian data baru
X1 X2 X3 X4 X5 X6 X7 X8 X9 X10
2 3 2.7 4 3.3 3.7 4 2.7 2.3 2.7
Data –W1
= √(0.5 − 0.75)2 + (0.75 − 1)2 + (0.675 − 1)2 + (1 − 1)2 + (0.825 − 1)2 + (0.925 − 0.925)2 + (1 − 1)2
= 0.634921
Data – W2
= √(0.5 − 0.735488)2 + (0.75 − 0.671031)2 + (0.675 − 0.999117)2 + (1 − 0.755125)2 + (0.825 − 0.920367)2 + (0.925 − 0.757304)2
=0.650125
Jarak terkecil pada W1 sehingga data tersebut termasuk kelas 1 yaitu data mining