Komparasi Metode Jaringan Syaraf Tiruan Som Dan LVQ Untuk Mengidentifikasi Data Bunga Iris PDF
Komparasi Metode Jaringan Syaraf Tiruan Som Dan LVQ Untuk Mengidentifikasi Data Bunga Iris PDF
Abstract
In this journal we tried to compare the performance between SOM & LVQ Methods of Neural
Network. Iris data was used to perform the comparison. We found that SOM has better performance
(89.33%) than LVQ (86.67%). But LVQ has faster time process(0.11 s) than SOM (0.20 s).
2. Tinjauan Pustaka
Perbandingan Arsitektur
Arsitektur SOM
SOM terdiri dari 2 lapis yakni input
dan output, di mana antar lapisannya
dihubungkan oleh bobot tertentu yang sering
disebut sebagai vektor pewakil vector code
book atau reference vector [Fausette, 1994]
Pada arsitektur satu dimensi, input
layer (X) akan berbentuk linear dan demikian
pula outputnya (Y). Pada arsitektur ini, unit
yang bersebelahan akan memiliki lebih
sedikit perbedaan daripada unit yang letaknya
lebih jauh. Lebih jelasnya dapat dilihat pada
gambar 2.3.
c)
64
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
Bobot (W) digunakan sebagai agar lebih dekat dengan vektor masukan.
salahsatu komponen untuk menentukan jarak Sebaliknya ketika hasil klasifikasi tidak sama
terhadap output layer. Jarak terdekat akan dengan informasi kelas yang diberikan di
menjadi referensi pengklasteran data. Apabila awal, maka vektor pewakil akan disesuaikan
ada jarak ke output 2 adalah yang paling agar menjauhi vektor masukan.
dekat maka vektor yang dimasuk akan
ditempatkan di kelas output ke 2, dan Perbandingan Algoritma
kemudian bobot yang ada akan diupdate SOM
dengan mempertimbangkan masuknya vektor Algoritma metode Self-Organizing
masukan tersebut ke output layer kelas 2. Maps dapat ditulis sebagai berikut :
Bobot baru ini kemudian akan menjadi Langkah 0 : Inisialisai Bobot
referensi berikutnya untuk masukan Langkah 1 : Jika kondisi henti gagal, lakukan
selanjutnya. langkah 2-7
Langkah 2 : Untuk setiap vektor masukan Xi,
lakukan langkah 3 sampai 5
Arsitektur LVQ
Langkah 3 : Untuk setiap j, hitung:
Seperti halnya SOM, LVQ juga
terdiri dari 2 lapisan yakni input (X) dan
output (Y), di mana antar lapisannya
dihubungkan oleh bobot tertentu yang sering Langkah 4 : Temukan indeks j sehingga D(j)
disebut sebagai vektor pewakil (W). minimum
Informasi yang diberikan ke jaringan pada Langkah 5 : Untuk setiap neuron J update
saat pembelajaran bukan hanya vektor data bobotnya
saja melainkan informasi kelas dari data juga
ikut dimasukkan. Tujuan dari dimasukkannya
informasi ini adalah untuk menambah Dengan adalah laju pemahaman / learning
keakuratan jaringan dalam
mengklasifikasikan data. rate (digunakan 0.1)
Langkah 6 : Memodifikasi laju pemahaman
(digunakan 0.5 )
Langkah 7 : Periksa kondisi henti
LVQ
Algoritma Learning Vector
Quantization dapat ditulis sebagai berikut :
Langkah 0 : Inisialisai Bobot
Langkah 1 : Jika kondisi henti gagal, lakukan
langkah 2-8
Langkah 2 : Untuk setiap vektor masukan Xi,
Gambar 3. Arsitektur LVQ lakukan langkah 3 sampai 6
Langkah 3 : Untuk setiap j, hitung:
65
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
for i=1:sizex
for j=1:batas_input
x(i,j)=data(i,j);
end
Dengan adalah laju pemahaman / learning t(i,1)=data(i,sizey);
end
rate (digunakan 0.1) x;
Langkah 7 : Memodifikasi laju pemahaman t;
(digunakan 0.5 )
Langkah 8 : Periksa kondisi henti %--------- Inisialisasi
variabel awal untuk SOM ------
4. Hasil dan Pembahasan ---%
Pengembangan Program SOM n= batas_input; % jml
Program dikembangkan dengan neuron masukan
menggunakan MATLAB. Data disimpan p= max(t); % jml
dalam format txt dengan nama data.txt. neuron keluaran / banyaknya
Program yang dikembangkan akan membaca kelas
data dan kemudian megidentifikasi Berikut ndc=sizex/p; %jml data
adalah hasil pengembangannya : tiap kelas
alpha=0.6; % laju
% PROGRAM SOM % pemahaman
batas_perubahan=0.00001; %
% Catatan : ubah nama file batas perubahan bobot
dimana data tersimpan misal
data.txt %----------------------
inisialisasi bobot vji--------
clc;clear; ----------------%
tic; % bobot diambil dengan
disp('mulai') kelipatan ndc / data pertama
% --------------------- tiap kelas
Membaca data ----------------- for j=1:p
----- % v(j,:)=x((((j-
fid = fopen('data.txt','r'); 1)*ndc)+1),:);
i=1; end
a=0; v;
data=0;
while 1 %-----------------
tline = fgetl(fid); Pembelajaran self organizing
if ~ischar(tline), maps ---------------------%
break, end epoh=100;
%disp(tline); nTraining=(0.5*sizex); %
a=str2num(tline); persentase data dr 150 data
[sizex sizey]=size(a); yang akan digunakan sebagai
for j=1:sizey data learning
data(i,j)=a(j); for it=1:epoh
end k=1;
i=i+1; v_lama=v;
end for loop=1:nTraining
fclose(fid); X=x(k,:);
min=inf;
%----------------------- for j=1:p
Membaca Target --------------- d(j)=0;
--------------% % menghitung jarak
[sizex sizey]=size(data); antara vji dengan xi
batas_input=sizey-1; for i=1 :n
66
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
67
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
68
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
69
Vol. 2 No. 1 April 2014 Jurnal TEKNOIF ISSN : 2338-2724
a) b)
Gambar 4. Hasil Perbandingan 2 Metode
a) SOM b) LVQ
70