Anda di halaman 1dari 35

_iI

BAB 5. JARTI{GAN KOMPETISI KOHOI\trN

Pendahuluan
Dalam beberapa contoh sederhana masalah pengklasifikasi pola, kadang jaringan
neural merrrberikan se.iurnlal, jarvaban \ang lnungktn benar, rnelebihi dari yang kita
harapkan. Hal ini rnenyulitkan kita unruk dapat mengarnbil kesimpulan mengenai

jal,aban mana yang benar. Khususnr.'a. apabila ktta uenggunakan sebuah jaringan
yang telah dilatih untuk dapat mengklasifikasikan sinval masukan hanya kedalam
salah satu kategori kelr-taran. Sepenl A. B, C. D, E. J atau K: dan tern\.ataiarinsan
neural tersebut memberikan jau,aban bahu.a suatu sinval masukan tersebut termasuk
dalam kategon C dan K. atau kategori E dan K. atau kategori J dan l(. Dalam

keadaan seperti ini, karena kita mengetahui bahrva hanva ada satu neuron keluaran
s4la yang boleh rnemberikan jarvaban r ang benar. maka kita dapat memasukkan
ini akan memaksa
sriatu struktur tambahan kedaiam jaringan. Struktur tambahan
jaringan untuk membuat keputusan hingga hanva satil unit saja )'ang akan
memberikan jawaban. Mekamsme seperti ini ini disebut sebagai mekanisme
kompeti.ti.

Kasus ekstrim dari mekanisme kompetisi diantara sekelompok neuron, dikenai


sebagai Winner Take Att (pemenang mendapat segalanya). Seperti tercermin dalarn
namanya, setelair proses kompetisi diantara kelompok neuron ini berakhir, maka

han.,a terdapat satu neuron saja yang mempunyai sinyal keluaran bernilai tidak-nol.
Jaringan berbasis kompetisi dengan cara Winner Take All adalah MAX{ET. Bentuk
yang lebih uffrum dari kompetisi ini terdapat pada -\fexican Hat atau On-Oenter-Of/-
Surrounel yang bersifat menonjolkan perbedaan. Semua jaringan lain yang akan
dibahas dalam Modul ini, akan menggunakan cara berkornpetisi model Winner Take
All. Dalam simulasi komputerisasi jaringan neural seperti ini, jika penerapan

algoritma neural .vang lengkap bukan merupakan suatu keharusan, maka kita dapat
mengganti proses iteratif dalarrr tahapan kompetisi ini dengan proses pencarian

51
t

*
Z
neuron pemenang yang lebih sederhana. Pencarian neuron pemenang ini dilakukan
dengan mencari neuron yang mempunyai nilar total masukan terbesar.

Kecuali jaringan neural berbasis kompetisi dengan bobot tetap, semua janngan
lain dalam Modul ini menggabungkan proses kompetisi ini dengan beberapa bentuk
metoda pembelajaran, untuk menentukan nilai bobot jaringannya (yaitu nilai bobot
dalarn jaringan yang btrkan merupakan bobot hubungan diantara unit-unit dalam
lapisan kompetisi). Bentuk metoda pembela-taran ini sangat bergantung pada tujuan
dilatihnya jaringan tersebut. Janngan dengan metoda pernbelu.laran kuunlisust t'cRtttr
(l.earning Vector Quantization. LVQ), dan _ranngan counter-propagasi, dilatih untuli
dapat rneiakukan proses pemetaan (mapprng). Proses penibelajaran untuk kedtta
kasus ini dinarnakan sebagai metoda pernhelclaran dengan-pengarahan (supen'ised
iearning), karena nilai target keluaran teiah dibenkan sebagai pola (vektor) ntasukan
seiama proses pelatihannya

Metoda pembelajaran janngan neurai tidak terbatas hanya dengan metoda


pernbelajaran dengan-pengarahan saja (i'ang telah riremberikan pasangan nilai
masukan dan nilai keluaran selama proses pelatihannya). Pelatihan dengan metoda
pembelajaran dengan-pengarahan ini telah dibahas untuk menyelesaikan persoalan
pengklasifikasi pola atau pengasosiasi pola dan juga akan digunakan dalam masalah
pemetaan masukan-keluaran i,ang lebih umum. Metoda pembelajaran lain untuk
jaringan neural adalah metoda pembeloiaran tanpa-pengarohan. Dengan
menggunakan metoda pembelajaran ini, maka jaringan itu sendirilah yang akan
berusaha menemukan pola-pola keteraturan dan data-data masukan yang d.isajikan.

Dalam Modul ini kita juga akan membahas peta swa-organisasr (SOM, self-
organizing map), yaitu janngan yang dikembangkan oleh Kohonen untuk
mengelompokkan data masukan kedalam unrt-unit kelompok (clustering) yang
berkesesuaian. Proses pengelompokan ini merupakan hal yang biasa digunakan
dalam metoda pembelajaran tanpa-pengarahan. Jaringan teori resonansi adaptrf juga
merupakan jaringan yang mengelompokkan data masukan kedalam unit-unit
kelornpok. (.laringan seperti ini dapat juga dikatakan sebagai 'pengklasiflkasi pola'.

52
akan tetapi kita mengunakan istilah ini hanya untuk jaringan yang menggunakan
metoda pembelajarar, dengan-pengarahan. dengan rnensaiikan klasifikasi target
selama proses pelatihannya). Contoh jaringan yang menggunakan metoda
pernbelajaran tanpa-l,engarahan tetapi tidak menggunakan metoda kornpetisi sebagai

bagian dari cara kerjanya, akan dibahas dalam Modul berikutnya'

Dalam suatu jaringan pengelompok, itunlah untt masukan akan sama dengan
banl,aknya dengan jumlah komponen veklor masukan. Untuk bagian keluaran,
karena setiap unit keiuaran mewakrli sebuah unit-kelompok, maka jurnlah unit
keluaran akan dibatasi oleh jumlah unit keiompok vang akan diberrtuk. \rektor bobot

dan satu unit-keluaran dalam jarrngan pengelompok (seperti juga laringan LVQ)-
beriaku pula sebagai vektor per.rakil dari unit kelu.aran (unit-kelornpok) tersebut.
Vektor ini, disebut juga sebagai vekror eksemplar. merupakan vektor acuan bagi
penempatan pola (vektor) masukan kedalam unit-kelompok yang sesuai. Dalam
proses pelatihannt,a. jaringanlah 1,ang akan menentukan unit-keluaran (kelompok)
mana yang paling cocok bagi suatu vektor masukan, dan nilai vektor bobot unit-
kelompok pemenerrgnta akan disesuaikan berdasarkan algoritma pelatihan
jaringannya.

Beberapa jaringan yang dibahas dalam Modul ini menggunakan algoritma

pembelajaran yang sarta, yaitu metoda PembelaJaran Kohonen. Dalarn metoda


pembelajaran ini, setiap unit dalam jaringan akan memperbaharui nilai bobot-
bobotnya dan membentuk vektor bobot baru yang merupakan kombinasi linier dari
vektor bobot lama dan vel(or masukan. Biasanya, hanya unit kelompok yang
mempunyai vektor bobot paling cocok dengan veldor masukan yang akan diberi
kesempatan untuk'belaj ar'.

Dalam jaringan swa-organisasi, terdapat dua metoda untuk menentukan vektor


bobot yang paling cocok dengan vektor pola masukan. Keduanva bekerja
berdasarkan asumsi bahwa salah satu dari sekumpulan vektor bcbot unit-unit
kelompok (keluaran) dapat menjadi r,ektor pervakil (eremplar) bagi suatu vektor
masukan; sehingga setelah proses pembelajaran berakhir. maka vektor pewakil ini

5i

j
dapat mervakili vektor masukan tersebut. Proses penentuan vektor pervakil yang
berkesesuaian dengan vektor nrasukan ini diajarkan selama proses pembelajarannya.

Metoda pertama untuk menentukan unit pemenang dalam lapis kompeiisi


dilakukan dengan men-ugunakan kuadrat larak Euclidean antara vektor masukan dan
vektor bobot. Penentuan ini
dilakukan dengan memilih sebuah unit-kelompok
dengan vektor bobot vang mernpunr ai iarak euclidean terkecil (diukur dart vektor
masukan). Metoda kedua dalam menentukan unit pemenang dilakukan dengan
ntenggunakan metoda perkalian skalar antara vektor masukan dan vektor bobot.
Perkalian skalar dari sebuah vektor input dengan vektor bobot 1'ang diberikan, tidak
iain adalah niiar totai masukan bagr unit-keiompok vang bersangkutan. Perhitungan
seperti ini juga berlaku bagi jaringan model lain seperti yang telah Cibahas dalam
bab-bab sebelumnl,a. Apabila kedua vek-tor ini digambarkan ciaiam sebrtah garis.
maka hasil perkalian skalar terbesar antara kedua vellor ini berkaitan"dengan sudut

terkecil antara vektor masukan dan vel,tor bobot. Dapat diartikan bahrva perkalian
skalar ini akan memberikan gambaran korelasi antara suatu vektor masukan dengan
vektor-r,ektor bobot dari jaringan.

Apabila kedua vektor (veltor masukan dan veklor bobot unit kelompok) ditulis
dalam ukuran panjang, maka kedua metoda ini (euclidean dan perkalian skalar) akan
memberikan hasii yang sama. Ini menunjukkan bahwa metoda manapun yang
digunakan, akan menunjuk satu vektor bobot yang sama sebagai veklor yang paling
sesuai dengan vektor rrasukan. Unruk keseragaman pembahasan dan juga untuk
mempermudah perhitungan dari keharusan melakukan normalisasi vektor masukan
dan vektor bobot (dalam ukuran panjang), maka kita hanya akan menggunakan
metoda kuadrat jarak Euclidean.

5J

a
,1
JARINGAN NEURAL SWA.ORGANISASI KOHONEN

Jaringan swa-organisasi yang dibicarakan di dalam bagian ini dinamakan juga

sebagai peta penyimpan topologi (topology-preserving maps), karena diasumsikan


bahwa jaringan ini rnempunyai struktur topologi diantara unit-unit kelornpoknya.
Sifat seperti ini memang terdapat dalam otak manusia, akan tetapi belum terdapat
dalam jaringan neural buatan lain. Jaringan swa-organisasi terdiri dari rr unit-
kelompok yang tersusun dalam arik satu atau dua dimensi, dengan sinyal masulian
yang terdiri dari n-tuples.

Vektor bobot dan unit-kelompok akan berfi.rngsi puia sebagai vektor pewakil dari
pola-pola (vektor) masukan yang terangkum dalam unit-kelompok tersebut. Selama
proses pembentukan swa-organisasinya, unit=kelompok yang mempunyai vektor
bobot paling mirip dengan suatu velctor masukan (pada umurlnya-, menggunakan
metoda kwadrat jarak Euclidean minimum) dinyatakan sebagai pcmenangnya. Unit
pemenang dan unit-unit tetangganya (sesuai dengan topologi dari unit-unit
kelompok) akan memperbaharui nilai bobot-bobot mereka. Veklor bobot dari unit-
unit tetangga, pada umumnya, tidak berkemiripan dengan veklor masukan. Sebagai
contoh, untuk unit-kelompok yang tersusun dalam struktur arik linier, unit tetangga
dengan radius R disekitar unit J terdiri dari semua-unit j dimana : max(l,J-R) < j <
min(J+R, m).

Arsitektur dan algoritma jaringan ini dapat digunakan untuk mengelompokkan


sekumpulan vektor bernilai kontinyu x : (x1,.,il, ... ., xn) kedalam z unit-
kelompok. Sebagai catatan, bobot-bobot hubungan tidak perlu dikalikan dengan
sinyal dari unit masukan yang menuju ke unit-unit kelompok (kecuali bila perkalian
skalar digunakan sebagai ukuran tingkat kesesuaian).

55
ir'g*, ir.):a 1{r.,t:

Gambar 5.1. Arsitektur dari peta srva-organisasi Kohonen

Arsitektur Jaringan

Arsitektur dari pea swa-organisasi Kohonen dapat dilukiskan dalam Gambar 5.1.

Pola ketetanggaan dari unit bertanda # dengan radius R :2, 1, dan 0 dalam topologi

satu dimensi (dengan 10 unit-kelompok) dapat dilihat dalam Gambar 5.2. Pola
ketetanggaan untuk topologi bujur-sangkar dengan radius R : 2, 1, dan 0
ditunjuktan dalam Gambar 5.3, sedangkan untuk topologi hexagonal dapat dilihat
dalam Gambar 5.4, masing-masing terdiri dari 49 unit. Dalam penggambaran
arsitel<tur jaringannya, unit-pemenang ditulis dengan simbol "#" dan unit-unit yang
lain dinyatakan dengan "*".

{*
t (* t#l *) *)

{}R:2 ()R:1[]R:0

Gambar 5.2. Pola Ketetanggaan

56
perhatikan bahwa dalam topologi bujur-sangkar, setiap unit mempunyai delapan

unit tetangga terdekat, sedangkan untuk topologr hexagonal jumlah unit tetangga
terdekatnya hanya enam. Unit-unit pemenarlg vang sangat dekat dengan daerah
pinggir pada Garnbar 5.3 dan Gambar 5.1 mempunyai jumlah ietangga -vang lebih
sedikit bila dibandingkan dengan unit pemenang yang berada dipusat (karena pola
ketetanggaan pada unit pemenang didaerah pinggir mencakup unit vang kosong uada

salah satu daerah sisi-sisinl'a).

Algoritma Pemtrelajaran Jaringan SONI

Langkah 0. Inisialisasi bobot-bobot s ii ( Kemulgkinan pilihan akan dibahas kemudian )

Tentukan palarn et er-p aralr) eter top o o gi ket c tan g-9 aan
1

Tentukan paraln ete r-p araln ete r aj u p ernbel aj aran


1

Langkah 1. Seiarna syarat henti trdak terpenuhi- lakukar Langkah 2-8

Langkah 2. Untuk setiap vektor rnasukan x. lal-ukan Langkah 3 - 5

Langkah 3. Untuli setiap-j. hirunglah :

D(t) =Z(r,, --t, )'


Langka} 4. Carilah indeks i sehingga D(J) bernilar minimum

Langkah 5. Untuli semua unit j dalam daerah ketetanggaan J, dan untuli semua i:

w,, (new) = w
u @l d) + alx, - w, @ld)1-

Langkah 6. Perbaharui laju pembelajaran

Langl,ah 7. Kurangi radius topoiogi ketetanggaan untuk waktu-waktu tefientu

Langkah 8. U-ii syarat henti

57
:t. . :l<

t
.+ :'t; r

I
t
i
I
I
I
I
I
I
! {-
I
I
I
I >k
i
i
!__

-ci : ',1, .-. *


;!: -: i -
ll.- 1; -"----
--

Gambar 5.3. Ketetanggan dengan topoiogi bujur sangkar

\ ="" >k

\
*: i<!;t<
\a
\.
:*.
.\
.t>>ts)>-E
'tl
\ {
=& .t xl

I
/
s .4: :8

:i:
i.=l:----- l
,.:- I --'-.- ,t

Garnbar 5.4. Ketetanggan dengan topologi bujur hexagonal

Terdapat beberapa struktur alternatif untuk memperkecil besaran R dan a.Laju


pernbelajaran a merupakan fungsi u'aktu (aiau fungsi iurnlah epoch latihan) I'ang

menurun secara perlahan. Kohonen menyatakan bahwa laju pembelajaran dengan


fungsr vang tnenurun secara linrer sudah cul<up memuaskan dalarn perhitungan

58
komputasinya, sedangkan perhitungan dengan fungsi yang menurun secara geometris
akan mendapatkan hasil lang kurang-iebih sarna.Radius ketetanggaan disekitar unit-
kelompok -j uga menurun dengan berlangsungn!'a proses pengelompokan.

Pepbentr-rkan peta terjadi dalarn dua tahap. pertama. pernbentukan peta arval
dengan susunan yang benar. dan kedua, tercapainya koLtvergensi akhir. Tahap kedua
memerlukan *.ak1u 1'ang lebih larna drbandingkan dengan tahap pertama. dan
memerlukan nilai laju pembelajaran yang lebih kecil. Sejuinlah besar iterasi dengan
menggunakan sejunrlah pasangan pelatihan sangat diperlukan, terutaua untuk
beberapa aplikasi.

Pernberian nilai aual dari bobot-bobot jaringan dapat dilakukan dengan


memasukkan nilai-nilai random. Apabila terdapat beberapa infonnasl niengenai
distribusi keiompok yang ntungkin cocok untuk suatu persoalan tertentu" maka nilai
arval bobot-bobot jaringan dapat diambil dengan nilai 1'ang sesuai dengan infonnasi
arval tersebut. Dalam Contch 4.4 hingga Contoh 4.9, nilai arval bobot jaringan
dilakukan dengan memasuklian nilai random (dipilih dari range nilai t'ang sama
dengan nilai komponen dari vektor-velctor masukan).

Penggunaan

Jaringan neural yang dikembangkan oleh Kohonen ini telah diterapkan dalam
sejumlah masalah yang sangat menarik. Perkembangan aplikasi terbaru dari jaringan
neural ini adalah pengunaannya dalam komputer pembangkit-musik. Angeniol,
Var-rbios dan Le Texier juga telah menempkan peta swa-organisisi Kohonen ini tintuk
mencari jarvaban dari permasalahan yang terkenal sebagai problema perlalanun
salesntun.

59
Contoh sederhana

Contoh 1. Peta swa-organisasi Kohonen untuk mengelompokkan empat buah


vektor.

Misalkan vektor-vektor yang akan dikelompokkan adalah


(1. 1,0.0); (0,0.0, I ): (1,0,0.0). (0.0, 1, l).
Jumlah maksimum kelompok y'ang dibentuk adalah
n:2
Dengan anggapan bahrva laju pembelajaran G menurun secara geometili yang
rnemenuhr persamaan
q-0,6
cr(t+l ):0,5u(t)
Dengan hanya ada dua kelompok yang tersedia, maka pola ketetanggaan dai
simpul ..I (Langkah 4) dr bentuk sehingga hanya satu kelornpok saja )'ang
memperbaharui bobotnya pada setrap langkah (R:0)

Langkah 0. Matriks bobot awal :

lz 8l
lu 4l
lr
,^l.r-]?l
[.e
Radius arval :

R:0.
Laju pemhelajaran au,al :

o (0) :0.6

Langkah 1. Awal pelatihan

Langkah 2. Untuk vektor pertama (1, 1, 0, 0), lakukan Langkah 3 - 5

Langkah3.D(i):t.z- 1)'+(6- 1 )t*( s-0)t+ (9-0)r:186:


D(2):(.8- 1 )' + (4- 1)" (.7 *O 12
+ ( 3 -0)' :0.98

i
I

510
Langkah 4. Vektor masukan ini berkesesuaian dengan simpul
keluaran 2, sehingga
J:2
Langkah 5. Nilai bobot dari unit pemenang drperbaharui :

W;2(nerv): wiz (old) - .6[xi-rviz(old)]


: .4rv,:(o1d) + .6 r,.

Pembaharuan ini menghasilkan matriks bobot baru.

fr o-rl
l-
l6 r8,u1
isc rr.] l

Langkah 2. Untuk veklor pertama (0, 0, 0, 1), lakukan Langkah 3 - 5

Langkah3 D(1):(2-0)t--r 6-0 )t*( S*0)'+ ( 9- 11r:0.66:


D(2) : (.92 -o)z - (.76-0)' + (.28 *0 )'* (.12 - 1)2
:2.2768

Langkah 4. Vektor masukan ini berkesesuaian dengan simpul


keluaran 1, sehngga
J:1
Langkah 5. Nilai bobot dan unit pemenang diperbaharui .

Pembaharuan ini menghasilkan matriks bobot baru:

I
or ,r1
I 24 761

l ro 281

L
qo r2_l

Langkah 2. Untuk veklor pertama (1,0,0, 0),lakukan Langkah 3 - 5

5.1I
Langkah 3. D(l):(0s- l)t + (.24-0 ): + 1.2-o;2+ 1.oo- t;'
:1 8656;
D(2): (92- t12+1 Z6 0)''(.28 0 )t'( 12-0)l
- 0 6768

Langkah 4. Vektor masukan ini berkesesuaian dengan simpul


keluaran 2. sehingga
.r _l
Langkah -5. Nilai bobot dari unit pernenang drperbaharui :

Pembaharuan ini menghasilkan nratriks bobot baru.

I os e68'l
lir
l-+ .i0+ r

iro
ou
r12]
o-tE
L

Langkah 2. Untuk vektor pertama (0- 0. 1- 1), lakukan Langkah 3 - 5

Langkah3. D(I):(08-0):* (.21-0 )t* \.2_ 1):- (.96- l)r


:0 70-s6 :

D(2): (.968 - 0)r - (.30-1 - 0)' * (.r12 - | 12 +


(.408*o)2:0.6768

Langkah 4. Vektor masukan ini berkesesuaian dengan sirnpul


keluaran 1, sehing-ua
J:1
Langkah 5. Nilai bobot dari unit pemenang diperbaharui .

Pernbaharuan ini menghasilkan matriks bobot baru.

ltto:: 968-l
I ogr, io4
llI oso I12i
i

lts84 018.1
L

Langkah 6. Pengurangan Iaju pembelajaran

5.r2
0: .s (0.6) : 3

Persamaan pembaharuan nilai bobot kemudian menjacii

W;1(new) : w;1 (old) + .3[x'-rv,,(old)]

: .7u'1i(old) + .3 x,.

Matriks bobot setelah epoch kedua dari proses pelatihan adalah

Ioro e8ol
I c,+z i6o I

io.n ,,.,
t-----'l
I

I oeo u]+l

Dengan membuat rnodifikasi penyesuaian prosedur laju pembelajaran schingga


parameter ini menurun secara geometris. r'aitu dari .6 hingga.01 setelah l00 kali
iterasi akan memberikan hasil :

It 8l
,tI
Iterasi o Matrikuouo,'I6
Is
l'-"1 7l
Is 3.]

l
otz e7o
I oqo 3oo
Iterasi I Matrik bobot : I

680 .110
I
[.ea+ .048

[ .oos: eeool
| - ,ron 3ooo
I
I

Iterasi Matrik bobor :


| 7000 0f00 I

I t ot,';t, 0086]

5.1 3
[t
sc-z t.ooool
I +.0" - 7 37ao
Iterasi l0 Matrik bobot : I
I

I 6300 sk-7i
i

r-l
11.0000 2.3e-7)

[r 0,,- ro r oooo
-
t__
| 5 7r - 15 '1700
Iterasr ,i0 Matrik bobot
I sioo
I

6 6.,- r5
I r oooo ] 8.,- 15 i

lo.ta -n r oooo .

Iterasi 100 Matrik bobot I


z'ou - t o 4900
| .stoo
i

2.3c-16,
[,.oooo r oe-16 i

Matriks bobot ini tampakn-va akan rnencapai konvergensi hrngga menjadi

[oo 1o]
loo
tl osl
l0s
II
001
Lro oo_l

Kolom pertama dari rnatriks ini merupakan nilai rata-rata dari dua vektor yang
ditempatkan dalam kelompok 1 dan kolom kedua dari matriks ini merupakan nilai
rata-rata dari dua vektor yang ditempatkan dalam kelompok 2.

5i4
.: it. r; t-: f

1: :rj l.

i:

...

:'

.j

1'

:.i." *
. :r i.#:i'.1 "

',.:
t.:, i'r.i +.- - :l
i"- ":
.:i:' ;il
"L:"-T-.=
l:-r-
' ;, -+r' -
" Ir ., - t:
n*s=-$+

Gambar 5.5. Contoh pola-pola masukan Pengenalan Huruf

Contoh 2 hingga 4 berikut ini akan memperlihatkan hasil yang biasa didapat dari
penggunaan pdmetaan swa-organisasi Kohonen dalam mengelompokkan pola-pola
masukan berupa huruf untuk tiga jenis font yang berbeda. Pola-pola masukan untuk
font 1,2 dan 3 dapat dilihat dalarn Garnbar 5.5. Untuk setiap contoh font yang ada.
akan terdapat 25 unit-kelompok, yang berarti bahrva jumlah maksimum dari unit-
kelornpok yang akan dibentuk adalah 25.

5.t 5
Hasil yang akan diperlihatkan disini hanya untuk unit-unit pemenang bagi

beberapa pola masukan seteiah me nsaiarni proses pelatihan. Pengaruh dari

perubahan struktur topologi akan terlihat dengan jelas dari Contoh 2 (tanpa struktur),
Contoh 3 (i,,ang mempunval struktur topologi iinier) dan Contoh 4 (yang menrpuni ai
struktur topologi bujur-sangkar). Untuk setiap persoalan, laju pembelajaran akan
menurun secara linier dari nilai aival 0.6 hrngga rnencapai nilai akhir 0.01.

Contoh 2 Peta swa-organisasi untuk mengelompokkan huruf dari beberapa


font, tanpa struktur topologis.

Bita tidak ada struktur topologis dari unit-unit kelompok, rnaka hanya unit pemenang
saja yang dirirnkan untuk bela-iar dari pola-pola n-rasukan. Hasil y'ang didapat adalah .

dari 21 pola masukan ini akan dikelorr'pokkan dalam 5 kelompok sa1a. 1'ang dapat
digambarkan dalarn Gambar 5.6. t,aitu

UNIT POLA
J Ci. C2, C3
1J B1,83, D1, D3. EI. K1, K3
lr) A1, A2, A-3

18 Jl, J2, t3
a.a
82,D2,E2,K2

Gambar 5.6. Pengelompokan huruf dari beberapa flont, tanpa struktur topologi.

Contoh 3. Peta swa-organisasi untuk mengelompokkan huruf dari beberapa


font dengan struktur topologi linier

Jaringan dengan struktur topologi linier (R 1) menghasilkan distribusi


pengelomookan pola-pola kedalam unit-unit kelompoknya dengan lebih baik. Unit
pemenang .T dan unit tetangga topologinl'a (J+l dan .T-1) diperbolehkan untuk
melakukan pembelajaran untuk setiap kali iterasi. Pada umumnya, nilai awal vektor
bobot dari unit-unit tetanusa \ ang melakukan pembelajaran trdaklah mtrip dengan
pola masukan. f{asilnya dapat dilihat pada Gambar 5.7 .

5r6
UNIT POLA
6K:
t0 Ji..12. Ji
14 El" El
16 K1. K3
I8 tsI.ts;.DI Di
20 cr. ct. c3
22 D:
23 Bl. E2

25 A1. {:. .Al

Gambar 5.7. Pengelompokan huruf dari beberapa font, dengan struktur linear.

Contoh 4 Peta s\ya-organisasi untuk rnengelompokkan huruf dari beberapa font


dengan struktur topologi bentuk intan

Dalam contch dibarvah ini, unit-unit kelompok membentuk struktur topologi dua
dimensi ,vang sederhana, sehingga setiap unit-kelompok mempuny'ai dua subscript.
Apabila unit Xrj adalah unit pemenangrya, maka unit-unit Xi+1j; Xi-1j; Xi.j+1 6un

X ij+l juga melakukan proses pembelajaran. Ha[ ini akan memberikan struktur
topologi yang lebih menyerupai bentuk intan daripada bentuk bujur-sangkar yang
telah ditunjukkan dalam Gambar 5.3. Hasil yang didapat dengan perhitungan ini
digambarkan dalam Gambar 5.8.

itj I 2 J 4 5

1 Jr, J2,13 D2
2 Cl, C2, C: DI, D3 B.2,82
3 B1 K2
4 EI, E3, 83 A3
5 Kl, K3 AI, A2

Gambar 5 8. Pengelompol:an huruf dari beberapa font. dengan struktur intan.

517
Contoh 5. Penggunaan Peta Swa-organisasi : Contoh Geometrik.

Unit-unit kelompok cialarn peta s*'a-oruanisasi Kohonen dapat dilihat sebagai sr"ratu

posisi tertentu (ditentukan oleh vektor bobotnya). Untuk vektor masukan clengan dua
komponen. posrsi tertentu ini dapat drlukiskan dengan mudah. Hubungan topologi
diantara unit-unit kelompok daiam peta swa-organisasi Kohonen, sering juga
dih"rkiskan dengan menarik garis lurus \ ang menghubungkan unit-unit tersebr-rt.

Dalam contoh dibari'ah ini, kita mengandaikan suatu strul:tur yang linier. Bobot-
bobot au,al dipilih seci.ra acak" dengan setiap komponen mempLlnyai nilai diantara - l
dan l. Struktur ini mernpunl'ai 50 unit kelornpok. dengan 100 r,ektor masukan yang
dipilih secara acak dan titik-titik dalarn sebuah lingkaran dencan racirus 0-5 dari titjk
pusat. i,aju pembelajaran au'al adalah 0.5 yang terus menurun secara linier men_iadi
0,01 setelah 100 kali epoch. Selama proses peiatihannva, unit pelxenang dan unit
tetangga terdekatnya, baik dari kedua sisinya (J, J'1. dan .T-1)1uga melakukan proses

pernbelajaran.

Gambar 5.9 menunjukkan pola-pola pelatihannya. Gambar 5.10 menunjukkan


hubungan antara unit-unit kelompok pada keadaan arval sedangkan Gambar 5.11
hingga Gambar 5.14 menunjukkan hubungan antara unit-unit kelompok itu setelah
melakukan 70, 20, 30 dan 100 kali epoch. Selama proses pelatihannl'a, terlihat
bahwa tidak saja hany'a unit-unit kelompok terus bergerak hingga mendekati vektor
masukan pelatihannya (sehingga semua veklor bobot dari unit-unit kelompoknva
akan berada dalam linekaran tertentu)- tetapi juga terlihat bahwa garis-garis yan_e

menghubtrngkan unit-unit kelompok tersebut juga menjadi semakin halus. Bahkan


hubungan kun'a yang lebih halus dapat dihasilkan dengan membuat nilai radius arval
yang besar dan menurun secara perlahan hingga mencapai nilai 0. Hal ini mungkin
mernbutuhkan jurnlah epoch pelatihan vang lebih banyak lagr.

518
I

:
'I

',:,i

Ga;lbar 5.9 Pola pelatihan

;- 1

\) .i

': i :i

j, + :i.,r !.>,.r ,, -: ll."+ tt.r;i i, l- I ii


..l,li

Gambar 5.10 Hubungan antara unit-unit kelornpok pada keadaan a\\'al

5r9
ts.{,1,.!r,er- .Fl: r, c-rr'i?.!rrli r11,rt) i':8",.,1: tr:r .,1 lr:it'r ?jr)..3ii ifi
.

,r .1

i, ;i
-,...':
,,iir

Gaml.rar 5.11 Hubungan antara unit-unit kelompok itu setelah melakukan 10 Ilpoch

i{r'rr.,rr...1 .'.ti t -r","ic.,.' .'iit,tri --- i: 1tl:rr-,


'',t' i

li-.il

.1 1..1

ii l:

rJ,{-r
=
u_
-.tr
-{}

,-{}. E

- l:.O

Gambar 5.12 Hubungan antara unit-unit kelompok itu setelah melakukan 20 Epoch

l<illr,,lL:',1:..:1-.1;r:.i.r::1i.r1', :-::I. l:P,'.ii i{l ,+lt}}r:L (l.l:-.1{}

{-t. }i

(]. {:t

( ).,1

_l.t-::

{:l . -.

i tl -----_i-_.

Gambar 5.13 Hubungan antara unit-unit kelompok itu setelah melakukan 30 Epcch

520
!lcrlrr:rrr."rr r._!- -..'rqt:.itt:{ing .rr:if\ I ii,:J(:11 i {-1C
; il
I
l 3

il i; I
i
I
I
I
I
i
I
tt4 I
t
I
4.1 I 3
l_ 'jt ?'--+
! i' i>-{. +).-
r.i.1 ! l- , . L.---_._{i r-.- ai---1'*r
I
:
<h .1"
. i,
{
i, ,::
!
I
I
.+ --r:{l
I
-_{i.l I
i

i
t
I
t
.-: i) I
1..1 rJJ, i'::l {.
i:.r r

Gambar 5 l4 l*"rbungan antara unit-unit kelornpok itu setelah melakukan 1 00 Epoch

Contoh 6. Penggunaan Peta Sxa-organisasi (SOM) : Problema Perjalanan


Salesman

Dalam contoh berikut, kita akan melihat penggunaan topologi linier dari unit-unit
kelompok peta swa-organisasi Kohonen untuk menyelesaikan problema klasik dalam
optimasi terbatas yang dinamakan problema perjalanan salesman (traveling salesman
problem, TSP). Tujuan dari problema TSP ini adalah untuk mendapatkan suatu rute
pe{alanan antar kota yang akan memberikan jarak tempuh total terpendek. Rute
perjalanan yang dimaksud disini, terdiri dari rute kunjungan ke setiap kota vang
hanya dilakukan sekali saja hingga kembali lag, ke tempat awal pe{alanan.
Angeniol, Vaubois dan Le Terier (1988) telah menggunakan jaringan Kohonen
untuk menyelesaikan tnasalah TSP ini. Jaringan ini menggunakan koordinat posisi
masing-masing kota sebagai data masukan, dengan sejurnlah unit-kelompok 1.ang
besarnva sama dengan jumlah kota-kota yang harus dikunjungi. Jaringan ini
mempunyai topologi linier, dengan unit-kelornpok pertarna dan unit-kelornpok kedua
yang telah dihubungkan. Gambar 5.15 menunjukkan posisi arval dari unit-kelompok
yang ditentukan secara acak. Gambar 5.16 menunjukkan hasil 1,ang didapat setelah
melakukan 100 kali epoch pelatihan dengan R : I (dengan laju pembelajaran vang
menurun dari 0,5 rnenjad; 0,4;. Rute perjalanan vang ditentukan setelah melakukan
100 kali epoch dengan R - 0, dapat dilihat dalam Gambar 5. 17.

521
iiir -f
!
t

I
i
I
J:{L-
r/,,, i

r i : i. ....1:
rl ' i,r

Gambar 5.15 Posisi awal dari unit-kelompok

l-:l1tt=Ii { i}{,1 ,+15'l:i .- 1} 'l(.)iri:r Ii:rtlirrs - 1

i .( )

{i,{-i

._]. s

*.a
a.

ti fi

r_r <

i} 4

{1. -r

{i. -1

{1 I

r) {i il i ,r,-l fi.-l lr 'r {).- (1.: {1 i r}.:r ' I

Gambar 5.1o Hasil yang didapat sctelah melakukan 100 kali epoch peiatihan dengan
R--1

522
Fpoch t (lti j\lr,ir$ -- il.ll.l()(r ;ll:1.ii:,s - ii
I
- --"\ ..-\
,.. 1

i-
i

Gr ,.
...'':
\ _:{.E{ Ji
\
a

\.\.

/ i+ '
/ .r,
{;r.}i
,/' !
,.' - -*,:\- -,-+-""
-. -4J'
,-:*-e'" -- ;
-

.'':

_-- _ i_-_i

Gambar 5.17 Rute periaianan ).ang dltentukan setelah melakukan 100 kali epoch
dengan R":0.

Rute perjalanan ini beiurn cukup jelas. dalarn hal bagairnana cara meiakukan
kunjungan terhadao kota B dan kota C, karena adanya satu unit-kelornpok yang
berada diantara kedua kota ini (kesulitan dalam menentukan cara rnencapai salah satu
kota saja). Juga terdapat satu unit-kelompok lain yang berada diantara kota J dan
kota-kota B dan C, yang tidak akan menjadi unit pemenang untuk semua data
masukan. Unit-kelompok ini merupakan 'pemborosan' jumlah unit-kelompok. Akan
tetapi, hasil ini menun_jukkan satu rute pe{alanail antar kota yang secara mudah dapat
dilihat melalui kota-kota

ADEFGHI.IBC
atau

ADEFGHIJCB

Rute perjalanan lain (.1uga dengan tingkat ketidakielasan vans sama) dapat
dihasilkan dengan melakukan beberapa pemilihan nilai bobot-bobot arvalnya.
Pernilihan nilai bobot-bobot arval, dengan cara mernilih daerah yang semprt dalarn

523
ruang data masukan (misalnya dari titik pusat atau satu dari keempat sudut-sudutnya)
sering kali dilakukan, akan tetapi secara keseluruhan tidak mernberikan perubahalr
yang berarti.

Kt IAI{TISASI VEK OR PEMBtrLAJARAN

Kuantisasi vekror pernbelajaran (learning vector quantiation, LVQ) mernpakan


metoda pengklasitikasi pola dengan setiap unit-keiuaran mervakili satu kelas tertentu
atau satu kategon tefientu. Beberapa rinit keluaran harus digunakan untuk masir:g-
rnasing keias. Vektor bobot dari satu unit keluaran sering disebut sebagai vektcr
acuan (vektor r.,.itranc? atau codtbr.,ot) bagi kelasi kategori vang di*'akili oleh-

keluaran tersebut. Dalam proses pelatihannya, unit-unit keluaran ini digerakkan dan
diarahkan (rne1a1ui pembaharuan nilai bobot-bobot Calarn peiatihan dengan-
pengarahan) untuk mendekati suatu permukaan keputusan (tleci,,rir-,n sur.face) dalam
tcori pengklasifikasi Bayes. Dalam proses pelatihann-va, unit-untt keluarait ini

digerakkan dan diarahkan (melaiui penrbaharuan nilai bobot-bobot dalam pelatihan


dengan-pengarahan) untuk mendekati suatu penlukaan keputusan (,,lecision surfacc \

dalam teori pengklasifikasi Bayes. Hal ini dilakukan dengan asumsi bahwa bahn'a
sekumpulan pola-pola pelatihan dengan masing-rnasing klasifikasi yang berkaitan.
telah disediakan, berikut juga distribusi awal dari vektor-vektor acuan yang mewakili
setiap klasifikasi tersebut diatas. Setelah melakukan proses pelatihan, jaringan LVQ
ini dapat mengklasifikasi suatu velctor masukan, dengan menempatkannya pada kelas
yang sama dengan unit-keluaran yang mempunyai vektor bobot (dalam hal ini
merupakan vektor acuan) paling sesuai dengan veklor masukan tersebut.

524
I. i
/':
' ''. r'
ra
rt JI
/1 j'r*. T
l\. ,1
't. ii-f;r ! *j t..
i!
.jl
.it i

\{r:
-\.i-
;T.,

,.j.'-.4-, .-., .;"..,:l'.

'

, ', I i 1 ,
'",.;

Gambar 5. 1 8 Ben'tuk arsitektur jaringan neural I-VQ

Arsitektur Jaringan

Bentuk arsiteltur jaringan neural LVQ dapat dilihat dalam Gambar 5.18. Pada

dasarnl,a jaringan ini serupa dengan janngan peta swa-or-sanisasi Kohonen (bila
tanpa adan1,'a struktur topologi diantara unit-unit keluarannya). Sebagai catatan,
setiap unit keluaran merupakan wakil dari suatu kelas tertentu.

Algoritma Pembelajaran Jaringan

Tujuan dari algoritma jaringan LVQ adalah mendapatkan unit keluaran yang paling
minp dengan vektor masukan. Sehingga pada akhimya kita akan mendapatkan
kondisi : apabila x dan wc merupakan bagian dari kelas yang sama, maka kita akan
menggeser lektor bobot mendekati vektor masukan ini; dan apabila x dan rvc
merupakan bagian dari kelas yang berbeda, kita menggeser vektor bobot untuk
menjauhi vektor masukan tersebut.
Penamaan yang digunakan adalah sbb. :

x vekrorpelatihan (xl.. . , xi,.. .. xn)


-t kategori atau kelas yang benar untuk vektor pelatihan

52_s
wj vektor bobot untuk unit keluaran ke-j (wlj. , t i, . , win)

Cj kategori atau kelas yang dirvakili oleh unit keluaran ke-i

;ir-ttill jarak Euclidean antara vektor masukan dan vektor bobot dari unit keluaran ke-j

Langkah 0. Inisialisasi vektor-vektor acuan (beberapa teknik akan


dibicarakan secara singkat)
Inisialrsasi pula laju pembelajaran cr(O)

Langkah l selama syarat henti masih salah, lakukan Langkah 2 - 6.


Langkah 2. Untuk setiap vektor masukan (pelatihan) x. lakukan
Langkah 3 - 4

Larrgkah 3. Cari J sehingga llx-rv.,]1 berhar-ca tninimunr

Langkah 4. Perbaharui *j menurut


Bila T: Ci. maka

w,(new) = v'i@ld) + alx - t;' ,(old));

Bila T:'Cj. maka

w,(nev,) = w,(o I tl) - af"-r - v,,lol d ));


Langkah 5. Kuran-ei harga laju pembelajaran

Langkah 6 Uji syarat henti :

Uji syarat henti ini dapat dilakukan berdasarkan jumlah iterasi tertentu (mulai dari
Langkah i), atau seteiah laju pembelaiaran yang telah mencapai harga yang
sangat kecil
4.3 Aplikasi

Metoda paling sederhana dalam melakukan inisialisai veklor-vektor


bobot (acuan), adalah dengan mengambil sekumpulan vektor-vektor
awal pelatihan (1, , m) sebagai vektor- vektor bobotnya, dan
menggunakan vektor-vektor sisanya untuk proses pelatihannya]. Metoda
ini digxrnakan dalam Contoh 7. Metoda sederhana yang lain, yang

digunakan dalam Contoh 8. adalah memberikan nilai-nilai acak bagi


vektor- vektor bobot berikut klasifi kasinya.

Kemungkinan lain dari metoda inisialisasi nilai bobot-bobot adalah


menggunalian penentuan bobot-bobot dari pengelompokan nilai rata-rata
K (K-mean. atau peta sura-organisasi Kohonen. Setiap veklor bobot ini

526
kemudian dikalibrasi dengan carq pertama, menentukan pola-pola
masukan -yang paling berkesesuaian dengan vektor bobotnya. sehingga
akan terlihat suatu kelas yang mempunyai jumlah anggota fiumlah pola-
pola masukan) terbanyak. Kemudian kelas terscbut dapat dinyatalian
dengan vektor bobotnya

Contoh Sederhana

Contoh 7. Kuantisasi Vektor Pembelajaran (LVQ) : lima vektor


ditempatkan dalam dua kelas

Dalam contch -yang sangat sederhana ini, dua veklor acuan akan

digunakan. Vektor masukan yang merval,rili kedua kelas tersebut adalah


vektor masukan 1 dan vektor masukan 2 :

Vektor Kelas
(1, 1,0,0) 1

(0, 0, 0, 1) 2
(0,0, l, 1) 2
(1,0.0,0) I
(0, 1, 1,0) 2

Dua vektor bagian atas digunakan sebagai inisiahsasi dua veklor acuan. Maka unit
keluaran pertama mervakili kelas 1, unit keluaran kedua mewakili kelas 2 (secara
simbolik, C1 : 1 dan C2 :2). Ketiga vektor sisa yaitu (0, 0, 1, 1), (1, 0, 0, 0) dan (0,
1, 1, 0) kemudian ciipergunakan sebagai vektor-vektor pelatihan. Dalam pernbahasan
disini, hanya akan diperlihatkan proses pembelajaran sebanyak satu iterasi saja.

Langkah 0. Inisialisaibobot-bobot
v'l - (1, 1,0,0)
v2 - (0,0, 0, l)
Inisralisasi laju pernbelajaran a : 0.1 .

527
Langkah 1. Perhitungan dimulai
Langkah 2. Untuk r-ektor masukan X: (0, 0, 1. 1) dengan T :2,lakukan Langkah 3- 4
Langkah 3. J :2. karena X lebih sesuai dengan rv2 daripada u'1
I-angkah 4. Karena T : 2 dan C2 :2, perbaharui w2 sebagai
t\r2: ( 0" 0. 0, 1)-r .1 [( 1. 0. 0. 0) - ( 0.0, 0. 1)]
: ( 0,0, 1, l).
Langkah 2. Untuk vektor masukan X: (1. 0. 0. 0) den-uan 1': l. lakukan Langkah 3 - '1
Langkah 3. J: 1
Langkah 4. KarenaT: I dan Cl : 1. perbaharui rvl sebagai
t\'1 :( 1" 1. 0.0)*.1 [( 1. 0. 0. 0)-( l. 1,0,0)]
- ( 1, 9, 0.0)
'l
Langkah 2. Ljnruk vektor tnasukan X : (0. 1. 1. 0) dengan :2, lakukan Langkah 3 - 4
i-angkah 3. .l: I
Langkah 4. Karena T:2, dan Ci : 1. perbaharui rv1 sebagai
\\r2: ( l. .9.0.0)*.i [( 0. 1. 1.0) ( 1,.9.0.0)]
: ( 1.1, .89, - .1. 0).
Langkah 5. Dengan ini rnaka beratr<hjriah epoch pertarna proses pelatihan. Turunkan
nilai 1aj u pembelaj aran

Langkah 6. Uji kondisi henti

Contoh 8 Penggunaan LVQ : contoh geometrik dengan empat unit kelompok

Contoh ini menunjukkan penggunaan LVQ untuk menunjukkan titik-titik dalam

satuan bujur sangkar yang merupakan bagian dari salah satu dari empat kelas; yang

dalam Gambar 5.19 hingga Gambar 5.24 drnyatakan dengan simbol +,0,# dan *.
Akan terdapat 4 buah unit-kelompok, masing-masing untuk setiap kelas. Nilai-nilai
bobot diinisialisasikan sedemikian rupa sehingga unit-unit kelompok adalah titik-titik
pada ke-empat sudut bujur sangkar data masukan. Nilai awal bobot tersebut adalah.

Kelas i (+; 0 0
Kelas 2 (0) I 0
Kelas 3 (*) 1 1

Kelas 4 (#) 0 1

Data pelatihan yan-e dipergunakan dalam percobaan ini adalah data seperti telah
ditunjukkan dalam Gambar 5.19, dan hasilI dari percobaan jaringan ini untuk titik-
titik yang sama seperti data pelatihannl'a ditunjukkan dalam Gambar 5.19 hingga
Gambar 5.24.

528
*liilrliii!i-t :i:, #i+iiif#ila** {l iJ l} ri t"i rr
,tt ,tl
srfitr$!vq:r 11

il',.,::Il;l $ ii t.) :..t ; i fi{fS,T+UtU'J fitrF#ii{j!t,jU


-1.J
,. 1 -l
'.t a l_i:a:tr #'lf ++'t" I il il {.1
#$*t++{_iL}i.i
t
i{J.,,i.[iii
I
iI+++i++fJr") +++-++*iifil]
i t i i l i i rr;' -l.r-.r+t t.i-** i + +++++ii
-i"-1- -r T* a t-t
tli,"q
"' * *'*++++* * -I: "q-4. 14 *r
++++++* * * 6
- 1"
... -t I ".' l.J ?. P.
t"+ *."i +"+ s *' *
:r .1, -i- *- -l -l- *+" -{ f: i--i."+"++t*e"; * ++ +.* s *'H
n .i- .+. + ! i I .'. t. "J- l- + -l- +. t-* * s'
".1,-

*'i-'F++*:r x *

Gamhar 5. I9 Gambar 5 l[t Gambar 5.21


Data pelatihan Hasil setelah I er,och Hasil setelah 2 epoch

Inisiai nilai bobot Bobc.i setelah 1 epoch Bobot setelair 2 epoch


, , I ., -l I.l
i:.'-.i: 1.,-':

; ir "'!

I 'l
_l':::' I'l' -:'!
I I :
.1.,:l | ,.

i. -,.-
tl -,
i l. : ,1.

!i
lt 1! rjl
i4 I I
L,
i :J 'i
i ! !
":
' i ii:fir:ii::i.:,ji.:;
.!r /i ii
i
;i tt li '
{1 i1 r- i,
*'i- ':' i r ' , ,' ;
:- ili. ";i s {' ;i-i,.il: L, t',
i r i
1{ :ii
' 'i ,i3 ;; ;1 .j, |.-i :.' i 1: ri'i- '-' - r.'
- a, _1- i
'_,i
I
\ j'..-j
! I ,
j.. lt- -:^.,i{ ... .. . r'
i.-l + a."-4-+;t 4 -i. "; -r i- -' .L ,r :, ';
.}.,..,1, i-,,t *. * 6 '+
-.! -i,rl!l L ;- J- *",..i- 1 : 'i'
ir- -i- * i- + ;.. ?; 'tc * a- -i- T- 1 ?'"-- -' " "'
;*-l- -j. :. .r .: + it *. -r1t,r,-i-:=.-
?'"f'1 ; i '- t, ".
+ .l .{ -+--1.+ ri s ,\ n."t-f.-+'+.,^,1

Gambar 5.22 Gambar 5.23 Gambar 5.24


Hasil seteiah 3 epoch Hasil setelah 10 epoch Hasil setelah 40 epoch

Bobot setelah 3 epoch Bobot setelah 10 epoch Bobot setelah 40 epoch


{i, ri{i tl.i-1 ''-r" i:-:,,i :;.1: ,. i'. ,f ,
1"".11, ij''i
"il' l)'r;t'i iili'l i.:i-, i:e it1
-;-
i:i i.ii

"ri:' i^it:; il.lli; ':1. '


.,"...j

".i'' 'l .:-:' 1 .t d i ' : ,,


i"
li:: . j
l1 _,
":
ii .r,

529
Contoh 9. Penggunaan LVQ : lebih banyak unit-kelompok meningkatkan
kiner.ia

Dengan menggunakan data pelatihan scpcrti dalam Gambar 5.19 (pelatihan untuk
titik-titik masukan (x,y) . x : (-r.i i. i : 1, , 9; y : 0,1 j , j : i, . . . , 9) kita akan
menggunakan20 unit keluaran dengan nilai-nilar bobot dan kelas yang dir,l,akiliny'a
berdasarkan nilai inisialisasr secara acak. Sudah pasti bahrva ini akan rrenghilangkan
sebagian informasi selama proses inisialisasinya, akan tetapi kita rnelakukannl'a
untuk memperlihatkan kineqa si::tim. Dalarn pelaksanaannya, akan dipilih beberapa
poia vang rnewakili setiap keia-c untuk digunakan sebagai niiai au,al vektor acuan.

Den-san menggunakan laru pernbelajaran )'ang tetap" ),aitu 0.1, drlakLrkan


pelatihan sebanyak 1000 epoch. Jumlah epoch yang sangat besar ini diperlukan
sebagai akibat dari inisiahsasr nilai bobot lang ditentukan secara acak Untuk
memperiihatkan perbedaan daerah secara iebih jelas, maka kita akan menggunal:an
semua data (x,y) de;rgan x:0-il5 I.I:2^. .. . 18. ],:0,05 j, ):2,. . . ltt.
Hasil tahapan pelatihan untuk sejumlah epoch tertentu dituryukkan dalam

Gambar 5.25 hingga Gambar 5.3i. Perlu dicatat bahwa sebagian besar perubahan
distribusi dari veklor-veklor kelompok teryadi selama 100 epoch pertama. Akan
tetapi, tiga vektor-kelompok (satu untuk setiap peivakil kelas 2, kelas 3 dan keias 4)
terjebak didalam daerah yang dikelilingi oleh veklor masukan dari kelas 1 (yang
diberikan oleh simbol ' +').
Hasil yang didapat setelah i00, 200, 400, 600 dan 800 epoch memperlihatkan
bahwa jaringan neural ini menggeser vektor-vektor ini kearah-arah yang berlainan,
sebelum mendorong lebih jauh menulu ke arah sebelah kanan gambar. Hasil
klasifikasi akhir dari titik-titik gambar ini tetap tidak bisa mendapatkan bentuk-L dari
simbol '0' yang lebih haik dibandingkan dengan menggunakan metoda dalam contoh
sebelumnya. Hal ini disebabkan, sedikitny,a sebagian, karena inisialisasi acak dari
nil ai-ni lai bobotnl,a.

-sl0
,]

Gambar 5.25 Gan'rbar -5.i6 Gambar 5.27


Ilasil denqan inisial bobot randorn H::il -setelah 100 epoch Hasil seteiah 200 epoch

Gambar 5.28 Gambar 5.29 Gambar 5.30


Ifasil seteiah 400 epoch Hasil setelah 600 epoch Hasil setelah 800 epoch

Gambar 5.31
.I000
Hasil setelah epoch

531
Walaupun terdapat lebih banyak vektor yang mewakili setiap kelas, tetapi karena
vektor-veklor ini di terrpatkan daiam posisi -vang tidak bagus. maka ketika proses
pelatihan dimulai, sebagian besar unit-kelompoknya dipaksa untuk berada diposisr
bukan sebagai unit pemenang untuk setiap masukan yang diajukan. Inisialisasi nilai-
nilai bobot untuk unit-kelompok secara tepat akan sangat meningkatkan kinerja
LVQ

4.4 Beberapa Variasi Lain

Kita akan membahas beberapa ilenvempurnaan algoritrna LVQ, yang dinamakan


sebagai LVQ2" LVQ2.1 dan LVQ3. Dalarn aigoritrna LVQ yang dikernbangkan pada

masa arvalnl,'a, hanva vektor acuan lang paling dekat dengan vektor masultan saja
vang men_salami pembaharuan nilai. Arah pergerakan vektor ini tergantung pada.
apakah vektor acuan pemenangnya ini merupakan bagian dari kelas yang sama

dengan vektor masukan.

Didalam algoritma yang disempurnakan disini, akan diambil dua vektor (vektor
pemenang pertama dan vektor pemenang kedua) untuk melakukan proses

pembelajaran bila memenuhi beberapa kondisi. Dasar pemikirannya adalah bahwa

bila vektor masukan berada dalam posisi (kurang lebih) be{arak sama, baik diukur
dari posisi vektor pemenang pertama maupun vektor pemenang kedua, maka kedua
vektor ini harus melakukan proses pembelajaran.

LVQ2

Dalam modifikasi yang pertama, yaitu LVQ2, kondisi yang harus dipenuhi untuk
dapat merubah kedua vektor tersebut adalah :

1. Unit pemenang peftama dan unit pemenang kedua (vektor yang terdekat kedua)
merupakan wakil dari kelas yang berbeda.
2. Vektor masukan merupakan bagian dari kelas yang sama dengan unit pemenang
kedua.

3. J:irak antara vektor masukan dengan unit pemenang pertama cian jarak antara
r:ktor masukan denagn unit pemenang kedua kurang lebih berharga sama.
i

532
Kondisi ini dapat dinyatakan dalam konsep 'jendela' (rvindow), dengan notasi sbb :
x veklor masukan saat ini
yc veklor acuan yang paling dekat dengan x
yr vektor acuan kedua yang paling dekat dengan x (pernenang kedua)
dc jarak antara x dan yc
dr iarak antara x dan rr
Agar dapat dilakukan pembaharuan nilai vektor acuan, sebuah 'jendela' drdefinisikan
sebagar : Vektor masukan x berada dalarn 'jendela' apabila

ltrt- u
d

4..t+,
d,

dengan nilai e yang bergantung pada jumlah contoh pelatihan, dan biasanya diberi
nilai 0.35.
Dalam LVQ2, vektor yc dan vektor yr diperbaharui bila vektor masukan x beracia
dalam 'jendela'; juga yc dan r.r merupakan bagian dari kelas yang berbeda; dan x
merupakan bagian dari kelas yang sama dengan yr. Bila kondisi-kondisi ini
terpenuhi, maka vektor acwrn terdekat pertama dan veklor acuan terdekat kedua akan
diperbaharui menjadi :

y"(t +1) = y"(t) - a(t)lx(t) - y,(t)1,


y"(t +1) = y"(t)+ a(t)lx(t)- y"(r)l-

LVQ2.1

Dalam modifikasi yang dinamakan sebagai LVQ2.1, Kohonen menyatakan kedua


vektor acuan terdekat adalah yc1 dan yc2. Persyaratan untuk melakukan

pembaharuan vektor-vektor ini ialah, apabila salah satu diantara vektor-vektor


tersebut, misalnya ycl, merupakan bagian dari kelas yang benar (bagr vektor
masukan saat ini, x) dan vektor yc2 tidak termasuk kelas yang sama dengan x.

_s 3l
I

*Lt

Tidak seperti LVQ biasa, LVQ2.1 tidak dapat membedakan apakan vektor
pemenang pertama merupakan vektor pervakil dari kelas yang benar atau kelas yang
tidak-benar bagi vektor masukan. Seperti juga LVQ2, algoritma LVQ2.1 ini juga
mernbutuhkan kondisi bahrva x harus berada dalam Jendela' untuk dapat rnelakukan
pembaharuan nilai-nilai veklornya. Pengujian yang harus dipenuhi untuk kondisi
'iendela' ini acialah :

mipl
la. d-1
--''-, i'l>l-e
ld,z ,1" )
dan
T, ,I
It1 11-
'' - " I<l+e
I

minl
l.t'Jl
IL u-t
LL
u-,
(! J
I

Persyaratan yang semakin sulit ini disebabkan karena kita tidak mengetahui
apakah x lebih dekat kearah vcl atau yc2. Apabila kondisi-kondisi ini terpenuhi,

maka vektor acuan yang termasuk dalam kelas yang sama dengan x akan

diperbaharui menurut persamaan

y"r(t +l) = !,r(r) + a(r)[x (t) - y"r(t)];

dan vektor acrutn yang tidak termasuk dalam kelas yang sarna dengan x akan
diperbaharui menurut persamaan

y,z(t +l) = l,zQ)- a(.r)lx(t)- y"r(t)l

LVQ3

Dalam penyempurnaan lebih lanjut, dinamakan sebagai LVQ3, jaringan


memperbolehkan kedua veklor terdekat ini untuk melakukan proses pembelajaran
selama vektor masukan memenuhi persyaratan kondisi Jendela' sebagai berikut
i
?
I t
"[,
la, d"l
t)'.t'' -
mrn! "= l> (l-e)(1+s)
\ LLt,.2 u a)
I

tr

clengan nilai e yang biasanya ditentykan sebagai e:0,2. (Kondisi 'jendela' ini juga
cligunakan untuk LVQ2 Apabila satu dari kedua vektor terdekat. mrsalnva yc1.

ternrasuk dalarn kelas yang sama dengan veklor masukan x. dan vektor kedua, yc2
tenrasuk daiarn kelas yang berbeda, maka pernbaharuan nilai bobot akan sama

dengan t-VQ2.1. Akan tetapi, LVQ3 memperluas algoritma pelatihan apabila r,'ektor-

r,ektor x, vcl dan yc2 merupakan bagran dari kelas -yang sama. Dalam hal rni.
pembaharuan nilai bobot akan memenuhi persamaatt

.r'.(/ r-1)= -i,,-(1)+ f (.tiLxlt)-.v.(l)1.

baik untuk vektor ycl maupun yc2. Laju pembelqaran B(t) merupakan kelipatan dari
la-ju pembela.iaran u(t); digunakan apabila..,ci dan -vc2 temasuk dalam kelas vang
berbeda. Faklor pengali yang sesuai biasanya bernilai dia"ntara 0,1 dan 0-5. Nilai
yang lebih kecil rnenyatakan 'jendela' yang lebih sempit. Laju pembeiaiaran rni
secara simbolik dapat ditulis sebagai

f (t) = ma(r) untuk 0.1 < m < 0,5

Modifikasi proses pembelajaran ini telah memastikan bahwa vektor-vektor bobot


(vektor acuan, vektor codebook) akan terus melakukan proses pendekatan menu.ju
distribusi kelas yang benar. Modifikasi proses pembelajaran ini juga mencegah
vektor-veklor bobot ini untuk bergerak menjauhi posisi optirhalnya selama proses
pembelaj aran ini berlangsung.

iL

535

Anda mungkin juga menyukai