Anda di halaman 1dari 9

Self-Organizing Map (SOM)

Self-Organizing Map (SOM) atau sering disebut topology-preserving map pertama kali
diperkenalkan oleh Teuvo Kohonen pada tahun 1996. SOM merupakan salah satu teknik
dalam Neural Network yang bertujuan untuk melakukan visualisasi data dengan cara
mengurangi dimensi data melalui penggunaan self-organizing neural networks sehingga
manusia dapat mengerti high-dimensional data yang dipetakan dalam bentuk low-
dimensional data. Metode pembelajaran yang digunakan SOM adalah tanpa bimbingan
dari suatu data input-target atau unsupervised learning yang mengasumsikan sebuah
topologi yang terstruktur menjadian unit-unit kelas/cluster(Kohonen, 1989 dan Fausett,
1993).
Pada algoritma SOM, vektor bobot untuk setiap unit cluster berfungsi sebagai contoh
dari input pola yang terkait dengan cluster itu. Selama proses self-
organizing, cluster satuan yang bobotnya sesuai dengan pola vektor input yang paling
dekat (biasanya, kuadrat dari jarak Euclidean minimum) dipilih sebagai pemenang. Unit
pemenang dan unit tetangganya (dalam pengertian topologi dari unit cluster ) terus
memperbarui bobot mereka (Fausett, 1993). Setiap output akan bereaksi terhadap
pola input tertentu sehingga hasil Kohonen SOM akan menunjukkan adanya kesamaan
ciri antar anggota dalam cluster yang sama.
Dalam jaringan SOM, neuron target tidak diletakkan dalam sebuah baris seperti
layaknya model JST yang lain. Neuron target diletakkan dalam dua dimensi yang
bentuk/topologinya dapat diatur. Topologi yang berbeda akan menghasilkan neuron
sekitar neuron pemenang yang berbeda sehingga bobot yang dihaslkan juga akan
berbeda. Pada SOM, perubahan bobot tidak hanya dilakukan pada bobot garis yang
terhubung ke neuron pemenang saja, tetapi juga pada bobot garis ke neuron-neuron di
sekitarnya. neuron di sekitar neuron pemenang ditentukan berdasarkan jaraknya
dari neuron pemenang.
Arsitektur Topologi SOM
Arsitektur SOM merupakan jaringan yang terdiri dari dua lapisan (layer), yaitu lapisan
input dan lapisan output. Setiap neuron dalam lapisan input terhubung dengan
setiap neuron pada lapisan output. Setiap neuron dalam
lapisan output merepresentasikan kelas (cluster )dari input yang diberikan.

Gambar1 Arsitektur JST Self Organizing Map (Fausett, 1993)


Sedangkan untuk topologi, SOM memiliki 3 jenis topologi hubungan ketetanggaan
(neighborhood) yaitu linear array, rectangular dan heksagonal grid.

Topologi linear aray menunjukkan cluster unit yang tersusun secara linear. Cluster unit
yang menjadi pemenang [#] memiliki dua unit tetangga (neighbour) yang berjarak 1 (R =
1), dan mempunyai dua unit tetangga yang berjarak 2 (R = 2).

Gambar2 Linear Array Unit (Fausett, 1993)


Rectangular grid adalah topologi dari cluster unit dua dimensi. Unit tetangga (neighbour)
dari unit pemenang membentuk bujur sangkar. Unit pemenang [#] memiliki
8 neighbour berjarak 1 (R=1) dan 16 neighbour berjarak 2 (R=2).

Gambar 3 Rectangular Grid (Fausett, 1993)


Dalam topologi heksagonal grid, unit tetangga (neighbour) yang berjarak 1 (R=1) dari
unit pemenang adalah 6 dan yang berjarak 2 (R=2) adalah 12.

Gambar 4 Hexagonal Grid (Fausett, 1993)

Cara Kerja SOM


Secara umum, cara kerja SOM ditunjukkan oleh Gambar 5 dibawah ini:

Gambar 5 Cara Kerja SOM


Terdapat titik (x) pada ruang input untuk dipetakan ke titik I(x) pada ruang output. Setiap
titik (I) dalam ruang output akan memetakan ke titik yang sesuai dalam
ruang input melalui bobot wI(x).
Menurut Haykin (1999) terdapat tiga komponen penting dalam SOM yaitu:

1. Competition: Untuk setiap pola input, neuron menghitung nilai masing-masing


fungsi diskriminan yang memberi dasar untuk kompetisi. Neuron tertentu
dengan nilai terkecil dari fungsi diskriminan dinyatakan sebagai pemenang.
2. Cooperation: Neuron pemenang menentukan lokasi spasial dari lingkungan
topologi excited neuron untuk memberi dasar kerjasama dalam suatu
lingkungan neuron.
3. Synaptic Adaption: Excited neuron menurunkan nilai fungsi diskriminan yang
berkaitan dengan pola input melalui penyesuaian bobot terkait sehingga respon
dari neuron pemenang keaplikasi berikutnya dengan pola input yang sama akan
meningkat.
Pustaka
Fausett. L.V (1993). Fundamental of Neural Network: Architectures, Algorithm, And
Application. Prentice Hall, 1st edition. ISBN-13: 978-0133341867.

Haykin, S. (1999). Neural Networks: A Comprehensive Foundation. England: Pearson


Education. Hal. 23, 43-45.
Kohonen, T (1989). “Self-organizing feature maps.” Self-organization and associative
memory. Springer Berlin Heidelberg. 119-157.
Kohonen, T.,Schroeder, M. R and Huang, T (2001)Self-organizing map. Springer-Verlag
New York. Inc., Secaucus, NJ, 43, 2.

Self Organizing Feature Map (SOM)


Posted on Januari 18, 2007 by Anto Satriyo Nugroho

1. Apakah SOM itu ?


Salah satu teknik lain untuk menganalisa data pada dimensi tinggi adalah dengan SOM (Self
Organizing Feature Map). SOM dikembangkan Prof. Teuvo Kohonen (Finland) untuk
memproyeksikan data ke 1 atau 2 dimensi, dengan mempertahankan topologi data tsb.
(topological mapping). Data yang di ruang vektor berdimensi tinggi berdekatan, saat
dipetakan ke ruang vektor 2D, akan terletak pada lokasi yang berdekatan pula, vice
versa.
2. Algoritma SOM
Algoritma SOM adalah sbb.

1. Inisialisasi random reference vector untuk tiap neuron. Misalnya struktur yang
dipakai adalah two-dimensional array SOM, diatur pada array n x n. Tiap vektor
berdimensi d,sama dengan dimensi data.
2. Untuk tiap input vector training data x, tentukan best-matching neuron. Yaitu
neuron yang memiliki jarak terdekat dengan input vector x, diukur memakai
Euclidean distance. Neuron ini disebut winner.
3. Update-lah reference vector dari winner neuron ini dan neighboring neuron.
Neighboring neuron ini didefinisikan sebagai neuron yang topographically berada
pada posisi yang dekat dengan winner neuron di array n x n. Misalnya pada gambar
di bawah (klik-lah untuk memperbesar), jika neuron yang berwarna merah adalah
winner neuron untuk suatu input vector, maka neighboring neuron untuk winner
neuron ini adalah mereka yang terletak di dalam lingkaran area, yang didefinisikan
dengan Nc(t1), Nc(t2), …dst. Nc(t1) adalah batas area pada iterasi ke-1, Nc(t2)
adalah batas area pada iterasi ke-2, dst. Radius area semakin lama semakin
menyempit, misalnya sebagaimana didefinisikan oleh persamaan (3). Reference
vector diupdate berdasarkan persamaan (1), sedangkan neuron yang secara
topografi terletak jauh dari winner neuron tidak diupdate (persamaan (2) ).
Persamaan (3) mendefinisikan learning rate yang dipakai studi saya [4].
Step ke-3 ini yang membedakan SOM dengan algoritma vector quantization yang lain,
karena proses mapping dilakukan secara terurut (ordered mapping) dan merefleksikan
distribusi vektor x. Konsekuensinya data yang dipetakan pada suatu neuron S, akan
memiliki kemiripan karakteristik dengan data yang dipetakan ke neuron yang secara
topografi terletak didekat neuron S. Dengan kata lain, data yang pada ruang vektor
dimensi tinggi terletak berdekatan, akan dipetakan ke neuron pada two-dimensional-
array yang berdekatan juga.

3. Aplikasi SOM
Salah satu contoh SOM yang populer adalah World Poverty Map. Gambar yang terdapat
pada situs tersebut memetakan tingkat kemakmuran negara-negara di dunia yang
diukur berdasarkan berbagai parameter/indikator. Di web tsb. disebutkan banyaknya
indikator/parameter nya 39 jenis. Tentunya hasil evaluasi ini berupa data berdimensi
tinggi (39 dimensi). SOM dipakai untuk memetakan data kemakmuran itu ke dalam data
dua dimensi. Negara yang tingkat kemakmurannya sama, akan terletak pada lokasi yang
berdekatan dan berwarna sama. Indonesia (IDN) terletak di warna ungu. Negara yang
tingkat kemakmurannya dekat dengan Indonesia adalah Burma. Baru setelah itu diikuti
dengan Cina (CHN), Turki (TUR), dan Madagaskar (MDG). Tetapi data ini dibuat
berdasarkan data worldbank statistics pada tahun 1992. Tentunya kondisi saat ini
sudah jauh berubah. Cina mungkin sudah terletak pada posisi yang dekat dengan
Jepang.
Selain world poverty map, aplikasi SOM yang lain a.l. WebSOM. WebSOM memetakan
relasi antar dokumen di internet ke peta dua dimensi. Dua buah kata kunci yang
memiliki pengertian berdekatan, akan terletak pada jarak yang berdekatan.
Saya coba aplikasikan SOM pada data huruf Kanji. SOM pada eksperimen ini memiliki
144 neuron, yang disusun dalam two-dimensional grids, berukuran 12×12. Kanji yang
dipakai sebanyak 2965 (JIS-1). Gambar di bawah adalah plot reference vector dari ke-
144 neuron pada tiga kondisi : awal, tengah dan akhir proses learning. Masing-masing
gambar tersebut adalah plot pada iterasi ke 0 (awal), 10 dan 100. Pada iterasi ke-0,
weight di inisialisasi dengan random value. Setelah 10 kali iterasi, dapat dilihat pola
yang mulai terbentuk. Di akhir proses, yaitu iterasi ke 100, bagian root dari Kanji
tampak menonjol. Hal ini menunjukkan root dari huruf-huruf Kanji yang best-fit dengan
neuron itu. Terlihat dengan jelas bahwa root yang memiliki bentuk mirip akan terletak
berdekatan. Kimbeng, Ninben, dan berbagai root yang mirip terletak pada deret atas.
Setelah itu baru diikuti dengan Kanji yang memiliki root sansuihen, dan seterusnya.

Referensi
1. T. Kohonen, Self-Organizing Maps, Springer Series in Information Sciences, Vol.
30, Springer, Berlin, Heidelberg, New York, 1995, 1997, 2001.
2. Kumpulan link-nya dapat dilihat di http://www.cis.hut.fi/research/som-
research/
3. Demo dapat dilihat di http://www.cis.hut.fi/research/demos.shtml
4. A.S. Nugroho, S. Kuroyanagi, A. Iwata : Mathematical perspective of CombNET
and its application to meteorological prediction, Special Issue of Meteorological
Society of Japan on Mathematical Perspective of Neural Network and its Application
to Meteorological Problem, Meteorological Research Note, No.203,pp.77-107,
October 2002 (Japanese Edition)

Anda mungkin juga menyukai