Anda di halaman 1dari 14

M.

Amin Hariadi/Pengenalan Tulisan Tangan

51

Pengenalan Tulisan Tangan Dengan


Menggunakan
Feature Recognition Algorithm
M. Amin Hariadi

Abstract
This paper presents a Feature Recognition Network for pattern recognition that
learns the patterns by remembering their different segments. The basa algorithm for this
network is a Boolean net. Simulation results show that the network can recognize
patterns after significant noise, deformation, translation and event scaling. The network
is compared to existing popular network used for the same purpose. The network is also
analized as regard to interconnection complexity and information storage/retrieval.
Keywords: jaringan saraf, Novel Feature Recognition, algoritma Boolean Net, citra
digital

PENDAHULUAN
Jaringan saraf tiruan (Artificial
Neural Network) merupakan bagian
dari teknologi komputer yang saat ini
banyak dikembangkan guna pembuatan
aplikasi-aplikasi
dalam
berbagai
bidang, penerapan jaringan saraf tiruan
tidak terbatas pada bidang pembuatan
perangkat lunak (software) melainkan
juga diterapkan pada pembuatan
perangkat keras (hardware).
Revolusi
jaringan
saraf
dikembangkan pada tahun delapan
puluhan. Algoritma baru ditawarkan
dan yang lama ditingkatkan. Setiap
algoritma dianalisa dan dianalisa ulang
untuk
menetapkan
attibutnya,
kekurangannya (flaw), dan batasannya.
Salah satu bidang yang diamati adalah
jaringan yang digunakan untuk
menerapkan fungsi-fungsi Boolean.
Beberapa metode populer yang ada
digunakan untuk melatih jaringan saraf

(Hopfield,1982). Ini termasuk Hopfield


Net (Hopfield dan Tank, 1986), Optimum
Calssifier Hamming Net (Gallagher,
1968), Leader Clustering Algorithm oleh
Carpenter/Grossberg
(Carpenter
dan
Grossberg, 1986), Preceptron Gaussian
Calssifier (Rosenblatt, 1959), Nearest
Nighbor Mixture (Duda dan Hart, 1973),
Kohonen K-means Clustering Algorithm
(Kohonen, 1984). Diantaranya mencakup
input bernilai menerus (Continue) dan
binari, seperti pembelajaran teramati dan
tak teramati (supervised dan unsupervised).
King dan Hwang (1989) telah
mengklasifikasikan arsitektur jaringan
saraf tiruan standar menjadi empat kelas :
a. Delta Class Rule (Perceptron oleh
Rosenblatt (1959) dan Adaline oleh
Widrow-Hoff).

52 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

b. Associative (memori assosiatif


dan assosiasi otomatis Hopfield
(1982))
c. Competitive
(jaringan
pembelajaran yang tak teramati
oleh
Carpenter/Grossberg
(1986)] dan Kohonen (1984))
d. Probailistic (mesin Boltzman
(Rumelhart dan MacCleland,
1986)
dan
Simulated
Annealing).
Arbib (1989) mendefinisikan proses
pembelajaran sebagai suatu vektor
latihan
yang
terbentuk
dengan
menggunakan suatu urutan sepasang
(xk,yk) dari ruang cartesian X x Y,
dimana xk adalah vektor input dan yk
vektor output yang berhubungan. Arbib
telah mendefinisikan tiga kriteria untuk
mengevaluasi unjuk kerja dari jaringan
saraf, yaitu :
a. Complexity : Apakah cukup
kompleks untuk di-encode-kan
suatu masalah?
b. Practicality : Dapatkah dicapai
suatu pemecahan di dalam
periode waktu yang layak?
c. Efficacy : Bagaimana dapat
menjamin generalisasi yang
sesuai konsep dari suatu solusi
yang berguna?
Perceptron
dipertimbangkan
menjadi suatu pengelompok binari
yang baik, namun mempunyai beberpa
batasan yang terpisah. Meskipun
linieritas dan algoritma pembelajaran
adalah
virtuous
properties,
kenyataannya bahwa perceptron tidak
hanya menangani masalah klasifikasi
sederhana seperti 2-b XOR, hal ini
mengakibatkan para peniliti tidak
memperhatikan
potensialnya/kemampuan jaringan ini. Masalah
yang ada dapat dipecahkan dengan

menggunakan
dua
lapis
jaringan
Perceptron.
Widrow-Hoff menyarankan aturan
Delta yang mempertahankan bahwa tidak
ada perubahan beban (bobot) yang terjadi
jika unjuk kerja yang sebenarnya dan yang
diharapkan sesuai. Dalam kasus suatu
perbedaan (bila terjadi perbedaan),
perubahan pada bobot adalah proposional
terhadap
error
yang
diperhatikan
(Ramelhart
dan
MacCleland,1986).
Kohonen (1984) menyediakan alternatif
yang lebih sederhana terhadap aturan
pembelajaran Perceptron dalam rancangan
memori assosiatifnya.
Karena
Aljabar
Boolean
dipertimbangkan menjadi pemecahan
yang terbaik terhadap masalah klasifikasi,
representasi dari masalah pada Logic
Boolean dan konsekuensinya penerapan
jaringan saraf akan sangat membantu pada
pengelompokannya
(Classification).
Meskipun beberapa fungsi Boolean secara
linier terpisah, tidak semua fungsi dapat
diterapkan, hal ini menunjukkan tidak ada
algoritma umum yang dapat menerapkan
stiap fungsi Boolean.
Hasil penelitian terbaru oleh D. E.
Rumelhart dan J. L. McCleland
menyatakan
Although
multilayered
system of linear threshold units are very
powerful and capable of computing any
Boolean function, there is no learning
algorithm for the general case. Suatu
variasi daria aturan delta dikenal sebagai
Generalized Delta Rule (aturan delta yang
digeneralisasi) digunakan untuk melatih
jaringan kerja perceptron multilayer.
Aturan juga diterapkan pada jaringan
XOR, pengecek parity, encoder, penggeser
(shiffer), negator, dan penambah (Adder).
Untuk kasus yang umum suatu jaringan
akan mampu mempelajari (learning)
setelah melalui iterasi dalam jumlah yang
besar. Suatu jaringan saraf digunakan
unruk menerapkan fungsi-fungsi Boolean
disajikan pada gambar 1. Jaringan ini
menggunakan korelasi antar nilai-nilai

M. Amin Hariadi/Pengenalan Tulisan Tangan

input dan fungsi-fungsi output, setiap


bobot dapat mengambil nilai integer
dari -2N sampai 2N dimana N adalah
jumlah dari variabel input. Suatu tabel
penyimpan Boolean dalam orde N,
maka 2N diperlukan untuk menyimpan
bobot.
Input : A set of training vectors, A k ,
k = 1,2, , K
Step1 : Accept A k = [a 1k , a 2 k ,
, a nk ], a ik {0,1}
Where a ik , i = 1, .., n are
parameters associated with A
k

Step 2: Calculate W k = [w 1k , w
2 k , , w kn ], w ik {1,1}
W k is the weight vector
associated with A k
It is calculated as w ik = 2a
ik - 1 i.e.,
1 if a ik = 1
w ik =
-1 if a ik = 0
Step 3: Set the k th neurons
threshold as k = i a ik
w ik
Step 4 : Repeat A k by going
back to step 1
Output : A set of weight vectors W k
and neuron thresholds k
Gambar 1. Algoritma untuk
Implementasi Boolean
Sangat sedikit yang brhasil mencoba
memecahkan masalah pengenalan
karakter menggunakan jaringan saraf ,

53

hanya beberapa yang telah berhasil. Ada


dua jaringan yang layak mendapatkan
perhatian, pertama Jaringan empat lapis
perceptron dan yang kedua Neocognitron.
Perceptron empat lapis mampu mengenali
pola yang bergeser hanya jika jarak
pergeseran sama dengan salah satu nilainilai spesifik yang telah ditetapkan selama
pelatihan. Neocognitron adalah jaringan
yang sangat kompleks yang menyediakan
hasil-hasil pengenalan yang sangat bagus
terhadap pola-pola yang terdeformasi dan
noise.
Modifikasi berikutnya dikenal dengan
Percognitron,
dimana
Neocognitron
dikopelkan dengan layer Perceptron,
sehingga jaringan mampu mengenali polapola yang terdistorsi dan bergeser tetapi
tingkat kompleksitasnya lebih tinggi dari
pada Neocognitron.
PENERAPAN

DARI

ALGORITMA

FEATURE RECOGNITION
Algoritma jaringan saraf yang ada tidak
dapat menjelaskan dirinya sendiri secara
analitikal sebagai pertumbuhan lapis demi
lapis tersembunyi, bahkan jika jaringan
saraf tersebut konvergen maka akan
mempergunakan jumlah iterasi yang tak
terbatas agar jaringan saraf tersebut dapat
bekerja dengan baik. Pada penelitian ini
(makalah) mengembangkan algoritma
jaringan
Boolean
yang
menjamin
transformasi dari setiap fungsi Boolean
terhadap
suatu
fungsi
threshold,
menggunakan bobot integer sederhana dan
hanya dua layer. Selanjutnya konvergensi
hanya menggunakan itrasi tunggal dan
algoritma yang ada dapat dianalisa secara
matematis. Ada dua versi algoritma ini,
versi binari dan versi umum. Versi binari
berhubungan dengan implementasi fungsifungsi bernilai menerus (fungsi-fungsi
skalar terbobot). Penelitian (makalah) ini
menggunakan versi binari dari algoritma
Boolean.

54 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

a. Algoritma

Pelatihan

Jaringan

Algoritma pelatihan jaringan Boolean


dijelaskan pada gambar 2. untuk total dari
vektor-vektor pelatihan K.

Boolean
/* Pelatihan jaringan */
For i = 1 to k do /* k=total dari banyaknya pola pelatihan */
Terima Pola A i ;
Hitung Weight (bobot) W i ;
For sub-patterns (pola-pola) A ilm /* l =1 2, m = 1 2 */
Hitung banyaknya inputan yang benar ilm dan set nilai ambang (threshold);
Endfor
/* Pengenalan (Recognize) terhadap pola-pola baru */
For r = 1 to n do /* n = total dari banyaknya pola yang diklasifikasikan */
Terima Pola A r ;
For i = 1 to k do
Hitung inner product P rilm ; /* inner product dari A rim dengan neuron A ilm */
If P rilm = ilm ; set par fire ilm = 1; /* rekam (record) sebagian firing */
Hitung fire i = lm par fire ilm ; /* cek keseluruhan firing */
Pilih (select) MAX(fire) and output class;
Enfor
Gambar 2. Algoritma Feature Recognition untuk trainning dan detection pola

Algoritma tersebut didasarkan pada


teorema berikut yang menyediakan
hubungan antara suatu vektor masukan
dan vektor bobot.
Teori : Untuk setiap vektor input A
,
ada suatu vektor bobot W k dan
k
suatu
threshold
yang
akan
menghasilkan sinyal dari neuron untuk
seluruh vektor A j A k , elemenelemen vektor bobot (I = 1 n)
didefinisikan sebagai w ik = 2a ik - 1
dan k i aik wik
Bukti : Dapat ditunjukkan bahwa
gambar di atas menyediakan suatu
vektor bobot yang akan mengaktifkan
neuron hanya dengan vektor inpit
tertentu. Jumlah AkT Wk adalah firing

threshold, untuk itu perlu dibuktikan


bahwa :
A j Ak , ATj Wk AkT Wk

sehingga neuron tidak menghasilkan


sinyal. Dua kasus yang memungkinkan ;
i). a ik merubah 0 1 : jika a ik
diperlukan menjadi nol secara awalnya,
kemudian wik 1 . Bila a ik merubah 0
1,
input
pada
pertanyaan
menyumbangkan ekstra -1 terhadap
T
jumlah sehingga i a ik wik Ak Wk 1 ,
sehingga neuron tidak akan menghasilkan
sinyal.
ii). a ik merubah 1 0 : jika a ik
diperlukan menjadi satu pada awalnya,
kemudian wik 1 . Bila a ik merubah 0

M. Amin Hariadi/Pengenalan Tulisan Tangan

1, input yang pada awalnya


menyumbangkan +1 terhadap jumlah,
sekarang mengkontribusikan 0 (nol).
sehingga
i aik wik AkT Wk 1 ,
sehingga
neuron
tidak
akan
menghasilkan sinyal.
Sehingga
efek
penghambat
dihasilkan pada kedua kasus, jelas
bahwa perubahan multiple hanya
membuat efek lebih kuat.
Kesimpulan : Jika suatu vektor
pelatihan dan vektor klasifikasi berbeda
dengan suatu jarak Hamming (d), dot
produk dan produk node dengan vektor
baru d kurang dari threshold yang
terprogram
(tidak
menghasilkan
sinyal). Ini merupakan bukti dari
pernyataan di atas, hasil ini sangat
berguna untuk memulai klasifikasi
pola.
Pada
pengklasifikasian
yang
dirancang ini, maka nilai ambang dari
setiap node dimodifikasi sebagai
berikut :
k =

a
11

ik

wik rk

55

di mana r k adalah jarak yang masih


dapat dijangkau atau radius yang masih
dapat
diklasifikasikan
(radius
of
attraction) untuk node yang ke k. Untuk
semua pola yang berbeda dari pola yang
disimpan dengan jarak humming sebesar
rk , maka tidak ada neuron yang
bersesuian yang akan menghasilkan
sinyal. Jadi pelatihan pada jaringan saraf
Boolean ini,diimplementasikan dengan
mengingat seluruh vektor pelatihan dalam
memori komputer (RAM), dan secara
umum diimplementasikan dengan radius
of attraction. Jaringan saraf tiruan Boolean
ini adalah jaringan saraf seperti yang telah
disinggung sebelumnya.
Terdapat tiga hal penting yang
menguntungkan bila pengklasifikasian
dilakukan dengan jaringan saraf Boolean
ini, dan dijamin: pasti konvergen, masalah
K = 1 dari sebuah eksemplar yang baru
pelatihan
tanpa fase unlearning yang panjang, bobot
biner {-1,1} dan nilai ambang berharga integer,
dalam
hal
ini
membuat
implementasi yang mudah pada perangkat
lunak dan operasi perhitungan yang lebih
Vektor
cepat.

Start

Pelatihan

W = 2a - 1

Theta

Stop

56 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

Gambar 3. Flowchart pelatihan jaringan Boolean

b. Algoritma Feature Recognition

M. Amin Hariadi/Pengenalan Tulisan Tangan

Algoritma menggunakan skema


deteksi pola hirarki. Pola asli berukuran
10 x 10 dibagi secara horisontal dan
vertikal (4 x 4) untuk memberikan
kenaikan sampai 16 sub pola, masingmasing subpola berukuran 2 x 2.
Subpola diberi label A1A4, B1
B4, C1C4, D1D4. Pembagian 4 x 4
pada pola dipilih karena membagi grid
secara simetris, meskipun pembagian
lain memungkinkan. Sehingga pola
yang ada dibagi dalam 64 bagian (blok).
Langkah-langkah yang dilakukan oleh
Algoritma untuk mengenali setiap pola :
1.

Mempelajari
seluruh pola-pola pelatihan dan
mengingat subpola
2.
Membagi
pola
input baru ke dalam 16 bagian (64
segmen/blok)
3.
Membandingkan
masing-masing segmen secara
individu terhadap segmen-segmen
yang berhubungan dari pola-pola
yang
dilatih
untuk
menghitungsetiap kesesuaian.
4.
Mendapatkan
jumlah total segmen yang sesuai
untuk setiap pola.

57

Algoritma untuk klasifikasi pola baru


secara signifikan berbeda seperti
perlakuan
fungsi-fungsi
yang
dinyatakan di atas. Algoritma ini juga
mendeteksi setiap pergeseran posisional
yang terjadi. Topologi yang ada mampu
mendeteksi adanya pergeseran dari
pola-pola yang ada. Dalam kata lain,
algoritma dapat mendeteksi setiap
perpindahan atau perubahan dari polapola yang akan dideteksi (dikenali).
Algoritma memberikan hasil simulasi
yang cukup baik di mana efek dari
perpindahan dirasa cukup terlihat.
Bagian algoritma diperlihatkan pada
gambar 2. Untuk deteksi translasi akan
dijelaskan pada topologi interkoneksi
jaringan.
c. Topologi Jaringan
Jaringan mengikuti skema deteksi
dua
tingkat,
tingkat
pertama
bertanggung jawab untuk mendeteksi
pola-pola mereka sendiri seperti
menyediakan kelas output. Gambar 4
menunjukkan interkoneksi antara dua
tingkat untuk deteksi suatu pola
tunggal.

58 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

Gambar 4. Sub-sub pola dan interkoneksi antara dua tingkat

Gambar 5. Arsitektur jaringan tingkat atas (Top-level)

M. Amin Hariadi/Pengenalan Tulisan Tangan

1) Arsitektur tingkat Atas :


Grid pola mendistribusikan
input pada seluruh tingkat
pertama.
Neuron
yang
mendeteksi sub-sub pola
mengumpankan
neuron
tunggal pada tingkat dua
yang memberikan sinyal
jika 4 sub pola terdeteksi.
Suatu ROA (radius of
attraction)
ditempatkan
disekeliling neuron deteksi
pola
utama
untuk
menghitung
kesesuaian
yang terdekat, karena dari 4
neuron pada tingkat pertama
akan
jarang
sekali
menghasilkan sinyal secara
simultan. Arsitektur tingkat
atas
dari
jaringan
ditunjukkan pada gambar 5.
Grid pola dihubungkan ke
satu tingkat neuron yang
terhubung ke neuron deteksi
pola utama. Setiap neuron
induk mempunyai 4 neuron
seperti
pada
gambar.
Neuron induk kemudian
dihubungkan
ke
layer
output yang menyediakan
output kelas.
2) Deteksi sub Pola : Secara
lebih dekat dapat diketahui
bagaimana
subpola
terdeteksi bahkan ketika
objek tergeser. Misalnya
pada subpola B2, topologi
yang serupa diterapkan
keseluruh subpola lainnya.
Diketahui bahwa B2 adalah
bagian dari pola, yang mana
sudut kiri atas terletak pada
(x,y) = (4,4) dan sudut
kanan bawah terletak pada
(x,y) = (7,7). Untuk proses
pendeteksian suatu pola

59

(obyek)
dan
pola
yang
mengalami
pergeseran
digunakan
suatu
metode
segmentasi, walaupun suatu
pola bergeser dari aslinya
(origin) ke tempat yang
berbeda/koordinatnya berbeda
(seperti kasus diatas), tidak
mempunyai pengaruh dalam
proses pengenalan dari suatu
pola. Hal ini disebabkan
penentuan frame (batas area)
dari suatu pola (object) dalam
citra dapat dibagi menjadi
daerah-daerah yang homogen.

d. Atribut-atribut Algoritma
Atribut-atribut yang digunakan dalam
algoritma ini :
1) Jumlah Sweep : Jaringan saraf
yang ada melewati jumlah
penyapuan (number of sweeps)
yang tak terbatas dari pola-pla
pelatihan sebelum jaringan
mendapat pelatihan. Setelah
jaringan saraf dilatih, sangat
sulit memperkenalkan pola
pembelajaran baru. Pengenalan
tersebut dimaksudkan agar
jaringan harus melewati suatu
fase tak terpelajar cukup
panjang sebelum jaringan
dapat belajar lagi. Di lain pihak
jaringan saraf yang ditawarkan
hanya melalui satu pembersih
(sweep) pola untuk diingat,
meskipun sudah melalui tahap
pembelajaran,
suatu
pola
pelatihan baru dapat ditambahkan
setiap
waktu
terhadap jaringan yang terlatih
tanpa melalui siklus iterasi
yang berulang-ulang.

60 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

2) Konvergensi : Meskipun
aturan yang cukup kuat
seperti The Generalized
Delta
Rule
biasanya
berhasil dalam pelatihan
suatu pola, konvergensi
tidak selalu menjamin, ini
menjadi kelemahan utama
jaringan
saraf
yang
terdahulu, karena tidak
dapat menjelaskan diri
sendiri secara matematis.
Secara berlawanan jaringan
saraf
yang
ditawarkan
menjamin
terhadap
konvergensi pada suatu
sweep tunggal. Sebagai
tambahan jaringan saraf
standar
menggunakan
skema pengaturan bobot
yang kompleks, sedangkan
jaringan
saraf
yang
ditawarkan menggunakan
bobot integer sederhana.
3) Ruggedness : Simulasi
pengenalan
karakter
dilakukan
menggunakan
algoritma ini menunjukkan
bahwa noise dan distoris
yang dipertimbangkan dapat
ditoleransi.
4) Sistem Berdiri Sendiri :
Beberapa
jaringan
menggunakan
tingkat
pemrosesan (preprocessing)
untuk
menggabungkan
invarian
terhadap
efek
geometri tertentu. Jaringan
ini
sepenuhnya
berdiri

sendiri
dan
mengenali
pergeseran, penskalaan, dan
noise.

SIMULASI DAN HASIL


Pada bagian ini, disediakan hasil-hasil
simulasi dari algoritma yang dipakai pada
masalah pengenalan karakter. Teknik
kesesuaian
template
konvensional
dibuktikan tidak sesuai karena intensitas
komputasional yang diperlukan untuk
pemrosesan
real
time
meningkat.
Sejumlah algoritma jaringan syaraf telah
digunakan untuk mencoba dan mencapai
hasil yang diinginkan ketika beroperasi
real time. Kegunaannya untuk mengenali
karakter alphanumeric tanpa memperhatikan posisinya dalam bidang citra
(translasi),
sensor
noise,
scaling,
deformasi dan rotasi.
Jaringan yang digunakan terdiri dari
tiga lapis, di mana lapis pertama dan
kedua ditujukan untuk mengambil setiap
pola yang tersimpan dengan senpersen
akurasi ketika pola disajikan kembali.
Juga
polapola
yang
terambil,
tertlanslasikan, noisy, dan terdeformasi.
Langkah untuk mendeteksi translasi ke
pra-pemrosesan
(preprocessing)
dipergunakan
proses
segmentasi.
Sehingga jaringan yang ada dapat
mengenali pola dan mengabaikan
translasi, noise,deformasi dan bahkan
penskalaan. Serta adanya rotasi bila polapola disajikan dalam cara pelatihan
tersebut.

M. Amin Hariadi/Pengenalan Tulisan Tangan

Gambar 6. Eksemplar pelatihan untuk jaringan

61

62 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

a. Metodologi klasifikasi

b. Hasil

Kerja jaringan saraf lengkap dibagi


dalam dua operasi : pelatihan dan
klasifikasi. Selama sesi pelatihan,
jaringan disajikan dengan pola-pola

Pola-pola pelatihan dan pola-pola


yang akan dikenali dapat dilihat pada
gambar 6. Pola-pola yang dilatihkan
pada jaringan tahap awal tidak perlu
dilatihkan secara keseluruhan, tetapi
pola tersebut hanya dilatihkan beberapa
saja. Setelah pola mendapat latihan
pada tahap awal kemudian jaringan
digunakan untuk mengenali pola yang
sama sekali belum dilatihlan, dari hasil
pengenalan berapa jumlah yang telah
dikenali dan yang gagal, jumlah yang
gagal dikenali ini digunakan sebagai
inputan pada training adaptif. Denga
metode
ini
tentunya
dapat
meminimalisasi bahkan meniadakan
kegagalan jaringan dalam mengenali
suatu pola.
Pola-pola pelatihan yang ada terdiri
dari: huruf besar, huruf kecil dan
sebagian angka.
1.
Huruf besar : tegak, miring
kanan 1 (10-20o), miring
kanan 2 (25o-50o), diperbesar.
2.
Huruf kecil : tegak, miring
kanan 1 (10-20o), miring
kanan 2 (25o-50o), diperbesar.
3.
Angka dirotasi dengan sudut
10o, 30o, 45o, untuk sudut yang
lebih besar dapat saja diberikan
asalkan telah disediakan pada
pelatihannya.
Dari hasil pengujian dapat diketahui
tingkat keakuratan (validitas) jaringan
dalam mengenali pola-pola yang ada.
Tingkat validitas jaringan terhadap pola
yang belum dikenali (dilatihkan) ratarata 68.63%. Setelah jaringan
mengalami training secara adaptif maka
keakuratan jaringan menjadi 90%.
Kelebihan pelatihan jaringan secara
adaptif
adalah
pada
proses
pengklasifikasiannya,
dalam

yang diingat oleh neuron pada layer


pertama. Neuron-neuron tetap di tempat
dengan bagian masing-masing
anggota neuron mengingat 2x2 blok.
Ukuran blok dapat dirubah sesuai
dengan
kebutuhan
dan
tingkat
keakuratan yang diinginkan (maksimum
100 blok). Tujuan penggunaan blok
yang dapat dirubah adalah untuk menghindari adanya kesalahan dalam proses
pengklasifikasian, karena penentuan
ukuran blok juga menentukan jumlah
neuron yang akan dilibatkan. Misalnya
blok yang digunakan sebanyak 64
(minimum), jadi blok yang ada
dipertahankan dengan 16 neuron,
karena
masing-masing
neuron
mengingat 4 blok. Selama fase
klasifikasi, neuron layer pertama
mencoba menyesuaikan subpola yang
telah dipertahankan. Jika setiap 16
neuron memberikan sinyal, neuron lapis
kedua mengumpankan sinyal juga,
mengumumkan deteksi dari sub pola.
Enam puluh empat neuron bekerja
bersama-sama mendeteksi suatu pola.
Metode pelatihan yang digunakan
pada jaringan ini merupakan metode
Adaptif training. Di mana suatu pola
yang gagal dikenali maka pola tersebut
dapat berfungsi sebagai input dari jaringan, sehingga jaringan tersebut dapat
menambahkan atau membuat kelas yang
baru dari kelas yang telah ada.

M. Amin Hariadi/Pengenalan Tulisan Tangan

mengklasifikasikan suatu pola tidak


berdasarkan dari jumlah pola yang akan
diklasifikasikan, ini berarti bahwa
jumlah
pola
yang
dilatihkan
(diklasifikasikan) pada jaringan hanya
pola-pola yang belum dikenali. Dengan
cara demikian akan menghemat memori
yang digunakan oleh jaringan, besar
memori yang dapat dihemat 60%.
c. Kesimpulan
Algoritma
Feature
Recognition
Neural Network yang disajikan
memiliki kemampuan untuk mengambil
pola-pola yang terdistorsi, noisy,
penskalaan dan tegeser. Jaringan
menyediakan hasil-hasil yang sangat
menarik dapat dibandingkan dengan
salah satu dari metode yang ada
(terdahulu)
Proses pelatihan jaringan ini
menggunakan pelatihan secara adaptif,
dengan metode pelatihan semacam ini
jaringan
sangat
mudah
untuk
beradaptasi terhadap pola-pola yang
akan dikenali. Adaptif training ini dapat
meningkatkan kinerja jaringan, hal ini
disebabkan jaringan dapat menghemat
memori yang digunakan sebesar 60%.
Analisa dari jaringan menunjukkan
bahwa jaringan dapat secara tepat
menyesuaikan
pola-pola
secara
signifikan berbeda dari original
(bergeser). Meskipun pola yang mirip
(hampir sama) juga mampu dikenali
dengan cukup baik.
DAFTAR PUSTAKA
D. E. Rumelhart and J. L. McCleiiand,
Parallel Distributed Processing :
Exploration in The Microstrustures
of Cognition, vol. 1, Cambridge,
MA:M.I.T. Press, 1986.
D. H. Hubel and T. N. Wiesel.
Receptive
fields,
binocular
interaction and functional architec-

63

ture in cats visual cortex, J.


Physiology, vol. 160. pp. 106-154,
Jan. 1962.
Freeman, James A., dan David M.
Sakapura, Neural Networks :
Algorithms, Applications, and Programming Techniques. AddisonWesley Publishing Company, Inc.,
Reading. Messachusetts, 1991.
Fausett, Laurene, Fundamentals of
Neural Networks : Architectures
Algorithms, and Applications,
Prentice Hall International, Inc.,
Englewood Cliffs, New Jersey, 1994,
hal. 15.
G. A. Carpenter and S. Grossberg,
Neural dynamics of category
learning and recognition : Attention,
memory
consolidation
and
amnesia, in Brain Structure,
Learning, and Memory (AAAS
Symposium Series), J. Davis, R.
Newburgh, and E. Wegman Eds.,
1986.
Gonzales, Rafael C. da Paul Wintz.,
Digital
Image
Processing,
Addison-Wesley
Publlishing
Company,Reading
Massachusetts,
1987.
H. D. Block, B. W. Knight, and F.
Rosenblatt, Analysis of fourlayer
series-couplet perceptron. II, Rev.
Modern Phys., vol. 34, pp. 135-152,
Jan 1962.
J. J. Hopfield, Neural Networks and
physical systems with emergent
collective computational abilities,
in Proc. Nat. Acd. Sci., vol. 79, pp.
1544-2558, Apr. 1982.
J. J. Hopfield and D. W. Tank,
Computing with neural circuits : A
model, Science, vol. 233, pp. 623625, Aug. 1986.
K. Fukushima and N. Wake,
Handwritten
alphanumeric
character recognition by the
neocognitron, IEEE Transportasi.

64 Jurnal Matematika dan Komputer Indonesia Vol.1, No.1, Januari 2005 55 - 68

Neural Networks. Vol. 2, no. 3, May


1991.
M. A. Arbib, Neural computing, J.
Parallel
and
Distributed
Processing, vol. 6, no. 2, pp. 185216, Apr. 1989.
M. Misky and S. Papert, Perceptrons :
An Introduction to Computational
Geometry, Cambridge, MA : MIT
Press, 1969.
Robert
Hecht-Nielson,
Neuorocomputing, Addison-Wesly
Publishing Company, Inc., Reading,
MA. 1990. hal. 14.
R. O. Duda and P. E. Hart, Pattern
Classification and Scene Analysis,
New York : Wiley, New York, 1973.
R.
Rosenblatt,
Principles
of
Neurodynamics, New York :
Spartan, 1959.
S. Y. King ang J. N. Hwang, A united
systolic architecture for artificial
neural
networks,
J
Parallel
Distributed Processing, vol. 6. no. 6.
pp. 358-387, Apr. 1989.
T. Kohonen, Self Organization &
AssociativeMemory,
Berlin
:
Springer Verlag, 1984

R. C. Johnson and C. Brown, Cognizers


: Neural Networks and Machines
that think, New York : Wiley, 1988.
R. G. Gallagher, Information Theory
and Relliable Communication, New
York : Wiley, 1968.
R. G. Winter and B. Widrow,
Madaline rule II : A training
algorithm for neural networks, in
Proc. IEEE 2nd Int. Conf. Neural
Networks, vol. 1, San Diego, CA,
July 1988, pp. 401-408.

Anda mungkin juga menyukai