Neural Networks)
Dibuat oleh :
Yudha Rachman Maulana
2011420018
Tidak ada batasan banyaknya hidden layer dan jumlah neuron pada setiap layernya. Setiap neuron pada
input layer terhubung dengan setiap neuron pada hidden layer. Demikian juga, setiap neuron pada
hidden layer terhubung ke setiap neuron pada output layer. Setiapneuron, kecuali pada layer input,
memiliki input tambahan yang disebut bias. Bilangan yang diperlihatkan pada gambar di atas digunakan
untuk mengidentifikasi setiap node pada masing-masing layer.
Kemudian, jaringan dilatih agar keluaran jaringan sesuai dengan pola pasangan masukan-target yang
telah ditentukan. Proses pelatihan adalah proses iteratif untuk mementukan bobot-bobot koneksi antara
neuron yang paling optimal. Kata back propagation yang sering dikaitkan pada MLP merujuk pada cara
bagaimana gradien perubahan bobot dihitung. Jaringan MLP yang sudah dilatih dengan baik akan
memberikan keluaran yang masuk akal jika diberi masukan yang serupa (tidak harus sama) dengan pola
yang dipakai dalam pelatihan.
Berikut ini adalah tahap-tahapan dalam penyelesaian masalah menggunakan metode Jaringan Syarat
Tiruan menggunakan Multilayer Percepteron.
1. Identifikasi masalah
Tahap ini merupakan identifikasi masalah yang hendak diselesaikan dengan jaringan syaraf tiruan,
meliputi identifikasi jenis dan jumlah masukan serta keluaran pada jaringan.
2. Menyiapkan training data set
Training data set merupakan kumpulan pasangan data masukan-keluaran berdasarkan pengetahuan yang
telah dikumpulkan sebelumnya. Banyaknya data set harus mencukupi dan dapat p p mewakili setiap
kondisi yang hendak diselesaikan. Terbatasnya data set akan menyebabkan akurasi jaringan menjadi
rendah.
3. Inisialisasi dan pembentukan jaringan
Tahap inisialisasi meliputi penentuan topologi, pemilihan fungsi aktivasi, dan pemilihan fungsi pelatihan
jaringan. Penentuan topologi adalah penentuan banyaknya hidden layer dan penentuan jumlah neuron
pada input layer, hidden layer dan output layer.
4. Simulasi jaringan
Simulasi jaringan dilakukan untuk melihat keluaran jaringan berdasarkan masukan, bobot neuron dan
fungsi aktivasinya.
5. Pelatihan / training jaringan
Sebelum melakukan pelatihan, dilakukan penentuan parameter training terlebih dahulu, seperti
penentuan jumlah iterasi, learning rate, error yang diijinkan. Setelah itu dilakukan pelatihan yang
merupakan proses iteratif untuk menentukan bobot koneksi antar neuron.
6. Menggunakan jaringan untuk pengenalan pola
Setelah pelatihan dilakukan, jaringan siap untuk digunakan untuk pengenalan pola. Kemampuan jaringan
dalam mengenal pola sangat bergantung dari bagaimana jaringan tersebut dilatih.
Jaringan syaraf tiruan cocok digunakan untuk menyelesaikan masalah yang tidak linier, yang tidak dapat
dimodelkan secara matematis. Jaringan cukup belajar dari pasangan data masukan dan target yang
diinginkan, setelah itu jaringan dapat mengenali pola yang mirip dengan masukan ketika dilakukan
pelatihan. Karena itu, kinerja jaringan pun ditentukan oleh banyaknya pasangan data set selama training.
Bila data training cukup banyak dan konsisten, akurasi jaringan akan tinggi, sebaliknya bila data training
tidak memadai, akurasi jaringan rendah. Selain data training, akurasi jaringan juga ditentukan oleh
pemilihan topologi yang tepat.
Proses pembentukan jaringan sangat melelahkan, dilakukan secara terus menerus hingga diperoleh
jaringan yang paling baik. Tetapi setelah jaringan yang optimal ditemukan, proses pengenalan pola dapat
dilakukan secara cepat, lebih cepat bila dibandingkan metoda lainnya.
Seperti yang telah disampaikan sebelumnya, bahwa metode MLP merupakan salah satu metode dari
Jaringan Syaraf Tirual (JST) sangat cocok untuk menyelesaikan masalah yang tidak linear dan non
deterministik. Contoh aplikasinya antara lain adalah:
x1
Input
x2
1
1
0
0
1
0
1
0
target
t
1
1
1
1
1
0
0
0
1
0
0
0
Perubahan bobot-bias
w1 w2
b
1
0
0
0
1
0
0
0
1
0
0
0
Tabel 2.1 Hasil perhitungan JST Hebb untuk solusi fungsi logika
AND dengan input biner dan target biner
Catatan :
Hasil akhir dari w1 dan w2 dapat juga ditentukan dari penjumlahan seluruh
perubahan bobot (w) dari input pertama sampai terakhir :
w1 = 1 + 0 + 0 + 0 =1
w2 = 1 + 0 + 0 + 0 =1
Dari tabel 2.1, batas keputusan (decision boundary) dari fungsi logika AND
dinyatakan dengan persamaan garis pemisah (separating line) :
w1 x1 + w2 x2 + b =
0 1.x1 + 1.x2 + 1 = 0
x1 + x2 + 1 = 0 atau x2 = -x1 - 1
x2
0
x2 x1 1
x1
-1
x1 x2 1 0
(daerah tanpa diarsir)
-1
x1 x2 1 0
(Daerah diarsir)
Gambar 2.2 Batas keputusan fungsi AND : input dan target biner
Dapat dilihat dari tabel 2.1, garis batas keputusan dari input pertama sampai input
terakhir tidak mengalami perubahan yaitu : x2 = -x1 - 1 (gamb 2.2)
Setelah mendapat nilai bobot dan bias maka kita melakukan Testing thd pola
input dengan memakai bobot dan bias yg didapat dalam proses pelatihan
x1
1
1
0
0
w1 = 1 , w2 = 1, dan b = 1
input
Bobot
bias
x2
w1
w2
b
1
1
1
1
0
1
1
1
1
1
1
1
0
1
1
1
net b xi wi
i
3
2
2
1
output
y=f(net)
1
1
1
1
target
1
0
0
0
Tabel 2.2 Hasil Testing logika AND : input dan target biner
Input
x2
1
0
1
0
x1
1
1
0
0
Input
x2
B
1
1
1
1
target
t
1
-1
-1
-1
x1
1
1
0
0
Target
T
Perubahan bobot-bias
w1 w2
b
Setelah mendapat nilai bobot dan bias maka kita melakukan Testing thd pola
input dengan memakai bobot dan bias yg didapat dalam proses pelatihan
x1
1
1
0
0
w1 = 0 , w2 = 0, dan b = -2
input
Bobot
x2
w1
w2
1
0
0
0
0
0
1
0
0
0
0
0
bias
b
-2
-2
-2
-2
net b xi wi
i
-2
-2
-2
-2
output
y=f(net)
-1
-1
-1
-1
target
1
-1
-1
-1
Tabel 2.4 Hasil Testing logika AND : input biner dan target bipolar
Input
x1
x2
1
1
-1
-1
1
-1
1
-1
Target
t
1
1
1
1
1
-1
-1
-1
1
-1
-1
-1
Perubahan bobot-bias
w1
w2
b
1
-1
1
1
1
1
-1
1
1
-1
-1
-1
Tabel 2.4 Hasil perhitungan JST Hebb untuk solusi fungsi logika AND
dengan input bipolar dan target bipolar
Hasil Testing thd pola input dengan memakai bobot dan bias yg didapat dalam
proses pelatihan
w1 = 2 , w2 = 2, dan b = -2
Input
Bobot
x1
x2
w1
w2
1
1
2
2
1
-1
2
2
-1
1
2
2
-1
-1
2
2
bias
b
-2
-2
-2
-2
net b xi wi
i
2
-2
-2
-6
output
y=f(net)
1
-1
-1
-1
Target
1
-1
-1
-1
Tabel 2.5 Hasil Testing logika AND : input bipolar dan target bipolar
x2
x1 x2 1 0
(Daerah diarsir)
x1 x2 1 0
(daerah tanpa diarsir)
x1
Gambar 2.2 Batas keputusan fungsi AND : input dan target bipolar
Dari contoh 2.1 dimana digunakan data biner (input biner dan target biner)
maka
tidak terjadi perbaikan bobot untuk pasangan pola pelatihan untuk unit input
on (xi = 1) dan target off (t = 0) maupun untuk unit input dan target
keduanya dalam keadaan off (xi = 0 dan t = 0) :
w = xiy
= 0 sehingga
wi(baru) = wi(lama) +
w wi(baru) =
wi(lama)
Sedangkan dalam contoh 2.3 digunakan data bipolar (input dan target bipolar)
maka terjadi perbaikan bobot untuk semua pasangan pola pelatihan baik unit
input on (xi = 1) dan target off (t = -1)
Contoh 2.4: Jaringan Hebb untuk mengklasifikasi pola input 2 dimensi dari 2
buah huruf yaitu : X dan O. Pola dari huruf tsb dinyatakan
dgn :
#...#
.#.#.
..#..
.#.#.
#...#
Pola 1
.###.
#...#
#...#
#...#
.###.
Pola 2
jawab :
Dalam hal ini kita menganggap jaringan hanya mempunyai 1 output yaitu
kelas X(untuk huruf X) dan kelas bukan X (untuk huruf O). Misal kelas X
kita beri nilai target 1 sedangkan kelas bukan X kita beri target 1. Sedangkan
setiap lambang # kita beri nilai 1 dan lambang . kita beri nilai 1. Vektor
input untuk pola 1 dan pola 2 menjadi :
x1
Pola x1 x2 x3 x4 x5 x6 x7 x8 x9 x10 x11 2 x13 x14 x15
X 1 -1 -1 -1 1 -1
1 -1
1 -1 -1 -1
1 -1
-1
O -1 1
1
1 -1 1
-1 -1 -1 1
1 -1
-1 -1
1
Pola x16 x17
X -1 1
O 1 -1
Bobot mula-mula :
Wi = 0 dimana i = 1,2,,25
pola (X dan O)
Sedangkan perubahan bobot (wi) dan bias setelah diberikan input pola 1 dan 2 :
w1 w2
w15
X
O
1
1
-1
-1
w16
X
O
w3
-1
-1
w17
-1
-1
w4
-1 1
-1 1
w18 w19
1
1
w5
-1
1
1
1
w6
w7
w8
w9
-1
-1
1
1
-1
1
1
1
w20
-1
-1
w21 w22
1
1
-1
-1
w10
-1 -1
-1 -1
w23 w24
-1
-1
w11
w12
-1
1
w25
1
1
1
-1
-1
-1
w13
w14
1
1
-1
1
w25 b
2
0
xi wi b 42 0 42
Selanjutnya kita melakukan testing thd pola 2 (huruf O) :
xi wi b 42 0 42
Hasil testing selengkapnya dapat dilihat dalam tabel 2.9 :
Input
Bobot
Bias
net b xi wi
Output
Target
x1
1
-1
x25
-1
-1
w1
2
2
w25
2
2
b
0
0
42
-42
y=f(net)
1
-1
1
-1
-1
-1
Metode pembelajaran
Delta rule biasanya dipakai dalam pelatihan pada model jaringan
Adaline dan Madaline
input
b
x1
w1
output
y
wn
y_in
xn
Gambar 4.1 Arsitektur Adaline dgn satu unit output
Tujuan utama dari delta rule adalah untuk memperbaiki bobot-bobot (w) yg
antara unit input dan output sehingga selisih antara
input
menghubungkan
jaringan untuk unit output (y_in) dan nilai target (t) menjadi minimal.
wi (t y _ in)xi ...................................................(4.1)
dimana,
selisih
n
y _ in xi wi
i 1
Sedangkan Delta rule untuk adaline dgn beberapa unit output dirumuskan :
y _ in j xi wij
i1
b
x1
xn
w11
w1m
y1
wn1
ym
i = 1,2,n
j = 1,2,m
wnm
y_inj
tj
Algoritma Adaline :
Langkah 0 : inisialisasi bobot (biasanya nilai acak yg kecil)
Set nilai learning rate
Langkah 1
xi = si
Langkah 4
y _ in b xi wi
i
Langkah 5
3.2 Madaline
Madaline adalah kumpulan dari banyak adaline yg membentuk jaringan banyak lapisan atau
jaringan satu lapisan dgn beberapa output.
Contoh yg diberikan pada Perceptron dan delta rule untuk beberapa output
menunjukkan tidak ada perubahan mendasar pada proses pelatihan jika beberapa
unit adaline dikombinasikan dalam jaringan satu lapisan.
w11
w12
b1
w21
x2
Output
layer
b3
z1
z2
v1
v2
w22 b2
DAFTAR PUSTAKA
http://mail.stei.itb.ac.id/~soni/EL5133/Materi/05c-Neural%20Network-MLP.pdf
http://en.wikipedia.org/wiki/Multilayer_perceptron
http://igawidagda.files.wordpress.com/2012/02/diktat-jst.pdf