Anda di halaman 1dari 22

Sutarno, ST.

MT
Menurut Haykin :
“a neural network is a massively parallel distributed processor
made of simple processing unit, which has a natural propensity for
storing experimental knowledge and making it available for use. It
resembles the brain in two respect”:
 Knowledge is acquired by the network from its environment
through a learning process.
 Interneuron connection strength, know as synaptic weights, are
used to store the acquired knowledge.
Neuron adalah unit pemroses informasi yang menjadi dasar dalam
pengoperasian JST, yang terdiri dari 3 elemen pembentuk:
 Unit penghubung (bobot)
 Unit penjumlah, yang akan menjumlahkan input-input sinyal yang
sudah dikalikan dengan bobot
 Fungsi aktivasi, yang menentukan sinyal akan diteruskan atau tidak
 Jaringan syaraf tiruan mentransformasikan informasi dalam bentuk
bobot dari satu neuron bobot ke neuron yang lain. (pembobotan
jaringan penghubung).
 Informasi diproses oleh suatu fungsi perambatan dan semua bobot
input/masukan dijumlahkan. (fungsi penjumlah)
 Hasil perambatan (penjumlahan informasi) dibandingkan dengan
suatu nilai ambang (fungsi aktivasi).
 Jika nilai informasi melampaui nilai ambang, maka neuron
diaktifkan dan informasi keluaran diteruskan ke neuron berikutnya.
 Kumpulan neuron dengan fungsi sama disebut lapisan (layer)
 Layer-layer saling berhubungan melalui jaringan penghubung.
 Struktur umum JST terdiri atas tiga lapisan: 1) lapisan
input/masukkan, 2) lapisan tersembunyi (hidden), 3) lapisan
output/keluaran.
 Banyaknya layer dan neuron tergantung pada kompleksitas
pemroses dan hasil yang diharapkan.
JST dengan 3 Lapisan

Input neuron dihubungkan


langsung dengan output
neuron (misal:
perceptron), dimana,
X = input dan
Z = hidden,
Y = output,
Jaringan layar tunggal
(single layer network)
Input neuron
dihubungkan langsung
dengan output neuron
(misal: perceptron),
dimana,
X = input dan
Y = output,
w = nilai bobot jaringan
penghubung (wx,y)
Jaringan layar jamak
(multi layer network)
Input neuron dihubungkan ke
neuron lapisan tersembunyi
kemudian dihubungkan dengan
output neuron, dimana,
X = input
Z = tersembunyi dan
Y = output,
w = nilai bobot jaringan
penghubung input - tersebunyi
(wx,z)
v = nilai bobot jaringan
penghubung tersebunyi -
output (wz,y)
Jaringan layar kompetitif
(competitive layer network)

-ɳ = nilai bobot jaringan


penghubung
Beberapa arsitektur jaringan yang sering dipakai dalam JST antara lain:
 Jaringan layar tunggal (single layer network) , input neuron
dihubungkan langsung dengan output neuron (misal: perceptron),
dimana X = input dan Y = output, w = bobot penghubung lapisan
input ke output
 Jaringan layar jamak (multi layer network) , input neuron
dihubungkan ke unit tersembunyi (hidden), kemudian dengan
output neuron, dimana X = input , Z = hidden, dan Y = output, v =
bobot penghubung lapisan input ke hidden, w = bobot penghubung
lapisan hidden ke output
 Jaringan Recurrent (competitif layer nertwork)
 Contoh lengkap Jaringan layar jamak (multi layer network)
 berfungsi untuk menentukan keluaran suatu neuron.
 Jika net masukan (kombinasi linear masukan dan
bobotnya) net =  xi wi
 Fungsi aktivasinya adalah f(net) = f( xi wi).
 Beberapa fungsi aktivasi yang sering dipakai adalah fungsi
undak biner (hard limit), fungsi undak biner (threshold),
Fungsi bipolar (symetric hard limit), fungsi sigmoid biner,
fungsi sigmoid bipolar, fungsi linear (identitas), dll.
Fungsi undak biner dengan
threshold (θ)
y
1 y=
{ 1, Jika x > 0
0, jika x = 0
-1, Jika x < 0

0 x Fungsi bipolar dengan


threshold (θ)
-1
• Bias merupakan input yang bernilai 1, yang berfungsi
mengubah nilai threshold menjadi 0.
• Jika melibatkan bias, maka net = b   xi wi
• Fungsi aktivasi bipolar threshold menjadi:
f(net) = 1 jika net ≥ θ
f(net) = -1 jika net < θ
Pembelajaran pada JST pada dasarnya bertujuan untuk
menghasilkan nilai bobot (w atau v) selama proses berlangsung,
berdasarkan metodenya dikenal beberapa algortima:
1. Hebbian
2. Perceptron
3. Delta
4. Widrow-Hoff
5. Backpropagasi
6. Learning vector quatization (LVQ)
7. Correlation
8. Winner-take-all
9. Outstar, dll
Berdasarkan cara modifikasi bobotnya, ada 2 jenis paragdigma
pelatihan/pembelajaran pada JST, yaitu:
1. Terawasi/Supervisi (supervised), terdapat pasangan data
(masukan-target keluaran), selisih keluaran dan dengan target
merupakan kesalahan (error). Jaringan akan memodifikasi
bobot sesuai nilai error. (Model Hebbian, Perceptron,
Hamming, ADALINE, Boltzman, Hopfield, Backpropagasi, dll).
2. Tidak Terawasi/Tanpa Supervisi (unsupervised) tidak terdapat
pasangan data, dan perubahan bobot jaringan dilakukan
berdasarkan parameter tertentu dan jaringan dimodifikasi
menurut ukuran parameter tersebut. (Model Competitive,
Clustering, Kohonen, LVQ, Neocognitro, dll).
Aplikasi JST yang sudah berhasil ditemukan antara lain:
1. Klasifikasi, (ADALINE, LVQ, Backpropagasi, dll)
2. Pengenalan pola, (ART, LVQ, Backpropagasi, Neocognitron, dll)
3. Peramalan, (ADALINE, MADALINE, Backpropagasi, dll)
4. Optimisasi, (ADALINE, Hopfield, Boltzman, Backpropagasi, dll)
• Model JST pertama (1943) yang ditemukan merancang model
formal yang pertama kali sebagai perhitungan dasar neuron,
memiliki karakteristik:
 fungsi aktivasinya biner
 besar bobot ke arah suatu neuron sama besar.
 setiap neuron memiliki batas ambang yang sama

• Bobot tiap garis tidak ditentukan dengan proses pelatihan,


tetapi dengan metode analitik dan coba-coba.
• Fungsi aktivasi menjadi:
f(net) = 1 jika net ≥ a
f(net) = 0 jika net  a
Fungsi logika “AND” dengan dua masukan X1 dan X2 akan memiliki
keluaran Y=1 bila dan hanya bila kedua masukan bernilai 1.

X1 X2 Y
1 1 1 X1 1
1 0 0 Y 2
0 1 0 X2 1
0 0 0

Simulasinya:
X1 X2 Net =  xi wi Y = f(net) = 1 jika net ≥ 2
Y = f(net) = 0 jika net < 2
1 1 1.1 + 1.1 = 2 1
1 0 1.1 + 0.1 = 1 0
0 1 0.1 + 1.1 = 1 0
0 0 0.1 + 0.1 = 0 0
1. Gambarlah arsitektur JST multilayet networking, yang terdiri
dari 5 unit masukan, 2 layer hidden masing-masing berisi 4
dan 3 neuron, serta unit keluaran tunggal.
2. Buatlah model neuron Mc Colloch-Pitss dengan dua masukan
x1 dan x2 untuk menyatakan fungsi logika “OR”.

Anda mungkin juga menyukai