Anda di halaman 1dari 10

I.

Adaline (Adaptif Linear Neuron), Diperkenalkan oleh Widrow dan Hoff (1960) memiliki bobot koneksi dari unit masukan yang dapat dilatih dengan aturan delta . Dalam aturan ini galat (error) dapat diminimalisasikan. Arsitektur Jaringan Arsitektur Adaline terdiri dari unit Neuron keluaran tunggal yang menerima. masukan dari beberapa unit. Unit keluaran tersebut juga menerima masukan dari unit sel bias yang sinyalnya selalu bernilai 1. Dibawah ini diperlihatkan arsitektur jaringan Adaline:

Algoritma ADALINE 1. Inialisasi bobot (ambil nilai acak yang kecil) Tetapkan laju pelatihan (Umumnya diambil nilai yang kecil, misalnya dari rentang nilai 0, 1 atau 0,1 1 2. Selama kondisi berhenti bernilai false, lakukan langkah-langkah sebagai berikut : a. Untuk setiap pasangan input-output (s-t) lakukan beberapa langkah berikut : (i) Tetapkan aktivasi unit masukan = dimana i = 1,2,3, ... n (ii) Hitung masukan neto yang berikan ke unit keluaran dengan fungsi aktivasi bipolar .

(iii)Perbaharui bobot dan bias jika terjadi error : B(baru) = b(lama) + (t - ) W(baru) = W(lama) + (t - ) b. Tes kondisi berhenti. Bila perubahan bobot terbesar yang terjadi pada langkah a lebih kecil dari pada toleransi yang ditentukan, maka berhenti; bila tidak maka lanjutkan.

II.

LVQ Learning Vector Quantization (LVQ) adalah suatu metode untuk melakukan pembelajaran pada lapisan kompetitif yang terawasi. Suatu lapisan kompetitif akan secara otomatis belajar untuk mengklasifikasikan vektor vektor input. Kelas-kelas yang didapatkan sebagai hasil dari lapisan kompetitif ini hanya tergantung pada jarak antara vektor vektor input. Jika 2 vektor input mendekati sama, maka lapisan kompetitif akan meletakkan kedua vektor input tersebut ke dalam kelas yang sama. Arsitektur jaringan saraf tiruan LVQ adalah sebagai berikut :

III.

Jaringan MaxNet adalah jaringan saraf tiruan, yang menjadikan bobot dalam proses pencarian tetap. Prinsip : winner takes all (neuron dipaksa untuk berkompetisisehingga hanya 1 yang menjadi aktif (sinyal keluaran > 0) Fungsi aktivasi: x y=0 jika x > 0 jika x 0

Arsitektur Jaringan :

Algoritma pemrosesan jaringan : Inisialisasi dengan bilangan 0 < < 1/ m Inisialisasi bobot wij = wji =1, jika i = j

= - jika i j Selama terdapat lebih dari 1 unit yang fungsi aktivasi > 0, lakukan : Modifikasi aktivasi titik aj (j=1, 2, m) dg aj (baru) = f (aj (lama) ak (lama) )

Apllikasi pada JST :

IV.

Radial Basis Function (RBF) RBF () merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai c = ||x - c||, dimana || . || merupakan vektor normal. Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF. Jaringan RBF terdiri atas 3 layer yaitu layer input, hidden layer / kernel layer (unit tersembunyi) dan layer output. Masing masing unit tersembunyi merupakan fungsi aktifasi yang berupa fungsi basis radial. Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. Struktur dasar jaringan RBF ditunjukkan pada Gambar 1.

Gambar 1 Struktur dasar jaringan syaraf RBF.

Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis pada hidden layer. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu yang disebut sebagai fungsi basis. Di dalam hidden layer terdapat sejumlah fungsi basis yang sejenis. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan bobot tertentu. Output jaringan ini merupakan jumlah dari seluruh output fungsi basis dikalikan dengan bobot masing masing. Untuk jaringan RBF dengan 2 masukan, proses pemetaannya ditunjukan pada Gambar 2.

Gambar 2 Operasi jaringan syaraf RBF dengan 2 masukan. Setiap masukan akan mengaktifkan setiap fungsi basis pada jaringannya sendiri. Misalkan pada operasi masukan [x1 x2]. Masukan x1 akan mengaktifkan fungsi basis pada jaringan RBF pertama, sehingga masukan x1 akan mengaktifkan fungsi basis 11, 12 sampai dengan 1n. Masukan x2 akan mengaktifkan setiap fungsi basis pada jaringan RBF kedua, sehingga masukan x2 akan mengaktifkan fungsi basis 21, 22 sampai dengan 2n. Langkah selanjutnya adalah melakukan korelasi silang antara setiap fungsi basis pada jaringan pertama dengan setiap keluaran fungsi basis pada jaringan kedua. Masing - masing hasil korelasi silang antar fungsi basis ini kemudian diboboti dengan bobot tertentu yaitu w11, w12 sampai dengan wnn. Keluaran jaringan RBF dihitung dengan menjumlahkan seluruh hasil perkalian antara keluaran tiap fungsi basis dengan bobotnya sendiri ditambah dengan bobot bias (wb). Fungsi basis pada jaringan RBF identik dengan dengan fungsi gaussian yang diformulasikan sebagai berikut:

Dimana : cj = Center fungsi gausiaan ke - j j = Lebar fungsi gausiaan ke - j

x = Masukan fungsi basis j = Keluaran fungsi basis ke j oleh masukan x Representasi grafis fungsi gaussian ditunjukkan pada Gambar 3.

Gambar 3 Fungsi gaussian. Pada setiap jaringan RBF biasanya digunakan lebih dari 1 buah fungsi basis. Tiap tiap fungsi basis mempunyai 1 center dan 1 bobot tertentu. Untuk n buah masukan pada jaringan syaraf RBF, maka diperlukan bobot memori yang digunakan pada satu jaringan adalah sebesar ( jumlah fungsi basis )n + 1. Satu merupakan bobot bias (wb) dari jaringan syaraf RBF. Algoritma Pelatihan RBF secara Iteratif adalah sebagai berikut: Langkah 1: Menentukan jumlah fungsi basis yang akan digunakan. Langkah 2: Menentukan center tiap fungsi basis dan nilai deviasi. Langkah 3: Menyediakan bobot sebanyak (fungsi basis)n + 1, dimana n adalah jumlah masukan jaringan syaraf RBF. Langkah 4: Inisialisasi bobot, w = [0 0 0 . . . . . 0], Set laju konvergensi, Set gain proposional Langkah 5: Hitung keluaran tiap fungsi basis. Langkah 6: Untuk setiap sinyal latih kerjakan langkah 6 selesai Langkah 7: Hitung keluaran jaringan RBF. Langkah 8: Hitung kesalahan (error) antara sinyal terharap (d) dengan keluaran y, error =d y. Langkah 9: Hitung sinyal keluaran sinyal kendali (Control_P) Control_P = Gain proposional * error. Langkah 10: Update bobot-bobot tiap fungsi basis dan bobot basis dengan metoda LMS.

V.

BOLTZMANN Boltzman Learning adalah suatu algoritma stokastik yang diturunkan dari ilmu mekanik statistical. Jaringan ini biasa disebut dengan Mesin Boltzmann. Dalam mesin boltzmann, neuron bekerja dalam angka binner, satu untuk menyatakan ON dan minus satu untuk menyatakan OFF, neuron juga terbagi menjadi dua jenis sesuai dengan fungsinya visible neuron dan hidden neuron

Gambar sebelah kiri memrepresentasikan skematik dari hybrid Boltzman Machine (HBM) dimana terdapat unit-unit analog yang tersembunyi (Z, T variabel) dan unit yang terlihat merupakan binner. Terdapat dua unit (Z,T) yang mewakili dua fitur yang terhubung ke lapisan unit yang tampak . lapisan unit tersembunyi dan tampak secara timbal balik terhubung, tetapi tidak terdapat koneksi lapisan intra, sehingga membentuk topologi bipatrit. Sedangkan gambar sebelah kanan memrepresentasikan skematik dari jaringan syaraf Hopfield yang dibangun diatas unit yang tampak saja, dengan struktur sepenuhnya terhubung ke internal

VI.

Hamming Network Kode ini dikenalkan oleh Richard Hamming (1950) sebagai kode tunggal pengoreksi kesalahan (single error-correcting code). Bit parity ditambahkan ke dalam bit-bit informasi, jika suatu saat ada perubahan bit-bit data ketika proses transmisi, maka bitbit informasi asli masih bisa diselamatkan. Kode ini dikenal pula sebagai parity code. Bit parity tambahan diberikan pada bit-bit informasi sebelum ditransmisikan, sedangkan pada sisi penerima dilakukan pengecekan dengan algoritma yang sama dengan pembangkitan bit parity tambahan 2

Arsitektur Jaringan Hamming

Algoritma Hamming : Untuk bit data 4-bit, bit-bit data terletak pada posisi 3, 5, 6 dan 7. Bit pengisi terletak pada posisi 1, 2, 4 (2K) K = jumlah bit data -1 3