Nama Kelompok:
1. Manuel Alexandro
2. Ery
3. Fabriana sihotang
Tugas Quis
1. Model Neuron, Neural Learning terawasi dan tak terawasi.
Neural dapat digunakan dalam memprediksi Indeks Harga Saham Gabungan (IHSG).
Mengingat IHSG merupakan saham gabungan, maka menjadi parameter yang penting
untuk diingat saat berinvestasi. Karena data IHSG memiliki variasi yang begitu besar dan
perubahan harga IHSG yang sangat cepat, sulit untuk memprediksi apakah indeks akan
naik atau turun. Dan untuk mengatasi masalah tersebut digunakan Algoritma Neural
Network. Jaringan neural bersifat adaptif dan dapat berfungsi untuk memprediksi
perkiraan nilai berdasarkan tren dalam kumpulan data. Ini dapat memprediksi data
pergerakan pasar mata uang dengan sangat baik.
Dalam neural network ini terdapat faktor yang berperan begitu penting dalam
pengimplementasiannya dalam Data Maining. Faktor yang berperan penting itu antara lain
adalah kombinasi yang efektif antara Neural Network ini sendiri dengan Teknologi data
Maining Teknologi yang umumnya menggunkan software network. Perangkat Neural ini
pun sudah di kembangkan dengan begitu baik sehingga diagram kerja dari data maining
ini harus sangat diperhatikan. Model data aplikasi bisa dikembangkan dengan form yang
sudah sesuai dengan standart sehingga 2 tekonologi ini dapat digunakan secara
bersamaan, maka dari itu sangat dibutuhkan pendekatan dalanm perkembangan saat
terciptanya teknologi data Mining yang lebih baik. Dengan algoritma neural network.
Metode pembelajaran tidak terawasi pada Jaringan Syaraf Tiruan (Neural network),
tidak memerlukan target output. Pada metode ini tidak dapat ditentukan hasil seperti
apa yang diharapkan selama proses pembelajaran. Selama proses pembelajaran, nilai
bobot disusun dalam suatu range tertentu tergantung pada nilai input yang diberikan.
Tujuan pembelajaran ini adalah mengelompokkan unit-unit yang hampir sama dalam
suatu area tertentu. Pembelajaran seperti ini biasanya sangat cocok untuk
pengelompokkan (klasifikasi) pola.
1. Clustering
2. Anomaly Detection
3. Training Model
4. Association Discovery
Threshold
bias
Ga
mb
ar
1.
Ars
ite
ktu
r
Jari
ng
an
He
bb
Masukan
bias target
x1 x2
1 1 1 1
0 1 1 1
1 0 1 1
0 0 1 0
2. Buatlah jaringan Hebb yang dapat mengenali fungsi logika “OR” (threshold = 0) dengan
input dan output bipolar :
Masukan
bias target
x1 x2
1 1 1 1
-1 1 1 1
1 -1 1 1
-1 -1 1 -1
Inisialisasi 0 0 0
1 1 1 1 1.1 = 1 1.1 = 1 1.1 = 1 0+1 = 1 0+1 = 1 0+1 = 1
0 1 1 1 0.1 = 0 1.1 = 1 1.1 = 1 1+0 = 1 1+1 = 2 1+1 = 2
1 0 1 1 1.1 = 1 0.1 = 0 1.1 = 1 1+1 = 2 2+0 = 0 2+1 = 3
0 0 1 0 0.0 = 0 0.0 = 0 1.0 = 0 2+0 = 2 0+0 = 0 3+0 = 3
b=3
Proses perhitungan Net :
0 1 0.2 + 1.0 + 3 = 3 1
1 0 1.2 + 0.0 + 3 = 5 1
0 0 0.2 + 0.0 + 3 = 3 1
Dari hasil pelatihan, dapat dilihat bahwa hasil f(net) tidaksama dengan target awal yang
ingin dicapai. Dengan katalain dapat dikatakan bahwa jaringan Hebb dengan input dan
output biner ini tidak dapat mengenali pola fungsi logika “OR” dengan baik.
2. Input dan output bipolar :
Proses Pelatihan :
Masukan Perubahan Bobot Bobot Baru
t
x1 x2 b ∆ w1 ∆ w2 ∆b x1 x2 b
Inisialisasi 0 0 0
1 1 1 1 1.1 = 1 1.1 = 1 1.1 = 1 1 1 1
-1 1 1 1 (-1).1= (-1) 1.1 = 1 1.1 = 1 0 2 2
1 -1 1 1 1.1 = 1 (-1).1 = (-1) 1.1 = 1 1 1 3
-1 -1 1 -1 (-1).(-1) = 1 (-1).(-1) = 1 1.(-1) = (-1) 2 2 2
Dari proses pelatihan, diperoleh bobot baru :w1 = 2
w2 = 2
b=2
Proses perhitungan Net :
-1 1 (-1).2 + 1.2 + 2 = 2 1
1 -1 1.2 + (-1).2 + 2 = 2 1
-1 -1 (-1).2 + (-1).2 + 2 = -2 -1
Dari hasil pelatihan, dapat dilihat bahwa hasil f(net) samadengan target awal yang ingin
dicapai. Dengan kata lain dapat dikatakan bahwa jaringan Hebb dengan input dan output
bipolar ini dapat mengenali pola fungsi logika“OR” dengan baik.
3. Model Perceptron pada kasus-kasus pengenalan pola
Model jaringan perceptron merupakan model yang paling baik pada saat ini. Model ini
ditemukan oleh Rosenblatt (1962) dan Minsky –Papert (1969). Perceptron terdiri dari
suatu input dan output. Perceptron merupakan bentuk paling sederhana dari JST yang
biasanya digunakan untuk pengklasifikasian jenis pola khusus yang biasa disebut linearly
separable (pola-pola yang terletak pada sisi yang berlawanan pada suatu bidang). Fungsi
aktifasi yang digunakan algoritma perceptron adalah fungsi hard limiting. Output unit akan
bernilai 1 bila jumlah bobot input lebih besar daripada threshold. Nilai threshold pada
fungsi aktifasi adalah non-negatif
Contoh:
Pada penelitian ini yang menjadi subjek penelitian adalah pengenalan pola masukan huruf
dengan menggunakan jaringan saraf tiruan perceptron. Pola huruf yang menjadi masukan
berupa data biner maupun bipolar.
Klasifikasi pola pengenalan huruf berbasis jaringan saraf tiruan dilakukan dengan
menggunakan beberapa sample pola yaitu huruf A, E dan F berupa variabel yang terdiri
dari 25 titik (5 baris dan 5 kolom). Sehingga setiap satu pola memiliki 25 variabel input
seperti tabel berikut ini :
Bila tanda hitam diberi simbol ‘1’ dan putih diberi simbol ‘-1’ maka sembilan pola masukan diatas
menjadi: Untuk huruf ‘A’ memiliki 3 jenis pola antara lain :
b. Hitung output setiap unit yang terdapat pada hidden layer dengan fungsi aktivasi
bipolar :
c. Hitung keluaran jaringan dengan :
2) Untuk t = -1, lakukan perubahan bobot terhadap unit z k yang z in nya bernilai
positif : bk baru = bk lama + α (-1- zin_k)
wki baru = wki lama + α (-1- zin_k) . xi
Contoh Soal :
Lakukan pelatihan pengenalan pola fungsi logika OR dengan jaringan Madaline,
menggunakan nilai input dan output bipolar. Dimana : α = 0.5 , batas toleransi = 0.2 ,
bobot unit output Y (v1 = v2
= b = 0.5)
Arsitektur Jaringan :
Langkah Pelatihan Pola 1 :
1) Input : x1 = 1 ; x2 = 1 ; t = 1
2) Bobot awal :
5) Output jaringan Y :
y_ in = z1 . v1 + z2 . w2 + b3
= 1 . (0.5) + 1 . (0.5) + 0.5 = 1.5
Maka :
y = f(y_ in) = 1
6) Analisa y dan t :
y = t à tidak dilakukan perubahan bobot
7) Pengecekan perubahan bobot
8) Dari tabel diatas, karena masih ada dua bobot (w12 dan b2) yang masih lebih besar
dari batas toleransi, maka iterasi berlanjut untuk pola 2.
2) Bobot sebelumnya :
5) Output jaringan Y :
y_ in = z1 . v1 + z2 . w2 + b3
= (-1) . (0.5) + 1 . (0.5) + 0.5 = 0.5
Maka :
y = f(y_ in) = 1
Setelah melanjutkan iterasi sampai pada pola 4, nilai output masih selalu sama
dengan target (y=t), sehingga bobot tidak berubah. Hasil pengecekan perubahan bobot
setelah iterasi pola ke 4 adalah sebagai berikut :
136
Dari tabel diatas, masih terlihat ada dua bobot (w12 dan b2) yang
masih lebih besar dari batas toleransi, maka iterasi berlanjut untuk pada
epoch - 2.
5. Model Backpropagation pada kasus-kasus peramalan.
Metode Backpropagation (perambatan balik) merupakan salah satu
jenis Jaringan Syaraf Tiruan yang sering digunakan dalam
menyelesaikan masalah peramalan. Hal ini dimungkinkan karena
metode Backpropagation merupakan salah satu jenis metode pelatihan
JST dengan supervisi. Pada jaringan diberikan sepasang pola yang
terdiri atas pola masukan dan pola yang diinginkan. Ketika suatu pola
diberikan kepada jaringan, bobot-bobot diubah untuk memperkecil
perbedaan pola keluaran dan pola yang diinginkan. Latihan ini
dilakukan
137
Feedforward:
Langkah 3 : Tiap-tiap unit input (Xi, i=1,2,3,…n) menerima sinyal xi
dan meneruskan sinyal tersebut ke semua unit pada
lapisan yang ada diatasnya (lapisan tersembunyi)
Langkah 4 : Tiap-tiap unit tersembunyi (Zi, j=1,2,3,…p) menjumlahkan
sinyal-sinyal input terbobot :
138
z _ in j
n
Vo j X iVij
i1
gunakan fungsi aktivasi untuk menghitung sinyal
outputnya: Zj = f(Z_inj)
outputnya: Yk = f(Y_ink)
Backpropagation:
Langkah 6 : Tiap-tiap unit output (Yk, K=1, 2, 3, …m) menerima
target pola yang berhubungan dengan pola input
pembelajaran, hitung informasi error-nya:
k=(tk-yk)f’(y_ink)
Wjk k z j
Wok k
139
j=_injf(z_inj)
V jk j X i
Wjk(baru)=wjk(lama)+wij
vjk(baru)=vjk(lama)
+vij Langkah 9 : Uji syarat
berhenti
1 Aplikasi
Jumlah kecelakaan lalu lintas di Indonesia dari tahun 2006 – 2013 terus
meningkat dan kecelakaan terbesar terjadi pada pengendara sepeda
motor, terutama pengendara sepeda motor yang tidak memakai helm
standar. Selama ini pemantauan penggunaan helm atau tidak masih
dilakukan secara manual oleh polisi. Pada penelitian ini jaringan syaraf
tiruan Backpropagation digunakan untuk mengklasifikasi citra kepala
manusia memakai helm atau tidak. Arsitektur jaringan terdiri dari 400
neuron pada input layer, 1 hidden layer dan 1 neuron pada output layer.
Input neuron berisi hasil ekstraksi fitur image pengendara sepeda motor
berukuran 20x20 pixel. Arsitektur jaringan terbaik diperoleh pada laju
pembelajaran 0.2, 0.3 dan 0.6 dan menghasilkan nilai akurasi 86.67%.
Diagram alir aplikasi klasifikasi pengendara sepeda motor tidak
memakai helm ini di tunjukkan seperti pada Gambar 3[7].
Hal penting dalam pembangunan robot adalah masalah olah gerak. Pengaturan
olah gerak robot membutuhkan suatu algoritma cerdas supaya robot bergerak
dengan baik. Pada penelitian ini digunakan metode jaringan syaraf tiruan
Backpropagation. Robot yang digunakan adalah robot lego mindstorms 2.0 beroda
empat. Arsitektur jaringan yang dibangun terdiri dari 3 neuron pada input layer, 1
hidden layer dan 1 neuron pada output layer. Variabel input yang digunakan
adalah left distance, right distance dan frontal distance¸ sedangkan keluarannya
berupa target. Berdasarkan hasil pengujian arsitektur jaringan terbaik diperoleh
pada learning rate 0.4, MSE 0.01 dan menghasillkan persentase akurasi 90.67%
[9].
4 Pengembangan Selanjutnya
Ciri pada suatu pola diperoleh dari hasil pengukuran terhadap objek uji. Pengenalan pola
bertujuan untuk menentukan kelompok atau kategori pola berdasarkan ciri-ciri yang
dimiliki oleh pola tersebut.
Ada dua fase dalam sistem pengenalan pola, yaitu fase pelatihan dan fase
pengenalan. Pada fase pelatihan, beberapa contoh pola dipelajari untuk menentukan ciri
yang akan digunakan dalam proses pengenalan serta prosedur klasifikasinya. Pada fase
pengenalan, pola diambil cirinya kemudian ditentukan kelas kelompoknya.
Metode pengenalan pola dilakukan dengan beberapa pendekatan, yaitu pendekatan
Geometric / Statistik, Sruktural / Sintaktik, dan pendekatan
peluang
1 p(diameter |
jeruk) p(diameter |
apel)
0
a b
diamete
r
Gambar 2.1 Grafik fungsi kerapatan dari ciri diameter jeruk dan apel
S d + A1 A3 a + A 4
A1 c + A2 A4 b* A5
A2 ~d* A2 A5 c
d c + (~d) d + (c + (~d))
1
0
Gambar 2.2
Grammar penyusun gambar rumah yang merupakan penggabungan dari Primitif
penyusunnya.
dalam radius R dari simpul pemenang i*. Ni d j, dij R (Demuth &
Beale
2003).
D(w j , xn )
i wij xni 2
(Kaski 1997, Demuth & Beale 2003).
Jarak Mahalanobis digunakan untuk atribut yang berkorelasi satu sama lain
Layer Output
Layer Tersembunyi
Gambar 2.4
Layer-layer
pada
backpropagati
on