Anda di halaman 1dari 59

SOFT COMPUTING

AGENDA
 Artificial Intelligence?
 Pengertian, Cabang AI, Bagaimana AI bekerj
a.
 Hard Computing vs Soft Computing.
 Teknik Pemecahan Masalah
 Kapan menggunakan AI?
 Analitis, Numeris, AI.
Pengertian

Pengertian  Kecerdasan buatan atau


artificial intelligence
Cabang AI
merupakan salah satu bagian
AI Bekerja ilmu komputer yang membuat
agar mesin (komputer) dapat
Halaman Depan melakukan pekerjaan seperti
dan sebaik yang dilakukan
oleh manusia.


Sistem Cerdas

Pengertian  Sistem cerdas (intelligent system)


adalah sistem yang dibangun
Cabang AI
dengan menggunakan teknik-
teknik artificial intelligence.
AI Bekerja

Halaman Depan
Cabang-cabang AI

Pengertian  Logical AI
Cabang AI  Searching
 Representation
AI Bekerja
 Pattern Recognition
Halaman Depan
 Inference (Kesimpulan)
 Learning from Experience
Bagaimana AI bekerja?
 Bagian terpenting AI:
Pengertian  Knowledge base (basis
pengetahuan), berisi fakta-fakta,
Cabang AI
teori, pemikiran dan hubungan
antara satu dengan lainnya.
AI Bekerja
 Inference engine, yaitu

Halaman Depan kemampuan menarik kesimpulan


berdasarkan pengalaman.


Pengertian

Cabang AI

AI Bekerja

Halaman Depan ARTIFICIAL


INTELLIGENCE

Input: Output:
MASALAH SOLUSI
Knowledge Inference
Base Engine
Teknik Pemecahan Masalah
Conventional Hard Computing
Teknik
Pemecahan Mslh Logika penalaran
berbentuk simbol
Soft Computing Precise
Precise
Models
Models Pencarian & Pemodelan masalah
Hybrid Systems dilakukan secara
numeris (tradisional)
Halaman Depan
Soft Computing
Penalaran melalui
pendekatan
Approximate
Approximate
Models
Models
Pendekatan fungsional &
Pencarian random
Soft Computing
Teknik  Soft computing adalah koleksi dari
Pemecahan Mslh
beberapa metodologi yang
Soft Computing bertujuan untuk mengeksploitasi
adanya toleransi terhadap
Hybrid Systems ketidaktepatan, ketidakpastian,
dan kebenaran parsial untuk dapat
Halaman Depan diselesaikan dengan mudah,
robustness, dan biaya
penyelesaiannya murah.
 Definisi ini pertama kali
diungkapkan oleh Prof. Lotfi A.
Zadeh pada tahun 1992.

Komponen Soft Computing
Teknik
Pemecahan Mslh
 Approximate reasoning:
 Fuzzy System;
Soft Computing
 Probabilistic Reasoning;
Hybrid Systems  Functional Approximation/
Halaman Depan
Randomized Search:
 Neural Network (Jaringan
Syaraf)
 Evolutionary Algorithm
(Algoritma evolusioner).


Sistem Fuzzy
 Konsepnya menggunakan teori
Teknik himpunan.
Pemecahan Mslh
 Menggunakan derajat keanggotaan
Soft Computing fuzzy untuk menunjukkan seberapa
besar suatu nilai masuk dalam suatu
Hybrid Systems himpunan fuzzy.
 Bidang kajian:
Halaman Depan  Fuzzy Inference System
 Fuzzy Clustering
 Fuzzy Database
 Fuzzy Mathematical Programming
 Dll.


Jaringan Syaraf Tiruan
Teknik
 Menggunakan algoritma pembelajaran
Pemecahan Mslh
untuk mendapatkan bobot-bobot yang
optimum.
Soft Computing  Jenis pembelajaran: supervised
learning, dan unsupervised learning.
Hybrid Systems  Algoritma pembelajaran yang sudah
dikembangkan, dan paling sering
Halaman Depan
diaplikasikan:
 Perceptron
 Radial Basis
 Backpropagation (sederhana & lanjut)
 Self Organizing
 Learning Vector Quantization, dll


Algoritma Evolusioner
Teknik
 Menggunakan pendekatan teori
Pemecahan Mslh evolusi.
 Dipelopori oleh algoritma genetika.
Soft Computing
 Terutama digunakan untuk optimasi.
Hybrid Systems  Algoritma yang sudah
dikembangkan:
Halaman Depan  Algoritma Genetika
 Ant System
 Fish Schooling
 Bird Flocking
 Particle Swarm


Probabilistic Reasoning
Teknik  Mengakomodasi adanya faktor
Pemecahan Mslh
ketidakpastian.
Soft Computing  Teori-teori yang berkembang:
Hybrid Systems  Teorema Bayes
 Certainty Factor (statistic
Halaman Depan
reasoning)
 Teorema Dempster-Shafer
(statistic reasoning)
Hybrid Systems
Teknik
Pemecahan Mslh  Setiap komponen dalam Soft
Soft Computing
computing tidak saling
‘berkompetisi’, melainkan justru
Hybrid Systems saling ‘melengkapi’.
Halaman Depan
 Hybrid system merupakan
perpaduan antar komponen
dalam soft computing.


Beberapa Hybrid Systems
Teknik
 Neuro-fuzzy Systems
Pemecahan Mslh  Jaringan syaraf digunakan untuk
membangkitkan fungsi keanggotaan
Soft Computing suatu sistem fuzzy.
 Jaringan syaraf digunakan secara
Hybrid Systems
serial dengan sistem fuzzy. Jaringan
syaraf berperan pada saat
Halaman Depan preprocessing dan postprocessing.
 ANFIS (Adaptive Network-based Fussy
Inference System). Jaringan syaraf
digunakan untuk
mengimplementasikan Fuzzy inference
System.


 Neural Fuzzy Systems
Teknik
 Digunakan untuk akuisisi pengetahuan dan
Pemecahan Mslh
pembelajaran.
Soft Computing  Jaringan syaraf diinisialisasi dengan
pengetahuan pakar dalam bentuk simbol,
Hybrid Systems kemudian dilatih berdasarkan input-output
sistem nyata.
Halaman Depan  Pengetahuan dalam bentuk simbol yang
diperoleh dari pelatihan tersebut kemudian
direpresentasikan dalam logika fuzzy.
 Fuzzy Neural Network
 Lapisan-lapisan pada jaringan syaraf,
melakukan operasi-operasi: fuzzifikasi dan
defuzzy, dari input dan output crisp.

Teknik  Fuzzy Genetic Algorithms
Pemecahan Mslh
 Kemampuan optimasi dari GA
Soft Computing
digunakan untuk memilih aturan-
Hybrid Systems
aturan terbaik untuk fuzzy
inference system.
Halaman Depan  Neuro-genetic Systems
 GA digunakan sebagai sarana
untuk mengukur performansi
pembelajaran dari jaringan
syaraf.
Menggunakan AI: kapan?
 Masalah:
Analitis  Carilah nilai minimum dari: y=x2+2x-3;
pada kawasan [-10 10].
Numeris
 Dengan mudah dapat diselesaikan

AI secara analitis.
 Solusi eksak, Nilai Minimum = -4,
Halaman Depan terletak pada x=-1.
 Untuk masalah sederhana yang bisa
diselesaikan secara analitis,
selesaikanlah secara ANALITIS.


f(x)=x 2+2x-3
120
Analitis
100

Numeris 80

AI 60
y

40
Halaman Depan
20
minimum

-20
-10 -8 -6 -4 -2 0 2 4 6 8 10


x
 Masalah:
Analitis  Carilah akar persamaan:
Numeris f(x)= sin(x)cos(x)-2x+3sin(x)ln(x)
+5sin(2x2-5x) / cos(x3-2x),
AI dekat dengan 3.
Halaman Depan
 Sangat sulit untuk diselesaikan secara
analitis, gunakan pendekatan
METODE NUMERIS: (Metode biseksi,
regulafalsi, secant, Newton).
 Hasil=3,0846.

sin(x)cos(x)-2x+3sin(x)ln(x)+5sin(2x 2-5x)/cos(x 3-2x)
300

Analitis 200
y=0, x dekat dengan 3
100
Numeris
0

AI -100
y

-200
Halaman Depan
-300

-400

-500

-600
1 1.5 2 2.5 3 3.5 4 4.5 5
x


 Masalah:
Analitis  Carilah nilai minimum dari:

f(x)= sin(x)cos(x)-2x+3sin(x)ln(x)+5sin(2x2-
Numeris 5x) /cos(x3-2x),
dekat pada kawasan [1 5].
AI  Sangat sulit untuk diselesaikan secara analitis.
Secara numeris memungkinkan, namun
Halaman Depan kumungkinan diperoleh nilai minimum lokal
sangat tinggi. Cara terbaik gunakan
pendekatan ARTIFICIAL INTELLIGENCE
(Simulated Annealing, Algoritma Genetika).
 Nilai minimum=-547.3730, pada x=133


sin(x)cos(x)-2x+3sin(x)ln(x)+5sin(2x 2-5x)/cos(x 3-2x)
300

Analitis 200

100
Numeris
0

AI -100
y

-200
Halaman Depan
-300

-400

-500
minimum global
-600
1 1.5 2 2.5 3 3.5 4 4.5 5
x


Bekal Ilmu untuk SC

Analitis
ALJABAR KALKULUS LOGIKA

Numeris
KOMPUTASI NUMERIS
AI

Halaman Depan
SOFT
COMPUTIN
G
JARINGAN SARAF TIRUAN
Latar Belakang
 Kemampuan manusia dalam memproses
informasi, mengenal wajah, tulisan, dsb.
 Kemampuan manusia dalam mengidentifikasi
wajah dari sudut pandang yang belum pernah
dialami sebelumnya.
 Bahkan anak-anak dapat melakukan hal tsb.
 Kemampuan melakukan pengenalan meskipun
tidak tahu algoritma yang digunakan.
 Proses pengenalan melalui penginderaan
berpusat pada otak sehingga menarik untuk
mengkaji struktur otak manusia
Latar belakang

 Dipercayai bahwa
kekuatan komputasi
otak terletak pada
 hubungan antar sel-sel
syaraf
 organisasi hierarkis
 kemampuan menebak
 banyaknya jumlah
hubungan

Soft Computation Research


Group, EEPIS-ITS
Struktur Jaringan pada Otak
 Neuron adalah satuan unit pemroses terkecil pada otak
 Bentuk standard ini mungkin dikemudian hari akan berubah
 Jaringan otak manusia tersusun tidak kurang dari 1013 buah neuron
yang masing-masing terhubung oleh sekitar 1015 buah dendrite
 Fungsi dendrite adalah sebagai penyampai sinyal dari neuron
tersebut ke neuron yang terhubung dengannya
 Sebagai keluaran, setiap neuron memiliki axon, sedangkan bagian
penerima sinyal disebut synapse
 Sebuah neuron memiliki 1000-10.000 synapse
 Penjelasan lebih rinci tentang hal ini dapat diperoleh pada disiplin
ilmu biology molecular
 Secara umum jaringan saraf terbentuk dari jutaan (bahkan lebih)
struktur dasar neuron yang terinterkoneksi dan terintegrasi antara
satu dengan yang lain sehingga dapat melaksanakan aktifitas
secara teratur dan terus menerus sesuai dengan kebutuhan
Synapse
OTAK MANUSIA

 Bertugas untuk memproses informasi


 Seperti prosesor sederhana
 Masing-masing sel neuron berinteraksi
mendukung kinerja otak
 Setiap sel (neuron) memiliki satu nukleus
(soma), bertugas memproses informasi,
informasi diterima oleh dendrit, dan
disebarkan melalui akson
 Pertemuan informasi antar syaraf berada di
sinapsis
 Informasi yang dikirimkan berupa rangsangan
dengan sebuah batas ambang (threshold)
 Pada batas tertentu, syaraf lain akan teraktifasi dan
merespon
 Hubungan antar syaraf terjadi secara dinamis
 Otak manusia memiliki kemampuan untuk
belajar dan beradaptasi
 Mampu mengenali pola, wajah, mengkontrol organ
tubuh!
 Dengan jumlah neuron yang demikian banyak: otak mampu
mengenali pola, melakukan perhitungan dan mengontrol organ2
dengan kecepatan tinggi. Sebagai perbandingan: pengenalan
wajah seseorang yang sedikit berubah (mis: memakai topi,
memiliki kumis. dll) akan lebih cepat dilakukan manusia
dibandingkan komputer digital.
 Pada waktu lahir, otak manusia mempuyai struktur yang
menakjubkan karena kemampuannya membentuk sendiri
aturan2/pola2 berdasarkan pengalaman yang diterima. Jumlah
dan kemampuan neuron berkembang seiring dengan
pertumbuhan fisik manusia, terutama pada usia 0-2 thn. Pada
usia 2 tahun, terbentuk 1 juta sinapsi per detiknya.
Neuron memiliki tiga komponen utama: Dendrit, Soma, Axon.
Dendrit: menerima sinyal dari neuron lain. Sinyal dikirim melalui
celah sinapis melalui proses kimiawi. Sinyal kemudian
dimodifikasi (diperkuat/diperlemah) dicelah sinapis;
Soma: menjumlahkan semua sinyal yang masuk. Jika jumlahnya
cukup kuat dan melebihi batas ambang (threshold) , maka sinyal
tersebut dikirim ke sel lain melalui Axon
Jaringan Syaraf Tiruan (JST)
 JST adalah sistem pemrosesan informasi yang
memiliki karakteristik mirip dengan jaringan syaraf
biologi.
 JST dibentuk sebagai generalisasi model matematika
dari jaringan syaraf biologi, dengan asumsi bahwa:
► Pemrosesan informasi terjadi pada banyak elemen
sederhana (neuron)
► Sinyal dikirimkan diantara neuron-neuron melalui
penghubung2
► Penghubung antar neuron memiliki bobot yang akan
memperkuat atau memperlemah sinyal
Jaringan Syaraf Tiruan (JST)
► Untuk menentukan output, setiap neuron
menggunakan fungsi aktivasi (biasanya bukan
fungsi linier) yang dikenakan pada jumlahan input
yang diterima. Besarnya output ini selanjutnya
dibandingkan dengan suatu batas ambang
(threshold)
 JST dikarakteriskan oleh 3 hal berikut:
► Pola hubungan antar neuron (disebut arsitektur
jaringan)
► Metode untuk menentukan bobot penghubung
(disebut metode training/ learning/algoritma)
► Fungsi aktivasi
Jaringan Syaraf Tiruan (JST)

Sebagai contoh: neuron Y pada gambar berikut:


Jaringan Syaraf Tiruan (JST)
 Y menerima input dari neuron x1, x2, dan x3 dengan
bobot hubungan masing-masing adalah w1, w2, dan
w3 . Ketiga sinyal neuron yang ada kemudian
dijumlahkan:
net = x1w1+ x2w2 + x3w3
 Besarnya sinyal yang diterima oleh Y mengikuti
fungsi aktivasi y = f(net).
 Jika nilai fungsi aktivasi cukup kuat, maka sinyal akan
diteruskan.
 Nilai fungsi aktivasi (keluaran model jaringan) juga
dapat dipakai sebagai dasar untuk mengubah bobot.
A Neuron

© 2000 John Wiley & Sons, Inc.


Neuron Biologi merupakan system “FAULT-Tolerance”
dalam dua hal:
 Manusia dapat mengenali sinyal input yang agak berbeda
dari yang diterima sebelumnya. Sebagai contoh: manusia
sering mengenali wajah seseorang yang wajahnya pernah
dilihat dari foto, atau dapat mengenali seseorang yang
wajahnya agak berbeda, karena sudah lama tidak
dijumpainya
 Otak manusia tetap mampu bekerja meskipun beberapa
neuronnya tidak mampu bekerja dengan baik. Jika sebuah
neuron rusak, neuron yang lain kadang2 dapat dilatih
untuk menggantikan fungsi sel yang rusak tersebut.
Sejarah
 McCulloch & Pitts (1943) dikenal sebagai orang
yang pertama kali memodelkan Neural
Network. Sampai sekarang ide-idenya masih
tetap digunakan, misalnya:
 bertemuanya beberapa unit input akan memberikan
computational power
 Adanya threshold
 Hebb (1949) mengembangkan pertama kali
learning rule (dengan alasan bahwa jika 2
neurons aktif pada saat yang bersamaan maka
kekuatan antar mereka akan bertambah)
Sejarah

 Antara tahun 1950-1960an beberapa peneliti


melangkah sukses pada pengamatan tentang
perceptron
 Mulai tahun 1969 merupakan tahun kematian
pada penelitian seputar Neural Networks hampir
selama 15 tahun (Minsky & Papert)
 Baru pada pertengahan tahun 80-an (Parker &
LeCun) menyegarkan kembali ide-ide tentang
Neural Networks
Konsep Dasar Pemodelan Neural
Networks

Soft Computation Research Group,


EEPIS-ITS
 Sejumlah sinyal masukan x dikalikan dengan masing-
masing penimbang yang bersesuaian W
 Kemudian dilakukan penjumlahan dari seluruh hasil
perkalian tersebut dan keluaran yang dihasilkan
dilalukan kedalam fungsi pengaktip untuk mendapatkan
tingkatan derajad sinyal keluarannya F(x.W)
 Walaupun masih jauh dari sempurna, namun kinerja
dari tiruan neuron ini identik dengan kinerja dari sel otak
yang kita kenal saat ini
 Misalkan ada n buah sinyal masukan dan n buah
penimbang, fungsi keluaran dari neuron adalah seperti
persamaan berikut:
F(x,W) = f(w1x1 + … +wnxn)
Soft Computation Research Group,
EEPIS-ITS
Artificial neurons
 McCulloch & Pitts (1943) described an artificial neuron
 inputs are either excitatory (+1) or inhibitory (-1)
 each input has a weight associated with it
 the activation function multiplies each input value by its weight
 if the sum of the weighted inputs >= ,
 then the neuron fires (returns 1), else doesn't fire (returns –1)

w 1
w
w n if wixi >= , output = 1
2

... if wixi < , output -1

x1 x2 xn
Fungsi-fungsi aktivasi

 Stept(x) = 1 if x >= t, else 0


 Sign(x) = +1 if x >= 0, else –1
 Sigmoid(x) = 1/(1+e-x)

Soft Computation Research Group,


EEPIS-ITS
The first Neural Networks

AND
Fungsi AND
X1 X2 Y
X1 1 0 0 0
0 1 0
Y 1 0 0
1 1 1
Threshold=2
X2 1

Soft Computation Research Group, EEPIS-ITS


Computation via activation function
• can view an artificial neuron as a computational element
– accepts or classifies an input if the output fires
INPUT: x1 = 1, x2 = 1
.75*1 + .75*1 = 1.5 >= 1 OUTPUT: 1

 INPUT: x1 = 1, x2 = -1
.75*1 + .75*-1 = 0 < 1  OUTPUT: -1
.75 .75

INPUT: x1 = -1, x2 = 1
.75*-1 + .75*1 = 0 < 1  OUTPUT: -1
x1 x2
INPUT: x1 = -1, x2 = -1
.75*-1 + .75*-1 = -1.5 < 1  OUTPUT: -1

this neuron computes the AND function


The first Neural Networks

OR
Fungsi OR
X1 X2 Y
X1 2 0 0 0
0 1 1
Y 1 0 1
1 1 1
Threshold=2
X2 2

Soft Computation Research Group, EEPIS-ITS


In-class exercise
• specify weights and thresholds to compute OR

INPUT: x1 = 1, x2 = 1

w1*1 + w2*1 >=   OUTPUT: 1

 INPUT: x1 = 1, x2 = -1

w w w1*1 + w2*-1 >=   OUTPUT: 1


1 2

INPUT: x1 = -1, x2 = 1

w1*-1 + w2*1 >=   OUTPUT: 1


x1 x2

INPUT: x1 = -1, x2 = -1

w1*-1 + w2*-1 <   OUTPUT: -1


The first Neural Networks

AND-NOT
Fungsi AND-NOT
X1 X2 Y
X1 2 0 0 0
0 1 0
Y 1 0 1
1 1 0
Threshold=2
X2 -1

Soft Computation Research Group, EEPIS-ITS


The first Neural Networks
Fungsi XOR
XOR

2
X1 X2 Y
X1 Z1 2 0 0 0
-1
0 1 1
Y
1 0 1
-1
Threshold=2 1 1 0
X2 Z2 2
2

Threshold=2

X1 XOR X2 = (X1 AND NOT X2) OR (X2 AND NOT X1)


Soft Computation Research Group, EEPIS-ITS
Perceptron

 Sinonim untuk
Single-Layer,
Feed-Forward
Network
 Dipelajari
pertama kali
pada tahun 50-
an

Soft Computation Research Group,


EEPIS-ITS
Case study - AND

Fungsi AND dengan bias


Fungsi AND
1 W1
X1 W1

W2
Y X1 Y
W2
W3
Threshold=2
Threshold=0
X2
X2

Soft Computation Research Group,


EEPIS-ITS
Perceptrons
 Rosenblatt (1958) devised a learning algorithm for artificial
neurons
given a training set (example inputs & corresponding desired
outputs)
1. start with some initial weights
2. iterate through the training set, collect incorrect examples
3. if all examples correct, then DONE
4. otherwise, update the weights for each incorrect example
if x1, …,xn should have fired but didn't, wi += xi (0 <= i <= n)
if x1, …,xn shouldn't have fired but did, wi -= xi (0 <= i <= n)
5. GO TO 2
 artificial neurons that utilize this learning algorithm are known
as perceptrons
Example: perceptron learning
 Suppose we want to train a perceptron to compute AND
training set: x1 = 1, x2 = 1  1
x1 = 1, x2 = -1  -1
x1 = -1, x2 = 1  -1
x1 = -1, x2 = -1  -1

-0.9 0.2 randomly, let: w0 = -0.9, w1 = 0.6, w2 = 0.2


0.6
using these weights:
x1 = 1, x2 = 1: -0.9*1 + 0.6*1 + 0.2*1 = -0.1  -1 WRONG
x1 = 1, x2 = -1: -0.9*1 + 0.6*1 + 0.2*-1 = -0.5  -1 OK
1 x1 x2
x1 = -1, x2 = 1: -0.9*1 + 0.6*-1 + 0.2*1 = -1.3  -1 OK
x1 = -1, x2 = -1: -0.9*1 + 0.6*-1 + 0.2*-1 = -1.7  -1 OK
new weights: w0 = -0.9 + 1 = 0.1
w1 = 0.6 + 1 = 1.6
w2 = 0.2 + 1 = 1.2
Example: perceptron learning
(cont.)
using these updated weights:
 x1 = 1, x2 = 1: 0.1*1 + 1.6*1 + 1.2*1 = 2.9  1 OK
x1 = 1, x2 = -1: 0.1*1 + 1.6*1 + 1.2*-1 = 0.5  1
0.1 1.2
1.6 WRONG
x1 = -1, x2 = 1: 0.1*1 + 1.6*-1 + 1.2*1 = -0.3  -1 OK
x1 = -1, x2 = -1: 0.1*1 + 1.6*-1 + 1.2*-1 = -2.7  -1 OK

1 x1 x2 new weights: w0 = 0.1 – 1 = -0.9


w1 = 1.6 – 1 = 0.6
w2 = 1.2 + 1 = 2.2
using these updated weights:
x1 = 1, x2 = 1: -0.9*1 + 0.6*1 + 2.2*1 = 1.9  1 OK
 x1 = 1, x2 = -1: -0.9*1 + 0.6*1 + 2.2*-1 = -2.5  -1 OK
x1 = -1, x2 = 1: -0.9*1 + 0.6*-1 + 2.2*1 = 0.7  1 WRONG
-0.9 2.2
0.6 x1 = -1, x2 = -1: -0.9*1 + 0.6*-1 + 2.2*-1 = -3.7  -1 OK

new weights: w0 = -0.9 – 1 = -1.9


w1 = 0.6 + 1 = 1.6
1 x1 x2 w2 = 2.2 – 1 = 1.2
Example: perceptron learning (cont.)

using these updated weights:


 x1 = 1, x2 = 1: -1.9*1 + 1.6*1 + 1.2*1 = 0.9  1 OK
x1 = 1, x2 = -1: -1.9*1 + 1.6*1 + 1.2*-1 = -1.5  -1 OK
-1.9 1.2
1.6 x1 = -1, x2 = 1: -1.9*1 + 1.6*-1 + 1.2*1 = -2.3  -1 OK
x1 = -1, x2 = -1: -1.9*1 + 1.6*-1 + 1.2*-1 = -4.7  -1 OK

DONE!
1 x1 x2

EXERCISE: train a perceptron to compute OR


Referensi

 Introduction to AI: Neural Networks, Graham Kendall.


 Introduction to Neural Networks, Rocha.
 Pengenalan pola berbasis Neural Networks, Budi
Rahardjo, Jurusan Teknik Elektro, ITB.
 Konsep dasar Jaringan Syaraf Tiruan dan
pemodelannya, Riyanto Sigit, Politeknik Elektronika
Negeri Surabaya, Juli 2004.
 Notes on Neural Networks, Prof. Tadaki, Machine
Learning counterpart meeting, Politeknik Elektronika
Negeri Surabaya, Oktober 2005.

Soft Computation Research Group,


EEPIS-ITS

Anda mungkin juga menyukai