Anda di halaman 1dari 8

TUGAS AI

Iipsaripudin
10109361
1. Guntur Pribadi- 0676899
2. Sistem pendeteksian wajah menggunakan jaringan syaraf tiruan
3. Detector wajah, ekstraksi subcitra, Resizing, Histogram Equalization, Masking,
Penggabungan (merging) penggabungan kandidat wajah, User Interface
4. Untuk meningkatkan kecepatan proses pelatihan digunakan algoritma
Quickprop. Algoritma Quickprop ini pertama kali diperkenalkan pada
[Fahlman,

1988]

backpropagation

sebagai
untuk

salah

satu

melakukan

alternatif

pelatihan

dari

pada

algoritma
multi-layer

perceptron.
Hasil akhir training yang berupa nilai bobot-bobot penghubung akan
disimpan ke suatu file. File ini nantinya akan digunakan oleh
detektor wajah untuk melakukan tugasnya.

5. Knowledge refresentation

Traning
Data Set

Testing
Data Set

Citra Masukan

Trainer JST

Bobot JST Hasil Training

Detektor Wajah

Hasil Deteksi

6. Pengembangan sistem ini menggunkan jaringan syarap tiruan


7. Metode Reasoning

Pengenalan wajah (face recognition) yaitu membandingkan citra wajah


masukan dengan suatu database wajah dan menemukan wajah yang
paling cocok dengan citra masukan tersebut.
Autentikasi

wajah

(face

authentication)

yaitu

menguji

keaslian/kesamaan suatu wajah dengan data wajah yang telah diinputkan


sebelumnya.
Lokalisasi wajah (face localization) yaitu pendeteksian wajah namun
dengan asumsi hanya ada satu wajah di dalam citra.
Penjejakan wajah (face tracking) yaitu memperkirakan lokasi suatu
wajah di dalam video secara real time.
Pengenalan ekspresi wajah (facial expression recognition) untuk
mengenali kondisi emosi manusia.
Tantangan yang dihadapi pada masalah deteksi wajah disebabkan oleh
adanya faktor-faktor berikut [Yang, 2002]:
Posisi wajah. Posisi wajah di dalam citra dapat bervariasi karena
posisinya bisa tegak, miring, menoleh, atau dilihat dari samping.
Komponen-komponen pada wajah yang bisa ada atau tidak ada,
misalnya kumis, jenggot, dan kacamata.
Ekspresi wajah. Penampilan wajah sangat dipengaruhi oleh ekspresi
wajah seseorang, misalnya tersenyum, tertawa, sedih, berbicara, dan
sebagainya.
Terhalang objek lain. Citra wajah dapat terhalangi sebagian oleh objek
atau wajah lain, misalnya pada citra berisi sekelompok orang.
Kondisi pengambilan citra. Citra yang diperoleh sangat dipengaruhi
oleh faktor-faktor seperti intensitas cahaya ruangan, arah sumber cahaya,
dan karakteristik sensor dan lensa kamera.

8. Metode jaringan syarap tiruan


Multi layer perceptron
Multi-Layer Perceptron adalah jaringan syaraf tiruan feed-forward yang
terdiri dari sejumlah neuron yang dihubungkan oleh bobot-bobot
penghubung. Neuron-neuron tersebut disusun dalam lapisan-lapisan yang
terdiri dari satu lapisan input (input layer), satu atau lebih lapisan
tersembunyi (hidden layer), dan satu lapisan output (output layer).
Lapisan input menerima sinyal dari luar, kemudian melewatkannya ke
lapisan tersembunyi pertama, yang akan diteruskan sehingga akhirnya
mencapai lapisan output [Riedmiller, 1994].
Setiap neuron i di dalam jaringan adalah sebuah unit pemrosesan
sederhana yang

menghitung nilai aktivasinya yaitu si terhadap input

eksitasi yang juga disebut net input neti.

net i

s w

j
j pred ( i )

ij

i
(2.4)

dimana pred(i) melambangkan himpunan predesesor dari unit i, wij


melambangkan bobot koneksi dari unit j ke unit i, dan i adalah nilai bias
dari unit i. Untuk membuat representasi menjadi lebih mudah, seringkali
bias digantikan dengan suatu bobot yang terhubung dengan unit bernilai
1. Dengan demikian bias dapat diperlakukan secara sama dengan bobot
koneksi.
Aktivasi dari unit i, yaitu si , dihitung dengan memasukkan net input ke
dalam sebuah fungsi aktivasi non-linear. Biasanya digunakan fungsi
s i f log (net i )

logistik sigmoid:

1
1 e neti

(2.5)

Salah satu keuntungan dari fungsi ini adalah memiliki derivatif yang
mudah dihitung:

si
'
f log
(net i ) si * (1 si )
net i
(2.6)
Nilai dari fungsi sigmoid di atas memiliki nilai output antara 0 dan 1. Jika
diinginkan nilai output antara 1 dan 1, dapat digunakan fungsi bipolar
sigmoid berikut [Fausett, 1994]:
si g log (net i )

2
1
1 e neti

(2.7)

Derivatif dari fungsi tersebut adalah:

si '
1
g log (net i ) (1 si ) * (1 si )
net i
2
(2.8)

Supervised Learning

Tujuan

pada

pembelajaran

supervised

learning

adalah

untuk

menentukan nilai bobot-bobot koneksi di dalam jaringan sehingga


jaringan dapat melakukan pemetaan (mapping) dari input ke output
sesuai dengan yang diinginkan. Pemetaan ini ditentukan melalui satu set
pola contoh atau data pelatihan (training data set).
Setiap pasangan pola p terdiri dari vektor input xp dan vektor target
tp. Setelah selesai pelatihan, jika diberikan masukan xp seharusnya
jaringan menghasilkan nilai output tp. Besarnya perbedaan antara nilai
vektor target dengan output aktual diukur dengan nilai error yang disebut
juga dengan cost function:

Algoritma Backpropagation

Salah satu algoritma pelatihan jaringan syaraf tiruan yang banyak


dimanfaatkan dalam bidang pengenalan pola adalah backpropagation.
Algoritma ini umumnya digunakan pada jaringan syaraf tiruan yang
berjenis multi-layer feed-forward, yang tersusun dari beberapa lapisan
dan sinyal dialirkan secara searah dari input menuju output.

Algoritma pelatihan backpropagation pada dasarnya terdiri dari tiga


tahapan [Fausett, 1994], yaitu:
1. Input nilai data pelatihan sehingga diperoleh nilai output
2. Propagasi balik dari nilai error yang diperoleh
3. Penyesuaian bobot koneksi untuk meminimalkan nilai error
Ketiga tahapan tersebut diulangi terus-menerus sampai mendapatkan
nilai error yang diinginkan. Setelah training selesai dilakukan, hanya tahap
pertama yang diperlukan untuk memanfaatkan jaringan syaraf tiruan
tersebut.
Secara matematis [Rumelhart, 1986], ide dasar dari algoritma
backpropagation ini sesungguhnya adalah penerapan dari aturan rantai
(chain rule) untuk menghitung pengaruh masing-masing bobot terhadap
fungsi error:

E
E si

wij si wij

si
si net i
'

f log
(net i ) s j
wij net i wij
(2.10)

dan

(2.11)

dimana wij adalah bobot penghubung dari neuron j ke neuron i, s i adalah


output, dan net i adalah jumlah hasilkali pada input dari neuron i.
Untuk menghitung E/s i , yaitu pengaruh output si terhadap error E,
dapat dibedakan menjadi dua kasus berikut:
jika i adalah unit output, maka:

E 1 (t i si ) 2

(t i s i )
si 2
si

(2.12)

jika i bukan unit output, maka perhitungan E/s i menjadi sedikit


lebih kompleks. Di sini digunakan lagi aturan rantai:

E
si

E s k
k succ( i ) s k s i

(2.13)

E s k net k
si
k succ( i ) s k net k

E '
f log (net k ) wki
k succ( i ) s k

di mana succ(i) melambangkan semua unit k yang ada di dalam layer


berikutnya ke arah output layer.
Persamaan (2.11) memiliki asumsi bahwa nilai E/sk untuk unit di
layer berikutnya yang terhubung dengan unit i telah diketahui nilainya.
Untuk itu perhitungan dilakukan mulai dari output layer, kemudian baru
menghitung derivatif unit-unit di layer sebelumnya dengan menggunakan
persamaan (2.11). Dengan kata lain, informasi error dipropagasikan
secara berurutan bermula dari output layer dan berakhir pada input layer,
sehingga algoritma ini diberi nama backpropagation [Riedmiller, 1994].
Setelah didapatkan derivatif parsial dari setiap bobot penghubung,
maka untuk meminimisasi fungsi error dilakukan metode gradient descent
wij (t 1) wij (t ) wij (t )

(2.14)

wij (t )

E
(t )
wij
(2.15)

Pilihan nilai learning rate akan sangat berpengaruh pada proses


training. Jika terlalu kecil, training akan memerlukan iterasi yang banyak

sehingga lama untukmencapai konvergen. Jika terlalu besar, bisa timbul


osilasi sehingga tidak akanmencapai nilai error yang diharapkan.

Algoritma quickprop

Pada algoritma Quickprop dilakukan pendekatan dengan asumsi


bahwa kurva fungsi error terhadap masing-masing bobot penghubung
berbentuk parabola yang terbuka ke atas, dan gradien dari kurva error
untuk suatu bobot tidak terpengaruh oleh bobot-bobot yang lain
[Fahlman, 1988]. Dengan demikian perhitungan perubahan bobot hanya
menggunakan informasi lokal pada masingmasing bobot. Perubahan
bobot pada algoritma Quickprop dirumuskan sebagai berikut:
E
(t )
E
w
w(t )
(t )
* w(t 1)
E
E
w
(t 1)
(t )
w
w

(2.17)

dimana:
w(t)

: perubahan bobot

w(t 1)

: perubahan bobot pada epoch sebelumnya

: adalah learning rate

E
(t )
w

: derivatif error

E
(t 1)
w

: derivatif error pada epoch sebelumnya

Pada eksperimen dengan masalah XOR dan encoder/decoder


[Fahlman, 1988], terbukti bahwa algoritma Quickprop dapat meningkatkan
kecepatan

training.

Eksperimen

dari

[Schiffmann,

1993]

juga

menunjukkan peningkatan kecepatan training dan unjuk kerja yang


signifikan.

9. Reprensi
http://id.scribd.com/doc/24444352/SKRIPSI-SISTEM-PENDETEKSIAN-WAJAHMENGGUNAKAN-JARINGAN-SYARAF-TIRUAN
http://id.scribd.com/doc/46752712/MAKALAH-Jaringan-Saraf-Tiruan

Anda mungkin juga menyukai