Anda di halaman 1dari 5

JURNAL LOGIC. VOL. 11. NO. 1.

MARET 2011 57

APLIKASI PENGENALAN WAJAH DENGAN MENGGUNAKAN


METODE KLASIFIKASI SUPPORT VECTOR MACHINE (SVM)

Sri Andriati Asri

Jurusan Teknik Elektro Politeknik Negeri Bali


Bukit Jimbaran, P.O Box 1064 Tuban Badung-BALI
Phone : (0361)701981, Fax : (0361) 701128

Abstrak : Aplikasi pengenalan wajah terdiri dari dua proses utama yaitu proses ekstraksi ciri dan klasifikasi.
Ekstraksi ciri akan melakukan karakterisasi sebuah obyek untuk dikenali, pada penelitian obyek yang akan
dikenali adalah berbentuk gambar sampel wajah. Ciri-ciri sebuah obyek pada kategori yang sama mempunyai
nilai yang hampir mirip (similar). Tahap selanjutnya adalah klasifikasi, proses ini bertujuan untuk menempatkan
atau menggolongkan sebuah obyek ke dalam sebuah kategori atau kelas. Metode klasifikasi untuk aplikasi
pengenalan wajah yang banyak digunakan adalah Neural Network, namun metode ini mempunyai keterbatasan
dalam hal generalisasi, menghasilkan model untuk mencocokkan data. Maka dalam penelitian ini digunakan
metode Support Vector Machine (SVM), dimana metode ini mempunyai kemampuan generalisasi yang baik.
sedangkan ekstraksi ciri yang digunakan adalah Analisis Diskriminan Majemuk/Transformasi Fukunaga Koontz
(AMD/TFK). Basis data wajah yang digunakan adalah basis data Yale dan ORL.

Dari hasil uji coba didapat bahwa keberhasilan metode klasifikasi SVM untuk basis data Yale mencapai 100 %
dan untuk basis data ORL mencapai 95%. Hasil ini menunjukkan bahwa aplikasi pengenalan wajah dengan
menggunakan metode klasifikasi SVM merupakan sebuah aplikasi yang cukup handal.

Kata kunci : ekstraksi ciri, klasifikasi, Analisis Diskriminan Majemuk/Transformasi Fukunaga Koontz, Support
Vector Machine

Face Recognition Application by using Support Vector Machine (SVM) Classifying Method
Abstract : Face recognition application consist of two major processes, as feature extraction process and
classification. The former was done by characterizing an object to recognize, .which use an object of face
picture sample. Features of an object in the same category had a nearly same value). The next stage was
classification, intended to place an object into a category or class. Classification method for face recognition
application widely used is Neural Network, however this methods has weakness in term of generalization,
producing models to match the data. Therefore, the method used in this research was Support Vector Machine
(SVM), whose generalization capability is considered proper. The extraction used was Multiple Discriminant
Analysis/Fukunaga Koontz Transformation.. Face database used was Yale and ORL data base.

The experiment shows that the success of SVM classifying methods was 100% for Yale database and 95% for
ORL database. This result shows that face recognition application with SVM classifying methods is a
sufficiently proper application

Key word : feature extraction, classification, Multiple Discriminant Analysis/Fukunaga Koontz Transformation,
Support Vector Machine

I. PENDAHULUAN Diskriminan Majemuk/Transformasi Fukunaga


Pengenalan wajah mendapat perhatian yang Koontz, sampai pada metode klasifikasi, seperti
cukup tinggi, karena pengenalan wajah dapat Neural Network (NN) dan Support Vector Machine
diterapkan pada banyak aplikasi potensial, seperti (SVM).
otentikasi identitas, information security, Dalam pengenalan wajah, proses klasifikasi
surveillance dan interaksi manusia komputer. sama pentingnya dengan proses ekstraksi ciri.
Banyak metode yang digunakan dalam Setelah ciri-ciri penting data atau citra wajah
aplikasi pengenalan wajah. Mulai dari metode dihasilkan pada proses ekstraksi ciri, ciri-ciri
ekstraksi ciri seperti Analisis Komponen Utama, tersebut nantinya akan digunakan untuk proses
Diskriminan Linear Fisher atau sering disebut klasifikasi. Metode klasifikasi yang digunakan
Analisis Diskriminan Linier (ADL) dan Analisis adalah pengklasifikasi Support Vector Machine
JURNAL LOGIC. VOL. 11. NO. 1. MARET 2011 58

(SVM). Pengklasifikasi SVM menggunakan sebuah dapat menghasilkan jumlah eigenvector diskriminan
fungsi atau hyperplane untuk memisahkan dua buah lebih besar dari C-1, karena biasanya rank
kelas pola. SVM akan berusaha mencari hyperplane I dan E lebih besar dari C-1.
yang optimal dimana dua kelas pola dapat Metode klasifikasi Support Vector Machine (SVM)
dipisahkan dengan maksimal. SVM pada dasarnya bekerja berdasarkan prinsip Structural Risk
merupakan pengklasifikasi biner, namun SVM Minimization, yang meminimalkan batas atas dari
dapat juga digunakan untuk permasalahan banyak dimensi VC atau Vapnik-Chervonenkis. SVM dapat
kelas (pengenalan wajah). SVM mempunyai melakukan klasifikasi data yang terpisah secara linier
kemampuan generalisasi yang tinggi dalam beberapa dan nonlinier. Data terpisah secara linier merupakan
aplikasi, termasuk pada aplikasi pengenalan wajah. data yang dapat dipisahkan secara linier. Misalkan
{x1,..., xn} adalah dataset dan yi {+1,1} adalah
II. METODE PENELITIAN label kelas dari data xi.. Bidang pemisah terbaik tidak
hanya dapat memisahkan data tetapi juga memiliki
2.1 Studi Pustaka margin paling besar. Data yang berada pada bidang
Metode ekstraksi ciri Analisis Diskriminan pembatas ini disebut support vector.
Majemuk/Transformasi Fukunaga Koontz membagi
data kedalam dua kelas yaitu intraclass I = {( ai xi.w + b +1 untuk yi = +1
aj)L(ai) = L(aj)} dan ruang extraclass E = {( ai xi.w + b -1 untuk yi = -1
aj)L(ai) L(aj)}, dimana L(ai ) adalah label kelas ai.
Menurut Moghaddam I dan E didefinisikan w adalah normal bidang dan b adalah posisi bidang
sebagai berikut relatif terhadap pusat koordinat. Nilai margin (jarak)
antara bidang pembatas (berdasarkan rumus jarak
1
I = H I H IT = (ai - a j )(ai - a j )T 1 - b - ( -1 - b ) 2
NI L( ai ) = L ( a j ) garis ke titik pusat) adalah =
w w
1 pencarian bidang pemisah terbaik dengan nilai margin
E = H E H TE = (ai - a j )(ai - a j )T terbesar dapat dirumuskan menjadi masalah optimasi
N E L ( ai ) L (a j )
konstrain, yaitu min 1 w 2
2
ni (ni - 1) adalah jumlah
1
Dengan mI = mE, , N I = Untuk mengklasifikasi data yang terpisah secara
2
tidak linier dapat dilakukan dengan menggunakan
sampel pada I dan N E = Li L j ni n j adalah jumlah
teknik softmargin hyperplane (seperti tampak pada
sampel pada E . Biasanya rank ( E ) dan rank ( I ) gambar), dengan formula pencarian bidang pemisah
keduanya lebih besar dari dari C-1, dimana C adalah terbaik:
jumlah kelas., dengan HI dan HE adalah matriks 1 2 l
min w + C x i
2 i =1
percussor dari dan . Menurut Koontz,
Dimana yi ( xi .w + b) 1 - x i dan x i . C adalah
subruang optimal F dapat dihitung dengan
memaksimalkan criterion baru dimana jarak parameter yang menentukan besar penalti akibat
Bhattacharyya: kesalahan dalam klasifikasi data dan nilainya
ditentukan oleh pengguna. Bentuk persoalan di atas
(
J MDA = ln | FT E F ) (F
-1 T
I F + ) memenuhi prinsip SRM, dimana meminimumkan
1 2
(F T
I F ) (F
-1 T
)
E F + 2I d | 2
w ekivalen dengan meminimumkan dimensi VC

Dengan mengaplikasikan Transformasi dan meminimumkan C ( i x i )k berarti


Fukunaga Koontz pada I dan E dapat diperoleh meminimumkan error pada data pelatihan.
empat subspace dengan dua kurva eigenvalue.
Anggap lI dan lE adalah eigenvalue yang j
berasosiasi dengan eigenvector yang sama dan l a
xj w
adalah generalized eigenvalue dari pasangan matriks
( I , E ) , maka generalized eigenvalue l = l I xi Kelas
lE i 2
dan l I + l E = 1 . JMDA dapat dimaksimalkan dengan
menghitung eigenvector yang bersesuaian dengan Kelas

atau ekivalen dengan l I + l E . Metode ini


1
1
l + xi.w+b = -1
l lE lI
JURNAL LOGIC. VOL. 11. NO. 1. MARET 2011 59

Gambar 1. Softmargin hyperplane 92x112, dan 64x88 untuk citra wajah pada basis data
Metode lain untuk mengklasifikasikan data yang Yale.
tidak dapat dipisahkan secara linier adalah dengan
mentransformasikan data ke dalam dimensi ruang fitur 2.2.2 Pelatihan (Training)
(feature space) sehingga dapat dipisahkan secara
linier pada feature space. Dengan menggunakan Proses training meliputi proses ekstrasi fitur dan
transformasi F : R d R q , d < q , selanjutnya proses klasifikasi. Ekstrasi fitur dilakukan dengan
pembelajaran SVM dalam menemukan support vector menggunakan metode Analisis Diskriminan
hanya tergantung dari dot product dari data yang Majemuk/Transformasi Fukunaga Koontz, pada
tahap ini bertujuan mendapatkan set vektor fitur
sudah ditransformasikan. Untuk ( F( x i ).F( x j ) ,
yang nantinya dapat digunakan pada tahap
terdapat fungsi kernel K sedemikian hingga klasifikasi (testing).Pada tahap awal proses ekstraksi
K = ( x i , x j ) = F( x i ).F( x j ) . Dengan demikian fitur, data input matriks wajah dimensi nxm akan
fungsi hasil pembelajaran dapat dituliskan : diubah kedalam vektor wajah berdimensi (nxm) x 1
atau menjadi vektor kolom. Hasil dari proses
ns ns ektraksi fitur ini berupa vektor fitur dengan dimensi
f ( x) = a i y i F( si ).F( x ) + b = a i y i K (si , x ) + b lebih kecil (sesuai dengan dimensi proyeksi).
i =1 i =1

Dalam penelitian ini menggunakan SVM


Dengan si adalah support vector, syarat sebuah multiclass One Againts All. Dengan kernel
fungsi menjadi fungsi kernel adalah fungsi tersebut polynomial orde 1 (linier). Pada dasarnya proses
harus memenuhi teorema Mercer yang menyatakan klasifikasi dengan SVM dibagi menjadi dua tahap
bahwa matriks Kernel yang dihasilkan harus positive yaitu proses pelatihan dan proses pengujian. Pada
semi definite. proses pelatihan variabel hyperplane untuk setiap
Dalam penelitian ini digunakan metode SVM pengklasifikasi (classifier) yang didapat akan
One Against All. Metode ini akan membangun disimpan dan nantinya akan digunakan sebagai data
sejumlah K SVM biner (K classifier). Setiap model tiap pengklasifikasi dalam proses pengujian, dengan
pengklasifikasi ke-i dilatih dengan menggunakan kata lain proses pelatihan adalah untuk mencari
keseluruhan data, untuk mencari solusi bidang support vector dari data input (dalam hal digunakan
pemisah terbaik. quadratic programming). Pada proses pengujian
menggunakan data hasil pelatihan untuk
2.2 Disain Sistem menghasilkan klasifikasi yang benar dari data uji.
Secara garis besar dapat dibagi menjadi 3 proses Hasil akhir dari proses ini berupa nilai indeks dari
utama yaitu, pemrosesan awal, training (pelatihan) fungsi keputusan yang terbesar yang menyatakan
dan testing (pengujian). Masing-masing data base kelas dari data yang diklasifikasi.
wajah yang digunakan dibagi menjadi dua. Sebagian
digunakan untuk proses training (pelatihan ) dan
2.2.3 Pengujian (Testing)
sebagiannya lagi digunakan untuk proses testing
(pengujian).
Setelah mendapatkan hasil dari proses training,
maka untuk mengetahui kinerja sistem, dilakukan
proses testing.
2.2.1 Pemrosesan Awal (preprocessing)
Pemrosesan awal merupakan proses
III. HASIL DAN PEMBAHASAN
pengambilan data wajah dan normalisasi data wajah.
Data wajah yang digunakan harus dalam bentuk citra Aplikasi ini dibuat dengan menggunakan bahasa
abu-abu. Pada penelitian ini hanya dilakukan proses pemrograman MATLAB versi 7.0. Basis Data Yale
normalisasi. Normalisasi dilakukan untuk mereduksi memuat 15 orang dengan masing-masing memiliki
ukuran dan mendapatkan citra wajah yang cukup 11 citra. Subyek bervariasi terhadap jenis kelamin,
ideal untuk dijadikan sebagai data masukan dengan ekspresi wajah, pencahayaan dan asesoris wajah
cara melakukan proses cropping sehingga (misalnya kacamata). Citra yang digunakan terlebih
didapatkan citra yang ideal untuk dijadikan sebagai dahulu akan dinormalisasi dengan melakukan
data masukan. Dalam proses implementasi pada reduksi ukuran citra asal menjadi berukuran 6488.
penelitian ini citra masukan mengalami proses resize
Basis Data ORL memuat 40 orang yang masing-
menjadi setengah atau seperempat dari ukuran citra
masing memiliki 10 citra wajah, citra yang
masukan. Hal ini disebabkan oleh jika vektor wajah
digunakan terlebih dahulu akan dinormalisasi
input yang dihasilkan masih terlalu besar
dengan melakukan reduksi ukuran citra asal menjadi
membutuhkan memori yang besar dalam proses
komputasi. berukuran 92112 dan memiliki karakteristik variasi
Setelah mengalami pemrosesan awal, citra ras, ekspresi wajah, pencahayaan (lighting) dan
wajah pada basis data ORL menjadi berukuran diambil dalam waktu yang berlainan.
JURNAL LOGIC. VOL. 11. NO. 1. MARET 2011 60

Citra input Citra input


pelatihan Pengujian

Pemrosesan Pemrosesan
awal awal

Ekstraksi fitur Ekstraksi fitur

Data
pengklasifikasi hyperplane pengklasifikasi Kelas citra
SVM SVM input

Pengujian
Pelatihan
Gambar 2. Desain Sistem

3.1 Pengujian pada Basis Data Yale


Dilakukan 9 kali pengujian untuk basis data
Yale. Mulai dari menggunakan 2 sampel pelatihan
1
per kelas sampai 9 buah sampel pelatihan per kelas.
Hasil pengujian basis data Yale dapat dilihat pada 0.9

gambar 3. 0.8

0.7
UJI ORL 2
Akurasi Klasifikasi

UJI ORL 3
0.6
UJI ORL 4

0.5 UJI ORL 5


UJI ORL 6
0.4 UJI ORL 7
UJI ORL 8
0.3 UJI ORL 9

0.2

0.1
7 9 11 13 15 17 19 21 23 25 27 29 31 33 35 37 39 41 43 45 47 49 51 53 55 57 59 61 63 65 67 69 71 73 75 77 79

Dimensi Proyeksi

Gambar 4 Grafik tingkat keberhasilan pengenalan untuk


tiap variasi pengujian pada Basis Data ORL

Gambar 3 Grafik tingkat keberhasilan pengenalan untuk


3.3 Pembahasan
tiap variasi pengujian pada Basis Data Yale
Dari hasil uji coba pada masing-masing basis
3.2 Pengujian pada Basis Data ORL data secara umum dapat dilihat yaitu bahwa
kenaikan jumlah sampel training mampu menaikkan
Seperti halnya dengan basis data Yale. Untuk tingkat keberhasilan pengujian.
pengujian basis data ORL juga dilakukan sebanyak 9 kali Pada Gambar 3 secara keseluruhan tampak
pengujian. Hasil pengujian dapat dilihat pada gambar 4. bahwa kenaikan jumlah sampel pelatihan yang
digunakan dan dimensi proyeksi, mampu
meningkatkan tingkat keberhasilan pengenalan.
Hanya saja, kenaikan dimensi proyeksi dengan
menggunakan sampel pelatihan banyak tidak
berpengaruh signifikan terhadap tingkat
keberhasilan pengenalan. Pada Gambar tersebut
JURNAL LOGIC. VOL. 11. NO. 1. MARET 2011 61

tampak pada penggunaan sampel pelatihan sebanyak [2.] Dennis. O, Castrillon. M, Hernandes . M, Face
2 (UJI YALE), belum menunjukkan hasil yang yang recognition using independent component
optimal dibanding dengan uji lainnya. Hal ini analysis and support vector machine, Journal
memang, karena data fitur dan data hyperplane yang in Pattern Recognition Letter, Elsevier, 2003.
dihasilkan belum memadai untuk meningkatkan
[3.] Duda, R., Hart, P., and Stork, D. Pattern
hasil pengenalan. Semakin banyak jumlah sampel
Recognition, Second edition. J. Wiley and
pelatihan per kelas, maka dengan dimensi proyeksi
Sons, Inc, 2000.
kurang dari C-1 tingkat pengenalan maksimal
yang dicapai adalah 100 %. [4.] Fukunaga, K., Introduction to Statistical
Gambar 4 menunjukkan bahwa secara Pattern Recognition, second ed. Academic
keseluruhan hasil uji coba terhadap Basis Data ORL, Press, 1990.
kenaikan jumlah sampel pelatihan per kelas dan
kenaikan jumlah dimensi proyeksi mampu [5.] Gun, S, Support Vector Machine for
meningkatkan prosentase pengenalan. Penggunaan Classification and Regression, ISIS Technical
Report, University of Southampton, 1998.
dimensi proyeksi yang semakin besar mampu
meningkatkan tingkat pengenalan atau akurasi [6.] Soelaiman, Rully. Sistem Pengenalan Wajah
klasifikasi, baik untuk jumlah sampel pelatihan per Dengan Penerapan Algoritma Genetika pada
kelas sedikit maupun dengan penggunaan sampel Optimasi Basis Eigenface dan Proyeksi
pelatihan per kelas yang banyak. Semakin banyak Fisherfac, Tesis, Universitas Indonesia,
jumlah sampel pelatihan per kelas yang digunakan, Jakarta, 2003
maka dengan dimensi proyeksi kurang dari C-1
akurasi tingkat pengenalan dapat maksimal. [7.] Walpole, R.E, Myers R.H, Myers Sharon L, Ye,
K. Probability&Statistic for
IV. SIMPULAN DAN SARAN Engineers&Scientists, Prentice Hall, New
Jersey, 2007.
4.1 Simpulan [8.] Zhang, S., and Sim, T, Discriminant Subspace
Dari hasil uji coba aplikasi pengenalan wajah Analysis: A Fukunaga Koontz Approach, IEEE
dengan metode klasifikasi SVM dengan basis data Transaction On Pattern Analysis and Machine
Yale dan ORL dapat disimpulkan bahwa : Intelligence, vol 29, no 10, pp 1732-1745,
- Untuk basis data Yale tingkat keberhasilan Oktober 2007.
pengenalan maksimal adalah 100 %.
- Untuk basis data ORL tingkat keberhasilan
pengenalan maksimal adalah 97,5 %
- Semakin banyak jumlah sampel pelatihan
yang digunakan semakin tinggi tingkat
keberhasilan pengenalan.
- Metode klasifikasi SVM terbukti mampu
melakukan proses klasifikasi secara
maksimal untuk setiap sampel citra yang
diuji.

4.2 Saran
Metode klasifikasi SVM untuk multiclass yang
digunakan pada penelitian ini adalah metode One
Against All, dengan Kernel polinomial orde 1
(linier), pada penelitian selanjutnya penggunaan
Kernel dengan tipe yang berbeda ( Kernel Gaussian
dan Polinomial dengan orde yang lebih tinggi) dapat
dilakukan. Selain itu untuk membuktikan
kemampuan SVM menangani permasalahan
multiclass, penelitian selanjutnya dapat
menggunakan SVM untuk multiclass dengan lain,
misalnya metode One Against One atau DAGSVM .

DAFTAR PUSTAKA
[1.] Burges, J.C., A Toturial on Support Vector
Machines for Pattern Recognition, Data Mining
and Knowledge Discovery, 2(2):955-974, 1998.

Anda mungkin juga menyukai