TINJAUAN PUSTAKA
w.x+ b = 0
(1)
w . x + b 1
(2)
(3)
min (w) =
w
1
w
2
(4)
y i xi .w + b 1 0, i
(5)
L(w, b, ) =
1
w
2
i ( y i (( xi .wi + b ) 1))
i =1
(i = 1,2,3,..., l )
(6)
i adalah Lagrange multipliers, yang bernilai nol atau positif ( i 0 ). Nilai optimal
dari Persamaan (6) dapat dihitung dengan meminimalkan L terhadap w dan b, dan
memaksimalkan L terhadap i . Dengan memperhatikan sifat bahwa pada titik
optimal gradient L = 0, persamaan (6) dapat dimodifikasi sebagai maksimalisasi
problem yang hanya mengandung i , sebagaimana persamaan (7) berikut.
Maksimasi :
l
i =1
1 l
i j y i y j xi x j
2 i , j =1
(7)
Dengan Constraint :
i 0 (i = 1,2,3,..., l ) i y i = 0
(8)
i =1
Dari hasil perhitungan ini diperoleh i yang kebanyakan bernilai positif. Data yang
berkorelasi dengan i yang positif inilah yang disebut sebagai support vector
(Vapnik, 1995).
Penjelasan di atas berdasarkan asumsi bahwa kedua belah kelas dapat terpisah
secara sempurna oleh hyperplane (linear separable). Akan tetapi, pada umumnya dua
belah kelas pada input space tidak dapat terpisah secara sempurna (non linear
separable). Hal ini menyebabkan constraint pada persamaan (8) tidak dapat terpenuhi,
sehingga optimisasi tidak dapat dilakukan. Untuk mengatasi masalah ini, SVM
dirumuskan ulang dengan memperkenalkan teknik softmargin.
Dalam softmargin, Persamaan (5) dimodifikasi dengan memasukkan slack
variable i ( > 0 ) sebagai berikut :
y i ( xi .w + b ) 1 i , i
(9)
l
2
1
w + Ci
2
i =1
(10)
Parameter C dipilih untuk mengontrol tradeoff antara margin dan error klasifikasi .
Nilai C yang besar berarti akan memberikan penalty yang lebih besar terhadap error
klasifikasi tersebut (Sembiring, 2007).
()
secara linear oleh sebuah hyperplane. Notasi matematika dari mapping ini adalah
sebagai berikut :
: d d d < q
(11)
( ) ( )
( ) ( )
f ( (x )) = w . (x )+ b
= y (x ). (x ) + b
K ( xi , x j ) = xi . x j
(12)
(13)
i =1, X i SV
(14)
i =1, X i SV
y i K ( x, x i ) + b
(15)
SV pada persamaan di atas dimaksudkan dengan subset dari training set yang
terpilih sebagai support vector, dengan kata lain data xi yang berkorespondensi pada
i 0 .
Penelitian ini menggunakan package (e1071) dari perangkat lunak R open
source versi 2.13.1 (Dimitriadou, 2007)
berbagai macam fungsi kernel. Kernel trick memberikan berbagai kemudahan, karena
dalam proses pembelajaran SVM, untuk menentukan support vector, maka cukup
dengan mengetahui fungsi kernel yang dipakai, dan tidak perlu mengetahui wujud
dari fungsi non-linear.
Menurut (Karatzouglou, dkk, 2004) ada beberapa fungsi kernel yang sering
digunakan dalam literature SVM anatara lain sebagai berikut:
a. Kernel linear adalah kernel yang paling sederhana dari semua fungsi kernel.
Kernel ini biasa digunakan dalam kasus klasifikasi teks.
b. Kernel Radial Basis Gaussian adalah kernel yang umum digunakan untuk
data yang sudah valid (available) dan merupakan default dalam tools SVM.
c. Kernel Polynominal adalah kernel yang sering digunakan untuk klasifikasi
gambar.
d. Kernel Tangent Hyperbolic adalah kernel yang sering digunakan untuk
neural networks.
Kelas Prediksi
Benar
Salah
Positif
Benar Positif
Salah Positif
Negatif
Benar Negatif
Salah Negatif
Accuracy = (TP+TN)/(TP+FP+TN+FN).
Dimana:
TP = True Positive yaitu klasifikasi yang dari kelas yang positif
FN = False Negative yaitu kesalahan Type II
FP = False Positive atau kesalahan Type I
Jika nilai kriteria yang dipilih lebih tinggi, maka bagian FP akan menurun dan
specifity akan meningkat, namun TP dan sensitivity akan menurun. Sebaliknya jika
nilai criteria yang dipilih lebih rendah, maka bagian TP akan meningkat, namun
bagian TN dan specificity akan menurun (MedCalc Software bvba, 2010).
AUC (Area Under Curva) adalah luas daerah di bawah kurva ROC.bila nilainya
mendekati satu, maka model yang didapat lebih akurat.
Berdasarkan gambar diatas maka dapat dilihat karakteristik dari AUC adalah sebagai
berikut:
- Area maksimum adalah 1
- Jika ROC = 0,5 maka model yang dihasilkan belum terlihat optimal
- Sedangkan jika ROC > 0,5 maka model yang dihasilkan akan lebih baik
Formula AUC :
AUC =
n+
i =1
j 1
1 f (x + ) f (x )
n n
Keterangan :
F(.) = nilai suatu fungsi
x + dan x = sampel positif dan negatif
n + dan n = jumlah sampel positif dan negative
(Brefeld, 2005)
Penelitian ini menggunakan package (caTools) dari perangkat lunak R versi
2.13.1 (Tuszynski, 2007).
X2
-1
-1
-1
-1
-1
-1
-1
1 2
w1 + w22 + C (t1 + t 2 + t 3 + t 4 )
2
Konstrain :
w1 + w2 + b + t1 1
w1 w2 b + t 2 1
w1 + w2 b + t 3 1
w1 + w2 b + t 4 1
t1 , t 2 , t 3 , t 4 0
Karena merupakan kasus klasifikasi linear, maka bisa dipastikan nilai variabel slack
t i = 0 . Jadi bias dimasukkan nilai C = 0. Setelah menyelesaikan problem optimasi di
atas, maka didapat solusi :
w1 = 1, w2 = 1, b = 1
f (x ) = x1 + x 2 1
Sehingga semua nilai f (x ) < 0 diberi label -1 sedangkan yang lainnya diberi label +1
(Santosa, 2007).