Anda di halaman 1dari 4

Forum Statistika dan Komputasi, April 2008, p: 7-10 Vol 13 No.

1
ISSN : 0853-8115

PENGGUNAAN JARINGAN SYARAF TIRUAN UNTUK


PENDUGAAN MODEL LINEAR TERAMPAT DENGAN KOEFISIEN
KERAGAMAN KONSTAN

Anik Djuraidah

Departemen Statistika, FMIPA IPB

Abstrak

Secara umum model linear terampat (GLIM) dapat dipetakan secara ekivalen
pada Jaringan Syaraf Tiruan (JST) dengan satu lapisan atau disebut juga
dengan perceptron. Fungsi aktifasi pada JST sama dengan invers dari fungsi
hubung. Pada GLIM dengan komponen acak mempunyai sebaran gamma
ekivalen dengan JST tanpa lapisan tersembunyi dengan fungsi galat adalah
gamma dan fungsi tujuan adalah fungsi kemungkinan maksimum atau devians.
Sedangkan fungsi aktifasi untuk model gamma adalah identitas, resiprokal, atau
eksponensial. Makalah ini mengkaji pendugaan model pada data yang
mempunyai sebaran gamma dengan metode JST dan seberapa besar
perbedaan hasil pendugaannya dibandingkan dengan GLIM. Hasil kajian
menunjukkan bahwa JST menghasilkan nilai dugaan yang sama dengan
GLIM.

Kata kunci : jaringan syaraf tiruan, koefisien keragaman konstan, model


gamma

PENDAHULUAN function) dan sebaran peluang peubah respons dari


keluarga eksponensial. Secara umum model linear
Dalam statistika, jaringan saraf tiruan (artificial terampat terdiri dari tiga komponen (McCullagh
neural network selanjutnya disingkat JST) dan Nelder, 1989, Warner dan Misra, 1996) yaitu :
merupakan suatu kelas yang luas dari model regresi Komponen sistematik atau komponen linear
nonlinear, model reduksi data, dan sistem dinamik i  xi ' β
nonlinear. JST mampu memproses berbagai macam Fungsi hubung h yang menjelaskan hubungan
data dan membuat prediksi yang kadang kala sangat antara nilai harapan yi dengan prediktor linear
akurat.
Pada JST terdapat dua proses yaitu training dan
h( i )  xi ' β
testing. Proses training pada JST sama dengan Komponen acak dari peubah respon yi yang
metode pendugaan dalam statistika, akan tetapi mempunyai sebaran dari keluarga eksponensial
algoritmanya lebih lambat dibandingkan dengan dengan rataan  dan ragam 2
metode statistika. Sehingga untuk analisis data lebih Pada model yang mempunyai koefisien
disukai menggunakan paket program statistika dari keragaman konstan diasumsikan
pada paket program JST. Sedangkan proses testing Ragam (Yi )   2 E(Yi )   2 i
pada JST identik dengan validasi model pada dengan  adalah koefisien keragaman Y. Bila nilai
statistika (Cheng dan Titterington, 1994; Sarle,  kecil, dapat dilakukan transformasi logaritma
1996). Beberapa model JST identik dengan metode untuk menstabilkan ragam. Atau bila komponen
statistika antara lain model linear terampat, regresi sistematik dari model bersifat multiplikatif dapat
polinomial, regresi nonparametrik, komponen diubah menjadi aditif dengan melakukan
utama, analisis diskriminan dan analisis gerombol transformasi logaritma pada data asli dan
(Sarle, 1994; Jordan dan Bishop, 1996). menggunakan metode kuadrat terkecil untuk
Model linear terampat (generalized linear pendugan parameter.
model) merupakan pengembangan model linear
klasik di mana nilaitengah populasi tergantung pada
prediktor linear melalui suatu fungsi hubung (link
1
Penggunaan Jaringan Saraf Tiruan untuk Pendugaan Model Linear Forum Statistika dan Komputasi
Terampat dengan Koefisien Keragaman Konstan

Bila peubah respon Y berdistribusi gamma lapisan diberi pembobot yang akan
  1 2 mentransformasi nilai input menjadi nilai output.
dengan indeks konstan yang bebas terhadap
Sedangkan output adalah suatu penjumlahan dari
nilaitengah maka fungsi kepekatannya adalah
hasil kali antara bobot dengan neuron-neuron pada
 1  y   y  untuk y  0, lapisan input dan lapisan tersembunyi dengan suatu
   exp   d log y 
f ( y )           0,   0 fungsi aktifasi tertentu (Sarle,1994; Warner dan
 Misra, 1996).
 0 untuk lainnya
Secara umum model linear terampat dapat
Parameter  menentukan bentuk sebaran. dipetakan secara ekivalen pada JST dengan satu
Nilaitengah dan ragam Y adalah lapisan atau disebut juga dengan perceptron (Sarle,
E(Y)   dan Ragam (Y)   2 /  . 1994). Fungsi aktifasi pada JST sama dengan
Parameterisasi sebaran gamma dalam bentuk invers dari fungsi hubung ( = g-1) (Warner dan
Misra, 1996). Untuk model dengan galat menyebar
keluarga eksponen menghasilkan parameter
gamma ekivalensi fungsi hubung pada GLIM
  1  dengan fungsi aktifasi tertera pada Tabel 1.
kanonik dan fungsi kumulan
b( )   log( ) . Sehingga rataannya adalah Proses training pada JST terbagi dalam tiga
tahap utama yaitu : feed-forward, back-propagation,
b' ( )   dan fungsi ragam b' ( )   2 . Fungsi dan update nilai bobot. Pada tahap feed-forward
dilakukan dari proses input sampai diperoleh
hubung kanonik menghasilkan statistik cukup yang
output, sedangkan tahap back-propagation
merupakan fungsi linear dari data dinyatakan
dilakukan perbandingan nilai output dari feed-
sebagai
   1 . Selain fungsi hubung kanonik forward dengan nilai target, kemudian dilanjutkan
juga bisa digunakan fungsi hubung logaritma atau ke depan ke lapisan input sehingga diperoleh galat.
identitas (McCullagh dan Nelder, 1989). Pada tahap update dilakukan dilakukan pembaruan
Untuk  yang konstan dan pengamatan yang nilai bobot sampai diperoleh nilai fungsi galat
bebas stokastik dan identik, fungsi log minimal.
kemungkinan maksimum dapat ditulis sebagai
Tabel 1. Ekivalensi antara Fungsi Hubung
l ( y,  )    yi  log i  dengan Fungsi Aktifasi
i  i 
. . . . (1)
Sehingga deviannya adalah Fungsi Hubung Fungsi Aktifasi
  y  ˆi 
D( y, ˆ )  2 log  yi ˆ   i Resiprokal Resiprokal
i    i  ˆ i  Logaritma Eksponensial
. . . (2)
Sedangkan penduga kemungkinan maksimum Identitas Identitas
untuk parameter dispersi
D (6  D ) Bentuk feed-forward JST untuk model linear
 1  terampat dengan galat menyebar gamma disebut
(6  2 D )
perceptron gamma tertera pada Gambar 1.
Pada tulisan ini akan dikaji pendugaan model
Perceptron mempunyai p+1 unit input dengan x0
dengan koefisien keragaman konstan dengan
adalah input konstan dan satu unit output. Nilai
metode jaringan syaraf tiruan (JST) dan seberapa
input xi diboboti dengan pembobot wi dan jumlah
besar perbedaan hasil pendugaannya dibandingkan
input-input terboboti ini kemudian ditransformasi
dengan model linear terampat (GLIM).
dengan fungsi aktifasi. Nilai output Ô dapat
dinyatakan sebagai sebuah fungsi f dari nilai input x
JARINGAN SYARAF TIRUAN UNTIK dan bobot wi yaitu :
MODEL DENGAN GALAT MENYEBAR p
GAMMA Ô  f (x, w)   ( w0   wi xi )
i 1 . . . . (3)
Sesuai dengan sistem kerjanya struktur JST dengan x = (x1, . . . , xp) adalah vektor input,
terdiri dari tiga lapisan yang terdiri dari lapisan w = (w1, . . . , wp) adalah vektor pembobot, dan
input (input layer), lapisan antara atau tersembunyi Λ (x) = fungsi aktifasi.
(hidden layer) dan lapisan output (output layer). Pada proses training dilakukan pendugaan
Setiap lapisan terdiri dari beberapa neuron dan antar terhadap bobot ŵ berdasarkan pengamatan
neuron-neuron ini akan dihubungkan dengan
neuron lain pada lapisan terdekat. Pada setiap
 
x ,y 
1 1


 x ,y 
N  N 
dengan meminimum-kan
fungsi tujuan (objective function). Bentuk fungsi
2
Penggunaan Jaringan Saraf Tiruan untuk Pendugaan Model Linear Forum Statistika dan Komputasi
Terampat dengan Koefisien Keragaman Konstan

tujuan tergantung bentuk fungsi galat (error/cost


J N
z (i)
function). Fungsi tujuan yang paling umum adalah   ( y (i)  ô (i) )
jumlah kuadrat galat, tetapi bisa juga fungsi w i 1 w
kemungkinan (Warner dan Misra, 1996). Permasalahan pada training adalah minimisasi
Sedangkan menurut SAS Online Help v 8.2 fungsi fungsi tujuan yang tergantung pada vektor
tujuan ada tiga, yaitu kemungkinan maksimum, parameter adaptif w. Aspek penting dari masalah ini
devians, dan pendugaan-M
adalah vektor gradien w J
dapat dievaluasi
Menurut Jordan dan Bishop (1996), proses
training bertujuan mendapatkan penduga MAP secara efisien. Minimisasi berdasarkan nilai gradien
(maximum a priori) bagi parameter-parameter adalah masalah standar dalam optimasi nonlinear,
dengan memaksimumkan peluang dari parameter- dimana banyak teknik yang sangat kuasa. Secara
parameter pada data D sehingga umum algoritma ini diawali dengan menentukan
p(D | w ) p(w ) nilai awal sembarang untuk parameter w , kemudian
p( w | D )  secara iteratif nilai w diperbarui dengan
p(D ) . . . . . . . (4)
Maksimisasi persamaan (4) sama dengan w (r 1)  w (r)  w (r)
dengan r menunjukkan nomor iterasi. Setiap
memaksimumkan suku pembilangnya karena
algoritma yang berbeda, berbeda pula dalam
penyebut tidak tergantung w. Sehingga maksimisasi
memperbarui w . Metode yang terkenal antara
(r)
persamaan (4) ekivalen dengan minimisasi dari
negatif logaritma suku pembilangnya. Fungsi ini lain conjugate gradient, quasi-newton, dan untuk
dikenal dengan fungsi galat kemungkinan, yaitu kasus jumlah kuadrat galat, algoritma Levenberg-
J(w)   ln p(D | w)  ln p(w) Marquardt sangat efektif.
. . . . . . . . (5)
Jika pengamatan pada data D menyebar bebas
stokastik dan identik maka Input
N w1
p(w | D )   p( yn | xn , w ) X1 Output (ô) Target
n 1


dengan yn adalah nilai target ke-n, sehingga X2 w2
fungsi log kemungkinan y
N
L   ln p( yn | xn , w ) wp
w0
n 1 . : Nilaiŷ respon
Bila diasumsikan peluang awal dari parameter Xp X0≡1 dugaan
:
seragam untuk semua parameter maka suku kedua
:
pada persamaan (5) dapat dihilangkan. Hal ini
berati minimisasai fungsi galat sama dengan prediktor Bias
maksimisasi fungsi log kemungkinan yaitu memilih
wML yang memaksimumkan p(w | D ) . Gambar 1. Arsitetektur Perceptron Gamma
Setelah menentukan model probabilistik, fungsi
tujuan, masalah selanjutnya adalah menemukan Pada model linear terampat dengan komponen
prosedur yang efisien untuk perhitungan gradien acak mempunyai sebaran gamma ekivalen dengan
JST tanpa lapisan tersembunyi dengan fungsi galat
z (n)
dari fungsi galat. Misalkan i adalah nilai output negatif log kemungkinan pada persamaan (1) atau
dari lapisan ke-i pada pengamatan ke-n, untuk devians pada persamaan (2).
model (3) karena hanya satu lapisan maka
N
z (n)  w0   wi xi(n) METODE EVALUASI
i 1 .
(n) Data yang digunakan adalah mengenai waktu
Sedangkan Ô adalah output pengamatan pembekuan darah dari McCullagh, and Nelder (
ke-n pada model (3) adalah 1989 halaman 300). Waktu pembekuan darah dalam
Ô(n)  Λ( z (n) ) . detik (y) untuk plasma normal diukur pada 9
macam persentase konsentrasi prothrombin-free
Bentuk kanonik gradien J(w) terhadap z adalah
plasma (u) dan 2 jenis thromboplastin (lot).
Untuk mencapai kelinearan dilakukan
transformasi logaritma pada konsentrasi

3
Penggunaan Jaringan Saraf Tiruan untuk Pendugaan Model Linear Forum Statistika dan Komputasi
Terampat dengan Koefisien Keragaman Konstan

prothrombin-free plasma (ln(u)) Data dianalisa 0.020231 0.0239


dengan menggunakan GLIM dan JST dengan Fungsi tujuan :
fungsi hubung (aktifasi) resiprokal dan galat Log likelihood 1.4776439057 -
berdistribusi gamma. 26.5976
Fungsi tujuan :
Deviance 0.0016334151
0.0294
HASIL DAN PEMBAHASAN
Berdasarkan hasil pada Tabel 2, pada JST nilai
Plot data antara y dengan konsentrasi tertera
fungsi tujuan kemungkinan maksimum sebesar
pada Gambar 2. Dari plot tampak waktu
1.4776439057, bila nilai ini dikalikan dengan
pembekuan lot1 lebih tinggi dibandingkan lot2
banyaknya pengamatan yaitu 18, maka akan
dengan koefisien arah yang tidak sama. Model
diperoleh 26.59757 sama dengan negatif log
yang sesuai untuk data ini adalah
1
likelihood pada GLIM. Demikian juga pada fungsi
  lot  lot* ln(u) .Dengan fungsi galat tujuan devians, bila nilainya dikalikan dengan
menyebar gamma dan fungsi hubung resiprokal, banyaknya pengamatan akan diperoleh 0.02940
nilai penduga parameter dari JST dan GLIM tertera sama dengan nilai devians dari GLIM.
pada Tabel 2. Kedua metode menghasilkan dugaan
model yang sama, yaitu :
Lot-1: KESIMPULAN
1
  0.03677  0.020231  0.15343 * ln(u)
Model gamma adalah salah satu bentuk khusus
 0.016554  0.15343 * ln(u)
dari jaringan syaraf tiruan dengan bentuk
Lot-2: arsitekturnya disebut perceptron. Fungsi aktifasi
 1  0.03677  0.020231  0.023599 * ln(u) untuk model gamma adalah resiprokal, identitas,
 0.23908  0.023599 * ln(u) atau eksponensial, dan fungsi tujuannya dapat
kemungkinan maksimum atau devians. Ditinjau
dari kerangka pemodelan statistik, GLIM
memberikan tata cara yang baku daripada JST
terutama pada tahapan pemilihan parameter, peubah
penjelas, pengujian signifikansi parameter dan
pemilihan model terbaik.

DAFTAR PUSTAKA

Cheng, B. & Titterington, D.M. 1994. Neural


Network : A review from a Statistical Prespective.
Statistical science 9 : 2-54.
Jordan MI, Bishop CM. 1996. Neural Network.
Gambar 2. Plot antara Waktu Pembekuan AI Memo No. 152, C,B.C.L. Memo No 131.
denganPersentase Konsentrasi Massachusetts Institute of Technology.
McCullagh P, Nelder JA. 1989. Generalized
Tabel 2. Nilai Penduga Parameter dari JST dan Linear Models. Chapman and Hall. New York.
GLIM Sarle, WS. 1994. Neural Network and
Parameter JST GLIM Statistical Models. Proceddings of the 19th Anual
Lot 0 SAS User Group International Conference.
0.003677 0.0074 Sarle, WS. 1996. Neural Network and
Lot 1 - Statistical Jargon. [terhubung berkala]
0.003677 0.0000 ftp://ftp.sas.com/pub/neural/jargon .
Lot 0 * ln(u) Warner B, Misra M. 1996. Understanding
0.015343 0.0015 Neural Network as Statistical Tools. American
Lot 1 * ln(u) Statistician 50 : 284-293
0.023599 0.0236
Bias - -

Anda mungkin juga menyukai