Anda di halaman 1dari 7

Forum Statistika dan Komputasi : Indonesian Journal of Statistics available online at:

Lasso: :0853-8115
ISSN Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
journal.ipb.ac.id/index.php/statistika
Koefisien
Vol. Model
18 No.1, Regresi
April 2013, Linier
p: 21-27 Vol. 18 No. 1

LASSO : SOLUSI ALTERNATIF SELEKSI PEUBAH DAN


PENYUSUTAN KOEFISIEN MODEL REGRESI LINIER
(Lasso: An Alternative Solution for Selection and Shrinkage Linear Regression Models)

Agus M Soleh1, Aunuddin1


1
Departemen Statistika IPB
Email: agusms@ipb.ac.id

Abstract
A new method, known as LASSO, has recently developed for selections and shrinkage
linear regression methods. The method gives an alternative solution on high correlated
data between independent variables, where the least squares produces high variance.
Based on simulation this method is not better than forward selection (in the case the
parameters contains many zero values) and ridge regression (in the case all parameter
values close to zero). Unknowing the true parameter and consistency estimates for all
conditions that put the LASSO is better than ridge or forward selection.

Keywords : LASSO, least square, forward selection, ridge, cross validation

PENDAHULUAN menurunkan ragam prediksi dengan mengorbankan


sedikit bias. Penduga model yang dihasilkan oleh
Model regresi linier pada model linier klasik regresi gulud lebih stabil, tetapi untuk interpretasi
diduga menggunakan metode kuadrat terkecil model relatif lebih sulit dibandingkan metode
dengan cara meminimumkan jumlah kuadrat seleksi apabila jumlah peubah yang digunakan
sisaan. Perhatikan sebuah penduga 𝜃̃ yang sangat banyak.
digunakan untuk menduga θ, kuadrat tengah galat Thibsirani (1996) mengembangkan metode
didefinisikan sebagai berikut: LASSO (Least Absolute Shrinkage and Selection
2 2
𝐾𝑇𝐺(𝜃̃ ) = 𝐸(𝜃̃ − 𝜃) = 𝑉𝑎𝑟(𝜃̃ ) + [𝐸(𝜃̃) − 𝜃] . Operator) yang bertujuan mengatasi masalah
Bagian pertama menyatakan ragam sedangkan dalam keakuratan pendugaan dan interpretasi,
bagian kedua menyatakan bias kuadrat. Teorema dengan mempertahankan keuntungan-keuntungan
Gauss-Markov mengimplikasikan bahwa penduga metode seleksi subset dan regresi gulud. Motivasi
kuadrat terkecil memiliki kuadrat tengah galat pengembangan LASSO berasal dari metode Non-
terkecil dari seluruh penduga linier tak bias (Ryan, negative Garrote yang dikembangkan sebelumnya
1997). Pada kondisi tertentu, kuadrat terkecil oleh Breiman (1995).
sering tidak memuaskan yang disebabkan oleh dua Tulisan ini bertujuan memberikan state of the
hal (Thibsirani, 1996), yaitu: art metode LASSO yang telah dikembangkan
a. Keakuratan prediksi: penduga kuadrat terkecil Thibsirani (1996) dan membuat suatu simulasi
memiliki bias rendah tetapi ragam besar. untuk mengetahui penerapan terbaik metode Laswo
b. Interpretasi: semakin banyak peubah penjelas, dibanding kuadrat terkecil, gulud, dan forward
maka model menjadi semakin sulit selection.
diinterpretasikan.
Pada kondisi ini dimungkinkan penggunaan LANDASAN TEORI
metode seleksi dan penyusutan dalam menduga
model regresi. Metode seleksi menggunakan Regresi Linier
Misalkan terdapat vektor peubah bebas XT =
Subset Terbaik dan Regresi Bertatar dapat
(X1, X2, …, Xp) dan digunakan untuk memprediksi
mengurangi ragam prediksi dengan mengorbankan
luaran nilai Y yang berupa bilangan real. Model
sedikit bias. Interpretasi model semakin mudah
regresi linier memiliki bentuk:
karena model hanya memuat subset dari 𝑝
keseluruhan peubah penjelas. Kekurangan metode
ini adalah penduga model tidak stabil, dimana 𝑓 (𝑋) = 𝛽0 + ∑ 𝑋𝑗 𝛽𝑗 .
𝑗=1
perubahan kecil pada data dapat menghasilkan
model yang berbeda (termasuk subset peubahnya). Untuk menduga β = (β0, β1, …, βj)T digunakan
Alternatif lain adalah dengan menyusutkan sekumpulan data (x1, y1) … (xN, yN). Metode
koefisien regresi menggunakan regresi gulud. Kuadrat Terkecil meminimumkan jumlah kuadrat
Seperti pada model seleksi, regresi gulud juga

21
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

sisaan dalam menduga koefisien β (Hastie et al, Penduga koefisien yang diperoleh
2008), yaitu dengan meminimumkan persamaan: menggunakan regresi gulud adalah tidak
𝑁 equivariant (Hastie et al., 2008), artinya penduga
2
𝐽𝐾𝑆 (𝜷) = ∑(𝑦𝑖 − 𝑓 (𝑥𝑖 )) koefisien tersebut akan berbeda hasilnya jika
𝑖=1 peubah asal dibakukan dengan peubah asal tidak
𝑝 2
= ∑𝑁
𝑖=1(𝑦𝑖 − 𝛽0 − ∑𝑗=1 𝑥𝑖𝑗 𝛽𝑗 ) .
dibakukan. Oleh karena itu untuk pendugaan
𝛽̂ 𝑔𝑢𝑙𝑢𝑑 ini sebelumnya disarankan membakukan
Dalam catatan matriks, di mana X berukuran N skala dari peubah asal sehingga memiliki nilai
x (p+1) dan y adalah vektor-N, jumlah kuadrat harapan nol dan ragam satu.
sisaan dapat ditulis sebagai :
𝐽𝐾𝑆(𝛽 ) = (𝑦 − 𝑿𝛽 )𝑇 (𝑦 − 𝑿𝛽 ) Forward Selection
Dari kalkulus dengan menurunkan JKS(𝛽) Forward selection merupakan salah satu
terhadap 𝛽, diperoleh JKS(𝛽) minimum, yaitu metode untuk seleksi peubah dalam regresi linier,
dalam bentuk: yaitu teknik untuk mendapatkan model regresi
𝑿𝑇 𝑦 = 𝑿𝑇 𝑿𝜷 dengan cara menseleksi peubah yang memenuhi
yang disebut sebagai persamaan normal. kriteria tertentu. Teknik yang umum dalam seleksi
Jika XTX adalah matriks berpangkat penuh, peubah adalah “Semua Kemungkinan Regresi” (All
Possible Regression), Subset Terbaik (Best Subset)
maka β yang diduga oleh 𝛽̂ akan menghasilkan
dan Regresi Bertatar (Stepwise Regression). Pada
solusi unik, yaitu:
“Semua Kemungkinan Regresi” dipilih model
𝛽̂ = (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝒚. dengan mencari kombinasi peubah dari seluruh
kemungkinan peubah sebanyak 2p (termasuk model
Regresi Gulud konstanta) oleh kriteria R2, JKS atau Cp (Draper &
Regresi gulud diperkenalkan oleh Hoerl dan Smith, 1998). Kelemahan metode ini adalah
Kennard (1970) (dalam Draper & Smith, 1998) semakin banyak peubah yang dievaluasi akan
yang diusulkan untuk menangani ketidakstabilan semakin banyak model yang harus dievaluasi. Oeh
penduga kuadrat terkecil. Regresi gulud mem- karena itu dikembangkan alternatif lain yaitu
penalti ukuran dari koefisien regresi pada norm L2 metode Subset Terbaik yang hanya menghitung
atau secara spesifik menduga 𝛽̂ dengan sebanyak K terbaik untuk model dengan satu, dua,
meminimumkan 𝐽𝐾𝑆 (𝛽 ) dengan kendala: tiga dan seterusnya peubah (Draper & Smith,
𝑝
1998). Beberapa paket perangkat lunak membatasi
∑ 𝛽𝑗2 ≤ 𝑡. penggunaan metode ini hanya untuk maksimum 20
𝑗=1 peubah.
Regresi bertatar menyeleksi peubah dengan
Masalah regresi gulud ini dapat ditulis dengan cara memasukkan atau membuang satu persatu
cara lain yaitu memiminumkan: peubah ke dalam model. Terdapat tiga teknik
𝑝 2 𝑝
𝑁 dalam regresi bertatar, yaitu: backward
∑ (𝑦𝑖 − 𝛽0 − ∑ 𝑥𝑖𝑗 𝛽𝑗 ) + 𝜆 ∑ 𝛽𝑗2 . elimination, forward selection dan stepwise
𝑖=1 𝑗=1 𝑗=1 (gabungan dari backward dan forward). Pada
Pada kedua persamaan di atas terdapat backward elimination model pertama diduga
korespondensi satu-ke-satu antara t dan λ ≥ 0. dengan memasukkan seluruh peubah. Selanjutnya
Solusi regresi gulud didapat dengan cara yang model dievaluasi dengan mengeluarkan satu
sama seperti kuadrat terkecil, yaitu dengan persatu peubah yang tidak memenuhi kriteria.
meminimumkan jumlah kuadrat sisaan (JKS): Forward selection berlaku kebalikan, model
dimulai dengan konstanta kemudian dievaluasi
𝐽𝐾𝑆 (𝛽, 𝜆) = (𝑦 − 𝑿𝛽 )𝑇 (𝑦 − 𝑿𝛽 ) + 𝝀𝛽 𝑻 𝛽 dengan memasukkan satu persatu peubah. Stepwise
yang memperoleh persamaan: menggabungkan keduanya dimulai dari forward
selection kemudian untuk setiap peubah yang
𝑿𝑇 𝑦 = (𝑿𝑇 𝑿 + 𝝀𝑰)𝛽. masuk dievaluasi dengan backward elimination.
Dengan cara seperti ini (𝑿𝑇 𝑿 + 𝝀𝑰) dapat Kriteria untuk memasukkan atau membuang
dijamin selalu berpangkat penuh walaupun 𝑿𝑇 𝑿 peubah didasarkan pada salah satu kriteria statistik
2
tidak berpangkat penuh dengan mengambil λ > 0. : R2, 𝑅𝑎𝑑𝑗 , JKS, F, Cp’s Mallows atau AIC (Draper
Untuk λ = 0 persamaan ini adalah persamaan & Smith (1998); Ryan (1997); Venables & Ripley
normal seperti yang diperoleh menggunakan (2002)).
kuadrat terkecil. Solusi yang unik dapat diperoleh
dalam bentuk tertutup: LASSO
Dalam regresi gulud, penduga koefisien
𝛽̂ 𝑔𝑢𝑙𝑢𝑑 = (𝑿𝑻 𝑿 + 𝜆𝑰)−𝟏 𝑿𝑻 𝑦. regresi disusutkan ke arah nol seiring dengan
peningkatan nilai λ. Satu hal yang tidak dapat

22
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

dilakukan oleh regresi gulud adalah melakukan Algoritma LAR asli adalah sebagai berikut
seleksi peubah secara otomatis dikarenakan secara (Hastie et al, 2008):
simultan koefisien yang diduga mungkin tidak 1. Bakukan prediktor sehingga memiliki nilai
bernilai nol. Perhatikan jika kendala seperti dalam tengah nol dan ragam satu. Mulai dengan
regresi gulud diubah menjadi (Thibsirani, 1996) sisaan 𝑟 = 𝑦 − 𝑦̅, 𝛽1 , 𝛽2 , ⋯ , 𝛽𝑝 = 0.
𝑝
2. Cari prediktor xj yang paling berkorelasi
∑ |𝛽𝑗 | ≤ 𝑡, dengan 𝑟.
𝑗=1 3. Ubah nilai 𝛽𝑗 dari 0 bergerak menuju koefisien
atau dalam bentuk persamaan lagrange ditulis: kuadrat terkecil 〈𝑥𝑗 , 𝑟〉, sampai kompetitor lain
𝑝 2 𝑝
𝑁 xk memiliki korelasi sebesar korelasi xj dengan
∑ (𝑦𝑖 − 𝛽0 − ∑ 𝑥𝑖𝑗 𝛽𝑗 ) + 𝜆 ∑|𝛽𝑗 |. sisaan sekarang.
𝑖=1 𝑗=1 𝑗=1 4. Ubah nilai 𝛽𝑗 dan 𝛽𝑘 bergerak dalam arah
yang didefinisikan oleh koefisien kuadrat
Untuk mendapatkan solusi penduga koefisien terkecil bersama dari sisaan sekarang dalam
tidak dapat diperoleh dalam bentuk tertutup, tetapi (xj, xk) sampai kompetitor xl lain memiliki
harus menggunakan pemrograman kuadratik korelasi dengan sisaan sekarang dengan
(Tibshirani, 1996). Dampak yang terjadi dari besaran yang sama.
pengubahan kendala ini sangat besar, yaitu 5. Teruskan cara ini sampai semua p prediktor
menyebabkan koefisien menyusut ke arah nol telah masuk. Setelah min(N-1, p) langkah,
seperti dalam regresi gulud dan beberapa koefisien solusi model penuh untuk kuadrat terkecil
menghasilkan nilai nol secara tepat. diperoleh.
Ide dasar LASSO berasal dari Non-negative Modifikasi algoritma LAR untuk mendapatkan
Garrotte (Breiman, 1995) yang meminimumkan, solusi LASSO adalah dengan memodifikasi
terhadap c = {cj}: langkah ke-4, yaitu dengan cara:
∑𝑁 𝑝 ̂ 2
𝑖=1(𝑦𝑖 − ∑𝑗=1 𝑐𝑗 𝑥𝑖𝑗 𝛽𝑗 ) dengan kendala 𝑐𝑗 ≥ 0,
4a. Jika koefisien bukan nol mencapai nilai nol,
keluarkan peubah tersebut dari gugus peubah
∑𝑝𝑗=1 𝑐𝑗 ≤ 𝑡,
aktif dan hitung kembali arah kuadrat
di mana 𝛽̂𝑗 adalah penduga kuadrat terkecil biasa. terkecil bersama.
NN-Garrotte ini tidak terdefinisikan ketika p > N LAR selalu mengambil p langkah untuk
(yang bukan merupakan topik panas pada tahun mendapatkan penduga kuadrat terkecil secara
1995) (Thibsirani, 2011). Pada sekitar tahun penuh, sedangkan modifikasi LAR untuk LASSO
tersebut, beberapa metode yang mirip dengan dapat memiliki lebih dari p langkah untuk
LASSO telah dikembangkan berdasarkan penalty- mendapatkannya. Algoritma LASSO dengan
l1, seperti ridge regression (Frank dan Friedman, memodifikasi LAR adalah suatu cara yang efisien
1993 dan basis pursuit (Chen et al. 1998 dalam dalam komputasi solusi masalah LASSO
Thibsirani ,2011). Setelah publikasi pertama tahun khususnya ketika p >> N (Hastie et al, 2008).
1996, makalah LASSO ini tidak mendapatkan
perhatian sampai tahun 2002 setelah Pemilihan Nilai Penalti dalam Gulud dan
berkembangkannya algoritma LAR (Least Angle LASSO
Regresion) oleh Hastie. Beberapa metode telah dikembangkan untuk
Hastie mengembangkan algoritma LAR yang memilih nilai penalti dalam regresi gulud dan
digunakan untuk menduga model regresi linier LASSO. Metode yang umum digunakan dalam
dalam bentuk model umum: pemilihan nilai penalti ini adalah validasi silang
𝐸 (𝑌|𝑿 = 𝒙) = 𝑓(𝑥) = 𝛽0 + 𝛽𝑀 𝜙1 (𝒙) + (Cross Validation/CV). Ide dari validasi silang
𝛽𝑀 𝜙2 (𝒙) + ⋯ + 𝛽𝑀 𝜙𝑀 (𝒙), adalah membagi data menjadi dua bagian, yaitu:
di mana 𝜙𝑀 adalah fungsi nonlinier dari prediktor data training dan data test. Data training digunakan
X asli (Hesterberg et al, 2008). Modifikasi dari untuk mengepas nilai 𝛽̂ dan data test digunakan
LAR untuk LASSO menghasilkan efisiensi untuk menguji kebaikan prediksi dari X𝛽̂ . Nilai
algoritma dalam menduga solusi penduga koefisien dari validasi silang ini merupakan penduga bagi
LASSO dengan komputasi yang lebih cepat galat prediksi (prediction error) (Izenman, 2008).
dibandingkan pemrograman kuadratik. Selain Terdapat beberapa tipe dari validasi silang
untuk menduga koefisien LAR dan LASSO, yang mengatur bagaimana data training dan data
algoritma LAR ini juga dimodifikasi untuk test. Tipe validasi silang yang umum adalah
digunakan dalam menduga koefisien regresi validasi silang leave-one-out (LOO) dan k-fold.
Forward Stepwise dan Forward Selection, Validasi silang LOO menggunakan satu observasi
sehingga kemudian namanya dikenal sebagai sebagai data test dan sisanya sebagai data training.
LARS (untuk LAR, LASSO, Stagewise dan Hal ini diulang sampai setiap observasi pernah
Forward Selection). menjadi data test. Dalam validasi silang k-fold,
semua observasi dipartisi secara acak ke dalam k

23
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

sub-contoh. Setiap sub-contoh digunakan sebagai CONTOH KASUS : SIMULASI


data test dan sisanya digunakan sebagai data
training. Proses validasi silang diulang sampai k Pada kondisi peubah-peubah prediktor saling
kali dan setiap satu sub-contoh digunakan hanya bebas dan peubah tersebut mempengaruhi respons
sekali dalam data test. Jika k sama dengan dengan jelas, metode kuadrat terkecil merupakan
banyaknya observasi, maka validasi k-fold menjadi metode pendugaan tak bias terbaik dalam menduga
validasi silang LOO. model regresi. Tetapi pada kondisi sebaliknya
̂ ) diduga oleh CV dengan
Nilai Galat Prediksi (𝑃𝐸 alternatif-alternatif seperti seleksi peubah dan
menggunakan persamaan: penyusutan mungkin diperlukan dalam menduga
1 model. Untuk menentukan mana yang disarankan
̂ = 𝐶𝑉 = ∑(𝑦𝑖 − 𝑦̂−𝑖(𝑘) )2 ,
𝑃𝐸 untuk digunakan, disusun suatu simulasi pada
𝑘
𝑖 kondisi peubah bebas saling berkorelasi tinggi.
di mana 𝑦̂−𝑖(𝑘) adalah dugaan y pada saat fold ke-k Keempat metode kemudian digunakan dalam
tidak digunakan dalam menduga model. Shao menduga koefisien regresinya dengan
(1993) dalam Mahmood & Khan (2009) menggunakan software R. Tahapan simulasi
membuktikan secara asymptotic dan simulasi dilakukan sebagai berikut:
bahwa model dengan nilai CV minimum dari 1. Pembangkitan data simulasi.
validasi silang LOO sering melebihi dari model a. Membangkitkan peubah X sebanyak 8
yang dispesifikasikan, yaitu terlalu banyak peubah peubah yang memiliki nilai korelasi ρ =
yang tidak signifikan masuk dalam model regresi. 0.9 antar peubah dengan jumlah n=20.
Izenman (2008) menyarankan menggunakan b. Membangkitkan peubah Y dengan model
validasi silang 10-fold (juga 5-fold) disebabkan persamaan regresi linier dari 8 peubah
perbedaan pemilihan nilai k (apakah 5, 10 atau n) yang dihasilkan pada bagian 1(a)
adalah masalah “bias versus ragam”. Validasi ditambah sisaan ~ Normal(0,0.5).
silang LOO (k=n) menghasilkan 𝑃𝐸 ̂ yang memiliki Parameter koefisiennya berturut-turut:
bias rendah tetapi ragam tinggi, sedangkan 5-fold - bernilai 3, 2, 0, 2, 0, 0.7, 0 dan 0.
dan 10-fold menghasilkan 𝑃𝐸 ̂ dengan bias tinggi Pemilihan nilai ini sembarang, tetapi
tetapi ragam rendah. memiliki keterwakilan nilai > 1, < 1
Secara Umum untuk mendapatkan nilai CV dan 0;
merupakan suatu langkah yang tidak efisien, - bernilai dekat dengan nol, yaitu
sehingga dikembangkan validasi silang terampat sebesar 0.7;
(Generalized Cross Validation/GCV) yang lebih - bernilai > 1 untuk semua, yaitu
sederhana, yaitu: sebesar 3.
2
1 𝑦𝑖 − 𝑦̂𝑖 2. Menduga koefisien model dengan metode
𝐺𝐶𝑉 = ∑ ( ) kuadrat terkecil, regresi gulud, LASSO dan
𝑛 1 − 𝑡𝑟(𝑯)/𝑛
𝑖 forward selection. Pemilihan model untuk
di mana H adalah matriks hat. GCV mensyaratkan gulud menggunakan kriteria GCV, sedangkan
adanya matriks H, sehingga metode ini tidak bisa LASSO dan forward selection menggunakan
dikenakan pada metode LASSO. nilai CV minimum yang pertama.
Metode lain yang dapat digunakan selain 3. Tahap 1(b) dan 2 diulang sebanyak 100 kali.
validasi silang adalah Cp’s Mallows. Statistik Cp 4. Hasil pendugaan di plot menggunakan boxplot
pertama kali dikemukakan oleh C. L. Mallows untuk setiap penduga β.
dengan menggunakan persamaan (Draper & Smith, Skenario simulasi pertama, di mana digunakan
1998): parameter koefisien regresi β = (3, 2, 0, 2, 0, 0.7, 0,
𝐽𝐾𝑆𝑝 0)t, menghasilkan grafik yang disajikan pada
𝐶𝑝 = 2 − (𝑛 − 2𝑝)
𝑠𝑘 Lampiran 1. Pendugaan dengan menggunakan
di mana JKSp adalah jumlah kuadrat sisaan dari metode kuadrat terkecil menghasilkan keragaman
model yang mengandung p parameter termasuk yang lebih besar atau relatif sama dibanding
intersep, dan 𝑠𝑘2 adalah kuadrat tengah galat untuk dengan metode pendugaan gulud, LASSO ataupun
model lengkap yang diasumsikan merupakan nilai forward selection. Pada metode gulud, keragamaan
dugaan tak bias bagi galat σ2. Nilai Cp diplotkan pendugaan koefisien yang dihasilkan relatif lebih
dengan banyaknya parameter dari subset yang kecil di banding ketiga metode lainnya, kecuali
menjadi pertimbangan. Model yang dapat diterima pada saat koefisien parameter sebenarnya bernilai
dalam pengertian meminimumkan total bias adalah nol.
model yang nilai Cp-nya mendekati nilai p LASSO dan forward selection pada simulasi
(banyaknya parameter). ini dapat menyeleksi peubah dengan baik. Kedua
metode ini memberikan sebaran yang lebih sempit
pada parameter koefisien regresi bernilai nol.
Dalam hal ini, forward selection menseleksi
penduga lebih baik dibanding dengan LASSO,

24
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

kecuali terhadap peubah yang memiliki kontribusi sebaran yang diperoleh oleh LASSO yang
yang sangat kecil. Pada peubah ini, forward cenderung menjulur ke kiri (median=7) dengan
selection menghasilkan dugaan yang sangat jauh keragaman yang lebih kecil. Pendugaan galat
dari nilai sebenarnya. prediksi dengan menggunakan nilai cv, kedua
Gambar 1 menyajikan sebaran banyaknya metode menghasilkan nilai dan keragaman yang
peubah yang terseleksi oleh metode LASSO dan relatif tidak berbeda seperti pada kondisi skenario
forward selection dan sebaran nilai cv-nya. Seleksi simulasi pertama.
peubah yang dilakukan metode LASSO lebih stabil
dibanding dengan seleksi peubah oleh forward
selection, hal ini terlihat dari kecenderungan
bentuk sebaran yang simetrik untuk LASSO
dibanding forward selection yang menjulur ke
kanan. Selain itu, LASSO memiliki kecenderungan
untuk melakukan over fitting (terlihat dari median
peubah yang terseleksi adalah 6), sedangkan
forward selection memiliki kecenderungan under
fitting dengan median peubah terseleksi bernilai 3.
Galat prediksi yang diduga menggunalan nilai cv, (a) (b)
kedua metode menunjukkan nilai yang relatif sama Gambar 2 Sebaran (a) banyaknya peubah yang
baiknya dalam pendugaan maupun dalam terseleksi, (b) nilai cv hasil simulasi
keragamannya. untuk metode LASSO dan forward
selection pada saat koefisien β = (0.7,
0.7, 0.7, 0.7, 0.7, 0.7, 0.7, 0.7)t.
Skenario simulasi terakhir, di mana parameter
koefisien β yang akan diduga adalah besar, metode
gulud masih merupakan metode yang lebih unggul
dibanding ketiga metode lainnya (Lampiran 3).
Metode kuadrat terkecil, LASSO dan forward
selection menghasilkan nilai pendugaan yang
sama.
(a) (b) pada kondisi skenario simulasi ketiga ini, tidak
Gambar 1 Sebaran (a) banyaknya peubah yang ada peubah yang tidak terseleksi. Banyaknya
terseleksi, (b) nilai cv validasi silang peubah yang terseleksi adalah sama dengan peubah
hasil simulasi untuk metode LASSO yang berpengaruh sebenarnya (Gambar 3).
dan forward selection pada saat Demikian juga dengan penduga untuk galat
koefisien β = (3, 2, 0, 2, 0, 0.7, 0, 0)t. prediksi menggunakan nilai cv yang tidak berbeda
Skenario simulasi kedua, di mana semua nyata, baik dalam hal bentuk maupun
koefisien β mendekati nilai nol, metode gulud penyebarannya.
merupakan metode yang unggul dibanding metode
lainnya. Terlihat pada Lampiran 2, pendugaan
menggunakan metode gulud konsisten
menghasilkan nilai dugaan yang biasnya kecil
secara empirik dengan keragaman yang paling
kecil di antara metode-metode lainnya. Metode
selanjutnya yang terbaik adalah LASSO yang
memberikan pendugaan lebih baik dengan
keragaman yang lebih kecil dibanding kuadrat (a) (b)
terkecil atau forward selection. Metode yang Gambar 3 Sebaran (a) banyaknya peubah yang
memberikan keragaman pendugaan parameter terseleksi, (b) nilai cv hasil simulasi
paling besar pada skenario ini adalah forward untuk metode LASSO dan forward
selection. selection pada saat koefisien β = (3, 3,
Pada kondisi skenario simulasi kedua ini, 3, 3, 3, 3, 3, 3)t.
forward selection cenderung untuk melakukan
under fitting, di mana peubah yang terseleksi
hampir setengahnya kurang (Gambar 2) dengan
keragaman yang sangat tinggi. Bentuk sebaran
yang diperoleh dari forward selection cenderung
menjulur ke kanan (median=4.5) dibanding bentuk

25
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

SIMPULAN mining, Inference, and Prediction. Ed. ke-2.


Springer.
LASSO memberikan suatu alternatif bagi Hesterberg T, Choi NH, Meier L, Fraley C. 2008.
penyeleksian peubah dan pendugaan koefisien Least angle and l1 penalized regression: A
regresi pada kondisi peubah bebas tidak benar- review. Statistics Surveys 2:61-93.
benar saling bebas. Hasil simulasi dengan peubah- Izenman AJ. 2008. Modern Multivariate Statistical
peubah bebas memiliki korelasi tinggi memberikan Techniques. Regression, Classification, and
hasil yang cukup baik dibanding kuadrat terkecil Manifold Learning. Springer.
yang memberikan ragam tinggi bagi penduganya. Mahmood Z, Khan S. 2009. On the Use of K-Fold
Metode ini tidak lebih baik dibanding forward Cross-Validation to Choose Cutoff Values
selection (pada saat parameter sebenarnya banyak and Assess the Performance of Predictive
mengandung nilai nol), juga dibanding gulud (pada Models in Stepwise Regression. The
saat parameter semua mendekati nilai nol). International Journal of Biostatistics 5(1),
Ketidaktahuan parameter sebenarnya dan Article 25. http://www.bepress.com/ijb/vol5/
kekonsistenan hasil pendugaan pada semua kondisi iss1/25.
menempatkan LASSO lebih baik dibandingkan Miller A. 2002. Subset Selection in Regression. Ed.
dengan gulud atau forward selection. ke-2. Chapman & Hall/CRC.
Ryan TP. 1997. Modern Regression Methods. John
DAFTAR PUSTAKA Wiley & Sons, Inc.
Breiman L. 1995. Better Subset Regression Using Tibshirani R. 1996. Regression Shrinkage and
the Nonnegative Garrote. J. Technometrics Selection via The LASSO. J. R. Statist. Soc
37(4): 373-384. (B) 58: 267-288.
Draper NR, Smith H. 1998. Applied Regression Tibshirani R. 2011. Regression Shrinkage and
Analysis. Ed. ke-3. John Wiley & Sons Inc. Selection via The LASSO: a retrospective. J.
Hastie T, Tibshirani R, Friedman J. 2008. The R. Statist. Soc (B) 73:273-282.
Elements of Statistical Learning. Data Venables, WN, Ripley BD. 2002. Modern Applied
Statistis with S. Ed. Ke-3. Springer-Verlag.
.

26
Lasso : Solusi Alternatif Seleksi Peubah Dan Penyusutan FSK : Indonesian Journal of Statistics
Koefisien Model Regresi Linier Vol. 18 No. 1

Lampiran 1. Plot hasil 100 kali simulasi pendugaan untuk koefisien regresi β = (3, 2, 0, 2, 0, 0.7, 0, 0)t.

Lampiran 2. Plot hasil 100 kali pendugaan untuk koefisien regresi β = (0.7, 0.7, 0.7, 0.7, 0.7, 0.7, 0.7, 0.7)t.

Lampiran 3. Plot hasil 100 kali pendugaan untuk koefisien regresi β = (3, 3, 3, 3, 3, 3, 3, 3)t dari 100 simulasi.

27

Anda mungkin juga menyukai