Anda di halaman 1dari 29

MAKALAH

ANALISIS REGRESI
TERAPAN
REGRESI ROBUST

TIAR INDARTO G152144051

PROGRAM STUDI STATISTIKA


TERAPAN
SEKOLAH PASCA SARJANA

1
INSTITUT PERTANIAN BOGOR
2016
DAFTAR ISI

DAFTAR ISI ii
A. PENDAHULUAN 1
1. LATAR BELAKANG 1
2. TUJUAN 2
B. TINJAUAN PUSTAKA 2
1. REGRESI LINEAR BERGANDA 2
2. OLS UNTUK REGRESI LINEAR BERGANDA 3
3. UJI ASUMSI MODEL REGRESI LINEAR 3
a. UJI NORMALITAS 3
b. UJI MULTIKOLINEARITAS 3
c. UJI HOMOSKEDASITAS9 3
d. UJI AUTOKORELASI 3
4. PENCILAN (OUTLIER) 4
a. STANDARDIZED RESIDUAL 4
b. DELETED (STUDENTIZED RESIDUAL) 4
c. DFITS 5
5. REGRESI ROBUST 5
a. Estimasi M 5
b. Estimasi Least Trimmed Square (LTS) 9
c. Estimasi S 9
d. Estimasi MM 10
e. Estimasi LMS 10
f. Estimasi W 11
g. Estimasi L 11
h. Estimasi R 11
C. PEMBAHASAN 12
1. PENERAPAN ESTIMASI M 12
a. Estimasi M (Huber) 12
b. Estimasi M (Tukey Bisquare) 18
2. PENERAPAN ESTIMASI LTS 20
D. DAFTAR PUSTAKA 23
A. PENDAHULUAN
1. LATAR BELAKANG
Analisis terhadap hubungan antara dua variabel atau lebih menggunakan
sebuah persamaan matematik (model regresi) adalah analisis regresi. Dalam
model regresi terdapat dua variabel yakni variabel Y (variabel tak
bebas/dependent/respon/akibat) dan variabel X (variabel

2
bebas/independent/penjelas/sebab). Dalam analisis regresi dapat dibagi
menjadi regresi linear sederhana, regresi linear berganda dan regresi non
linear. Terdapat beranekaragam metode yang dapat digunakan untuk melihat
hubungan antara Y dengan X seperti metode kuadrat terkecil (ordinary least
square), metode kemungkinan maksimum (maximum likelihood method),
metode bootstrap, metode kuadrat terkecil terboboti (weighted least square
method), dan lain – lain (Bambang, 2009). Metode yang familiar digunakan
adalah metode kuadrat terkecil/ordinary Least Square (OLS), karena mudah
penggunaanya. Ada beberapa asumsi yang harus dipenuhi dalam OLS agar
hasil estimasinya bersifat BLUE (best linear unbiased estimator), yaitu : (1)

sisaan menyebar normal dengan E ( ε i ) =0 dan var ( ε i )=σ 2 , (2) sisaan

memiliki ragam yang homogeny (homoskedasitas), (3) sisaan menyebar

bebas yakni cov ( ε i , ε j )=E ( ε i , ε j ) =0 (serial independent). Namun OLS

memiliki kekurangan yakni sensitive terhadap pencilan/outlier. karena apabila


terdapat outlier maka akan terjadi penyimpangan pendugaan OLS atau terjadi
bias estimasi. Sehingga model regresi dapat memberikan gambaran
hubungan yang jauh dari keadaan sebenarnya. Untuk mengatasi hal tersebut
dibutuhkan suatu penduga robust (kekar) yang mempunyai kemampuan
mendeteksi pencilan sekaligus menyesuaikan dugaan parameter regresi,
sehingga memberikan hasil yang resistant (stabil).

Regresi robust menjadi alternatif solusi dalam mengatasi hal tersebut. Regresi
kekar terhadap outlier tersebut diperkenalkan Andrews (1972). Regresi robust
yang baik adalah yang sebanding dengan OLS tanpa outlier. Suatu estimator
semakin robust terhadap outlier ketika memiliki efisiensi dan breakdown point
yang tinggi. Kemungkinan tertinggi breakdown point untuk sebuah estimator
adalah 50%. Ada 8 prosedur estimasi parameter dalam regresi robust, antara
lain:
a. Estimasi M
b. Estimasi Least Trimmed Square (LTS)
c. Estimasi S
d. Estimasi MM
e. Estimasi LMS
f. Estimasi W
g. Estimasi L

2
h. Estimasi R
Masalah yang akan dibahas dalam tulisan makalah ini adalah pengujian
ketidakpenuhan asumsi klasik, cara pendeteksian outlier dan pendugaan
model pada data penjualan rokok tahun 2012 di yogyakarta dengan
menggunakan metode regresi robust hingga didapat persamaan model
terbaiknya.

2. TUJUAN
Tujuan dari penulisan makalah ini adalah untuk menggunakan regresi robust
estimasi M IRLS dengan fungsi pembobot Huber dan Bisquare Tukey dan
regresi robust estimasi LTS pada data yang terdapat outlier.

B. TINJAUAN PUSTAKA
1. REGRESI LINEAR BERGANDA
Menurut Montgomery and Peck (1992), secara umum peubah tak bebas y
kemungkinan berhubungan dengan k peubah bebas. Model ini :
yi = β0 + β1 xi1 + β2 xi2 + … + βk xik + εi (1)
yi adalah peubah tak bebas pada pengamatan ke-i, xi1, xi2, …, xik adalah

nilai peubah bebas pada pengamatan ke-i dan parameter ke-k, β0, β1, … , βk
adalah parameter regresi, dan εi adalah error pengamatan ke-i.

2. OLS UNTUK REGRESI LINEAR BERGANDA


Dalam kasus k-peubah bebas, penaksir metode kuadrat terkecil diperoleh
dengan meminimumkan :
yi
n ¿
∑ ε2i ¿
= n )2 (2)
i=1
∑¿
i=1

di mana ∑ ε2i adalah jumlah kuadrat sisaan. Dalam notasi skalar, metode
i=1

kuadrat terkecil tercapai dalam menduga β0, β1, … , βk sehingga ∑ ε2i


i=1

sekecil mungkin. Ini dicapai dengan menurunkan persamaan (2) secara

^β ^β ^β
parsial terhadap ,
0 ,…,
1 k dan menyamakan hasil yang diperoleh

dengan nol.

3
Berdasarkan Montgomery and Peck (1992), dalam notasi matriks, metode

kuadrat terkecil sama dengan meminimumkan ε' ε .

Dengan persamaan :
ε = y−Xβ (3)

Oleh karena itu,


ε ' ε =( y−Xβ )' ( y−Xβ)

¿ y ' y−2 β ' X ' y + β ' X ' Xβ (4)

β' X' y adalah matrik 1 x 1, atau suatu skalar. Transposenya

(β ' X ' y)' = y ' Xβ adalah skalar. Pendugaan metode kuadrat terkecil harus

memenuhi :
n
∂ ∑ ε 2i
∂ ε' ε (5)
=−2 X ' y+ 2 X ' X ^β
i=1
=
∂β ∂β

Bila disederhanakan menjadi :


−2 X y +2 X X ^β=0
' '

^
2 X ' X β=2 X' y

X ' X ^β=X ' y (6)

Untuk menyelesaikan persamaan (6) kalikan keduannya dengan invers dari

X ' X . jadi pendugaan kuadrat terkecil dari β adalah

^β=( X ' X)−1 X ' y


(7)

3. UJI ASUMSI MODEL REGRESI LINEAR


a. UJI NORMALITAS
Pada regresi linier klasik diasumsikan bahwa tiap εi didistribusikan normal

dengan lambang : ε N (0, σ 2 ) . Uji statistik yang dapat digunakan untuk

menguji normalitas residual adalah uji statistik Kolmogorov-Smirnov (K-S).


b. UJI MULTIKOLINIERITAS
Menurut Montgomery and Peck (1992), untuk mendeteksi ada atau tidaknya
multikolinieritas di dalam model regresi, dapat dilihat pada nilai VIF (variance
inflation factors).

4
1
VIFj = (1−R2j ) (8)

dengan R2j adalah nilai koefisien determinasi yang diperoleh dari

meregresikan peubah bebas xj dengan peubah bebas lainnya. Nilai VIF > 10
menunjukkan multikolinieritas yang kuat.
c. UJI HOMOSKEDASITAS
Untuk menguji ada tidaknya kesamaan variansi residual dari satu
pengamatan ke pengamatan yang lain. Uji ini dapat menggunakan Scatter
plot. Sumbu X adalah nilai-nilai prediksi ZPRED = Regression Standartdized
Predicted Value. Jika garfik yang diperoleh menunjukkan adanya pola tertentu
dari titik-titik yang ada, dikatakan terjadinya heteroskedastisitas. Akan tetapi,
jika tidak membentuk pola tertentu, dikatakan tidak terjadi
heteroskedastisitas.
d. UJI AUTOKORELASI
Menurut Gujarati (1997), dengan menggunakan lambing : E( ε i , ε j ) = 0 ; i ≠

j. Secara sederhana dapat dikatakan model klasik mengasumsikan bahwa


error yang berhubungan dengan pengamatan tidak dipengaruhi oleh error
yang berhubungan dengan pengamatan lain yang manapun. Salah satu cara
yang dapat digunakan untuk mendeteksi masalah autokorelasi adalah dengan
uji Durbin Watson.
Dengan terpenuhi semua asumsi regresi linier di atas, model yang dihasilkan
dianggap baik untuk melihat pengaruh peubah-peubah bebas terhadap
peubah-peubah tak bebas. Selanjutya, model dapat digunakan sebagai
penduga.

4. PENCILAN (OUTLIER)
Menurut Montgomery and Peck (1992), pencilan adalah suatu pengamatan
yang ekstrim. Residual yang nilai mutlaknya jauh lebih besar daripada yang
lain dan bisa jadi terletak tiga atau empat simpangan baku dari rata-ratanya
adalah yang menyebabkan data sebagai pencilan. Pencilan adalah titik-titik
data yang tidak setipe dengan titik data yang lainnya.

Menurut Draper and Smith (1992), adakalanya pencilan memberikan


informasi yang tidak bisa diberikan oleh titik data lainnya. Berdasarkan
Montgomery and Peck (1992), sebagai kaidah umum, pencilan baru ditolak
jika setelah ditelusuri ternyata merupakan akibat dari kesalahan-kesalahan
seperti memasukkan ukuran atau anlisis yang salah, ketidaktepatan
pencatatan data, dan terjadi kerusakan alat pengukuran. Bila ternyata bukan

5
akibat dari kesalahan-kesalahan semacam itu, penyelidikan yang seksama
harus dilakukan. Menghapus data tersebut untuk “memperbaiki persamaan
yang cocok” dapat berbahaya, tindakan tersebut dapat menimbulkan
kesalahan ketelitian dalam mengestimasi atau memprediksi. Ryan (1997)
mengelompokkan pencilan dalam berbagai tipe :
a. Pencilan-x, yakni pengamatan yang hanya menyimpang pada sumbu x
saja. Pengamatan ini disebut juga sebagai titik leverage.
b. Pencilan-y, yakni pengamatan yang menyimpang hanya karena arah
peubah tak bebasnya.
c. Pencilan-x,y, yaitu pengamatan yang menyimpang pada keduanya yakni
pada peubah x dan peubah y.
Untuk mendeteksi adanya pencilan dapat dilakukan dengan beberapa metode
sebagai berikut:
a. Standardized residual
Standardized residual merupakan nilai residual yang distandarkan. Nilai ini
digunakan untuk mendeteksi pencilan. Jika | r i | > 2 atau | r i | > 3, maka data
pada pengamatan ke-i merupakan pencilan y.
b. Deleted (Studentized Residual)
Deleted Studentized Residual merupakan nilai-nilai standardized residual
dimana observasi ke-i dihilangkan. Nilai ini digunakan untuk mendeteksi ada
atau tidaknya pencilan. Data dikatakan pencilan jika t i > ( α, n-p) dengan p
adalah banyak parameter.
c. DFITS
DFITS yaitu mengukur pengaruh suatu pengamatan terhadap nilai dengan
respon ketika suatu pengamatan tidak disertakan dalam analisis. Nilai ini

digunakan untuk mendeteksi pengaruh pengamatan ke-i terhadap nilai ^y

dirinya sendiri. Jika nilai | DFITS | > 2 √ p


n dengan p menyatakan jumlah

parameter dalam model bersangkutan maka hal ini merupakan pengamatan


berpengaruh.

5. REGRESI ROBUST
Menurut Chen (2002), regresi robust adalah sebuah alat yang penting
untuk menganalisis data yang terkontaminasi pencilan. Tujuan utama
regresi robust adalah untuk memberikan hasil yang stabil karena
kehadiran pencilan.
a. Estimasi M
Berikut adalah diagram alur pembentukan model estimasi M :

6
Mulai
Tidak konvergen

Estimasi parameter b dengan OLS


ya

Menghitung fungsi pembobot melalui ( )

Mencari estimasi baru dengan weighted least square.

ya

Model estimasi M
(Huber dan Tukey Bisquare) Bisquare)
revisi

selesai Paramater
()
konvergen ?

Tidak terpenuhi

Pengujian signifikansi parameter

Estimasi M diperkenalkan oleh Huber pada tahun 1973 dan ini merupakan
pendekatan yang paling sederhana baik secara teori maupun perhitungan.
Diketahui:
y i=α + β 1 x i 1+ β 2 xi 2 +…+ β k x ik + ε i (9)

yi  xi'    i
(10)
Untuk observasi ke-i dari n observasi, model yang sesuai adalah,
y i=a+ b1 x i 1 +b2 xi 2 +…+ bk xik +e i (11)

y i  xi' b  ei
(12)
Estimator M umumnya dengan meminimumkan fungsi objektifnya adalah,

7
n n

∑ ρ ( e i )=∑ ρ( y i−x 'i b) (13)


i=1 i=1

Dimana fungsi ρ memberikan kontribusi untuk setiap residual dari untuk


fungsi objektifnya.

Misalkan ψ=ρ ' dengan ψ merupakan turunan dari ρ. Untuk

meminimumkan fungsi objektif, maka fungsi objektif akan diturunkan

terhadap b dan hasilnya persamaan, sebagai berikut :


n

∑ ψ ( y i−x 'i b ) x 'i=0 (14)


i=1

ψ merupakan fungsi influence yang digunakan dalam memperoleh

¿
ψ (ei )
bobot (weight). Dengan fungsi pembobot w i= ¿ dimana e ¿i
ei

merupakan residual yang distandarkan, maka persamaannya menjadi :


n

∑ wi ( y i−x 'i b ) x 'i=0 (15)


i=1

Apabila dinotasikan dalam matrik : X T WXb=X T Wy , bentuk matrik

tersebut dinamakan least square dengan penimbang (weighted least

y i−^yi
¿
¿
square) yang akan meminimalkan wi ¿ . Weighted least square dapat
n

∑¿
i=1

digunakan untuk mendapatkan estimasi M, estimasi parameternya


menjadi :
−1
b=( X T WX ) X T Wy (16)

Penimbang tergantung pada residual, residual tergantung pada koefisiean


yang diestimasi, dan koefisien yang diestimasi tergantung pada
penimbang. Untuk menyelesaikan masalah tersebut dilakukan proses

8
iterasi yang disebut sebagai Iteratively Reweighted Least-Square (IRLS).
Langkah – langkahnya sebagai berikut :
1) Pilih estimasi b(0), seperti estimasi least-squares.
2) Pada setiap iterasi l , hitung residuals eil-1 dan asosiasikan

penimbang wi(l-1) =w[ei(l-1) ] dari iterasi sebelumnya.


3) Penyelesaian untuk estimasi penimbang baru.
−1
b =[ X ' W X ] X 'W
(t) (l−1) (l −1)
y (17)

wl 1
dengan merupakan matrik diagonal dengan elemen diagonalnya
wi ,l 1
adalah . Sehingga estimasi parameter pada iterasi pertama ( l =
wi ,0
1 ) menggunakan ei,0 dan .
4) Langkah 2 dan 3 diulangi sampai koefisien yang diestimasi konvergen.
Tiga bentuk estimasi M diantaranya estimasi least square, Huber dan
Tukey bisquare (biweight). Bentuk fungsi objektif, fungsi influence dan
fungsi pembobot untuk ketiga jenis estimasi M sebagai berikut :
Least
Metode Huber Tukey Bisquare
Square
 (ei* ) 2 / 2 , untuk | ei* | r  
 
2 3
k2 ei*
Fungsi    1 1  untuk ei*  r
 LS (e )  (e )
* * 2 6 r
i
 H (e )  
*
 B (e )  
*
 
 r | ei | r / 2 , untuk | ei | r
* 2 *
 r 2 / 6 untuk ei*  r
objektif  

 ei* untuk ei*  r


Fungsi 
 2 2
 ei*

 H  e    r untuk e *  r
 ei 1  ei*  r
*
untuk
 LS (e )  e
* * *
 B e   
* r
influenc i i

 
0 untuk ei*  r
  r untuk ei  r
*
e

Fungsi 
 
2
 1 untuk ei*  r ei*
2
 1 ei*  r
Pembob wLS (e * )  1  
wH e *  

*
e r
*
 
wB e *   r
untuk

 r / e i untuk i  0 untuk ei*  r



ot
Tabel 1 Fungsi objektif, fungsi influence, dan fungsi pembobot pada estimasi M (Sumber :
Fox (2002), Mongomery (1992))

Nilai r pada fungsi objektif, influence dan pembobot adalah tunning


constant. Kuzmic et.al (2004) menyebutkan estimasi M Huber efektif
digunakan pada α = 5% dengan r=1,345, sedangkan estimasi M Tukey
Bisquare dengan r=4,685. Kelly (2008) menyatakan permasalahan dalam
estimasi regresi robust adalah perlu dilakukan pemilihan tunning constant
agar estimasi yang diperoleh lebih spesifik dan memimimumkan jumlah
kuadrat residual. Apabila menurunkan tunning constant akan menaikan

9
pembobot terhadap residual yang besar, sedangkan menaikkan tunning
constant akan menurunkan pembobot terhadap residual yang besar.
Semakin besar r maka estimasi robust akan mendekati least square.
Setelah estimasi telah didapatkan, maka langkah selanjutnya adalah
melakukan pengujian parameter dalam model regresi bertujuan untuk
mengetahui apakah parameter tersebut telah menunjukkan hubungan
yang nyata antara variabel prediktor dan variabel respon. Disamping itu
juga untuk mengetahui kelayakan parameter dalam menerangkan model.
Terdapat dua tahap pengujian yaitu uji serentak dan uji parsial (individu).
1) Uji Serentak
Uji serentak merupakan pengujian secara bersama semua parameter
dalam model regresi. Hipotesis yang digunakan adalah sebagai berikut :
H0 : 0 = 1 = ... = j = 0
H1 : paling tidak ada satu j  0, j = 0, 1, ... k
Statistik uji yang digunakan untuk OLS adalah

 n

  ( yˆ  y ) 2  /( k )
i
 i 1 
MSR  n
2
  ( yi  yˆ i )  /( n  k  1)
MSE  i 1 
Fhitung = =

Sedangkan untuk Weighted least squares (WLS)

MSRweighted
MSE weighted
Fhitung(weighted) =

 n

  w ( yˆ i  y ) 2  /( k )
i
 i 1 
 n
2
  wi ( yi  yˆ i )  /( n  k  1)
 i 1 
= (18)
Ket : MSR : Mean Square Regression
MSE : Mean Square Error
Pengambilan keputusan adalah apabila F hitung  F (k, n-k-1) dengan k adalah
parameter maka H0 ditolak pada tingkat signifikansi , artinya paling
sedikit ada satu j yang tidak sama dengan nol. Pengambilan keputusan
juga dapat melalui P-value dimana H0 ditolak jika P-value < α.
2) Uji Parsial

10
Uji parsial merupakan pengujian secara individu parameter dalam model
regresi yang bertujuan untuk mengetahui parameter model regresi telah
signifikan atau tidak. Hipotesis yang digunakan adalah sebagai berikut :
H0 : j = 0
H1 : j  0, j = 0, 1, 2, ..., k
Statistik uji yang digunakan untuk metode OLS adalah
bj
t hitung 
S (b j )
(19)
Dengan
S 2 (b j )  ( X T X ) 1 MSE
(20)

Sedangkan untuk metode Weighted least squares (WLS)

b j ( weighted )
t hitung( weighted ) 
S (b j ( weighted) )
(21)
S 2 (b j ( weighted ) )
dengan merupakan diagonal matrik kovarian.
Pengambilan keputusannya yaitu apabila |t hitung|  t(1-/2, n-k-1) dengan k
adalah parameter maka H0 ditolak pada tingkat signifikansi , artinya ada
pengaruh xi terhadap model. Pengambilan keputusan juga dapat melalui P-
value, dimana H0 ditolak jika P-value < α.
b. Estimasi Least Trimmed Square (LTS)
Langkah – langkah yang dilakukan dalam mengestimasi parameter regresi
robust dengan estimasi LTS, sebagai berikut :
2
1) Menghitung kuadrat residual ( e i ) urutkan dari yan terkecil sampai

n+ p+ 1
terbesar dan menghitung h dimana h= .
2

h
=∑ e 2i .
2
2) Menghitung E LTS
i=1

^β hbaru(i)
3) Melakukan estimasi parameter baru(i) dari pengamatan.

2
4) Menentukan kuadrat residual ei dari hbaru(i) pengamatan.

5) Menghitung E2LTS(baru) .

11
6) Melakukan iterasi dari langkah 4 s.d. 5 sampai mendapatkan fungsi
objektif (h) yang terkecil dan konvergen ke nol.
7) Kemudian lakukan uji hipotesis untuk mengetahui apakah variabel
bebas mempunyai pengaruh yang signifikan terhadapa variabel tak
bebas.
c. Estimasi S
Langkah – langkah yang dilakukan dalam mengestimasi parameter regresi
robust dengan metode estimasi S, sebagai berikut :

1) Menghitung nilai residual yakni e i= y i− ^y i

2) Menghitung standar deviasi sisaan

median∨ei −median ( e i) ∨ ¿ , iterasi=1


0.6745

{√
n
1
σ^ i= ¿ ∑
nk i=1
wi e2i ,iterasi> 1

Dengan k =0.199

ei
3) untuk mendapatkan nilai ui=
σ^ s

{
2

4) Menghitung nilai pembobot


w i=
ψ (u i)
ui
[ ( )]
ui 2
= 1− 1.547 ,|ui|≤ 1.547

0 ,|ui|≥1.547

5) Menghitung nilai koefisien parameter penduga


^β=[ X ' WX ]−1 X ' Wy

6) Dari koefisien parameter penduga yang didapat kembali ulangi


langkah 1 s.d. 4 sampai didapatkan kekonvergenan.
7) Kemudian lakukan uji hipotesis untuk mengetahui apakah variabel
bebas mempunyai pengaruh yang signifikan terhadapa variabel tak
bebas.
d. Estimasi MM
Estimasi MM merupakan gabungan dari estimasi S dan estimasi M.
Prosedur estimasi ini adalah dengan mengestimasi parameter regresi
menggunakan estimasi S yang meminimumkan skala sisaan dari estimasi
M dan dilajutkan dengan estimasi M. langkah-langkahnya sebagai berikut :

1) Menghitung nilai sisaan e i= y i− ^y i dari estimasi S

12
2) Menghitung nilai σ^ s
ei
3) Menghitung nilai ui=
σ^ s
4) Menghitung pembobot

[{ ( ) ]
2 2
ui ,|ui|≤ 4.685
w i= 1− 4.685
¿ ,|u i|≥ 4.685
¿0

5) Menghitung parameter estimasi MM dengan metode WLS dengan

0
pembobot wi

6) Mengulangi langkah 2 s.d. 4 sampai diperoleh nilai estimasi MM

yang konvergen.
7) Kemudian lakukan uji hipotesis untuk mengetahui apakah variabel
bebas mempunyai pengaruh yang signifikan terhadapa variabel tak
bebas.
e. Estimasi LMS
LMS (Least Median of Square) didefenisikan sebagai vector-p,
θ^ LMS=argmin Q LMS (θ)
θ

Dimana,
Q LMS (θ)=r 2(h)

r 2(1) < r 2(2) <…< r(n)


2
adalah error (residual) kuadrat yang diurutkan,

2 T 2
r i =( y i−x i θ ) , i=1, … ,n , h didefenisikan sebagai interval dari

n 3 n+ p+1
+1 ≤ h ≤ . Nilai breakdown untuk estimasi LMS juga bernilai
2 4

n−h
n . Namun, estimasi LTS mempunyai beberapa keunggulan

dibandingkan dengan estimasi LMS. Fungsi objektifnya “lebih halus”,


membuat LTS lebih stabil (kecuali sensitive untuk efek local) daripada
estimasi LMS. Efisensi statistiknya lebih baik karena estimasi LTS normal
secara asymptotic dimana estimasi LMS memiliki tingkat konvergensi yang
lebih rendah.

13
f. Estimasi W
Estimasi W mewakili bentuk alternative dari estimasi M. Masing-masing
estimasi W mempunyai karakteristik fungsi penimbang W(.)
menggambarkan pentingnya tiap sample dalam kontribusinya pada
estimasi T, yang dihubungkan pada estimasi M yang bersesuaian

mengikuti ψ ( r )=W (r )r . Parameter optimal diperoleh dengan

menyelesaikan,
n

∑ W (r j )r j=0
j=1

Yang sama seperti persamaan untuk masalah regresi Weighted Least


Square. W-Estimator menawarkan prosedur penghitungan iterative M-
Estimator yang sederhana dan menyenangkan, dimana persamaan W-
Estimator dalam iterasi sekarang diselesaikan dengan perbaikan nilai

penimbang, W (r j) , pada iterasi sebelumya. Prosedur untuk

memperoleh hasil merujuk pada Iterative Reweighted Least-Square (IRLS


atau RLS). Seperti pada kasus estimator M dan W, IRLS bergantung pada
skala prefix dan akurat untuk defenisi penimbangnya. Skala estimasi yang
paling umum digunakan adalah 1,483 x MAD.
g. Estimasi L
Estimasi L didasarkan pada order statistic (statistic terurut), sebagai
contoh andaikan kita ingin mengestimasi parameter lokasi suatu distribusi

dari sample acak X 1 , X 2 ,… , X n . Order statistic sampel ini adalah

X [1 ] ≤ X[ 2] ≤ … ≤ X [n ] . Median sample merupakan estimasi L, karena itu

merupakan suatu ukuran lokasi order statistic.


h. Estimasi R
Sebagai tambahan terhadap estimator M, ada pendekatan lain untuk
regresi robust. Estimasi R adalah prosedur yang didasarkan pada ranking
(urutan). Untuk menggambarkan prosedur yang umum, ganti satu factor

n
2
s ( β ) =∑ ( y i−x i β )
'
pada fungsi sasaran kuadrat terkecil dengan
i=1

14
'
rankingnya. Demikian jika Ri adalah ranking dari y i−x i β , lalu kita

ingin meminimalkan ∑ ( y i−x 'i β ) Ri . Lebih umumnya, kita dapat


i=1

mengganti ranking (yang mana integer 1,2,…,n) dengan fungsi skor


a(i)=1,2,…,n, sehingga fungsi sasarannya menjadi :
n
min ∑ ( y i− x'i β ) a(Ri )
β i=1

Jika kita menetapkan fungsi skor sama dengan ranking (ranks), a(i)=i,
hasilnya disebut skor Wilcoxon. Kemungkinan lain adalah menggunakan

n+1 n+1
skor median, dimana a(i)=-1 jika i< dan a(i)=1 jika i>
2 2 .

C. PEMBAHASAN
1. PENERAPAN ESTIMASI M
a. Estimasi M (Huber)
Data pengamatan penjualan rokok tahun 2012 di yogyakarta:

jml iklan iklan


N Sales iklan
outlet out koran
o (y) radio (X2)
(X1) (X3) (X4)
1 215.36 7 13.23 27.9 20.98
2 295.15 5 13.44 32.28 22.41
3 254.26 10 15.26 29.49 22.98
4 452.62 5 18.45 39.17 23.21
5 150.5 8 19.58 34.25 23.25
6 320.14 8 12.03 33.63 23.45
7 254.25 6 13.87 29.38 24.86
8 235.26 9 15.69 29.19 24.88
9 302.21 9 16.35 32.82 25
1
120.35 8 12.88 33.44 25.12
0
1
222.32 8 18.97 29.14 25.87
1
1
265.99 11 12.05 32.09 25.89
2
1
300.12 7 12.23 32.33 26.23
3
1
265.21 5 15.87 30.22 26.23
4

15
1
110.6 6 13.67 35.42 26.25
5
1
323.45 9 18.29 33.72 28.94
6
1
362.02 8 15.26 35.84 29.8
7
1
423 5 13.56 37.12 32.26
8
1
400.23 9 18.78 36.1 32.79
9
2
412.6 6 13.02 36.85 33.45
0
2
423.22 7 16.59 37.44 33.98
1
2
400.25 9 14.23 36.15 34.55
2
2
366.25 9 15.26 35.92 34.76
3
2
435.23 8 15.78 38.2 35.99
4
2
430.22 10 13.33 37.91 36.21
5
2
352.16 9 12.89 34.79 36.25
6
2
365.21 8 12.45 35.91 36.87
7
2
415.25 8 19.25 36.96 36.99
8
2
451.29 8 14.32 38.98 40.12
9
3
512.33 8 13.45 39.33 44.98
0

Dilakukan uji asumsi terlebih dahulu, yakni :


Pertama, uji normalitas :

16
Probability Plot of RESI 1
Normal
99
Mean -1.65793E-13
StDev 62.06
95 N 30
KS 0.222
90
P-Value <0.010
80
70
Percent

60
50
40
30
20

10

1
-250 -200 -150 -100 -50 0 50 100 150
RESI1

Kedua, uji multikolinearitas :

Predictor Coef SE Coef T P VIF


Constant -296.0 175.3 -1.69 0.104
X1 -5.272 8.390 -0.63 0.535 1.156
X2 2.149 5.398 0.40 0.694 1.042
X3 11.127 5.882 1.89 0.070 2.480
X4 8.380 3.215 2.61 0.015 2.595

Karena nilai VIF yang kecil mengindikasikan tidak ada multikolinearitas.

Ketiga, uji homoskedasitas :


The regression equation is
Y = - 296 - 5.27 X1 +Versus
2.15Order
X2 + 11.1 X3 + 8.38 X4
(response is Y)

Predictor
100 Coef SE Coef T P
Constant -296.0 175.3 -1.69 0.104
X1 50 -5.272 8.390 -0.63 0.535
X2 2.149 5.398 0.40 0.694
X3 0 11.127 5.882 1.89 0.070
Residual

X4 8.380 3.215 2.61 0.015


-50

-100
S = 66.8377 R-Sq = 64.0% R-Sq(adj) = 58.2%
-150

Analysis
-200
of Variance

Source 2 4 6 8DF 10 12 SS14 16 18 MS 20 22 24


F 26 28P 30
Regression 4 Observation
198473 Order
49618 11.11 0.000
Residual Error 25 111682 4467
Total 29 310155
Keempat, uji autokorelasi :
Durbin-Watson statistic
Source DF Seq SS = 2.19514
Karena nilai durbin Watson mendekati
X1 1 22 2 menunjukkan tidak ada
X2 1 268
autokorelasi.
X3 1 167831
X4 1 30352
Output minitab :
Unusual
b. Observations
c.
Obs X1 Y Fit SE Fit Residual St Resid
4 5.0 452.6 347.6 46.6 105.0 2.19R
5 8.0 150.5 279.8 31.8 17-129.3 -2.20R
10 8.0 120.3 272.1 21.8 -151.7 -2.40R
15 6.0 110.6 315.8 23.3 -205.2 -3.28R

R denotes an observation with a large standardized residual.


d.
e.
f.
g.
h.
i.
j.
k.
l.
m.
n.
o.
p.
q.
r.
s.
t.
u. Dengan menggunakan minitab didapatkan model regresinya adalah
:
v. Y = - 296 - 5.27 X1 + 2.15 X2 + 11.1 X3 + 8.38 X4
w. Model tersebut merupakan hasil metode OLS.
x.
y.
z.
aa.
ab.

Didapatkan model : Y = - 296 - 5.27 X1 + 2.15 X2 + 11.1 X3 + 8.38 X4

18
Kemudian dilakukan pengujian dengan nilai standarized residual, dan
DFITS. Hasilnya sebagai berikut :

Berdasarkan nilai standarized residual dan DFITS bahwa observasi ke 4, 5,


10, dan 15 terindikasi sebagai outlier.

19
ac. Untuk penentuan nilai bobotnya menggunakan fungsi influence dan fungsi pembobot Huber, sebagai

berikut :
ad.

20
ae. Dengan menggunakan minitab, maka di dapatkan model regresi
untuk tiap iterasi sebagai berikut :

af.
It ag. Model regresi

ah. ai. Y = - 288 - 5.10 X1 + 0.42 X2 + 13.4


1 X3 + 6.55 X4

aj. ak. Y = - 312 - 5.03 X1 + 0.89 X2 + 14.4


2 X3 + 6.00 X4

al. am. Y = - 307 - 5.14 X1 + 0.78 X2 + 14.2


3 X3 + 6.10 X4

an. ao. Y = - 308 - 5.06 X1 + 0.81 X2 + 14.3


4 X3 + 6.07 X4

ap. aq. Y = - 308 - 5.10 X1 + 0.80 X2 + 14.3


5 X3 + 6.08 X4

ar. as. Y = - 308 - 5.08 X1 + 0.80 X2 + 14.3


6 X3 + 6.08 X4

at. au. Y = - 308 - 5.09 X1 + 0.80 X2 + 14.3


7 X3 + 6.08 X4

av. aw. Y = - 308 - 5.09 X1 + 0.80 X2 + 14.3


8 X3 + 6.08 X4

ax. Sehingga model regresi robust untuk estimasi M adalah :


ay. Y = - 308 - 5.09 X1 + 0.80 X2 + 14.3 X3 + 6.08 X4
az. Kemudian dilakukan uji secara serentak (apakah keragaman Y
dapat dijeaskan oleh model regresi X terhadap Y signifikan secara
statistik?) dan uji individu (apakah peubah X i berpengaruh terhadap
peubah Y apabila peubah lainnya tetap?). hasil output minitab
Weighted analysis using weights in W(e*)8
sebagai berikut :
ba.
The regression equation is
Y =bb.
- 308 - 5.09 X1 + 0.80 X2 + 14.3 X3 + 6.08 X4
bc.
bd.
Predictor Coef SE Coef T P
be.
Constant -307.8 136.1 -2.26 0.033
X1 bf. -5.088 6.394 -0.80 0.434
X2 0.802 4.239 0.19 0.851
X3 bg. 14.260 4.687 3.04 0.005
X4 bh. 6.077 2.586 2.35 0.027

S =bi.
50.3678 R-Sq = 74.0% R-Sq(adj) = 69.8%
bj.
Analysis
bk. of Variance
bl.
Source DF SS MS F P
bm.
Regression 4 180198 45049 17.76 0.000
Residual Error 25 63423 2537
bn.
Total 29 243621
bo.
Source
X1
bp. DF1 Seq SS74
X2 bq. 1 82
X3 br. 1 166034
X4 1 14008
bs.
Unusual Observations

Obs X1 Y Fit SE Fit 21


Residual St Resid
5 8.0 150.50 296.88 26.14 -146.38 -2.38R
10 8.0 120.35 291.32 17.28 -170.97 -2.55R
15 6.0 110.60 337.23 19.07 -226.63 -3.08R

R denotes an observation with a large standardized residual.


bt.
bu.
bv.
bw.
bx. Untuk uji serentak didapatkan p-value sebesar 0.000 yang lebih
kecil dari alpha sebesar 0.05, sehingga secara statistik keragaman Y dapat
dijeaskan oleh model regresi X terhadap Y signifikan. Untuk uji individu
didapatkan peubah X1 dan X2 tidak signifikan, namun ini masih lebih baik
dari model regresi non robust dimana ada empat peubah yang tidak
signifikan yakni constant, peubah X1, X2, dan X3.
by. b. Estimasi M (Tukey Bisquare)
bz. Dengan menggunakan minitab didapatkan model regresinya adalah
:
ca. Y = - 296 - 5.27 X1 + 2.15 X2 + 11.1 X3 + 8.38 X4

cb. Model tersebut merupakan hasil metode OLS.


cc. Dengan menggunakan minitab, maka di dapatkan model regresi
untuk tiap iterasi sebagai berikut :

cd.
Iter
a
s ce. Model regresi
i
k
e
cg. Y = - 290 - 5.77 X1 + 0.09 X2 + 14.1
cf. 1 X3 + 6.19 X4

ch. ci. Y = - 317 - 4.58 X1 + 0.99 X2 + 14.5


X3 + 5.85 X4
2
ck. Y = - 303 - 6.12 X1 + 0.29 X2 + 14.8
cj. 3 X3 + 5.83 X4
cm. Y = - 316 - 4.33 X1 + 1.00 X2 + 14.4
cl. 4 X3 + 5.87 X4

cn. co. Y = - 302 - 6.34 X1 + 0.28 X2 + 14.8


X3 + 5.85 X4
5
cp. cq. Y = - 317 - 4.04 X1 + 1.08 X2 + 14.3
X3 + 5.91 X4
6
cs. Y = - 301 - 6.59 X1 + 0.25 X2 + 14.8
cr. 7 X3 + 5.89 X4
cu. Y = - 318 - 3.71 X1 + 1.19 X2 + 14.2
ct. 8 X3 + 5.97 X4
cw. Y = - 299 - 6.85 X1 + 0.21 X2 + 14.8
cv.9 X3 + 5.94 X4

cx.1 cy. Y = - 320 - 3.38 X1 + 1.31 X2 + 14.0


X3 + 6.04 X4
0
cz.1 da. Y = - 297 - 7.07 X1 + 0.17 X2 + 14.7
X3 + 6.00 X4
1
dc. Y = - 321 - 3.09 X1 + 1.43 X2 + 13.9
db. X3 + 6.10 X4

22
12
dd. de. Y = - 295 - 7.24 X1 + 0.14 X2 + 14.7
X3 + 6.06 X4
13
df. 1 dg. Y = - 321 - 2.89 X1 + 1.51 X2 + 13.8
X3 + 6.15 X4
4
dh. di. Y = - 293 - 7.35 X1 + 0.13 X2 + 14.6
X3 + 6.11 X4
15
dj. 1 dk. Y = - 322 - 2.76 X1 + 1.57 X2 + 13.7
X3 + 6.19 X4
6
dl. 1 dm. Y = - 293 - 7.42 X1 + 0.12 X2 + 14.6
X3 + 6.14 X4
7
dn. do. Y = - 322 - 2.69 X1 + 1.60 X2 + 13.6
X3 + 6.21 X4
18
dp. dq. Y = - 292 - 7.45 X1 + 0.11 X2 + 14.6
X3 + 6.15 X4
19
dr. 2 ds. Y = - 322 - 2.65 X1 + 1.62 X2 + 13.6
X3 + 6.22 X4
0
dt.2 du. Y = - 292 - 7.47 X1 + 0.11 X2 + 14.6
X3 + 6.16 X4
1
dv. dw. Y = - 322 - 2.63 X1 + 1.62 X2 + 13.6
X3 + 6.23 X4
22
dx. dy. Y = - 292 - 7.48 X1 + 0.11 X2 + 14.6
X3 + 6.16 X4
23
dz. ea. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6
X3 + 6.23 X4
24
eb. ec. Y = - 292 - 7.48 X1 + 0.11 X2 + 14.6
X3 + 6.17 X4
25
ed. ee. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6
X3 + 6.23 X4
26
ef. 2 eg. Y = - 292 - 7.49 X1 + 0.11 X2 + 14.6
X3 + 6.17 X4
7
eh.
ei. Dalam kasus ini, ternyata model regresi robust dengan tukey
bisquare konvergen ke dua model yakni :
ej. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6 X3 + 6.23 X4

ek. el. R em. Uj en. Uji T


R - i
s F
q
u
a
r
e
a

23
d
j
ep. 6 eq. si
eo. 5 gn er. X1 dan X2
7 . if tidak
7 ik signifikan
% an

es. Dan
et. Y = - 292 - 7.49 X1 + 0.11 X2 + 14.6 X3 + 6.17 X4

ev. R
-
s
q
eu. u ew. Uj
R a i ex. Uji T
r F
e
a
d
j
ez. 7 fa. si
ey. 3 gn fb. X1 dan X2
7 . if tidak
6 ik signifikan
% an
fc.

fd. Sehingga model terpilih adalah Y = - 292 - 7.49 X1 + 0.11 X2 +


14.6 X3 + 6.17 X4
fe.
ff.
fg.
fh.
fi.
fj.
fk.
fl.
2. PENERAPAN ESTIMASI LTS
n+ p+ 1
fm. Langkah awal untuk menentukan h dimana h= dan
2

h
E LTS =∑ e i
2 2
digunakan model hasil dari OLS. Didapatkan
i=1

E2LTS =5798.007 dan h = 18 yang artinya 18 data baru (telah diurutkan

2
secara ascending berdasarkan ei yang akan digunakan untuk

estimasi LTS iterasi ke 1, hasil output minitabnya sebagai berikut :

24
fn.
The regression equation is
Y = - 365 - 5.34 X1 + 0.28 X2 + 18.3 X3 + 3.92 X4
fo.
Predictor Coef SE Coef T P
fp.
Constant -364.95 51.16 -7.13 0.000
X1 -5.342 2.276 -2.35 0.035
X2 0.275 1.493 0.18 0.857
fq.
X3 18.315 2.239 8.18 0.000
X4 3.921 1.361 2.88 0.013
fr.
S = 13.5080 R-Sq = 98.0% R-Sq(adj) = 97.4%
fs.Analysis of Variance
Source DF SS MS F P
ft.Regression 4 117648 29412 161.19 0.000
Residual Error 13 2372 182
fu.Total 17 120020

Source DF Seq SS
fv.X1 1 250
X2 1 2156
fw.
X3 1 113729
X4 1 1514
fx.
Unusual Observations
Obs X1 Y Fit SE Fit Residual St Resid
fy. 2 8.0 512.33 492.72 9.57 19.61 2.06R

R denotes an observation with a large standardized residual.

fz. Dengan E2LTS =577,9835 .

ga. nilai h baru untuk iterasi ke 2 adalah 12 yang artinya 12 data


baru yang akan digunakan, hasil output minitab sebagai berikut :
gb.
The regression equation is
Y = - 308 - 5.07 X1 - 1.55 X2 + 15.8 X3 + 5.69 X4
gc.
Predictor Coef SE Coef T P
Constant -307.54 38.89 -7.91 0.000
gd.
X1 -5.069 1.351 -3.75 0.007
X2 -1.547 1.114 -1.39 0.207
ge.
X3 15.831 2.167 7.30 0.000
X4 5.689 1.676 3.39 0.012
gf.S = 7.56569 R-Sq = 99.5% R-Sq(adj) = 99.2%

gg.
Analysis of Variance
Source DF SS MS F P
gh.
Regression 4 78567 19642 343.15 0.000
Residual Error 7 401 57
Total 11 78967
gi.
Source DF Seq SS
gj.X1 1 0
X2 1 114
The
X3 regression
1 equation is
77793
gk.
Y
X4 = - 345
1 - 5.39
659 X1 - 1.49 X2 + 16.9 X3 + 5.67 X4
2
Predictor
gl. Dengan E LTS =183.79
Coef SE Coef T .
P
Constant -344.89 30.14 -11.44 0.000
X1 -5.3908 0.8230 -6.55 0.003
gm.
X2 nilai h baru untuk
-1.4929 0.7848iterasi ke 3
-1.90 adalah 9 yang artinya 9 data
0.130
X3 16.889 1.411 11.97 0.000
baru yang akan digunakan, hasil output minitab sebagai berikut :
X4 5.675 1.042 5.45 0.006
gn.
S = 4.03036 R-Sq = 99.9% R-Sq(adj) = 99.8%
go.
Analysis of Variance
Source DF SS MS F P
gp.
Regression 4 57117 14279 879.07 0.000
Residual Error 4 65 16
Total 8 57182

Source DF Seq SS 25
X1 1 26
X2 1 766
X3 1 55843
X4 1 482
gq.
gr.
gs.
gt.
gu.
gv.
gw.
gx.

gy. Dengan E2LTS =37.5484 .

gz. nilai h baru untuk iterasi ke 4 adalah 8 yang artinya 8 data


baru yang akan digunakan, hasil output minitab sebagai berikut :
ha.
The regression equation is
Y = - 321 - 5.17 X1 - 2.00 X2 + 15.7 X3 + 6.39 X4
hb.
Predictor Coef SE Coef T P
hc.
Constant -321.32 21.06 -15.26 0.001
X1 -5.1693 0.5277 -9.80 0.002
hd.
X2 -2.0034 0.5330 -3.76 0.033
X3 15.7200 0.9969 15.77 0.001
X4
he. 6.3890 0.7129 8.96 0.003

hf.S = 2.55122 R-Sq = 100.0% R-Sq(adj) = 99.9%

Analysis of Variance
hg.
Source DF SS MS F P
Regression 4 52540 13135 2018.07 0.000
hh.
Residual Error 3 20 7
Total 7 52560
hi.
Source DF Seq SS
hj.X1 1 54
X2 1 1208
hk.
X3 1 50755
X4 1 523

hl. Dengan E2LTS =126.7744 .

hm.
The regression equation is
hn.
Y1 = - 334 - 5.56 X11 - 1.45 X21 + 16.6 X31 + 5.57 X41

Predictor
ho. Coef SE Coef T P
Constant -333.999 9.930 -33.63 0.001
X11
hp. -5.5644 0.2569 -21.66 0.002
X21 -1.4483 0.2802 -5.17 0.035
X31 16.6446 0.5079 32.77 0.001
hq.
X41
nilai h baru untuk
5.5721
iterasi
0.3862
ke 5 adalah
14.43 0.005
7 yang artinya 7 data
baru yang akan digunakan, hasil output minitab sebagai berikut :
S = 1.12714 R-Sq = 100.0% R-Sq(adj) = 100.0%
hr.
Analysis of Variance
hs.
Source DF SS MS F P
Regression 4 45404 11351 8934.59 0.000
Residual Error
ht. 2 3 1
Total 6 45406

Source DF Seq SS 26
X11 1 958
X21 1 222
X31 1 43959
X41 1 264
hu.
hv.
hw.
hx.
hy.
hz.
ia.
ib.

ic. Dengan E2LTS =20.2058 .

id. Iterasi berhenti sampai iterasi ke 5 karena nilai h pada


itreasi ke 6 sama dengan iterasi ke 5 yakni 7.
ie.
if.
ig.
ih.
ii.
ij.
ik.
il.
im.
in.
io.
ip.
iq.
ir.
is.
it.
D. DAFTAR PUSTAKA
iu. Bambang J. 2009. Ekonometrika: Pemodelan dan Pendugaan. Bogor
(ID): IPB Pr.
iv.

iw. Chen C. 2002. Robust Regression and Outlier Detection with the
Robustreg Procedure. Paper 265-27, Statistics and Data Analysis,
SUGI 27, North Carolina: SAS Institute Inc.
ix.

27
iy. Draper NR, Smith. 1992. Analisis Regresi Terapan. Diterjemahkan oleh
Bambang Sumantri. Jakarta (ID): Gramedia.
iz.

ja. Montgomery DC, Peck EA. 1992. Introduction to Linear Regression


Analysis. New York (NY): John Wiley and Sons.
jb.

jc. Musarifah, Raupong, Nasrah S. Perbandingan Metode Robust Least


Trimmed Square Dengan Metode Scale Dalam Mengestimasi
Parameter Regresi Linear Berganda Untuk Data Yang Mengandung
Pencilan. [Internet]. Makassar (ID). [diunduh 2016 jam 14:28 WIB].
Tersedia pada:
http://repository.unhas.ac.id/bitstream/handle/123456789/13647/JUR
NAL.pdf?sequence=1
jd.

je. Paper Robust.


jf.

jg. Rokhdana DB. Regresi Robust Dengan M-Estimation.


jh.

ji. Ryan TP. 1997. Modern Regression Methods. Canada: John Wiley &
Sons Inc.
jj.

jk. Yuliana S, Hasih P, Sri SH. 2013. Optimasi Model Regresi Robust Untuk
Memprediksi Produksi Kedelai di Inodonesia. [Internet]. Yogyakarta
(ID). [diunduh 2016 jam 17:45 WIB]. Tersedia pada:
https://core.ac.uk/download/files/335/18454387.pdf
jl.

jm. Yuliana. 2014. Penerapan Model Regresi Linear Robust Dengan


Estimasi M Pada Data Nilai Kalkulus II Mahasiswa Universitas Widya
Dharma Klaten. Magistra No. 90 Th. XXVI [Internet]. Hlm 87 – 97;
[diunduh 2016 jam 09:46 WIB]. Tersedia pada:
http://download.portalgaruda.org/article.php?
article=298460&val=6820&title=PENERAPAN%20MODEL
%20REGRESI%20LINEAR%20ROBUST%20DENGAN%20ESTIMASI
%20M%20PADA%20DATA%20NILAI%20KALKULUS%20II
%20MAHASISWA%20UNIVERSITAS%20WIDYA%20DHARMA
%20KLATEN
jn.
jo.

jp.
jq.
jr.

js.

28

Anda mungkin juga menyukai