ANALISIS REGRESI
TERAPAN
REGRESI ROBUST
1
INSTITUT PERTANIAN BOGOR
2016
DAFTAR ISI
DAFTAR ISI ii
A. PENDAHULUAN 1
1. LATAR BELAKANG 1
2. TUJUAN 2
B. TINJAUAN PUSTAKA 2
1. REGRESI LINEAR BERGANDA 2
2. OLS UNTUK REGRESI LINEAR BERGANDA 3
3. UJI ASUMSI MODEL REGRESI LINEAR 3
a. UJI NORMALITAS 3
b. UJI MULTIKOLINEARITAS 3
c. UJI HOMOSKEDASITAS9 3
d. UJI AUTOKORELASI 3
4. PENCILAN (OUTLIER) 4
a. STANDARDIZED RESIDUAL 4
b. DELETED (STUDENTIZED RESIDUAL) 4
c. DFITS 5
5. REGRESI ROBUST 5
a. Estimasi M 5
b. Estimasi Least Trimmed Square (LTS) 9
c. Estimasi S 9
d. Estimasi MM 10
e. Estimasi LMS 10
f. Estimasi W 11
g. Estimasi L 11
h. Estimasi R 11
C. PEMBAHASAN 12
1. PENERAPAN ESTIMASI M 12
a. Estimasi M (Huber) 12
b. Estimasi M (Tukey Bisquare) 18
2. PENERAPAN ESTIMASI LTS 20
D. DAFTAR PUSTAKA 23
A. PENDAHULUAN
1. LATAR BELAKANG
Analisis terhadap hubungan antara dua variabel atau lebih menggunakan
sebuah persamaan matematik (model regresi) adalah analisis regresi. Dalam
model regresi terdapat dua variabel yakni variabel Y (variabel tak
bebas/dependent/respon/akibat) dan variabel X (variabel
2
bebas/independent/penjelas/sebab). Dalam analisis regresi dapat dibagi
menjadi regresi linear sederhana, regresi linear berganda dan regresi non
linear. Terdapat beranekaragam metode yang dapat digunakan untuk melihat
hubungan antara Y dengan X seperti metode kuadrat terkecil (ordinary least
square), metode kemungkinan maksimum (maximum likelihood method),
metode bootstrap, metode kuadrat terkecil terboboti (weighted least square
method), dan lain – lain (Bambang, 2009). Metode yang familiar digunakan
adalah metode kuadrat terkecil/ordinary Least Square (OLS), karena mudah
penggunaanya. Ada beberapa asumsi yang harus dipenuhi dalam OLS agar
hasil estimasinya bersifat BLUE (best linear unbiased estimator), yaitu : (1)
Regresi robust menjadi alternatif solusi dalam mengatasi hal tersebut. Regresi
kekar terhadap outlier tersebut diperkenalkan Andrews (1972). Regresi robust
yang baik adalah yang sebanding dengan OLS tanpa outlier. Suatu estimator
semakin robust terhadap outlier ketika memiliki efisiensi dan breakdown point
yang tinggi. Kemungkinan tertinggi breakdown point untuk sebuah estimator
adalah 50%. Ada 8 prosedur estimasi parameter dalam regresi robust, antara
lain:
a. Estimasi M
b. Estimasi Least Trimmed Square (LTS)
c. Estimasi S
d. Estimasi MM
e. Estimasi LMS
f. Estimasi W
g. Estimasi L
2
h. Estimasi R
Masalah yang akan dibahas dalam tulisan makalah ini adalah pengujian
ketidakpenuhan asumsi klasik, cara pendeteksian outlier dan pendugaan
model pada data penjualan rokok tahun 2012 di yogyakarta dengan
menggunakan metode regresi robust hingga didapat persamaan model
terbaiknya.
2. TUJUAN
Tujuan dari penulisan makalah ini adalah untuk menggunakan regresi robust
estimasi M IRLS dengan fungsi pembobot Huber dan Bisquare Tukey dan
regresi robust estimasi LTS pada data yang terdapat outlier.
B. TINJAUAN PUSTAKA
1. REGRESI LINEAR BERGANDA
Menurut Montgomery and Peck (1992), secara umum peubah tak bebas y
kemungkinan berhubungan dengan k peubah bebas. Model ini :
yi = β0 + β1 xi1 + β2 xi2 + … + βk xik + εi (1)
yi adalah peubah tak bebas pada pengamatan ke-i, xi1, xi2, …, xik adalah
nilai peubah bebas pada pengamatan ke-i dan parameter ke-k, β0, β1, … , βk
adalah parameter regresi, dan εi adalah error pengamatan ke-i.
di mana ∑ ε2i adalah jumlah kuadrat sisaan. Dalam notasi skalar, metode
i=1
^β ^β ^β
parsial terhadap ,
0 ,…,
1 k dan menyamakan hasil yang diperoleh
dengan nol.
3
Berdasarkan Montgomery and Peck (1992), dalam notasi matriks, metode
Dengan persamaan :
ε = y−Xβ (3)
(β ' X ' y)' = y ' Xβ adalah skalar. Pendugaan metode kuadrat terkecil harus
memenuhi :
n
∂ ∑ ε 2i
∂ ε' ε (5)
=−2 X ' y+ 2 X ' X ^β
i=1
=
∂β ∂β
^
2 X ' X β=2 X' y
4
1
VIFj = (1−R2j ) (8)
meregresikan peubah bebas xj dengan peubah bebas lainnya. Nilai VIF > 10
menunjukkan multikolinieritas yang kuat.
c. UJI HOMOSKEDASITAS
Untuk menguji ada tidaknya kesamaan variansi residual dari satu
pengamatan ke pengamatan yang lain. Uji ini dapat menggunakan Scatter
plot. Sumbu X adalah nilai-nilai prediksi ZPRED = Regression Standartdized
Predicted Value. Jika garfik yang diperoleh menunjukkan adanya pola tertentu
dari titik-titik yang ada, dikatakan terjadinya heteroskedastisitas. Akan tetapi,
jika tidak membentuk pola tertentu, dikatakan tidak terjadi
heteroskedastisitas.
d. UJI AUTOKORELASI
Menurut Gujarati (1997), dengan menggunakan lambing : E( ε i , ε j ) = 0 ; i ≠
4. PENCILAN (OUTLIER)
Menurut Montgomery and Peck (1992), pencilan adalah suatu pengamatan
yang ekstrim. Residual yang nilai mutlaknya jauh lebih besar daripada yang
lain dan bisa jadi terletak tiga atau empat simpangan baku dari rata-ratanya
adalah yang menyebabkan data sebagai pencilan. Pencilan adalah titik-titik
data yang tidak setipe dengan titik data yang lainnya.
5
akibat dari kesalahan-kesalahan semacam itu, penyelidikan yang seksama
harus dilakukan. Menghapus data tersebut untuk “memperbaiki persamaan
yang cocok” dapat berbahaya, tindakan tersebut dapat menimbulkan
kesalahan ketelitian dalam mengestimasi atau memprediksi. Ryan (1997)
mengelompokkan pencilan dalam berbagai tipe :
a. Pencilan-x, yakni pengamatan yang hanya menyimpang pada sumbu x
saja. Pengamatan ini disebut juga sebagai titik leverage.
b. Pencilan-y, yakni pengamatan yang menyimpang hanya karena arah
peubah tak bebasnya.
c. Pencilan-x,y, yaitu pengamatan yang menyimpang pada keduanya yakni
pada peubah x dan peubah y.
Untuk mendeteksi adanya pencilan dapat dilakukan dengan beberapa metode
sebagai berikut:
a. Standardized residual
Standardized residual merupakan nilai residual yang distandarkan. Nilai ini
digunakan untuk mendeteksi pencilan. Jika | r i | > 2 atau | r i | > 3, maka data
pada pengamatan ke-i merupakan pencilan y.
b. Deleted (Studentized Residual)
Deleted Studentized Residual merupakan nilai-nilai standardized residual
dimana observasi ke-i dihilangkan. Nilai ini digunakan untuk mendeteksi ada
atau tidaknya pencilan. Data dikatakan pencilan jika t i > ( α, n-p) dengan p
adalah banyak parameter.
c. DFITS
DFITS yaitu mengukur pengaruh suatu pengamatan terhadap nilai dengan
respon ketika suatu pengamatan tidak disertakan dalam analisis. Nilai ini
5. REGRESI ROBUST
Menurut Chen (2002), regresi robust adalah sebuah alat yang penting
untuk menganalisis data yang terkontaminasi pencilan. Tujuan utama
regresi robust adalah untuk memberikan hasil yang stabil karena
kehadiran pencilan.
a. Estimasi M
Berikut adalah diagram alur pembentukan model estimasi M :
6
Mulai
Tidak konvergen
ya
Model estimasi M
(Huber dan Tukey Bisquare) Bisquare)
revisi
selesai Paramater
()
konvergen ?
Tidak terpenuhi
Estimasi M diperkenalkan oleh Huber pada tahun 1973 dan ini merupakan
pendekatan yang paling sederhana baik secara teori maupun perhitungan.
Diketahui:
y i=α + β 1 x i 1+ β 2 xi 2 +…+ β k x ik + ε i (9)
yi xi' i
(10)
Untuk observasi ke-i dari n observasi, model yang sesuai adalah,
y i=a+ b1 x i 1 +b2 xi 2 +…+ bk xik +e i (11)
y i xi' b ei
(12)
Estimator M umumnya dengan meminimumkan fungsi objektifnya adalah,
7
n n
¿
ψ (ei )
bobot (weight). Dengan fungsi pembobot w i= ¿ dimana e ¿i
ei
y i−^yi
¿
¿
square) yang akan meminimalkan wi ¿ . Weighted least square dapat
n
∑¿
i=1
8
iterasi yang disebut sebagai Iteratively Reweighted Least-Square (IRLS).
Langkah – langkahnya sebagai berikut :
1) Pilih estimasi b(0), seperti estimasi least-squares.
2) Pada setiap iterasi l , hitung residuals eil-1 dan asosiasikan
wl 1
dengan merupakan matrik diagonal dengan elemen diagonalnya
wi ,l 1
adalah . Sehingga estimasi parameter pada iterasi pertama ( l =
wi ,0
1 ) menggunakan ei,0 dan .
4) Langkah 2 dan 3 diulangi sampai koefisien yang diestimasi konvergen.
Tiga bentuk estimasi M diantaranya estimasi least square, Huber dan
Tukey bisquare (biweight). Bentuk fungsi objektif, fungsi influence dan
fungsi pembobot untuk ketiga jenis estimasi M sebagai berikut :
Least
Metode Huber Tukey Bisquare
Square
(ei* ) 2 / 2 , untuk | ei* | r
2 3
k2 ei*
Fungsi 1 1 untuk ei* r
LS (e ) (e )
* * 2 6 r
i
H (e )
*
B (e )
*
r | ei | r / 2 , untuk | ei | r
* 2 *
r 2 / 6 untuk ei* r
objektif
H e r untuk e * r
ei 1 ei* r
*
untuk
LS (e ) e
* * *
B e
* r
influenc i i
0 untuk ei* r
r untuk ei r
*
e
Fungsi
2
1 untuk ei* r ei*
2
1 ei* r
Pembob wLS (e * ) 1
wH e *
*
e r
*
wB e * r
untuk
9
pembobot terhadap residual yang besar, sedangkan menaikkan tunning
constant akan menurunkan pembobot terhadap residual yang besar.
Semakin besar r maka estimasi robust akan mendekati least square.
Setelah estimasi telah didapatkan, maka langkah selanjutnya adalah
melakukan pengujian parameter dalam model regresi bertujuan untuk
mengetahui apakah parameter tersebut telah menunjukkan hubungan
yang nyata antara variabel prediktor dan variabel respon. Disamping itu
juga untuk mengetahui kelayakan parameter dalam menerangkan model.
Terdapat dua tahap pengujian yaitu uji serentak dan uji parsial (individu).
1) Uji Serentak
Uji serentak merupakan pengujian secara bersama semua parameter
dalam model regresi. Hipotesis yang digunakan adalah sebagai berikut :
H0 : 0 = 1 = ... = j = 0
H1 : paling tidak ada satu j 0, j = 0, 1, ... k
Statistik uji yang digunakan untuk OLS adalah
n
( yˆ y ) 2 /( k )
i
i 1
MSR n
2
( yi yˆ i ) /( n k 1)
MSE i 1
Fhitung = =
MSRweighted
MSE weighted
Fhitung(weighted) =
n
w ( yˆ i y ) 2 /( k )
i
i 1
n
2
wi ( yi yˆ i ) /( n k 1)
i 1
= (18)
Ket : MSR : Mean Square Regression
MSE : Mean Square Error
Pengambilan keputusan adalah apabila F hitung F (k, n-k-1) dengan k adalah
parameter maka H0 ditolak pada tingkat signifikansi , artinya paling
sedikit ada satu j yang tidak sama dengan nol. Pengambilan keputusan
juga dapat melalui P-value dimana H0 ditolak jika P-value < α.
2) Uji Parsial
10
Uji parsial merupakan pengujian secara individu parameter dalam model
regresi yang bertujuan untuk mengetahui parameter model regresi telah
signifikan atau tidak. Hipotesis yang digunakan adalah sebagai berikut :
H0 : j = 0
H1 : j 0, j = 0, 1, 2, ..., k
Statistik uji yang digunakan untuk metode OLS adalah
bj
t hitung
S (b j )
(19)
Dengan
S 2 (b j ) ( X T X ) 1 MSE
(20)
b j ( weighted )
t hitung( weighted )
S (b j ( weighted) )
(21)
S 2 (b j ( weighted ) )
dengan merupakan diagonal matrik kovarian.
Pengambilan keputusannya yaitu apabila |t hitung| t(1-/2, n-k-1) dengan k
adalah parameter maka H0 ditolak pada tingkat signifikansi , artinya ada
pengaruh xi terhadap model. Pengambilan keputusan juga dapat melalui P-
value, dimana H0 ditolak jika P-value < α.
b. Estimasi Least Trimmed Square (LTS)
Langkah – langkah yang dilakukan dalam mengestimasi parameter regresi
robust dengan estimasi LTS, sebagai berikut :
2
1) Menghitung kuadrat residual ( e i ) urutkan dari yan terkecil sampai
n+ p+ 1
terbesar dan menghitung h dimana h= .
2
h
=∑ e 2i .
2
2) Menghitung E LTS
i=1
^β hbaru(i)
3) Melakukan estimasi parameter baru(i) dari pengamatan.
2
4) Menentukan kuadrat residual ei dari hbaru(i) pengamatan.
5) Menghitung E2LTS(baru) .
11
6) Melakukan iterasi dari langkah 4 s.d. 5 sampai mendapatkan fungsi
objektif (h) yang terkecil dan konvergen ke nol.
7) Kemudian lakukan uji hipotesis untuk mengetahui apakah variabel
bebas mempunyai pengaruh yang signifikan terhadapa variabel tak
bebas.
c. Estimasi S
Langkah – langkah yang dilakukan dalam mengestimasi parameter regresi
robust dengan metode estimasi S, sebagai berikut :
{√
n
1
σ^ i= ¿ ∑
nk i=1
wi e2i ,iterasi> 1
Dengan k =0.199
ei
3) untuk mendapatkan nilai ui=
σ^ s
{
2
0 ,|ui|≥1.547
12
2) Menghitung nilai σ^ s
ei
3) Menghitung nilai ui=
σ^ s
4) Menghitung pembobot
[{ ( ) ]
2 2
ui ,|ui|≤ 4.685
w i= 1− 4.685
¿ ,|u i|≥ 4.685
¿0
^β
5) Menghitung parameter estimasi MM dengan metode WLS dengan
0
pembobot wi
^β
6) Mengulangi langkah 2 s.d. 4 sampai diperoleh nilai estimasi MM
yang konvergen.
7) Kemudian lakukan uji hipotesis untuk mengetahui apakah variabel
bebas mempunyai pengaruh yang signifikan terhadapa variabel tak
bebas.
e. Estimasi LMS
LMS (Least Median of Square) didefenisikan sebagai vector-p,
θ^ LMS=argmin Q LMS (θ)
θ
Dimana,
Q LMS (θ)=r 2(h)
2 T 2
r i =( y i−x i θ ) , i=1, … ,n , h didefenisikan sebagai interval dari
n 3 n+ p+1
+1 ≤ h ≤ . Nilai breakdown untuk estimasi LMS juga bernilai
2 4
n−h
n . Namun, estimasi LTS mempunyai beberapa keunggulan
13
f. Estimasi W
Estimasi W mewakili bentuk alternative dari estimasi M. Masing-masing
estimasi W mempunyai karakteristik fungsi penimbang W(.)
menggambarkan pentingnya tiap sample dalam kontribusinya pada
estimasi T, yang dihubungkan pada estimasi M yang bersesuaian
menyelesaikan,
n
∑ W (r j )r j=0
j=1
n
2
s ( β ) =∑ ( y i−x i β )
'
pada fungsi sasaran kuadrat terkecil dengan
i=1
14
'
rankingnya. Demikian jika Ri adalah ranking dari y i−x i β , lalu kita
Jika kita menetapkan fungsi skor sama dengan ranking (ranks), a(i)=i,
hasilnya disebut skor Wilcoxon. Kemungkinan lain adalah menggunakan
n+1 n+1
skor median, dimana a(i)=-1 jika i< dan a(i)=1 jika i>
2 2 .
C. PEMBAHASAN
1. PENERAPAN ESTIMASI M
a. Estimasi M (Huber)
Data pengamatan penjualan rokok tahun 2012 di yogyakarta:
15
1
110.6 6 13.67 35.42 26.25
5
1
323.45 9 18.29 33.72 28.94
6
1
362.02 8 15.26 35.84 29.8
7
1
423 5 13.56 37.12 32.26
8
1
400.23 9 18.78 36.1 32.79
9
2
412.6 6 13.02 36.85 33.45
0
2
423.22 7 16.59 37.44 33.98
1
2
400.25 9 14.23 36.15 34.55
2
2
366.25 9 15.26 35.92 34.76
3
2
435.23 8 15.78 38.2 35.99
4
2
430.22 10 13.33 37.91 36.21
5
2
352.16 9 12.89 34.79 36.25
6
2
365.21 8 12.45 35.91 36.87
7
2
415.25 8 19.25 36.96 36.99
8
2
451.29 8 14.32 38.98 40.12
9
3
512.33 8 13.45 39.33 44.98
0
16
Probability Plot of RESI 1
Normal
99
Mean -1.65793E-13
StDev 62.06
95 N 30
KS 0.222
90
P-Value <0.010
80
70
Percent
60
50
40
30
20
10
1
-250 -200 -150 -100 -50 0 50 100 150
RESI1
Predictor
100 Coef SE Coef T P
Constant -296.0 175.3 -1.69 0.104
X1 50 -5.272 8.390 -0.63 0.535
X2 2.149 5.398 0.40 0.694
X3 0 11.127 5.882 1.89 0.070
Residual
-100
S = 66.8377 R-Sq = 64.0% R-Sq(adj) = 58.2%
-150
Analysis
-200
of Variance
18
Kemudian dilakukan pengujian dengan nilai standarized residual, dan
DFITS. Hasilnya sebagai berikut :
19
ac. Untuk penentuan nilai bobotnya menggunakan fungsi influence dan fungsi pembobot Huber, sebagai
berikut :
ad.
20
ae. Dengan menggunakan minitab, maka di dapatkan model regresi
untuk tiap iterasi sebagai berikut :
af.
It ag. Model regresi
S =bi.
50.3678 R-Sq = 74.0% R-Sq(adj) = 69.8%
bj.
Analysis
bk. of Variance
bl.
Source DF SS MS F P
bm.
Regression 4 180198 45049 17.76 0.000
Residual Error 25 63423 2537
bn.
Total 29 243621
bo.
Source
X1
bp. DF1 Seq SS74
X2 bq. 1 82
X3 br. 1 166034
X4 1 14008
bs.
Unusual Observations
cd.
Iter
a
s ce. Model regresi
i
k
e
cg. Y = - 290 - 5.77 X1 + 0.09 X2 + 14.1
cf. 1 X3 + 6.19 X4
22
12
dd. de. Y = - 295 - 7.24 X1 + 0.14 X2 + 14.7
X3 + 6.06 X4
13
df. 1 dg. Y = - 321 - 2.89 X1 + 1.51 X2 + 13.8
X3 + 6.15 X4
4
dh. di. Y = - 293 - 7.35 X1 + 0.13 X2 + 14.6
X3 + 6.11 X4
15
dj. 1 dk. Y = - 322 - 2.76 X1 + 1.57 X2 + 13.7
X3 + 6.19 X4
6
dl. 1 dm. Y = - 293 - 7.42 X1 + 0.12 X2 + 14.6
X3 + 6.14 X4
7
dn. do. Y = - 322 - 2.69 X1 + 1.60 X2 + 13.6
X3 + 6.21 X4
18
dp. dq. Y = - 292 - 7.45 X1 + 0.11 X2 + 14.6
X3 + 6.15 X4
19
dr. 2 ds. Y = - 322 - 2.65 X1 + 1.62 X2 + 13.6
X3 + 6.22 X4
0
dt.2 du. Y = - 292 - 7.47 X1 + 0.11 X2 + 14.6
X3 + 6.16 X4
1
dv. dw. Y = - 322 - 2.63 X1 + 1.62 X2 + 13.6
X3 + 6.23 X4
22
dx. dy. Y = - 292 - 7.48 X1 + 0.11 X2 + 14.6
X3 + 6.16 X4
23
dz. ea. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6
X3 + 6.23 X4
24
eb. ec. Y = - 292 - 7.48 X1 + 0.11 X2 + 14.6
X3 + 6.17 X4
25
ed. ee. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6
X3 + 6.23 X4
26
ef. 2 eg. Y = - 292 - 7.49 X1 + 0.11 X2 + 14.6
X3 + 6.17 X4
7
eh.
ei. Dalam kasus ini, ternyata model regresi robust dengan tukey
bisquare konvergen ke dua model yakni :
ej. Y = - 322 - 2.62 X1 + 1.63 X2 + 13.6 X3 + 6.23 X4
23
d
j
ep. 6 eq. si
eo. 5 gn er. X1 dan X2
7 . if tidak
7 ik signifikan
% an
es. Dan
et. Y = - 292 - 7.49 X1 + 0.11 X2 + 14.6 X3 + 6.17 X4
ev. R
-
s
q
eu. u ew. Uj
R a i ex. Uji T
r F
e
a
d
j
ez. 7 fa. si
ey. 3 gn fb. X1 dan X2
7 . if tidak
6 ik signifikan
% an
fc.
h
E LTS =∑ e i
2 2
digunakan model hasil dari OLS. Didapatkan
i=1
2
secara ascending berdasarkan ei yang akan digunakan untuk
24
fn.
The regression equation is
Y = - 365 - 5.34 X1 + 0.28 X2 + 18.3 X3 + 3.92 X4
fo.
Predictor Coef SE Coef T P
fp.
Constant -364.95 51.16 -7.13 0.000
X1 -5.342 2.276 -2.35 0.035
X2 0.275 1.493 0.18 0.857
fq.
X3 18.315 2.239 8.18 0.000
X4 3.921 1.361 2.88 0.013
fr.
S = 13.5080 R-Sq = 98.0% R-Sq(adj) = 97.4%
fs.Analysis of Variance
Source DF SS MS F P
ft.Regression 4 117648 29412 161.19 0.000
Residual Error 13 2372 182
fu.Total 17 120020
Source DF Seq SS
fv.X1 1 250
X2 1 2156
fw.
X3 1 113729
X4 1 1514
fx.
Unusual Observations
Obs X1 Y Fit SE Fit Residual St Resid
fy. 2 8.0 512.33 492.72 9.57 19.61 2.06R
gg.
Analysis of Variance
Source DF SS MS F P
gh.
Regression 4 78567 19642 343.15 0.000
Residual Error 7 401 57
Total 11 78967
gi.
Source DF Seq SS
gj.X1 1 0
X2 1 114
The
X3 regression
1 equation is
77793
gk.
Y
X4 = - 345
1 - 5.39
659 X1 - 1.49 X2 + 16.9 X3 + 5.67 X4
2
Predictor
gl. Dengan E LTS =183.79
Coef SE Coef T .
P
Constant -344.89 30.14 -11.44 0.000
X1 -5.3908 0.8230 -6.55 0.003
gm.
X2 nilai h baru untuk
-1.4929 0.7848iterasi ke 3
-1.90 adalah 9 yang artinya 9 data
0.130
X3 16.889 1.411 11.97 0.000
baru yang akan digunakan, hasil output minitab sebagai berikut :
X4 5.675 1.042 5.45 0.006
gn.
S = 4.03036 R-Sq = 99.9% R-Sq(adj) = 99.8%
go.
Analysis of Variance
Source DF SS MS F P
gp.
Regression 4 57117 14279 879.07 0.000
Residual Error 4 65 16
Total 8 57182
Source DF Seq SS 25
X1 1 26
X2 1 766
X3 1 55843
X4 1 482
gq.
gr.
gs.
gt.
gu.
gv.
gw.
gx.
Analysis of Variance
hg.
Source DF SS MS F P
Regression 4 52540 13135 2018.07 0.000
hh.
Residual Error 3 20 7
Total 7 52560
hi.
Source DF Seq SS
hj.X1 1 54
X2 1 1208
hk.
X3 1 50755
X4 1 523
hm.
The regression equation is
hn.
Y1 = - 334 - 5.56 X11 - 1.45 X21 + 16.6 X31 + 5.57 X41
Predictor
ho. Coef SE Coef T P
Constant -333.999 9.930 -33.63 0.001
X11
hp. -5.5644 0.2569 -21.66 0.002
X21 -1.4483 0.2802 -5.17 0.035
X31 16.6446 0.5079 32.77 0.001
hq.
X41
nilai h baru untuk
5.5721
iterasi
0.3862
ke 5 adalah
14.43 0.005
7 yang artinya 7 data
baru yang akan digunakan, hasil output minitab sebagai berikut :
S = 1.12714 R-Sq = 100.0% R-Sq(adj) = 100.0%
hr.
Analysis of Variance
hs.
Source DF SS MS F P
Regression 4 45404 11351 8934.59 0.000
Residual Error
ht. 2 3 1
Total 6 45406
Source DF Seq SS 26
X11 1 958
X21 1 222
X31 1 43959
X41 1 264
hu.
hv.
hw.
hx.
hy.
hz.
ia.
ib.
iw. Chen C. 2002. Robust Regression and Outlier Detection with the
Robustreg Procedure. Paper 265-27, Statistics and Data Analysis,
SUGI 27, North Carolina: SAS Institute Inc.
ix.
27
iy. Draper NR, Smith. 1992. Analisis Regresi Terapan. Diterjemahkan oleh
Bambang Sumantri. Jakarta (ID): Gramedia.
iz.
ji. Ryan TP. 1997. Modern Regression Methods. Canada: John Wiley &
Sons Inc.
jj.
jk. Yuliana S, Hasih P, Sri SH. 2013. Optimasi Model Regresi Robust Untuk
Memprediksi Produksi Kedelai di Inodonesia. [Internet]. Yogyakarta
(ID). [diunduh 2016 jam 17:45 WIB]. Tersedia pada:
https://core.ac.uk/download/files/335/18454387.pdf
jl.
jp.
jq.
jr.
js.
28