Anda di halaman 1dari 75

UJI ASUMSI KLASIK

MINGGU 6

Dosen :
Dr. Ni Nyoman Yuliarmi, SE, MP
Uji Asumsi Klasik
Tujuan dari uji asumsi klasik
Uji multikolineritas
Uji autokorelasi
Uji heteroskedastisitas
Uji normalitas
Tujuan Uji Asumsi Klasik
Sebagaimana disebutkan metode OLS akan
menghasilkan estimator yang tidak bias, linier
dan mempunyai varians minimum (Best Linear
Unbiased Estimator/BLUE) Apabila memenuhi
asumsi-asumsi tertentu yaitu:
Tdak ada multikolinearitas diantara
variabel yang menjelaskan
Semua disturbance (i) mempunyai varians
yang
sama
Tidak ada autokorelasi atau korelasi yang
berurutan
1. MULTIKOLINEARITAS

Pendahuluan
Salah satu asumsi dalam model
linear klasik adalah tidak ada
multikolinearitas diantara variabel
bebas (variabel yang menjelaskan)
yang termasuk dalam model.
Sifat Dasar
Multikolinearitas
Pada mulanya multikolinearitas dimaksudkan
sebagai hubungan linier yang sempurna
diantara beberapa atau semua variabel
bebas dalam model regresi. Apabila
variabel-variabel bebas berkorelasi dengan
sempurna, maka disebut multikolinearitas
sempurna (perfect multicolinearity).
Akan tetapi saat ini istilah multikolinearitas
digunakan dalam pengertian yang lebih
luas yaitu untuk menunjukkan adanya
derajat kolinearitas yang tinggi diantara
beberapa atau semua variabel bebas.
Lanjutan..
Untuk regresi yang terdiri dari k
variabel bebas yaitu X1, X2, ........ Xk
dikatakan mempunyai hubungan linier
yang sempurna jika dipenuhi syarat.
1X1 + 2X2 + .......... +kXk = 0 ..
(1)
dimana 1, 2, ........... k adalah
konstanta yang tidak semua secara
simultan sama dengan nol.
Lanjutan..
Jika antar variabel bebas (X)
berkorelasi tetapi tidak sempurna ,
maka berlaku: 1 X1 + 2X2 + ........
+kXk + vi = 0 .... (2)

Dimana vi adalah kesalahan


stochastic error term.
Lanjutan
Jika misalnya 2 0 maka persamaan
(1) dapat ditulis :
1
X 1i ......... k X ki
X2i = 2 2 (3)
Lanjutan
Persamaan (3) menunjukkan
bahwa X2 berhubungan linear yang
sempurna dengan X lainnya.
Sedangkan persamaan (2) dapat
ditulis:
1 k 1
X 2i X 1i ......... X ki vi
2 2 2
Lanjutan
Persamaan (4) menunjukkan tidak ada
hubungan linier yang sempurna antara X2
dengan X lainnya karena ada unsur
stochastic error term (vi). Contoh di bawah
ini menunjukkan bahwa X3i = 5X2i berarti
ada koliearitas sempurna antara X2 dan X3 .
Sedangkan variabel X3* dibuat dari X3
dengan menambah bilangan random
2,0,7,9 dan 2 berarti ada korelasi yang
tinggi antara X2 dan X3* tetapi tidak
Tabel 1

X2 X3 X3*
10 50 52
15 75 75
18 90 97
24 120 129
30 150 152
Estimasi Apabila Terjadi
Multikolinearitas
Jika diantara variabel bebas terjadi
multikolinearitas sempurna, maka
konsekuensinya adalah :
Penaksir kuadrat terkecil (OLS)
tidak tertentu (indeterminate).
Lanjutan
Contoh:

yi 2 x2i 3 x3i i
( y i x 2i )( x3i ) ( y i x3i )( x 2i x3i )
2

2
x x
2i
2
3i
2
x 2 i x 3i
2

y x x y x x x
2

3
i 3i 2i i 2i 2 i 3i

x x x x
2i
2
3i
2
2 i 3i
2
Lanjutan..
Jika diasumsikan x3i = x2i dimana
0, maka
y x x y x x
2 2 2

2
i 2i 2i i 2i 2i

x x x
2i
2 2
2i
2 2
2i
2 2

= 0/0 (indeterminate)
Lanjutan..
Demikian juga 3 nilainya indeterminate. 2
diartikan sebagai perubahan rata-rata Y
sebagai akibat perubahan per unit X2 dengan
asumsi X3 konstan. Namun apabila X2 dan
asumsi X3 kolinear sempurna, maka X3 tidak
dapat dibuat konstan, karena apabila X2
berubah maka maka X3 ikut berubah.
Jadi pengaruh X2 dan X3 tidak dapat
dipisahkan. Dalam ekonometrika terapan hal
ini merupakan gangguan kalau ingin
memisahkan efek parsial variabel X terhadap
variabel Y (dependen).
Lanjutan..
Varian atau kesalahan standar
tidak tertentu


Var 2
x 3i 2

x x x x
2i
2
3i
2
2 i 3i
2

x
2

Var 3
2i
2

x 2i
2
x x
3i
2
x
2 i 3i 2
Lanjutan..
Jika x3i = x2i disubstitusikan maka
diperoleh:
2 x3i

2

Var 2 2


2
x
2i
2 2
2 x
2i
2 2

= 2/0
Lanjutan..
Jika multikolinearitas tidak
sempurna, maka penaksiran
terhadap 2 dan mungkin bisa
dilakukan 3 mungkin bisa
dilakukan, namun variannya akan
meningkat dengan cepat dengan
meningkatnya korelasi antara X2
dan X3 ( r23).

Akibat Multikolinearitas
1) Meskipun BLUE estimator OLS mempunyai
varian dan covarian yang tinggi sehingga
sulit memperoleh estimasi yang tepat.
2) Karena standar error yang besar, confidence
interval cenderung menjadi besar sehingga
cenderung menerima H0 (i = 0 )
3) Karena standar error yang besar cenderung
tidak signifikan.
4) R2 cenderung tinggi
5) Estimator OLS dan standar error nya peka
terhadap perubahan kecil dalam data.
Pendeteksian
Multikolinearitas
1) Jika R2 tinggi ( > 0,8), uji simultan (uji F)
menolak hipotesis nol, tetapi tidak ada atau
sangat sedikit koefesien regresi parsial yang
signifikan berdasarkan uji t.
2) Korelasi derajat nol (zero order) yang tinggi
(> 0,8) merupakan syarat cukup (sufficient
condition) tetapi bukan syarat perlu
(necessary condition), kecuali pada regresi
dengan dua variabel bebas. Jadi korelasi
derajat nol bukan kriteria yang tepat bagi
adanya multikolinearitas, karena
multikolinearitas bisa terjadi walaupun
korelasi derajat nol relatif rendah (< 0,5).
Lanjutan.
3) Melalui koefisien korelasi parsial, misalnya
dari regresi Y atas X2, X3, dan X4. Jika
diperoleh R21.234 sangat tinggi, tetapi r212.34,
r213.24 dan r214.24 relatif rendah mungkin ada
interkorelasi yang tinggi antara X2, X3, dan X4.
4) Melalui auxiliary regresion , yaitu regresi dari
setiap variabel bebas (Xi) atas sisa variabel X
lainnya dan dihitung R2. Jika R2 dari auxiliary
regretion lebih besar dari R2 dari Y atas
seluruh regressor maka multikolinearitas
merupakan masalah serius.
Lanjutan..
Atau dapat juga dilakukan uji F
sebagai berikut:

R 2 x , x , x ....x /(k 1)
F 1 2 3 k.........

1 R 2 x , x , x ,....x
/(n k)
1 2 3 k
Lanjutan
5) Egenvalue dan condition Index
(CI).
Jika ada egenvalue yang
mendekati nol menunjukkan
adanya multikolinearitas. Demikian
juga jika ada CI yang bernilai 10-30
menunjukkan multikolinearitas
yang moderat dan jika CI lebih
besar dari itu menunjukkan
Lanjutan
6) Tolerance dan Variance Inflating Factor (VIF)
Tolerance (TOL) = (1-R2j) = 1/VIFj
VIFj = 1/(1-R2j)
R2j = koefisien determinasi antara satu
variabel
bebas dengan variabel bebas sisanya.
) Jika R2j = 1 ( multikolinearitas sempurna), TOL
= 0 dan jika R2j = 0, TOL = 1
) Jika VIF suatu variabel > 10 ( Rj2 = 0,90)
menunjukkan ada masalah multikolinearitas.
)
Lanjutan
Contoh pendeteksian
Multikolinearitas dengan kriteria
VIF
Berdasarkan pada data terlampir,
dapat disusun model regresi
sebagai berikut
Contoh
Regretion
b
Variables Entered/Removed

Variables Variables
Model Entered Removed Method
1 X2, X1a . Enter
a. All requested variables entered.
b. Dependent Variable: Y
Lanjutan..
Model Summary
Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Square the Estimate atson
1 .958a .918 .909 3236.9395 1.459
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan
Anova
ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 2.22E+09 2 1109076495 105.850 .000a
Residual 1.99E+08 19 10477777.63
Total 2.42E+09 21
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan..
Coefisien
Coefficientsa

Standardi
zed
Unstandardized Coefficien
Coefficients ts Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) -9776.401 2404.914 -4.065 .001
X1 -84.854 21.385 -.690 -3.968 .001 .143 6.978
X2 .168 .019 1.560 8.972 .000 .143 6.978
a. Dependent Variable: Y
Lanjutan
dimana y = nilai impor, X1 = indek
harga impor dan X2 = GDP

Dari regresi di atas (Tabel


coefficients), dapat diketahui
bahwa nilai VIFj < 10, sehingga
berdasarkan criteria VIF bisa
disimpulkan tidak ada masalah
multikolinearitas.
Tindakan Perbaikan
1. Informasi apriori.
Misalnya diketahui model regresi
Yi = 1 + 2X2i + 3X3i + ui
Jika secara apriori diketahui 3 =
0,10 maka model tadi dapat
diubah menjadi Yi = 1 + 2X2i +
0,102X3i + ui atau Yi = 1 +
2Xi + ui dimana
Lanjutan
2. Pooling data (menggabungkan cross section
data dengan time series data )
Misalnya diketahui model regresi dengan data
time series:
LnYt = 1 + 2 LnPt + 3LnIt + ut
Dimana Y = permintaan mobil, p = harga
mobil, I = pendapatan dan t adalah waktu.
Dengan menggunakan data time series,
pendapatan dan harga cenderung berkorelasi
sehingga dengan model di atas cenderung
terjadi multikolinearitas.
Lanjutan..
Dalam kondisi seperti ini, maka
disarankan untuk menaksir 3*
melalui data cross section , kemudian
pengaruh pendapatan (Ln I) terhadap
permintaan (LnY) dihilangkan dengan
mengurangkan 3*LnI dari
permintaan (LnY) sehingga diperoleh
variabel baru (Y*), dimana
Y* = LnY - 3*LnI. Sehingga diperoleh
model regresi:
3.Droping Variabel
Misalkan diketahui model regresi:

Yi = 1 + 2X2i + 3X3i + ui
Dimana Y = konsumsi,X2 =
pendapatan, X3 = kekayaan.
Dalam hal ini misalkan X2 dan X3
kolinear dan jika X3 dikeluarkan
dari modwel, maka didapat Y = 1
4. Transpormasi Variabel
Yt = 1 + 2X2t + 3X3t + ut
Yt Yt-1 = 1 + 2X2t-1 + 3X3t-1 +
ut-1
Yt Yt-1 = 1+ 2 (X2t X2t-1) + 3 (X3t
X3t-1) + vt

Dimana: vt = ut - ut-1
5. Menambah Data Baru

Contoh: Regresi Y atas X2 dan X3 ( dengan


10 observasi)

Yt = 24,377 + 0,8716X2t 0,0349X3t
t ( 3,875) (2,7726) (-1,1595)
R2 = 0,9682
Sedangkan dengan 40 observasi diperoleh
Yregresi:

t

= 2,3937 + 0,7299X2t + 0,0605X3t


t ( 0,8713) (6,0014) (2,0014)
Regresstion ( Multikolinearitas)

Va ria ble s Entere d/Re movebd

Variables Variables
Model Entered Removed Method
1 X2, X1a . Enter
a. All requested variables entered.
b. Dependent Variable: Y
Lanjutan

Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Square the Estimate atson
1 .958a .918 .909 3236.9395 1.459
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan..

ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 2.22E+09 2 1109076495 105.850 .000a
Residual 1.99E+08 19 10477777.63
Total 2.42E+09 21
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan..

Coefficientsa

Standardi
zed
Unstandardized Coefficien
Coefficients ts Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) -9776.401 2404.914 -4.065 .001
X1 -84.854 21.385 -.690 -3.968 .001 .143 6.978
X2 .168 .019 1.560 8.972 .000 .143 6.978
a. Dependent Variable: Y
Lanjutan..

a
Collinearity Diagnostics

Condition Variance Proportions


Model Dimension Eigenvalue Index (Constant) X1 X2
1 1 2.905 1.000 .01 .00 .00
2 8.671E-02 5.788 .60 .08 .01
3 8.492E-03 18.495 .39 .92 .99
a. Dependent Variable: Y
2. Autokorelasi
Dalam model regresi linier klasik
diasumsikan tidak ada autokorelasi dari
unsur disturbansi (gangguan).

Sifat dasar autokorelasi


Autokorelasi adalah korelasi antara
anggota serangkaian observasi yang
diurutkan menurut waktu (seperti pada
data deret waktu) atau menurut ruang
(seperti pada data cross section).
Lanjutan
Asumsi model regresi linier klasik
dapat dinotasikan dengan :
E(ui,uj) = 0, dimana i j

Untuk mengekpresikan
autokorelasi dapat dilihat dari
contoh berikut:
Lanjutan..
Yt = a + bxt + ut
ut = ut-1 + t (1)
dimana -1 1
Lanjutan
Persamaan (1) mempostulasikan bahwa
error term pada periode t sama dengan
rho dikalikan error term pada periode
sebelumnya, ditambah stokastik error
term (t ). (rho) disebut koefisien
autokovarian atau disebut juga first-
order coefficient of autokorrelation atau
lebih tepatnya the coefficient of
autocorrelation at lag 1, dan t disebut
stokastik disturbance term. Persamaan
(1) disebut juga first-order
Lanjutan
Nama autoregressive berkaitan
dengan ut dengan ut lag satu
periode. Sedangkan nama first-
order karena regresi antara ut
dengan ut sebelumnya berlaku
untuk satu periode. Jika modelnya
ut = ut-1 + ut-2 + tdisebut
second-order autoregressive
scheme atau AR(2).
Konsekuensi Autokorelasi
1) Varian residual 2 = u2t /(n-2)
kemungkinan underestimate.
2) Sebagai akibat no 1 maka R2
overestimate.
3) Meskipun 2 tidak underestimate,
varian penaksir OLS mungkin
underestimate
4) Uji signifikansi t dan F tidak valid dan
jika diterapkan dapat memberikan
kesimpulan yang menyesatkan.
Pendeteksian Autokorelasi
Metode Grafik
Dengan metode ini residual
dipetakan terhadap waktu.
Jika ada pola tertentu dapat
dicurigai adanya Autokorelasi

Lanjutan
The Run Test (Greary Test)
Mean: E(R) = N1N 2 1
N

Variance: 2R =2 N1 N 2 (22 N1 N 2 N )
( N ) ( N 1)
Lanjutan
Dimana:
N1 = jumlah tanda + (residual positif)
N2 = jumlad tanda (residual negatif )
N = N1 + N2
R = jumlah runs
Prob [E(R) - 1,96 R R E(R) + 1,96
R ] = 0,95
Jika nilai R (jumlah run ) diluar kisaran
itu, maka tolak H0 (berarti ada
Contoh
Diketahui tanda dari residual sebagai berikut:
(- - - - - - - - -)(+ + + + + + + + + + + + + +

+ + + + + + +)(- - - - - - - - - -)
Dimana:

N1 = 19 (negatif)
N2 = 21 (positif)
N = 40 (N1 +N2)
R=3
Sehingga E(R) = 10,975
2R = 9,6936
R = 3,1134
Lanjutan
Prob [10,975 - 1,96 (3,1134) R
10,975 + 1,96 (3,1134) ] = 0,95
Prob [4,8728 R 17,0722 ]
Oleh karena R = 3 terletak diluar
kisaran itu maka H0 ditolak.
Maka tidak terjadi autokorelasi.

Durbin-Watson d Test
Asumsi-Asumsi yang mendasari statistik d
Model regresi mengandung intersep

Variabel independen adalah non

stokastik
Disturbance u terbentuk dari first- order
t
autoregressive scheme: ut = ut-1 + t
Error ut diasumsikan berdistribusi
normal
Model regresi tidak memasukkan nilai
lag variable dependen sebagai variabel
Lanjutan..
Model : d = (
t t 1 )

2
t


Atau: d = 2 1 t t 1


2
t

Apabila:
t t 1


2
t

Maka d 2(1 )

Lanjutan
Nilai d terletak diantara 0 dan 4.
Jika = 0 maka d = 2 ( tidak ada
autokorelasi). Jika = -1 maka d =
4 (ada autokorelasi negatif
sempurna dan jika = 1 maka d =
0 (ada autokorelasi positif
sempurna).

Lanjutan
Dimana H0 : Tidak ada autokorelasi positif
H0* : Tidak ada autokorelasi
negatif
Apabila nilai d berada pada daerah ragu-ragu
(indecisive zona) maka tidak dapat
disimpulkan apakah ada autukorelasi atau
tidak. Untuk mengatasi hal ini digunakan
modified d test seperti berikut:
1. H0: = 0 vs H1 : > 0. Tolak H0 pada tingkat
jika d < du
berarti ada autokorelasi positif.
Lanjutan..
3. H0 : = 0 vs H1 : 0. Tolak H0
pada tingkat /2 jika d <du atau
(4-d) < du berarti ada autokorelasi
positif atau negatif.

Contoh (Print Out


Komputer) Lampiran 2
Yi = 5,428 + 1,067 X1 + 1,227 X2
SE (2,017) (0,192) (0,115)
t 2,691 5,548 10,627
R2 = 0,971
F =287,696 D-W = 1,612
Dimana: Y = Sales ( Rp juta)
X1 = Promosi (Rp juta)
X2 = TK (orang)
Lanjutan..
Dari hasil perhitungan d statistik
diperoleh besaran 1,612, kemudian
dibandingkan dengan kriteria pengujian
sebagai berikut.
H0 : Tidak ada autokorelasi dalam model
H1 : Ada autokorelasi dalam model
Sesuai dengan contoh pada lampiran
2 , n = 20, k = jumlah variabel bebas
= 2, dl = 1,10,du = 1,54 maka d =
1,612
Lanjutan
Jadi d = 1,612 berada pada daerah
tidak ada autokorelasi, yaitu: pada
kisaran
1,54 < d < 2,47
Lampiran 2
Tahun Smtr Sales Promosi TK
2003 1 38 8 19
2 49 12 22
3 32 3 17
4 28 4 15
2004 1 37 7 23
2 51 12 27
3 32 4 19
4 47 10 27
2005 1 25 3 15
2 38 5 22
3 33 3 20
4 35 5 20
2006 1 49 7 28
2 52 10 32
3 66 14 38
4 53 7 30
2007 1 45 6 27
2 71 17 38
3 46 4 28
4 35 4 27
Autokorelasi
Regression

Va ria ble s Ente re d/Re m oveb


d

Variables Variables
Model Entered Removed Method
1 TK, a . Enter
PROMOSI
a. All requested variables entered.
b. Dependent Variable: SALES
Lanjutan..

Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Square the Estimate atson
1 .986a .971 .968 2.1600 1.612
a. Predictors: (Constant), TK, PROMOSI
b. Dependent Variable: SALES
Lanjutan..
ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 2684.487 2 1342.243 287.696 .000a
Residual 79.313 17 4.665
Total 2763.800 19
a. Predictors: (Constant), TK, PROMOSI
b. Dependent Variable: SALES
Lanjutan

Coefficientsa

Standardi
zed
Unstandardized Coefficien
Coefficients ts
Model B Std. Error Beta t Sig.
1 (Constant) 5.428 2.017 2.691 .015
PROMOSI 1.067 .192 .357 5.548 .000
TK 1.227 .115 .684 10.627 .000
a. Dependent Variable: SALES
Regresi Multikolinearitas
Regression
Va ria ble s Ente re d/Re m oveb
d

Variables Variables
Model Entered Removed Method
1 X2, X1a . Enter
a. All requested variables entered.
b. Dependent Variable: Y
Lanjutan..

Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Square the Estimate atson
1 .958a .918 .909 3236.9395 1.459
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan..

ANOVAb

Sum of
Model Squares df Mean Square F Sig.
1 Regression 2.22E+09 2 1109076495 105.850 .000a
Residual 1.99E+08 19 10477777.63
Total 2.42E+09 21
a. Predictors: (Constant), X2, X1
b. Dependent Variable: Y
Lanjutan

Coefficientsa

Standardi
zed
Unstandardized Coefficien
Coefficients ts Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) -9776.401 2404.914 -4.065 .001
X1 -84.854 21.385 -.690 -3.968 .001 .143 6.978
X2 .168 .019 1.560 8.972 .000 .143 6.978
a. Dependent Variable: Y
3. Heteroskedastisitas
Salah satu asumsi dalam model
regresi linear klasik adalah
gangguan (diturbance), I yang
muncul dalam fungsi regresi
populasi adalah homoskedastis,
yaitu semua gangguan tersebut
mempunyai varians yang sama,
atau: E(I2) = 2
Lanjutan..
Sifat Dasar
Jika varians bersyarat dari Yi (I)
tidak sama atau berubah dengan
berubahnya X, menunjukkan
adanya heteroskedastisitas.
Atau:E(I2) = 2
Pendekatan
Heteroskedastisitas
Uji statistik yang dapat diguakan
untuk mendeteksi
heteroskedastisitas antara lain:
1) Uji Korelasi Rank Spearman
Model:

d 2
rs 1 6
2
n n 1

Lanjutan..
dimana:rs = koefisien korelasi rank
Spearman, d = selisih rank antara
residual absolut dengan variabel
independen dan n = jumlah
observasi. Jika koefisien
korelasinya signifikan secara
statistik, berarti ada masalah
heteroskedastis.
Uji Park
Metode in menganggap bahwa
varians (s2) merupakan fungsi
variabel bebas yang dapat
dinyatakan dalam bentuk
transformasi:
Model: Ln i2 = + LnXi + vi

Uji Glejser
Uji Glejser:
Abs ei = + 1Xi +.... kXk +i

Jika variabel bebas yang diteliti


tidak mempunyai pengaruh
signifikan residual absolut ei maka
model regresi tidak mengandung
heteroskedastisitas.

Anda mungkin juga menyukai