Pendahuluan
Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model
dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti
menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam
analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.
Multikolinearitas
Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada
hubungan linier antara variabel independen. Adanya hubungan antara variabel
independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas
terjadi hanya pada persamaan regresi berganda.
Ada kolinieritas antara X1 dan X2: X1 = X2 atau X2 = -1 X1
X1
X2
X3
X2
X3
4X1
4X1
bilangan
terjadi
perfect
(perfect
random
(tidak
multicollinearity
multicollinearity)
perfect
multicollinearity)
Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa
menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam
mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi
terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan
asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan
yang mempengaruhi sifat dari estimator yang BLUE.
1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas)
2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi
dengan variable gangguan observasi yang lain atau sering disebut tidak ada
masalah autokorelasi
Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut
maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat
BLUE.
2. Tidak sempurna
APLIKASI EVIEWS
Dependent Variable: IHSG
Method: Least Squares
Date: 07/10/11 Time: 22:38
Sample: 2009M10 2011M05
Included observations: 20
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
SBI
KURS
INF
26.45235
0.725756
-0.319151
-2.469224
0.041571
7.500357
0.219194
0.163398
0.714175
0.010092
3.526812
3.311015
-1.953215
-3.457449
4.119047
0.0031
0.0048
0.0697
0.0035
0.0009
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.944660
0.929903
0.042971
0.027697
37.44269
1.611971
8.037632
0.162302
-3.244269
-2.995336
64.01300
0.000000
Estimation Equation:
=====================
IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS + C(5)*INF
Substituted Coefficients:
=====================
IHSG = 26.45235239 + 0.7257556584*DJIA - 0.3191514431*SBI - 2.469223716*KURS +
0.04157097176*INF
Correlation Matriks
DJIA
DJIA
1
IHSG
0.841957
INF
0.675991
KURS
-0.785818
SBI
0.755592
INF = F ( IHSG, ..)
IHSG
0.841957
1
0.890700
-0.879735
0.562711
INF
0.6759917
0.8907004
1
-0.7340958
0.42553243
KURS
-0.7858188
-0.8797351
-0.7340958
1
-0.7083243
Coefficient
Std. Error
t-Statistic
Prob.
C
IHSG
DJIA
SBI
KURS
-190.3878
12.76755
-5.460703
1.399196
14.11205
170.8450
3.099637
4.853140
3.186688
16.37712
-1.114389
4.119047
-1.125190
0.439075
0.861693
0.2826
0.0009
0.2782
0.6669
0.4024
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.821028
0.773302
0.753066
8.506630
-19.82991
1.249816
5.095500
1.581646
2.482991
2.731924
17.20299
0.000018
Regresi Auxiliary
DJIA = F(KURS, SBI, INF)
Dependent Variable: DJIA
Method: Least Squares
Date: 07/11/11 Time: 22:18
Sample: 2009M10 2011M05
Included observations: 20
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
SBI
INF
12.47113
-0.756840
0.393026
0.017192
7.966069
0.792265
0.158356
0.010678
1.565531
-0.955286
2.481921
1.610041
0.1370
0.3536
0.0246
0.1269
SBI
0.75559279
0.56271160
0.42553243
-0.70832435
1
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.739220
0.690324
0.049010
0.038432
34.16726
1.310918
8.233119
0.088071
-3.016726
-2.817580
15.11813
0.000063
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
SBI
INF
10.35601
-0.071294
-0.093818
-0.007411
0.436444
0.074631
0.052168
0.003008
23.72817
-0.955286
-1.798382
-2.463704
0.0000
0.3536
0.0910
0.0255
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.744883
0.697048
0.015042
0.003620
57.79065
0.933317
9.116767
0.027329
-5.379065
-5.179919
15.57210
0.000053
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
KURS
INF
17.17747
0.707272
-1.792267
-0.021753
10.64179
0.284969
0.996600
0.014452
1.614153
2.481921
-1.798382
-1.505173
0.1260
0.0246
0.0910
0.1518
R-squared
Adjusted R-squared
S.E. of regression
0.654200
0.589362
0.065746
6.550000
0.102598
-2.429187
0.069160
28.29187
1.117814
Schwarz criterion
F-statistic
Prob(F-statistic)
-2.230041
10.08983
0.000568
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
KURS
SBI
314.0052
8.109744
-37.11079
-5.701951
168.3938
5.036978
15.06301
3.788237
1.864708
1.610041
-2.463704
-1.505173
0.0807
0.1269
0.0255
0.1518
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.618592
0.547078
1.064440
18.12851
-27.39631
0.709709
5.095500
1.581646
3.139631
3.338777
8.649945
0.001215
Heteroskedastisitas (Heteroscedasticity)
Metode OLS baik model regresi sederhana maupun berganda mengasumsikan bahwa
variabel gangguan (ui) mempunyai rata-rata nol atau E(ui) = 0, mempunyai varian
yang konstan atau Var (ui) = 2 dan variabel gangguan tidak saling berhubungan
antara satu observasi dengan observasi lainnya atau Cov (ui ,uj ) = 0.
Salah satu asumsi yang harus dipenuhi dalam model OLS adalah varian
bersifat homoskedastisitas atau Var (ui) = 2. Dalam kenyataannya seringkali varian
variabel gangguan adalah tidak konstan atau disebut dengan heteroskedastisitas
Catatan:
Data cross-sectional cenderung untuk bersifat heteroscedastic karena pengamatan
dilakukan
pada
individu
yang
berbeda
pada
saat
yang
sama.
Cara
mengatasi
dikalikan
j j
Maka
dengan
Metode
GLS
Yj = 1 + 2Xj + uj
masing-masing
heteroskedastisitas
diperoleh
Yj
j
=
j
transformed
Xj
uj
j
model
sebagai
berikut:
periksa
dulu
apakah
ui *
homoskedastis?
i2
ditaksir dengan OLS, taksirannya tidak BLUE. Prosedur yang menaksir transformed
model dengan OLS disebut metode Generalized Least Square (GLS).
Dampak
OLS
(i)
variansi
(ii)
uji
(iii)
bila
ada
dan
taksiran
t
interval
heteroskedastisitas
dan
kepercayaan
lebih
besar
kurang
akurat
sangat
besar
Bila kita menggunakan data cross-section yang sangat heterogen untuk melihat total
penjualan dan perusahaan kecil, menengah dan sangat besar, sudah dapat diduga
bahwa akan ada masalah heteroskedastisitas.
Uji
Park
Lakukan
langkah-langkah
berikut:
secara
statistik
signifikan,
maka
ada
heteroskedastisitas
df=
degrees
of
freedom
derajat
bebas
Aplikasi Eviews
White Heteroskedasticity Test:
F-statistic
Obs*R-squared
8.213817
39.41211
Probability
Probability
0.000000
0.000010
Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 07/10/11 Time: 23:30
Sample: 2005M07 2011M07
Included observations: 73
Variable
Coefficient
Std. Error
t-Statistic
Prob.
C
DJIA
DJIA^2
DJIA*SBI
DJIA*KURS
SBI
SBI^2
SBI*KURS
KURS
KURS^2
-217.2862
5.286349
0.122153
-0.023761
-0.775775
-0.565149
0.000238
0.082797
43.15816
-2.041863
63.35708
2.125101
0.035783
0.004767
0.233489
0.291609
0.000734
0.033525
12.36109
0.595189
-3.429548
2.487575
3.413773
-4.984095
-3.322530
-1.938035
0.323423
2.469709
3.491453
-3.430614
0.0011
0.0155
0.0011
0.0000
0.0015
0.0571
0.7474
0.0162
0.0009
0.0011
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.539892
0.474162
0.016707
0.017585
200.5044
1.690539
0.015307
0.023040
-5.219298
-4.905536
8.213817
0.000000
Autokorelasi
Secara harfiah autokorelasi berarti adanya korelasi antara anggota observasi
satu dengan observasi yang lain yang berlainan waktu. Dalam kaitannya dengan
asumsi metode OLS, autokorelasi merupakan korelasi antara satu variabel gangguan
dengan variabel gangguan yang lain. Sedangkan salah satu asumsi penting metode
OLS berkaitan dengan variabel gangguan adalah tidak adanya hubungan antara
variabel gangguan satu dengan variabel gangguan yang lain. Tidak adanya serial
korelasi antara variabel gangguan ini sebelumnya dinyatakan:
Tidak ada korelasi bila E ( ui, uj ) = 0 ; i j
Jika Ada autokorelasi bila E ( ui, uj ) 0 ; i j
Autokorelasi dapat berbentuk autokorelasi positif dan autokorelasi negatif. Dalam
analisis runtut waktu, lebih besar kemungkinan terjadi autokorelasi positif, karena
variabel yang dianalisis biasanya mengandung kecenderungan meningkat, misalnya
IHSG dan Kurs
Pengaruh Autokorelasi
Apabila data yang kita analisis mengandung autokorelasi, maka estimator yang kita
dapatkan memiliki karakteristik berikut ini:
a. Estimator metode kuadrat terkecil masih linier
Estimasi
Yt
OLS
pada
saat
ada
2Xt
autokorelasi
ut ;
karena
itu,
gunakan
GLS
pada
saat
terjadi
autokorelasi
Mengindentifikasi Autokorelasi
Uji Durbin-Watson (Uji D-W)
Uji D-W merupakan salah satu uji yang banyak dipakai untuk mengetahui ada
tidaknya autokorelasi. Hampir semua program statistic sudah menyediakan fasilitas
untuk menghitung nilai d (yang menggambarkan koefisien DW). Nilai d akan berada
di kisaran 0 hingga 4.
Jika nilai d berada antara 0 sampai 1,10 Tolak Ho, berarti ada autokorelasi positif
Jika nilai d berada antara 1,10 sampai 1,54 Tidak dapat diputuskan
Jika nilai d berada antara 1,54 sampai 2,46 Tidak menolak Ho, berarti tidak ada
autokorelasi
Jika nilai d berada antara 2,46 sampai 2,90 Tidak dapat diputuskan
Jika nilai d berada antara 2,90 sampai 4 Tolak Ho, berarti ada autokorelasi negatif
Pengamatan kasar:
Bila d dekat dengan 2, p akan dekat dengan nol, jadi tidak ada korelasi.
Ada uji yang lebih spesifik, menggunakan Tabel Durbin-Watson dengan
melihat nilai dL dan dU
Meskipun Uji D-W ini relatif mudah, tetapi ada beberapa kelemahan yang harus
diketahui. Kelemahan-kelemahan tersebut adalah sebagai berikut:
a. Uji D-W hanya berlaku bila variabel independennya bersifat random
(stokastik)
b. Bila model yang dianalisis menyertakan data yang didiferensi,
misalnya model auotoregressive AR(p), uji D-W hanya berlaku pada
AR(1), sedang pada AR(2) dan seterusnya, uji D-W tidak dapat
digunakan
c. Uji D-W tidak dapat digunakan pada model rata-rata bergerak (moving
average).
29.37420
31.46826
Test Equation:
Dependent Variable: RESID
Method: Least Squares
Probability
Probability
0.000000
0.000000
Coefficient
Std. Error
t-Statistic
Prob.
C
KURS
SBI
RESID(-1)
RESID(-2)
-179.5515
0.017865
1.146495
0.818412
-0.145856
295.7918
0.028261
10.80750
0.131428
0.133078
-0.607020
0.632125
0.106083
6.227057
-1.096014
0.5462
0.5298
0.9159
0.0000
0.2777
R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat
0.507553
0.472995
168.4713
1617807.
-403.2271
1.551782
1.07E-12
232.0697
13.16862
13.34016
14.68710
0.000000
Kalau kita tahu atau dapat menduga bahwa hubungan korelasinya adalah spesifik,
misalnya ut = p ut-1 + t dan p dapat dihitung/dicari atau diketahui, maka kita dapat
rnenggunahan GLS untuk mencari taksiran yang BLUE (Best Linear Unbiased
Estimator).