Anda di halaman 1dari 14

MASALAH-MASALAH DALAM MODEL REGRESI LINIER

Pendahuluan
Analisis model regresi linier memerlukan dipenuhinya berbagai asumsi agar model
dapat digunakan sebagai alat prediksi yang baik. Namun tidak jarang peneliti
menghadapi masalah dalam modelnya. Berbagai masalah yang sering dijumpai dalam
analisis regresi adalah Multikolineritas, Heteroskedastisitas dan Autokorelasi.

Multikolinearitas
Salah satu asumsi yang digunakan dalam metode OLS adalah tidak ada
hubungan linier antara variabel independen. Adanya hubungan antara variabel
independen dalam satu regresi disebut dengan multikolinearitas. Multikolinearitas
terjadi hanya pada persamaan regresi berganda.
Ada kolinieritas antara X1 dan X2: X1 = X2 atau X2 = -1 X1
X1

X2

X3

X2

X3

4X1
4X1

bilangan

terjadi

perfect

(perfect
random

(tidak

multicollinearity
multicollinearity)

perfect

multicollinearity)

Jika dua variabel independen atau lebih saling mempengaruhi, masih bisa
menggunakan metode OLS untuk mengestimasi koefisien persamaan regresi dalam
mendapatkan estimator yang BLUE. Estimator yang BLUE tidak memerlukan asumsi
terbebas dari masalah Multikolinearitas. Estimator BLUE hanya berhubungan dengan
asumsi tentang variabel gangguan. Ada dua asumsi penting tentang variabel gangguan
yang mempengaruhi sifat dari estimator yang BLUE.
1. Varian dari variabel gangguan adalah tetap atau konstan (homoskedastisitas)
2. TidaK adanya korelasi atau hubungan antara variable gangguan satu observasi
dengan variable gangguan observasi yang lain atau sering disebut tidak ada
masalah autokorelasi
Jika variabel gangguan tidak memenuhi kedua asumsi variabel gangguan tersebut
maka estimator yang kita dapatkan dalam metode OLS tidak lagi mengandung sifat
BLUE.

Adanya Multikolinearitas masih menghasilkan estimator yang BLUE, tetapi


menyebabkan suatu model mempunyai varian yang besar

Sifat- sifat multikolinieritas secara statistik:


1. Sempurna

=> tidak dapat ditentukan, = ( XTX )-1 XTY

2. Tidak sempurna

=> dapat ditentukan;


tetapi standard error-nya besar, 3 kurang tepat.

Tidak ada kolinieritas antara X1 dan X2: X1 = X22 atau X1 log X2


Akibat multikolinieritas:
1. Variansi besar (dan taksiran OLS)
2. Interval kepercayaan lebar (variansi besar  SE besar  Interval kepercayaan
lebar)
3. t rasio tidak signifikan,
4. R2 tinggi tetapi tidak banyak variabel yang signifikan dari uji t.

Cara mengatasi kolinieritas:

1. Melihat informasi sejenis yang ada


Konsumsi = 0 + 1 Pendapatan + 2 Kekayaan + u
Misalnya : 2 = 0,25 1

2. Tidak mengikutsertakan salah satu variabel yang kolinier


Dengan menghilangkan salah satu variabel yang kolinier dapat menghilangkan
kolinieritas pada model. Akan tetapi, ada kalanya pembuangan salah satu variabel
yang kolinier menimbulkan specification bias yaitu salah spesifikasi kalau
variabel yang dibuang merupakan variabel yang sangat penting.
3. Mentransforinasikan variabel
Yt = 1 + 2X2t + 3X3t + ut
Yt-1 = 1 + 2X2t-1 + 3X3t-1 + ut-1
(Yt Yt-1) = 2 (X2t X2t-1) + 3 (X3t X3t-1) + (ut ut-1)
Yt* = 2X2t* + 3X3t* + ut*

4. Mencari data tambahan


Dengan tambahan data, kolineritas dapat berkurang, tetapi dalam praktek tidak
mudah untuk mencari tambahan data.

5. Cara-cara lain: transformasi eksponensial dan logaritma

APLIKASI EVIEWS
Dependent Variable: IHSG
Method: Least Squares
Date: 07/10/11 Time: 22:38
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
DJIA
SBI
KURS
INF

26.45235
0.725756
-0.319151
-2.469224
0.041571

7.500357
0.219194
0.163398
0.714175
0.010092

3.526812
3.311015
-1.953215
-3.457449
4.119047

0.0031
0.0048
0.0697
0.0035
0.0009

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.944660
0.929903
0.042971
0.027697
37.44269
1.611971

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

8.037632
0.162302
-3.244269
-2.995336
64.01300
0.000000

Estimation Equation:
=====================
IHSG = C(1) + C(2)*DJIA + C(3)*SBI + C(4)*KURS + C(5)*INF
Substituted Coefficients:
=====================
IHSG = 26.45235239 + 0.7257556584*DJIA - 0.3191514431*SBI - 2.469223716*KURS +
0.04157097176*INF

Correlation Matriks
DJIA
DJIA
1
IHSG
0.841957
INF
0.675991
KURS
-0.785818
SBI
0.755592
INF = F ( IHSG, ..)

IHSG
0.841957
1
0.890700
-0.879735
0.562711

INF
0.6759917
0.8907004
1
-0.7340958
0.42553243

KURS
-0.7858188
-0.8797351
-0.7340958
1
-0.7083243

Dependent Variable: INF


Method: Least Squares
Date: 07/10/11 Time: 22:52
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
IHSG
DJIA
SBI
KURS

-190.3878
12.76755
-5.460703
1.399196
14.11205

170.8450
3.099637
4.853140
3.186688
16.37712

-1.114389
4.119047
-1.125190
0.439075
0.861693

0.2826
0.0009
0.2782
0.6669
0.4024

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.821028
0.773302
0.753066
8.506630
-19.82991
1.249816

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

5.095500
1.581646
2.482991
2.731924
17.20299
0.000018

Regresi Auxiliary
DJIA = F(KURS, SBI, INF)
Dependent Variable: DJIA
Method: Least Squares
Date: 07/11/11 Time: 22:18
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
KURS
SBI
INF

12.47113
-0.756840
0.393026
0.017192

7.966069
0.792265
0.158356
0.010678

1.565531
-0.955286
2.481921
1.610041

0.1370
0.3536
0.0246
0.1269

SBI
0.75559279
0.56271160
0.42553243
-0.70832435
1

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.739220
0.690324
0.049010
0.038432
34.16726
1.310918

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

8.233119
0.088071
-3.016726
-2.817580
15.11813
0.000063

KURS = F(DJIA, SBI, INF)


Dependent Variable: KURS
Method: Least Squares
Date: 07/11/11 Time: 22:20
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
DJIA
SBI
INF

10.35601
-0.071294
-0.093818
-0.007411

0.436444
0.074631
0.052168
0.003008

23.72817
-0.955286
-1.798382
-2.463704

0.0000
0.3536
0.0910
0.0255

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.744883
0.697048
0.015042
0.003620
57.79065
0.933317

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

9.116767
0.027329
-5.379065
-5.179919
15.57210
0.000053

SBI = F(DJIA, KURS, INF)


Dependent Variable: SBI
Method: Least Squares
Date: 07/11/11 Time: 22:21
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
DJIA
KURS
INF

17.17747
0.707272
-1.792267
-0.021753

10.64179
0.284969
0.996600
0.014452

1.614153
2.481921
-1.798382
-1.505173

0.1260
0.0246
0.0910
0.1518

R-squared
Adjusted R-squared
S.E. of regression

0.654200
0.589362
0.065746

Mean dependent var


S.D. dependent var
Akaike info criterion

6.550000
0.102598
-2.429187

Sum squared resid


Log likelihood
Durbin-Watson stat

0.069160
28.29187
1.117814

Schwarz criterion
F-statistic
Prob(F-statistic)

-2.230041
10.08983
0.000568

INF = F(DJIA, KURS, SBI)


Dependent Variable: INF
Method: Least Squares
Date: 07/11/11 Time: 22:22
Sample: 2009M10 2011M05
Included observations: 20
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
DJIA
KURS
SBI

314.0052
8.109744
-37.11079
-5.701951

168.3938
5.036978
15.06301
3.788237

1.864708
1.610041
-2.463704
-1.505173

0.0807
0.1269
0.0255
0.1518

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.618592
0.547078
1.064440
18.12851
-27.39631
0.709709

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

5.095500
1.581646
3.139631
3.338777
8.649945
0.001215

Heteroskedastisitas (Heteroscedasticity)
Metode OLS baik model regresi sederhana maupun berganda mengasumsikan bahwa
variabel gangguan (ui) mempunyai rata-rata nol atau E(ui) = 0, mempunyai varian
yang konstan atau Var (ui) = 2 dan variabel gangguan tidak saling berhubungan
antara satu observasi dengan observasi lainnya atau Cov (ui ,uj ) = 0.

Salah satu asumsi yang harus dipenuhi dalam model OLS adalah varian
bersifat homoskedastisitas atau Var (ui) = 2. Dalam kenyataannya seringkali varian
variabel gangguan adalah tidak konstan atau disebut dengan heteroskedastisitas

Catatan:
Data cross-sectional cenderung untuk bersifat heteroscedastic karena pengamatan
dilakukan

pada

individu

yang

berbeda

pada

saat

yang

sama.

Dampak Heteroskedastisitas terhadap OLS


1. Estimator metode OLS masih linier
2. Estimator metode OLS masih tidak bias
3. Namun estimator metode OLS tidak lagi mempunyai varian yang menimum
dan terbaik (no longer best)

Cara

mengatasi

dikalikan

j j
Maka

dengan

Metode

GLS

dengan Var (uj) = j2

Yj = 1 + 2Xj + uj
masing-masing

heteroskedastisitas

diperoleh

Yj
j

=
j

transformed

Xj

uj

j
model

sebagai

berikut:

Yi* = 1* + 2Xi* + ui*


Kita

periksa

dulu

apakah

ui *

homoskedastis?

E (ui*) = E ui = 1 E(ui) = 1 (i2) = 1 konstan


i i2

i2

Dengan demikian ui homoskedastis.


Kita akan menaksir transformed model dengan OLS dan taksiran yang diperoleh akan
BLUE, sedangkan model ash yang belum ditransformasikan (original model) bila

ditaksir dengan OLS, taksirannya tidak BLUE. Prosedur yang menaksir transformed
model dengan OLS disebut metode Generalized Least Square (GLS).

Dampak

OLS

(i)

variansi

(ii)

uji

(iii)

bila

ada

dan

taksiran

t
interval

heteroskedastisitas

dan

kepercayaan

lebih

besar

kurang

akurat

sangat

besar

(iv) kesimpulan yang kita ambil dapat salah

Cara mendeteksi adanya heteroskedastisitas

tidak mudah mendeteksinya : intuisi, studi terdahulu, dugaan

Bila kita menggunakan data cross-section yang sangat heterogen untuk melihat total
penjualan dan perusahaan kecil, menengah dan sangat besar, sudah dapat diduga
bahwa akan ada masalah heteroskedastisitas.
Uji

Park

Lakukan

langkah-langkah

berikut:

In ui2 = + In Xi + vi; ui : error term regresi : Yi = 0 + 0Xi + ui


Bila

secara

statistik

signifikan,

maka

ada

heteroskedastisitas

Uji Goldfeld Quandt


Metode Goldfeld Quandt sangat populer untuk digunakan, namun agak repot.

Langkah-langkah pada metode ini adalah sebagai berikut:


1. Urutkan pengamatan berdasarkan nilai X dan kecil ke besar
2.

Abaikan pengamatan sekitar median, katakanlah sebanyak c pengamatan

3. Sisanya, masih ada (N c) pengamatan


4. Lakukan regresi pada pengamatan ( N c ) yang pertama. Hitung RSS1,
Residual Sum of Squares pertama

5. Lakukan regresi pada pengamatan ( N c )yang kedua. Hitung RSS2,


Residual Sum of Squares yang kedua
6. Hitung = RSS2 /df2
RSS1 /df1

df=

degrees

of

freedom

derajat

bebas

df = banyaknya pengamatan dikurangi banyaknya parameter yang ditaksir


7. Lakukan uji F
Bila > F, kita tolak hipotesis yang mengatakan data mempunyai variansi yang
homoskedastis

Aplikasi Eviews
White Heteroskedasticity Test:
F-statistic
Obs*R-squared

8.213817
39.41211

Probability
Probability

0.000000
0.000010

Test Equation:
Dependent Variable: RESID^2
Method: Least Squares
Date: 07/10/11 Time: 23:30
Sample: 2005M07 2011M07
Included observations: 73
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
DJIA
DJIA^2
DJIA*SBI
DJIA*KURS
SBI
SBI^2
SBI*KURS
KURS
KURS^2

-217.2862
5.286349
0.122153
-0.023761
-0.775775
-0.565149
0.000238
0.082797
43.15816
-2.041863

63.35708
2.125101
0.035783
0.004767
0.233489
0.291609
0.000734
0.033525
12.36109
0.595189

-3.429548
2.487575
3.413773
-4.984095
-3.322530
-1.938035
0.323423
2.469709
3.491453
-3.430614

0.0011
0.0155
0.0011
0.0000
0.0015
0.0571
0.7474
0.0162
0.0009
0.0011

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.539892
0.474162
0.016707
0.017585
200.5044
1.690539

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

0.015307
0.023040
-5.219298
-4.905536
8.213817
0.000000

Autokorelasi
Secara harfiah autokorelasi berarti adanya korelasi antara anggota observasi
satu dengan observasi yang lain yang berlainan waktu. Dalam kaitannya dengan
asumsi metode OLS, autokorelasi merupakan korelasi antara satu variabel gangguan
dengan variabel gangguan yang lain. Sedangkan salah satu asumsi penting metode
OLS berkaitan dengan variabel gangguan adalah tidak adanya hubungan antara
variabel gangguan satu dengan variabel gangguan yang lain. Tidak adanya serial
korelasi antara variabel gangguan ini sebelumnya dinyatakan:
Tidak ada korelasi bila E ( ui, uj ) = 0 ; i j
Jika Ada autokorelasi bila E ( ui, uj ) 0 ; i j
Autokorelasi dapat berbentuk autokorelasi positif dan autokorelasi negatif. Dalam
analisis runtut waktu, lebih besar kemungkinan terjadi autokorelasi positif, karena
variabel yang dianalisis biasanya mengandung kecenderungan meningkat, misalnya
IHSG dan Kurs

Autokorelasi terjadi karena beberapa sebab. Menurut Gujarati (2006), beberapa


penyebab autokorelasi adalah:
1. Data mengandung pergerakan naik turun secara musiman, misalnya IHSG
kadang menaikan dan kadang menurun
2. Kekeliruhan memanipulasi data, misalnya data tahunan dijadikan data
kuartalan dengan membagi empat
3. Data runtut waktu, yang meskipun bila dianalis dengan model yt = a + b xt + et
karena datanya bersifat runtut, maka berlaku juga yt-1 = a + b xt-1 + et-1.
Dengan demikian akan terjadi hubungan antara data sekarang dan data periode
sebelumnya
4. Data yang dianalisis tidak bersifat stasioner

Pengaruh Autokorelasi
Apabila data yang kita analisis mengandung autokorelasi, maka estimator yang kita
dapatkan memiliki karakteristik berikut ini:
a. Estimator metode kuadrat terkecil masih linier

b. Estimator metode kuadrat terkecil masih tidak bias


c. Estimator metode kuadrat terkecil tidak mempunyai varian yang menimum (no
longer best)
Dengan demikian, seperti halnya pengaruh heteroskedastisitas, autokorelasi juga akan
menyebabkan estimator hanya LUE, tidak lagi BLUE.

Kasus ada autokorelasi


(i) Jika pendapatan keluarga i meningkat, konsumsi keluarga i meningkat, dan
konsumsi keluarga j ikut rneningkat pula; i j
(ii) Fenomena Cob Web : Supply tergantung dan harga komoditas periode lalu
(Supply)t = i + 2 Pt-1 + Ut

Estimasi

Yt

OLS

pada

saat

ada

2Xt

autokorelasi

ut ;

E (ut, ut+s) 0, berarti ut dan ut+s berautokorelasi ; misalkan : Ut = p Ut-1 + t


Apakah 1 dan 2 BLUE? (tidak, karena variansinya tidak minimum lagi)
Oleh

karena

itu,

gunakan

GLS

pada

saat

terjadi

autokorelasi

Mengindentifikasi Autokorelasi
Uji Durbin-Watson (Uji D-W)
Uji D-W merupakan salah satu uji yang banyak dipakai untuk mengetahui ada
tidaknya autokorelasi. Hampir semua program statistic sudah menyediakan fasilitas
untuk menghitung nilai d (yang menggambarkan koefisien DW). Nilai d akan berada
di kisaran 0 hingga 4.
Jika nilai d berada antara 0 sampai 1,10  Tolak Ho, berarti ada autokorelasi positif
Jika nilai d berada antara 1,10 sampai 1,54  Tidak dapat diputuskan
Jika nilai d berada antara 1,54 sampai 2,46  Tidak menolak Ho, berarti tidak ada
autokorelasi
Jika nilai d berada antara 2,46 sampai 2,90  Tidak dapat diputuskan
Jika nilai d berada antara 2,90 sampai 4 Tolak Ho, berarti ada autokorelasi negatif

p = koefisien autokorelasi. -1 p 1. Sehingga: 0 d 4

Pada saat p = 0, d = 2, artinya tidak ada korelasi

Pada saat p = 1, d = 0, artinya ada korelasi positif

Pada saat p = -1, d 4, artinya ada korelasi negatif

Pengamatan kasar:
Bila d dekat dengan 2, p akan dekat dengan nol, jadi tidak ada korelasi.
Ada uji yang lebih spesifik, menggunakan Tabel Durbin-Watson dengan
melihat nilai dL dan dU
Meskipun Uji D-W ini relatif mudah, tetapi ada beberapa kelemahan yang harus
diketahui. Kelemahan-kelemahan tersebut adalah sebagai berikut:
a. Uji D-W hanya berlaku bila variabel independennya bersifat random
(stokastik)
b. Bila model yang dianalisis menyertakan data yang didiferensi,
misalnya model auotoregressive AR(p), uji D-W hanya berlaku pada
AR(1), sedang pada AR(2) dan seterusnya, uji D-W tidak dapat
digunakan
c. Uji D-W tidak dapat digunakan pada model rata-rata bergerak (moving
average).

Uji Breusch-Godfrey (Uji BG)


Nama lain dari uji BG adalah Uji Lagrange-Multiplier. Dari nilai probability
lebih kecil dari = 5% yang mengindikasikan bahwa data mengandung masalah
autokorelasi

Breusch-Godfrey Serial Correlation LM Test:


F-statistic
Obs*R-squared

29.37420
31.46826

Test Equation:
Dependent Variable: RESID
Method: Least Squares

Probability
Probability

0.000000
0.000000

Date: 10/03/10 Time: 07:34


Presample missing value lagged residuals set to zero.
Variable

Coefficient

Std. Error

t-Statistic

Prob.

C
KURS
SBI
RESID(-1)
RESID(-2)

-179.5515
0.017865
1.146495
0.818412
-0.145856

295.7918
0.028261
10.80750
0.131428
0.133078

-0.607020
0.632125
0.106083
6.227057
-1.096014

0.5462
0.5298
0.9159
0.0000
0.2777

R-squared
Adjusted R-squared
S.E. of regression
Sum squared resid
Log likelihood
Durbin-Watson stat

0.507553
0.472995
168.4713
1617807.
-403.2271
1.551782

Mean dependent var


S.D. dependent var
Akaike info criterion
Schwarz criterion
F-statistic
Prob(F-statistic)

1.07E-12
232.0697
13.16862
13.34016
14.68710
0.000000

Cara pengobatan Autokorelasi

Secara umum susah untuk mengatasinya. Transformasi logaritma dapat mengurangi


korelasi. Hanya saja, kadang-kadang data-data yang dianalisis ada data yang negatif
sehingga kita tidak dapat melakukan transformasi logaritma.

Kalau kita tahu atau dapat menduga bahwa hubungan korelasinya adalah spesifik,
misalnya ut = p ut-1 + t dan p dapat dihitung/dicari atau diketahui, maka kita dapat
rnenggunahan GLS untuk mencari taksiran yang BLUE (Best Linear Unbiased
Estimator).

Anda mungkin juga menyukai