Anda di halaman 1dari 3

1.

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya


korelasi atau hubungan kuat antara dua variabel bebas atau lebih
dalam sebuah model regresi berganda. Model regresi yang dimaksud
dalam hal ini antara lain: regresi linear, regresi logistik, regresi data
panel dan cox regression.
2. Penyebab multikolinearitas adalahadanya korelasi atau hubungan yang kuat antara
dua variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab
lainnya yang dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain:
a. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih
beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di dalam model.
b. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas lainnya
di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model regresi anda, ada
variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam situasi tersebut bisa
dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan
X1*X2.
c. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha + Beta1 X1 +
Beta2 X1*5 + Beta3 X3 + e.

3. Multikolinieritas sempurna adalah pelanggaran Asumsi 6 (tidak ada variabel penjelas yang
memiliki fungsi linier sempurna dari variabel penjelas lainnya). Multicollinearity Sempurna
(atau Tepat). Jika dua atau lebih variabel independen memiliki hubungan linear yang tepat di
antara mereka maka kita memiliki multikolinieritas sempurna.
4. Multikolinieritas yang tidak sempurna terjadi ketika dua atau lebih regressor berkorelasi
sangat tinggi. Kenapa istilah ini? Jika dua regressor berkorelasi sangat tinggi, maka
scatterplotnya akan terlihat seperti garis lurus — mereka collinear — tetapi kecuali
korelasinya tepat ± 1, collinearity itu tidak sempurna.
5. Konsekuensi Praktis Dari Multikolinearitas

Dalam kasus multikolinearitas dekat atau tinggi, seseorang cenderung menghadapi


konsekuensi berikut:

1. Meskipun BIRU, penaksir OLS memiliki varian dan kovarians yang besar, sehingga
membuat estimasi yang tepat menjadi sulit.

2. Karena konsekuensi 1, interval kepercayaan cenderung lebih luas, yang mengarah pada
penerimaan "hipotesis nol nol" (yaitu, koefisien populasi sebenarnya adalah nol) lebih
mudah.

3. Juga karena konsekuensi 1, rasio t satu atau lebih koefisien cenderung tidak signifikan
secara statistik.

4. Meskipun rasio t satu atau lebih koefisien secara statistik tidak signifikan, R2, ukuran
keseluruhan dari goodness of fit, bisa sangat tinggi.

5. Penaksir OLS dan kesalahan standarnya bisa peka terhadap perubahan kecil dalam data.
6. Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah
dengan cara:

a. Melihat kekuatan korelasi antar variabel bebas. Jika


ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya
multikolinearitas.

b. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai
standar error > 1, maka dapat diindikasikan adanya
multikolinearitas.

c. Melihat rentang confidence interval. Jika rentang confidence


interval sangat lebar, maka dapat diindikasikan adanya
multikolinearitas.

d. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition


index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan adanya
multikolinearitas.

e. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika


nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya
multikolinearitas. Sebagian pakar menggunakan batasan
Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya
multikolinearitas. Para pakar juga lebih banyak menggunakan
nilai Tolerance dan VIF dalam menentukan adanya
Multikolinearitas di dalam model regresi linear
berganda dibandingkan menggunakan parameter-parameter yang
lainnya. Hal ini juga dalam prakteknya menggunakan SPSS, kita
sudah disuguhkan dengan hasil yang instant, dimana kita bisa
langsung lihat nilai keduanya di dalam output SPSS.

Hetoroskedastisitas

1. Uji Heteroskedastisitas adalah uji yang menilai apakah ada


ketidaksamaan varian dari residual untuk semua pengamatan
pada model regresi linear. Uji ini merupakan salah satu dari uji
asumsi klasik yang harus dilakukan pada regresi linear. Apabila
asumsi heteroskedastisitas tidak terpenuhi, maka model regresi
dinyatakan tidak valid sebagai alat peramalan.
2. Jika tetap dilakukan regresi dengan OLS (Ordinary Least Squares) pada
saat terjadi heteroskedastisitas maka akan tetap diperoleh nilai parameter
yang tidak bias.(kayaknya masih kurang)

AUTOKORELASI

1. Uji Autokorelasi adalah sebuah analisis statistik yang


dilakukan untuk mengetahui adakah korelasi variabel
yang ada di dalam model prediksi dengan perubahan
waktu. ... Uji autokorelasi di dalam model regresi linear,
harus dilakukan apabila data merupakan data time series
atau runtut waktu.
2. 1. Kesalahan model (linier – non linier)
2. Penggunaan Lag (inertia) è data observasi pada periode
sebelumnya dan periode sekarang, kemungkinan besar akan
saling ketergantungan (interdependence)
3. fenomena cobweb è Munculnya fenomena sarang laba-laba
terutama terjadi pada penawaran komoditi sektor pertanian è
Misalnya, panen komoditi permulaan tahun dipengaruhi oleh
harga yang terjadi pada tahun sebelumnya è ui tidak lagi
bersifat acak (random), tetapi mengikuti suatu pola yaitu
sarang laba-laba.
4. Tidak memasukkan variabel yang penting
5. Manipulasi data
3. A Jika kita tetap menerapkan OLS dalam situasi autokorelasi,
konsekuensi berikut yang akan terjadi.
B. Selang keyakinannya (dalam pengujian hipotesis) akan menjadi
lebar secara tak perlu dan pengujian arti (signifikansi) kurang
kuat.
C. Pengujian t dan F yang biasa tidak lagi sah, dan jika diterapkan
akan memberikan kesimpulan yang menyesatkan secara serius
mengenai arti statistik dari koefisien regresi yang ditaksir.
D. Penaksir OLS akan memberikan gambaran yang menyimpang
dari nilai populasi yang sebenarnya. Dengan perkataan lain,
penaksir OLS menjadi sensitif terhadap fluktuasi penyampelan.

Anda mungkin juga menyukai