Anda di halaman 1dari 14

Kelompok

Risnawati
Iif istifaiyah
Jefri Afrianto
Maidah Alfuadiyah
Fahmi

PENDAHULUAN
Analisis Regresi merupakan anlisis yang
mempelajari bagaimana membangun sebuah model
fungsional dari data untuk dapat menjelaskan
ataupun meramalkan suatu fenomena alami atas
dasar fenomena yang lain. Dalam statistika sebuah
model regresi dikatakan baik atau cocok, jika
dipenuhi asumsi-asumsi ideal (klasik), yakni tidak
adanya autokolerasi, heteroskedastisitas dan
multikolinearitas sehingga proses kontrol terhadap
model perlu dilakukan untuk menelaah dipenuhi
tidaknya asumsi tersebut.
Definisi dan Sifat Dasar
Multikolinearitas
Istilah Multikolinearitas pertama kali
ditemukan oleh Ragnar Frisch yang berarti
adanya hubungan linear yang sempurna
atau pasti diantara beberapa atau semua
variabel bebas dari model regresi berganda.
Multikolinearitas berkenaan dengan
terdapatnya lebih dari satu hubungan linear
pasti. Multikolinearitas menyebabkan regresi
tidak efisien atau penyimpangannya besar (
Gujarati, 1978).
Sempurna


Tidak Sempurna

Dari prinsip matematika matriks,
kita mengetahui bahwa jika
sistem persamaan mengalami
kondisi ketidakbebasan secara
linear maka sistem persamaan
tersebut tidak akan memiliki
solusi. Inilah yang terjadi jika
variabel bebas yang ada pada
model mengalami
multikolinearitas sempurna selain
itu, konsekuensi multikolinearitas
sempurna yaitu nilai koefisen
regresi diperoleh bentuk tak tentu
dan ragam koefisien regresi tak
dapat didefinisikan. Sedangkan
jika multikolinearitas adalah tidak
sempurna, maka kesulitan yang
terjadi adalah kesulitan dalam
inferensi karena standar error
yang bersifat variabel.
Sifat Dasar
Penyebab Multikolinearitas
Cara pengambilan data dan kecilnya ukuran sampel.
Pembatas pada model atau populasi yang disampel.
Misalkan kita meregresikan konsumsi listrik terhadap
pendapatan dan ukuran rumah. Disini populasi dari sampel
memiliki karakteristik kolinearitas dimana individu yang memiliki
pendapatan tinggi umumnya memiliki rumah berukuran besar.
Spesifikasi model
Penambahan polinomial berpotensi menimbulkan masalah
multikolinearitas terutama jika range nilai x yang dimiliki kecil.
Model yang overdetermined
Hal ini terjadi jika model dimaksud memiliki lebih banyak
variabel dibandingkan jumlah sampel (umumnya pada penelitian
medis).
Cammond Trend
terutma jika menggunakan data time series banyak variabel
seperti GDP, konsumsi agregat , PMA , dan lain lain dimana
variabel tersebut bergerak searah berdasarkan waktu .

Dampak Multikolinearitas
Varians besar (dari taksiran OLS).
Interval kepercayaan lebar (Variansi besar
mengakibatkan standar error besar
sehingga interval kepercayaan lebar).
R kuadrat tinggi tetapi tidak banyak variabel
yang signifikan dari uji t.
Terkadang taksiran koefisien yang didapat
akan mempunyai nilai yang tidak sesuai
dengan seubtansi sehingga dapat
menyesatkan interpretasi.
Pengindentifikasian
Multikolinearitas
Ciri-ciri yang sering ditemui apabila model
regresi linear mengalami multikolinearitas
Terjadi perubahan yang berarti pada koefisien
model regresi (misal nilainya menjadi lebih besar
atau kecil) apabila dilakukan penambahan atau
pengeluaran sebuah variabel bebas dari model
regresi.
Diperoleh nila R-square yang besar sedangkan
koefisien regresi tidak signifikan pada uji parsial.
Tanda(+ atau -) pada koefisien model regresi
berlawanan dengan yang disebutkan dalam teori
(logika).misal, pada teori (logika) seharusnya b1
(+) namun yang diperoleh justru bertanda (-).
Nilai standart untuk koefisien regresi berubah
menjadi besar dari yang sebenarnnya atau
overestimated.
Identifikasi Gejala
Multikolinearitas
Menghitung koefisien korelasi sederhana (Simple
Correlation) antara sesama variabel bebas.
Menghitung nilai VIF (Varians Inflation Factor).
Menghitung nilai TOL (Toleransi).
lakukan regresi antar variabel bebas, kemudian
lakukan uji F dan bandingkan dengan F tabel.
Menghitung nilai Eigen atau Eigenvalues dan
indeks kondisi (IK) atau Conditional Index (CI).
Tindakan Perbaikan
Informasi Aprori.
Menghubungkan data Cross-Sectional dan time series.
Mengeluarkan suatu variabel atau variabel-variabel dan
bias spesifikasi.
Transformasi variabel dengan cara diferensiasi.
Penambahan data baru.
Transformasi eksponensial dan logaritma.
Tidak melakukan apa-apa karena R kuadrat tinggi dan F
hitung signifikan.
Mengurangi regresi dalam bentuk fungsi polynomial.
Menggunakan regresi komponen utama.
Menggunakan regresi ridge, forward combination analysis,
backward combination analysis, dan lain-lain.


Contoh Multikolinearitas

Anda mungkin juga menyukai