Anda di halaman 1dari 16

MULTIKOLINEA

RITAS
Oleh : Kelompok 6
Pembahasan
1 Pengertian Multikolinearitas

Penyebab adanya
2
Multikolinearitas

3 Dampak dari Multikolinearitas

Cara mendeteksi dan


4
mengatasi Multikolinearitas
Pengertian
Multikolinearitas
• Istilah multikolinearitas (kolinearitas ganda) pertama kali ditemukan oleh Ragnar Frisch, yang
berarti adanya hubungan linear yang sempurna atau pasti di antara beberapa atau semua
variabel penjelas (bebas) dari model regresi ganda.
• Tujuan uji multikolinearitas adalah menguji apakah model regresai ditemukan adanya korelasi
antara variabel bebas (independent).
• Syarat pengambilan keputusan multikolinearitas:
1. Dengan melihat koefesien korelasi antar variabel bebas : jika koefisien korelasi antar variable
bebas ≥ 0,7 maka terjadi multikolinear.
2. Jika nilai tolerance lebih besar dari 0,10 maka artinya tidak terjadi multikolinieritas terhadap
data yang di uji. Sebaliknya jika nilai tolerance lebih kecil dari 0,10 maka artinya terjadi
multikolinearitas terhadap data yang diuji.
3. Dengan melihat nilai VIF (varian infloating faktor) : jika nilai VIF ≤ 10,00 maka tidak terjadi
multikolinearitas, sebaliknya jika nilai VIF lebih besar dari 10, maka artinya terjadi
multikolonearitas terhadap data yang diuji.
4. Hipotesis (H0 : tidak terdapat hubungan kolinearitas, H1 : terdapat hubungan kolinearitas)
5. Tolak H0 jika nilai R22 > 0,80; Tolak H0 jika nilai VIF >10; Tolak H0 jika nilai tolerance < dari 0,10
Penyebab
Adanya
Multikolinearitas
● Menurut G. Sumodiningrat masalah multikolinearitas bisa timbul karena
berbagai sebab, antara lain:
1. Terdapat kecenderungan variabel ekonomi bergerak secara bersama-sama
sepanjang waktu. Misalnya penghasilan, tabungan, konsumsi, harga-harga,
dan kesempatan kerja cenderung meningkat dalam masa-masa makmur dan
menurun dalam periode depresi.
2. Penggunaan nilai lag dari variable-variabel tertentu dalam model regresi.
Untuk menaksir fungsi konsumsi misalnya, penghasilan di masa lalu juga
dimasukkan sebagai variable bebas tersendiri disamping penghasilan masa
lalu dan penghasilan masa sekarang.
● penyebab lainnya yang dapat menyebabkan hal tersebut secara tidak
langsung adalah, antara lain:
1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan
lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy
di dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel
bebas lainnya di dalam model.
3. Adanya pengulangan variabel bebas di dalam model.
Dampak
dari
Multikolinearitas
● Adanya multikolinearitas dapat menghasilkan penduga yang bersifat
tidak bias, tapi dapat menyebabkan suatu model regresi berganda
mempunyai varians dan standar error yang besar.
● Dapat dilihat dari persamaan-persamaan berikut ini:
• Gambar berikut ini menunjukkan perbandingan distribusi β yang
mengandung multikolinearitas dan distribusi tidak mengandung
multikolinearitas.

• Kedua distribusi β memiliki nilai rata-rata yang sama sehingga


multikolinearitas ini tidak menyebabkan bias. Karena nilai varians yang
dihasilkan semakin tinggi mengakibatkan melebarnya distribusi β.
Apabila nilai varians meningkat maka nilai standar deviasi dari data
tersebut akan cenderung meningkat.
• Multikolinearitas juga akan mengakibatkan hasil-hasil dugaan menjadi peka
terhadap perubahan-perubahan yang kecil.
Cara Mendeteksi
dan Mengatasi
Multikolinearitas
Cara mendeteksi Multikolinearitas
• Menurut Gujarati (1978) gejala multikolinearitas ini dapat dideteksi dengan
beberapa cara antara lain :
1. Menghitung koefisien korelasi sederhana (simple correlation) antara sesama
variabel bebas, jika terdapat koefisien korelasi sederhana yang mencapai atau
melebihi 0,8 maka hal tersebut menunjukkan terjadinya masalah
multikolinearitas dalam regresi.
2. Menghitung nilai Toleransi atau VIF (Variance Inflation Factor), jika nilai
Toleransi kurang dari 0,1 atau nilai VIF melebihi 10 maka hal tersebut
menunjukkan bahwa multikolinearitas adalah masalah yang pasti terjadi antar
variabel bebas.
3. TOL yakni ukuran toleransi untuk mendeteksi multikolinearitas
4. Lakukan regresi antar variabel bebas, kemudian melakukan uji–F dan
bandingkan dengan F tabel. Jika nilai F hitung melebihi nilai F table berarti
dapat dinyatakan bahwa Xi kolinear dengan X yang lain.
5. Dengan Nilai Eigen dan Indeks Kondisi (IK). Output SAS dari F. Produksi Cobb
douglas menggunakan nilai eigen dan Indeks Kondisi untuk mengdiagnosis
multikolinearitas.
Cara mengatasi Multikolinearitas
Ada beberapa cara untuk mengatasi multikolinearitas yaitu
antara lain:
Regresi stepwise adalah salah satu metode untuk mendapatkan
model terbaik dari sebuah analisis regresi. Pada regresi ini, variabel

1 yang pertama kali masuk adalah variabel yang korelasinya tertinggi


dan signifikan dengan variabel dependen, variabel yang masuk kedua
adalah variabel yang korelasi parsialnya tertinggi dan signifikan.
Setelah variabel tertentu masuk ke dalam model regresi ini, maka
variabel lain yang ada didalam model dievaluasi. Jika ada variabel
yang tidak signifikan maka variabel tersebut dikeluarkan.
Regresi Ridge merupakan salah satu cara yang digunakan

2
untuk mengatasi multikolinearitas (kekolinearan ganda) dalam
analisis regresi linear berganda. Regresi Ridge ini didapat dengan
cara memodifikasi metode kuadrat terkecil sehingga menghasilkan
penduga parameter yang lain dalam analisis regresi linear berganda
yang mempunyai sifat bias. Apabila suatu penduga mempunyai
bias yang kecil, tetapi penduga ini mempunyai ketelitian yang
lebih baik dalam menduga parameter dibandingkan penduga
yang tidak bias, kemungkinan penduga yang bias ini
mempunyai peluang yang lebih besar daripada penduga yang
tidak bias untuk menduga parameter yang sebenarnya.
Regresi Komponen Utama, merupakan gabungan antara Analisis

3
Komponen Utama (Principal Component Analysis) dan metode
Kuadrat Terkecil (Least Squares Method) yang bertujuan untuk
mencari suatu model regresi linear berganda yang tidak mengandung
multikolinearitas. Regresi ini juga bertujuan untuk menyederhanakan
variabel yang diamati dengan cara menyusutkan (mereduksi)
dimensi suatu data pengamatan tanpa mengurangi sifat/karakteristik
data tersebut secara signifikan. Hal ini dilakukan untuk
menghilangkan korelasi antar variabel bebas melalui transformasi
variabel asli ke variabel baru yang tidak berkorelasi sama sekali.
Thanks
Do you have any questions?

CREDITS: This presentation template was created by Slidesgo, including


icons by Flaticon, infographics & images by Freepik

Anda mungkin juga menyukai