KELOMPOK 7
DAMPAK MULTIKOLLINARITAS
Kemampuan variabel independen tambahan untuk meningkatkan prediksi variabel
dependen terkait dengan korelasinya dengan variabel dependen, dan juga korelasi antara
variabel independen tambahan dengan variabel independen. Collinearity adalah asosiasi,
diukur sebagai korelasi, antara dua variabel independen. Multikolinearitas mengacu pada
korelasi di antara tiga atau lebih variabel independen (dibuktikan ketika seseorang mengalami
kemunduran terhadap yang lain). Meskipun perbedaan yang tepat memisahkan kedua konsep
ini dalam istilah statistik. Seperti yang mungkin diharapkan, korelasi antara variabel
independen dapat memiliki dampak yang nyata pada model regresi:
Dampak multikolinearitas adalah untuk mengurangi daya prediksi variabel independen
tunggal sejauh yang dikaitkan dengan variabel independen lainnya.
Untuk memaksimalkan prediksi dari sejumlah variabel independen, peneliti harus
mencari variabel independen yang memiliki multikolinieritas rendah dengan variabel
independen lainnya tetapi juga memiliki korelasi tinggi dengan variabel dependen.
Pada saat peneliti tidak melakukan penilaian selama pemilihan variabel, maka yang perlu
diperhatikan adalah:
1. Memilih variabel tanpa pandang bulu atau
2. Memungkinkan untuk pemilihan variabel independen didasarkan hanya pada basis
empiris, beberapa prinsip dasar pengembangan model akan dilanggar. .
Kesalahan pengukuran yang bermasalah dapat diatasi melalui salah satu dari dua
pendekatan:
• Skala yang diringkas, gunakan beberapa variabel untuk mengurangi ketergantungan pada
variabel tunggal apa pun sebagai satu-satunya perwakilan dari suatu konsep.
• Pemodelan persamaan struktural secara langsung mengakomodasi kesalahan pengukuran
dalam memperkirakan efek dari variabel independen dalam setiap hubungan
ketergantungan yang ditentukan.
Keterangan:
- dfregress = Jumlah estimasi koefisien (termasuk intersepsi) - 1
- dfresidual = Ukuran sampel - Jumlah estimasi koefisien (termasuk intersepsi)
Tiga fitur penting dari rasio ini harus diperhatikan:
1. Membagi setiap jumlah kuadrat dengan derajat kebebasan (df) yang sesuai menghasilkan
estimasi varians.
2. Secara intuitif, jika rasio varians yang dijelaskan dengan yang tidak dijelaskan adalah
tinggi, variate regresi harus bernilai signifikan dalam menjelaskan variabel dependen.
3. Meskipun nilai R2 yang lebih besar menghasilkan nilai F yang lebih tinggi, peneliti harus
mendasarkan setiap penilaian signifikansi praktis yang terpisah dari signifikansi statistik.
Poin pengaruh, keluaran, dan leverage didasarkan pada satu dari empat kondisi, yang
masing-masing memiliki rangkaian tindakan korektif yang spesifik:
1. Kesalahan dalam pengamatan atau entri data: Memperbaiki dengan memperbaiki data atau
menghapus kasing.
2. Pengamatan yang valid tetapi luar biasa yang dapat dijelaskan oleh situasi luar biasa:
Pemulihan dengan menghapus kasus kecuali variabel yang mencerminkan situasi luar biasa
dimasukkan dalam persamaan regresi.
3. Pengamatan luar biasa tanpa penjelasan yang mungkin: Menghadirkan masalah khusus
karena tidak memiliki alasan untuk menghapus kasus, tetapi inklusi tidak dapat dibenarkan
juga, menyarankan analisis dengan dan tanpa pengamatan untuk membuat penilaian lengkap.
4. Pengamatan biasa dalam karakteristik individualnya tetapi luar biasa dalam kombinasi
karakteristiknya: Mengindikasikan modifikasi pada dasar konseptual model regresi dan harus
dipertahankan.
Singkatnya, koefisien beta harus digunakan hanya sebagai panduan untuk kepentingan relatif
variabel independen yang termasuk dalam persamaan dan hanya untuk variabel-variabel
dengan multikolinearitas minimal.
Masalah utama dalam menginterpretasikan varian regresi adalah korelasi antara
variabel independen. Namun dalam sebagian besar situasi, khususnya situasi yang melibatkan
data respons konsumen, beberapa tingkat multikolinearitas tidak dapat dihindari.
Pada beberapa kesempatan lain, seperti menggunakan variabel dummy untuk
mewakili variabel nonmetrik atau istilah polinomial untuk efek nonlinear, peneliti
menciptakan situasi multikolinieritas tinggi. Tugas peneliti meliputi yang berikut:
Menilai tingkat multikolinearitas.
Tentukan dampaknya pada hasil.
Terapkan solusi yang diperlukan jika perlu.
Untuk menilai multikolinieritas, kita perlu ukuran yang menyatakan sejauh mana masing-
masing variabel independen dijelaskan oleh set variabel independen lainnya. Secara
sederhana, setiap variabel independen menjadi variabel dependen dan mengalami
kemunduran terhadap variabel independen yang tersisa variabel. Adapun ukuran terhadap
multikolinearitas adalah
1. Toleransi, yang didefinisikan sebagai jumlah variabilitas dari variabel independen
yang dipilih tidak dijelaskan oleh variabel independen lainnya. Dengan demikian,
untuk setiap model regresi dengan dua atau lebih variabel independen toleransi dapat
dengan mudah didefinisikan dalam dua langkah:
a. Ambil masing-masing variabel independen, satu per satu, dan hitung R2 * —
jumlah variabel independen yang dijelaskan oleh semua dari variabel independen
lainnya dalam model regresi
b. Toleransi kemudian dihitung sebagai 1 - R2 *.
Nilai toleransi harus tinggi, yang berarti tingkat multikolinieritas yang kecil (yaitu,
variabel independen lainnya tidak secara kolektif memiliki sejumlah besar varian bersama).
2. Faktor Inflasi Varians. Ukuran yang dihitung hanya sebagai kebalikan dari nilai
toleransi. VIF mendapatkan namanya dari fakta bahwa akar kuadrat dari VIF () adalah
sejauh mana kesalahan standar telah meningkat karena multikolinieritas. VIF
menerjemahkan nilai toleransi, yang secara langsung mengungkapkan tingkat
multikolinieritas, menjadi dampak pada proses estimasi. Ketika kesalahan standar
meningkat, itu membuat interval kepercayaan di sekitar koefisien yang diperkirakan
lebih besar, sehingga membuatnya lebih sulit untuk menunjukkan bahwa koefisien
secara signifikan berbeda dari nol.
Dampak multikollinaritas yaitu Dampak pada Estimasi. Multikolinearitas dapat
memiliki efek substantif tidak hanya pada kemampuan prediksi model regresi (seperti yang
baru saja dijelaskan), tetapi juga pada estimasi koefisien regresi dan uji signifikansi
statistiknya.
1. Pertama, kasus ekstrim multikolinieritas di mana dua atau lebih variabel berkorelasi
sempurna, disebut singularitas, mencegah estimasi koefisien apa pun.
2. Ketika multikolinieritas meningkat, kemampuan untuk menunjukkan bahwa koefisien
regresi yang diperkirakan secara signifikan berbeda dari nol dapat menjadi sangat
dipengaruhi karena peningkatan kesalahan standar seperti yang ditunjukkan dalam
nilai VIF.
3. Selain memengaruhi uji statistik koefisien atau model keseluruhan, derajat
multikolinearitas yang tinggi juga dapat mengakibatkan koefisien regresi diperkirakan
salah dan bahkan memiliki tanda-tanda yang salah. Dalam beberapa kasus,
pembalikan tanda ini diharapkan dan diinginkan.
Dampak pada Penjelasan. Efek pada penjelasan terutama menyangkut kemampuan
prosedur regresi dan peneliti untuk mewakili dan memahami efek dari masing-masing
variabel independen dalam varian regresi. Ketika multikolinieritas terjadi (bahkan pada
tingkat yang relatif rendah, 30 atau lebih), proses untuk mengidentifikasi efek unik dari
variabel independen menjadi semakin sulit.
Setiap peneliti harus menentukan tingkat collinearity yang dapat diterima, karena
sebagian besar standar atau ambang batas yang direkomendasikan masih memungkinkan
untuk collinearity substansial. Beberapa pedoman yang disarankan mengikuti:
1. Ketika menilai korelasi bivariat, dua masalah harus dipertimbangkan. Pertama,
korelasi genap 0,70 (yang mewakili varians "dibagi" 50%) dapat memengaruhi
penjelasan dan estimasi hasil regresi.
2. Batas yang disarankan untuk nilai toleransi adalah. 10 (atau VIF yang sesuai 10,0),
yang sesuai dengan korelasi berganda 0,95 dengan variabel independen lainnya.
Ketika nilai-nilai pada tingkat ini ditemui, masalah multikolinieritas hampir pasti.
Namun, masalah juga cenderung pada tingkat yang jauh lebih rendah.
Solusi untuk multikolinieritas berkisar dari modifikasi varian regresi hingga penggunaan
prosedur estimasi khusus. Setelah derajat kolinearitas ditentukan, peneliti memiliki sejumlah
opsi:
1. Menghilangkan satu atau lebih variabel independen yang berkorelasi tinggi dan
mengidentifikasi variabel independen lainnya untuk membantu prediksi.
2. Gunakan model dengan variabel independen yang sangat berkorelasi hanya untuk
prediksi (mis., Jangan mencoba menafsirkan koefisien regresi), sambil mengakui
tingkat kemampuan prediksi keseluruhan yang lebih rendah.
3. Gunakan korelasi sederhana antara setiap variabel independen dan variabel dependen
untuk memahami hubungan variabel dependen-independen.
4. Gunakan metode analisis yang lebih canggih seperti regresi Bayesian (atau kasus
khusus - regresi ridge) atau regresi pada komponen utama untuk mendapatkan model
yang lebih jelas mencerminkan efek sederhana dari variabel independen.
Untuk memastikan bahwa itu mewakili populasi umum (dapat digeneralisasikan) dan
sesuai untuk situasi di mana ia akan digunakan (transferability). Pedoman terbaik adalah
sejauh mana model regresi cocok dengan model teoritis yang ada atau set hasil yang
sebelumnya divalidasi pada topik yang sama. Namun, dalam banyak kasus, hasil atau teori
sebelumnya tidak tersedia. Dengan demikian, kami juga membahas pendekatan empiris untuk
memvalidasi model.
Data yang digunakan di sini adalah data yang akan diuji regresi berganda, di sini kita
akan melihat apakah Motivasi (X1) dan Minat (X2) berpengaruh terhadap Prestasi Belajar
(Y). disini terdiri dari dua variabel bebas atau X, jadi masuk dalam kategori regresi berganda.
Adapun datanya sebagai berikut:
Rumusan Hipotesis :
H3 = Terdapat pengaruh Motivasi (X1) dan Minat (X2) secara simultan terhadap (Y)
KOEFISIEN DETERMINASI
Berdasarkan output di atas maka diketahui nilai R Square sebesar 0,842, hal ini
mengandung arti bahwa pengaruh variabel X1 dan X2 secara simultan terhadap variabel Y
adalah sebesar 84,2%