Anda di halaman 1dari 3

Fungsi analisis regresi adalah untuk mengetahui variabel-variabel kunci yang memiliki pengaruh

terhadap suatu variabel bergantung, pemodelan, serta pendugaan (estimation) atau peramalan
(forecasting).

Tujuan menggunakan analisis regresi ialah


·         Membuat estimasi rata-rata dan nilai variabel tergantung dengan didasarkan pada
nilai variabel bebas.
·         Menguji hipotesis karakteristik dependensi
·         Untuk meramalkan nilai rata-rata variabel bebas dengan didasarkan pada nilai
variabel bebas diluar jangkauan sampel.
 

1. Heteroskedastisitas
Heteroskedastisitas adalah keadaan dimana terjadinya ketidaksamaan varian dari error untuk
semua pengamatan setiap variabel bebas pada model regresi.

Cici-ciri Heteroskedastisitas

Keadaan terjadinya ketidaksamaan varian dari error untuk semua pengamatan setiap variabel
bebas pada model regresi, akan mengakibatkan timbulnya ciri-ciri heteroskedastisitas di dalam
model regresi.

Cara Mengatasi Heteroskedastisitas

1. Dengan cara tgransformasi data


2. Dengan cara transformasi inverse logaritma natural
3. Dengan cara transformasi logaritma natural

2. Autokorelasi
Autokorelasi adalah terjadi korelasi antara observasi ke-i dengan observasi ke-i-1.

Cara Mendeteksi Autokorelasi

Masalah asumsi Autokorelasi dapat dideteksi dengan menggunakan berbagai jenis analisis, yaitu
antara lain:
1. Uji Durbin Watson
2. Uji Breucsh Godfrey
3. Uji Durbin Watson h
4. The Engle’s ARCH Test.

3. Multikolinearitas
Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan kuat
antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. 

Penyebab Multikolinearitas

Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua variabel


bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya yang dapat
menyebabkan hal tersebut secara tidak langsung adalah, antara lain:

1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih
beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di dalam
model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas
lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model
regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam
situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta
kolinearitas antara X2 dengan X1*X2.
3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha +
Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.

Dampak dari Multikolinearitas

Dampak dari multikolinearitas antara lain:

1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar
errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan
drastis pada nilai koefisien regresi partial.
3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai
koefisien regresi parsial variabel lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk
menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat
multikolinearitas.

Analisis regresi sederhana bertujuan untuk mengetahui pengaruh dari suatu variabel terhadap
variabel lainnya. Pada analisis regresi suatu variabel yang mempengaruhi disebut variabel bebas
atau independent variable, sedangkan variabel yang dipengaruhi disebut variabel terkait atau
dependent variable. Jika persamaan regresi hanya terdapat satu variabel bebas dengan satu
variabel terkait, maka disebut dengan persamaan regresi sederhana. Jika variabel bebasnya lebih
dari satu, maka disebut dengan persamaan regresi berganda. Pada regresi sederhana kita dapat
mengetahui berapa besar perubahan dari variabel bebas dapat mempengaruhi suatu variabel
terkait.

Variabel yang mempengaruhi disebut dengan berbagai istilah: variabel independen, variabel
bebas, variabel penjelas, variabel eksplanatorik, atau variabel X karena dalam grafik sering
digambar sebagai absis atau sumbu X). Variabel yang dipengaruhi dikenal sebagai variabel
dependen, variabel terikat, atau variabel Y. Kedua variabel ini dapat merupakan variabel acak
(random), namun variabel yang dipengaruhi harus selalu variabel acak. Analisis regresi adalah
salah satu analisis yang luas pemakaiannya. Analisis regresi digunakan untuk melakukan
prediksi dan ramalan.

Anda mungkin juga menyukai