Asumsi adalah sebuah perkiraan yang biasa dibuat oleh
manusia untuk menyederhanakan suatu masalah. Biasanya ia digunakan ketika menganalisa suatu masalah dikarenakan adanya variabel-variabel tertentu yang tidak terukur / diketahui. Asumsi juga biasa digunakan untuk menyingkat waktu penyelesaian masalah dan biasanya amat erat terkait dengan pengalaman pribadi penggunanya. ASUMSI AGAR ANALISIS REGRESI DAPAT DI GUNAKAN
1. Variabel yang di cari hubungan fungsionalnya mempunyai
data yang berdistribusi normal. 2. Variabel X tidak acak, sedangkan variabel Y harus acak. 3. Variabel yang dihubungkan mempunyai pasangan sama dari subjek yang sama pula. 4. Variabel yang hubungan mempunyai data interval atau rasio Asumsi-asumsi Regresi Linear 1. Heterosekdastisitas Dalam regresi linear salah satu yang harus dipenuhi agar taksiran parameter dalam model tersebut bersifat BLUE (Best, Linear, Unbiased, and Estimator) adalah var (ui) = σ2 mempunyai variasi yang sama. Pada kasus-kasus tertentu terjadi variasi ui tidak konstan atau variabel berubah-ubah. Untuk mendeteksi heteroskedastisitas dapat dilakukan pengujian dengan metode grafik. Dengan pengujian ini dapat dideteksi apakah kesalahan pengganggu dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya. Dengan metode grafik, hasilnya dapat menunjukkan ada tidaknya pola-pola tertentu yang terbentuk seperti bergelombang, melebar kemudian menyempit serta titik-titik menyebar di atas dan di bawah angka 0 (nol) pada sumbu Y. 2. Autokorelasi Autokorelasi adalah korelasi antara anggota serangkaian observasi yang diurutkan menurut waktu seperti data deret waktu atau ruang seperti data cross-section. Untuk mengetahui autokorelasi digunakan uji Durbin-Watson (DW- test). Adanya autokorelasi dalam regresi dapat diketahui dengan menggunakan beberapa cara antara lain metode grafik dan uji Durbin-Watson.
Langkah-langkah Uji Durbin-Watson adalah sebagai berikut : 1.
Regres model lengkap untuk mendapatkan nilai residual. 2. Hitung d (Durbin-Watson Statistik) dengan rumus: (Hasan, 1999). 3. Hasil rumus tersebut yaitu nilai d kemudian dibandingkan dengan nilai d tabel Durbin- Watson. Pada tabel d tersebut terdapat dua nilai yaitu nilai batas atas (du) dan nilai batas bawah (dL) untuk berbagai nilai n dan k. Untuk autokorelasi positif (0 < p < 1), hipotesis nol (H0) diterima jika d > du, sebaliknya H0 ditolak jika d < dL. Untuk autokorelasi negatif, hipotesis nol (H0) diterima jika (4-d)>du, sebaliknya H0 ditolak jika (4-d) < dL. 3. Multikolinearitas
Multikolinearitas muncul jika terdapat hubungan yang
sempurna atau pasti di antara beberapa variabel atau semua variabel independen dalam model. Pada kasus multikolinearitas yang serius, koefisien regresi tidak lagi menunjukkan pengaruh murni dari variabel independen dalam model. Terdapat beberapa metode untuk mendeteksi keberadaan multikolinearitas (Gujarati, 1995;Ramanathan, 1995). Untuk mendeteksi multikolinearitas digunakan pengukuran terhadap nilai VIF (Variable Inflation Factor) dan nilai Tolerance . Berikut ini langkah-langkahnya:
a) Regres model lengkap untuk mendapatkan nilai R2
Y = f (x1 ....... x7) b) Regres masing-masing variabel independen terhadap seluruh variabel independen lainnya, dapatkan nilai R2. Regres ini disebut auxiliary regression. xi = f (xj) c) Jika terdapat Ri2>R2 berarti terdapat masalah multikolinearitas yang serius. Normalitas
Normalitas dalam statistik parametric seperti regresi dan
Anova merupakan syarat pertama. Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal. Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk.