Anda di halaman 1dari 8

ASUMSI

Asumsi adalah sebuah perkiraan yang biasa dibuat oleh


manusia untuk menyederhanakan suatu masalah. Biasanya
ia digunakan ketika menganalisa suatu masalah
dikarenakan adanya variabel-variabel tertentu yang tidak
terukur / diketahui. Asumsi juga biasa digunakan untuk
menyingkat waktu penyelesaian masalah dan biasanya
amat erat terkait dengan pengalaman pribadi
penggunanya.
ASUMSI AGAR ANALISIS REGRESI DAPAT DI GUNAKAN

1. Variabel yang di cari hubungan fungsionalnya mempunyai


data yang berdistribusi normal.
2. Variabel X tidak acak, sedangkan variabel Y harus acak.
3. Variabel yang dihubungkan mempunyai pasangan sama
dari subjek yang sama pula.
4. Variabel yang hubungan mempunyai data interval atau
rasio
Asumsi-asumsi Regresi Linear
1. Heterosekdastisitas
Dalam regresi linear salah satu yang harus dipenuhi agar taksiran
parameter dalam model tersebut bersifat BLUE (Best, Linear,
Unbiased, and Estimator) adalah var (ui) = σ2 mempunyai variasi yang
sama. Pada kasus-kasus tertentu terjadi variasi ui tidak konstan atau
variabel berubah-ubah. Untuk mendeteksi heteroskedastisitas dapat
dilakukan pengujian dengan metode grafik. Dengan pengujian ini
dapat dideteksi apakah kesalahan pengganggu dari model yang
diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya. Dengan metode grafik, hasilnya dapat menunjukkan
ada tidaknya pola-pola tertentu yang terbentuk seperti bergelombang,
melebar kemudian menyempit serta titik-titik menyebar di atas dan di
bawah angka 0 (nol) pada sumbu Y.
2. Autokorelasi
Autokorelasi adalah korelasi antara anggota serangkaian
observasi yang diurutkan menurut waktu seperti data deret
waktu atau ruang seperti data cross-section. Untuk
mengetahui autokorelasi digunakan uji Durbin-Watson (DW-
test). Adanya autokorelasi dalam regresi dapat diketahui
dengan menggunakan beberapa cara antara lain metode grafik
dan uji Durbin-Watson.

Langkah-langkah Uji Durbin-Watson adalah sebagai berikut : 1.


Regres model lengkap untuk mendapatkan nilai residual.
2. Hitung d (Durbin-Watson Statistik) dengan rumus: (Hasan,
1999).
3. Hasil rumus tersebut yaitu nilai d kemudian dibandingkan
dengan nilai d tabel Durbin- Watson. Pada tabel d tersebut
terdapat dua nilai yaitu nilai batas atas (du) dan nilai batas
bawah (dL) untuk berbagai nilai n dan k. Untuk autokorelasi
positif (0 < p < 1), hipotesis nol (H0) diterima jika d > du,
sebaliknya H0 ditolak jika d < dL. Untuk autokorelasi negatif,
hipotesis nol (H0) diterima jika (4-d)>du, sebaliknya H0
ditolak jika (4-d) < dL.
3. Multikolinearitas

Multikolinearitas muncul jika terdapat hubungan yang


sempurna atau pasti di antara beberapa variabel atau semua
variabel independen dalam model. Pada kasus
multikolinearitas yang serius, koefisien regresi tidak lagi
menunjukkan pengaruh murni dari variabel independen dalam
model. Terdapat beberapa metode untuk mendeteksi
keberadaan multikolinearitas (Gujarati, 1995;Ramanathan,
1995). Untuk mendeteksi multikolinearitas digunakan
pengukuran terhadap nilai VIF (Variable Inflation Factor) dan
nilai Tolerance .
Berikut ini langkah-langkahnya:

a) Regres model lengkap untuk mendapatkan nilai R2


Y = f (x1 ....... x7)
b) Regres masing-masing variabel independen terhadap
seluruh variabel independen lainnya, dapatkan nilai R2.
Regres ini disebut auxiliary regression. xi = f (xj)
c) Jika terdapat Ri2>R2 berarti terdapat masalah
multikolinearitas yang serius.
Normalitas

Normalitas dalam statistik parametric seperti regresi dan


Anova merupakan syarat pertama. Uji normalitas bertujuan
untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal. Jika
asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau
bias terutama untuk sampel kecil. Uji normalitas dapat
dilakukan melalui dua pendekatan yaitu melalui pendekatan
grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov,
chi-square, Liliefors maupun Shapiro-Wilk.

Anda mungkin juga menyukai