RANGKUMAN
Munculnya kewajiban untuk memenuhi Asumsi dalam regresi linear
sederhana maupun linear berganda mengandung arti bahwa formula atau rumus
regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi
asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-
asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang
merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi
atau peramalan dari sebaran data, menghasilkan error yang terkecil. Error itu
sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan
oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi
tidak bias (unbiased), maka estimator regresi akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear
dalam model artinya model yang digunakan dalam analisis regresi telah
sesuai dengan kaidah model OLS dimana variabel-variabel penduganya
hanya berpangkat satu.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai
harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai
rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu
disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah
tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari
ketiga hal sebelumnya itu.
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-
asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji.
Sebagian cukup hanya diasumsikan, sedangkan sebagian yang lain memerlukan
test. Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada
setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka
disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya
jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi,
maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan
teori.
Asumsi 10: Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.
A. Uji Autokorelasi
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson.
Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-
Watson d statistic, yang dituliskan sebagai berikut:
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-
Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW
test) dapat
dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya
menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun
negatif. Misalnya: terdapat autokorelasi positif, atau, terdapat autokorelasi negatif.
Bertolak dari hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri
merupakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar
keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya
menentukan lokasi dimana nilai DW berada.
B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data
dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Pengujian
normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.
Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya
(skewness) . Jika data cenderung menceng ke kiri disebut positif skewness, dan
jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan
normal jika datanya simetris. Lihat gambar berikut:
Positif Skewness Normal
Negatif Skewness
Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat
dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma.
Dengan mentransformasi data ke bentuk logaritma akan memperkecil error
sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi
sangat kecil (Setiaji, 2004: 18).
C. Uji Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan atau residual dari model
yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001: 112). Analisis regresi menganggap
kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau
deviasi dari garis yang paling tepat muncul serta random sesuai dengan
besarnya variabel-variabel independen (Arsyad, 1994:198).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan
dengan membandingkan sebaran antara nilai prediksi variabel terikat
dengan residualnya, yang output pendeteksiannya akan tertera berupa
sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer
teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara
pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil
pengujian.
D. Uji Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
perfect atau eksak di antara variabel penjelas yang dimasukkan ke
dalam model.
Pengujian multikolinearitas merupakan tahapan penting yang harus
dilakukan dalam suatu penelitian, karena apabila belum terbebas dari
masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung
bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya:
menganalisis matrix korelasi dengan Pearson Correlation atau dengan
Spearmans Rho Correlation, melakukan regresi partial dengan teknik
auxilary regression, atau dapat pula dilakukan dengan mengamati nilai
variance inflation factor (VIF).
KESIMPULAN
Regresi merupakan pengaruh antara variabel bedas (X) dan variabel terikat (Y).
Y = a + b1 X1 + b2 X2 + e
Uji t
Digunakan untuk menguji satu sisi.
Uji Y
Digunakan untuk menguji dua sisi.
Untuk membuktikan uji t dan uji Y valid atau tidak maka diuji
menggunakan Asumsi Klasik.
- Normalitas
- Linearitas
- Heterokedastisitas
- Multikolinearitas
- Autokolerasi
Jika hasil regresi memenuhi asumsi-asumsi regresi maka nilai estimasi yang
diperoleh akan bersifat BLUE
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna melakukan
estimasi atau peramalan dari sebaran data, menghasilkan error yang
terkecil. Error itu sendiri adalah perbedaan antara nilai observasi dan nilai
yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan
disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi
akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter.
Linear dalam model artinya model yang digunakan dalam analisis regresi
telah sesuai dengan kaidah model OLS dimana variabel-variabel
penduganya hanya berpangkat satu.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai
harapan dari estimator b sama dengan nilai yang benar dari b. Artinya,
nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya
itu disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah
tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari
ketiga hal sebelumnya itu.
MENJAWAB PERTANYAAN- PERTANYAAN
a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least square (OLS). Jika hasil
regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh
akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased,
Estimator.
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-
asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji.
Sebagian cukup hanya diasumsikan, sedangkan sebagian yang lain memerlukan
test. Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada
setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka
disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya
jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi,
maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan
teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-
Sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada
standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
p. Jelaskan apa yang dimaksud dengan normalitas!
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data
dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu.
q. Jelaskan kenapa normalitas timbul!
Normalitas timbul untuk menghindari dampak yang mungkin akan ditimbulkan
dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F
hitung. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal.
dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai berikut:
Kurtosis dapat dicari dengan formula sebagai berikut:
Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi
simetris data.