Anda di halaman 1dari 22

BAB V

UJI ASUMSI KLASIK

RANGKUMAN
Munculnya kewajiban untuk memenuhi Asumsi dalam regresi linear
sederhana maupun linear berganda mengandung arti bahwa formula atau rumus
regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi
asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan akan
menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-
asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang
merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi
atau peramalan dari sebaran data, menghasilkan error yang terkecil. Error itu
sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan
oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi
tidak bias (unbiased), maka estimator regresi akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear
dalam model artinya model yang digunakan dalam analisis regresi telah
sesuai dengan kaidah model OLS dimana variabel-variabel penduganya
hanya berpangkat satu.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai
harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai
rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu
disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah
tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari
ketiga hal sebelumnya itu.
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-
asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji.
Sebagian cukup hanya diasumsikan, sedangkan sebagian yang lain memerlukan
test. Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada
setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka
disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya
jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi,
maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan
teori.
Asumsi 10: Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.

Penyimpangan masing-masing asumsi tidak mempunyai dampak yang sama


terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya
asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t
sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus
multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t
masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika
terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi
tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak
signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk
memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi
dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi,
heteroskedastisitas, atupun multikolinearitas.

A. Uji Autokorelasi

Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu


berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi
muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut
waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah
autokorelasi lebih sering muncul pada data time series, karena lekat dengan
kontinyuitas dan adanya sifat ketergantungan antar data.
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-
rata nol, dan variannya konstan. Asumsi variance yang tidak konstan
menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada
observasi lain.
Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan
pengganggu yang secara otomatis mempengaruhi data berikutnya. Jika terdapat
ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya kesalahan
pengganggu yang secara otomatis mempengaruhi data berikutnya maka masalah
autokorelasi tidak akan muncul. Hal seperti itu dalam bahasa matematisnya
dituliskan sebagai berikut:
E(ui, uj) = 0; i j
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah
autokorelasi antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk
menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan
di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya
inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan
kuat dengan terjadinya inflasi. Alur berfikirnya seperti ini, semakin banyak JUB
maka daya beli masyarakat akan meningkat tentu akan pula diikuti dengan
permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu
bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak
dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan
terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data
bulanan, namun data tersebut tidak tersedia.
4. Menggunakan data yang tidak empiris.

Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson.
Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-
Watson d statistic, yang dituliskan sebagai berikut:

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-
Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW
test) dapat
dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya
menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun
negatif. Misalnya: terdapat autokorelasi positif, atau, terdapat autokorelasi negatif.
Bertolak dari hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri
merupakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar
keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya
menentukan lokasi dimana nilai DW berada.

2. Menggunakan metode LaGrange Multiplier (LM).


LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga
terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan
tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam
LM
menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk
mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri merupakan
rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1 periode, sedang
lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung pada
jenis data apakah data harian, bulanan, tahunan. Lag 1 data harian berarti ada
kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya. Sebagai kunci
untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari
signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t
masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah
dibahas pada uji t sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah
autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya.
Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang
dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data
dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Pengujian
normalitas ini berdampak pada nilai t dan F karena pengujian terhadap keduanya
diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:

1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu


antara nilai median dengan nilai mean.
2. Menggunakan formula Jarque Bera (JB test),
3. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa
prosentase data observasi dan berada di area mana.

Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data


berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal
maka tidak ada masalah karena uji t dan uji F dapat dilakukan ( Kuncoro,
2001: 110). Apabila data tidak normal, maka diperlukan upaya untuk
mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau
melakukan transformasi data.

Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya
(skewness) . Jika data cenderung menceng ke kiri disebut positif skewness, dan
jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan
normal jika datanya simetris. Lihat gambar berikut:
Positif Skewness Normal

Negatif Skewness

Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat
dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma.
Dengan mentransformasi data ke bentuk logaritma akan memperkecil error
sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi
sangat kecil (Setiaji, 2004: 18).
C. Uji Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan atau residual dari model
yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001: 112). Analisis regresi menganggap
kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau
deviasi dari garis yang paling tepat muncul serta random sesuai dengan
besarnya variabel-variabel independen (Arsyad, 1994:198).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan
dengan membandingkan sebaran antara nilai prediksi variabel terikat
dengan residualnya, yang output pendeteksiannya akan tertera berupa
sebaran data pada scatter plot. Dengan menggunakan alat bantu komputer
teknik ini sering dipilih, karena alasan kemudahan dan kesederhanaan cara
pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil
pengujian.
D. Uji Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
perfect atau eksak di antara variabel penjelas yang dimasukkan ke
dalam model.
Pengujian multikolinearitas merupakan tahapan penting yang harus
dilakukan dalam suatu penelitian, karena apabila belum terbebas dari
masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung
bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya:
menganalisis matrix korelasi dengan Pearson Correlation atau dengan
Spearmans Rho Correlation, melakukan regresi partial dengan teknik
auxilary regression, atau dapat pula dilakukan dengan mengamati nilai
variance inflation factor (VIF).

KESIMPULAN

UJI ASUMSI KLASIK

Regresi merupakan pengaruh antara variabel bedas (X) dan variabel terikat (Y).
Y = a + b1 X1 + b2 X2 + e
Uji t
Digunakan untuk menguji satu sisi.
Uji Y
Digunakan untuk menguji dua sisi.
Untuk membuktikan uji t dan uji Y valid atau tidak maka diuji
menggunakan Asumsi Klasik.
- Normalitas
- Linearitas
- Heterokedastisitas
- Multikolinearitas
- Autokolerasi
Jika hasil regresi memenuhi asumsi-asumsi regresi maka nilai estimasi yang
diperoleh akan bersifat BLUE
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna melakukan
estimasi atau peramalan dari sebaran data, menghasilkan error yang
terkecil. Error itu sendiri adalah perbedaan antara nilai observasi dan nilai
yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan
disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi
akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter.
Linear dalam model artinya model yang digunakan dalam analisis regresi
telah sesuai dengan kaidah model OLS dimana variabel-variabel
penduganya hanya berpangkat satu.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai
harapan dari estimator b sama dengan nilai yang benar dari b. Artinya,
nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya
itu disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah
tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari
ketiga hal sebelumnya itu.
MENJAWAB PERTANYAAN- PERTANYAAN
a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least square (OLS). Jika hasil
regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh
akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased,
Estimator.
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-
asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in
repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji.
Sebagian cukup hanya diasumsikan, sedangkan sebagian yang lain memerlukan
test. Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada
setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka
disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya
jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi,
maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan
teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.

c. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!

d. Jelaskan apa yang dimaksud dengan autokorelasi!


Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas
dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan
dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel
gangguan pada periode lain. Sifat
autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data
jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya
saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat
data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat
ketergantungan antar data. Sementara pada data cross section hal itu kecil
kemungkinan terjadi.
e. Jelaskan kenapa autokorelasi timbul!
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah
autokorelasi antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk
menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan
di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya
inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan
kuat dengan terjadinya inflasi. Alur berfikirnya seperti ini, semakin banyak JUB
maka daya beli masyarakat akan meningkat tentu akan pula diikuti dengan
permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu
bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak
dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan
terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data
bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba
menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara
interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3).
Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu akan terbawa
ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan,
terkesan bahwa data tersebut tidak didukung oleh realita.

f. Bagaimana cara mendeteksi masalah autokorelasi?


Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson.
Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-
Watson d statistic, yang dituliskan sebagai berikut:

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW


test) dapat
dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya
menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun
negatif. Misalnya: terdapat autokorelasi positif, atau, terdapat autokorelasi negatif.
Bertolak dari hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri
merupakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar
keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya
menentukan lokasi dimana nilai DW berada.
2. Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga
terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan
tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam
LM
menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk
mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri merupakan
rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1 periode, sedang
lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya tergantung pada
jenis data apakah data harian, bulanan, tahunan. Lag 1 data harian berarti ada
kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya. Sebagai kunci
untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari
signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t
masing-masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah
dibahas pada uji t sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah
autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya.
Jika ini terjadi, maka untuk perbaikan hasil regresi perlu dilakukan regresi ulang
dengan merubah posisi data untuk disesuaikan dengan kurun waktu lag tersebut.

g. Apa konsekuensi dari adanya masalah autokorelasi dalam model?


Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,,bn) model regresi
tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan
tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias.
Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh
dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga
akan bias atau bersifat tidak pasti (misleading).

h. Jelaskan apa yang dimaksud dengan heteroskedastisitas!


Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada
model regresi linier, adalah residual harus homoskedastis, artinya, variance
residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e
kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi
masalah heteroskedastisitas.

i. Jelaskan kenapa heteroskedastisitas timbul!


Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang
diamati tidak memiliki varians yang konstan dari satu observasi ke observasi
lainnya (Kuncoro, 2001: 112).
Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu
(error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang
lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut
dikatakan tidak homoskedastik atau mengalami
heteroskedastisitas (Setiaji, 2004: 17).

j. Bagaimana cara mendeteksi masalah heteroskedastisitas?


Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan
berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearmans Rank
Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji, 2004: 18).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya,
yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Dengan menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan
kemudahan dan kesederhanaan cara pengujian, juga tetap mempertimbangkan
valid dan tidaknya hasil pengujian.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 a bY
2 u .
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah
sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-
square (2) pada derajat kesalahan tertentu.
Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih
besar dari chi-square (2) tabel, maka standar error mengalami

heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square (2) tabel,


maka standar error telah bebas dari masalah heteroskedastisitas, atau telah
homoskedastis.

k. Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?


Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan
bahwa standar
error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya
tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance
residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan
nilai Sb yang diperoleh dari hasil regresi akan menjadi bias. Selain itu, adanya
kesalahan dalam model yang dapat mengakibatkan nilai b meskipun tetap linier
dan tidak bias, tetapi nilai b bukan nilai yang terbaik. Munculnya masalah
heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak
pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t
dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t
cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya
tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya,
jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan,
bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini
dapat menjadikan hasil riset yang mengacaukan.
l. Jelaskan apa yang dimaksud dengan multikolinearitas!
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
perfect atau eksak di antara variabel penjelas yang dimasukkan ke dalam
model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan
lemah, tidak berkolinear, dan sempurna.
m. Jelaskan kenapa multikolinearitas timbul!
Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya
mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas
memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat
lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat
dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berkolinear jika
antara variabel penjelas tidak mempunyai sama sekali kesamaan.

n. Bagaimana cara mendeteksi masalah multikolinearitas?


Terdapat beragam cara untuk menguji multikolinearitas, di antaranya:
menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearmans Rho Correlation,
melakukan regresi partial dengan teknik auxilary regression, atau dapat pula
dilakukan dengan mengamati nilai variance inflation factor (VIF). Cara
mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi antar
variabel dengan menggunakan Spearmans Rho Correlation dapat dilakukan
apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data
interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu
metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk
dilakukan. Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan
untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk dan
Rubinfeld, yang mengatakan bahwa apabila korelasi antara dua variabel bebas
lebih tinggi dibanding korelasi salah satu atau kedua variabel bebas tersebut
dengan variabel terikat. Juga pendapat Gujarati (1995:335) yang mengatakan
bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas
menjadi masalah yang serius. Gujarati juga menambahkan bahwa, apabila korelasi
antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat
dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat
masalah yang serius. Dengan demikian, dapat disimpulkan bahwa apabila angka
korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah
multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga
menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas,
dengan mempertimbangkan sifat data dari cross section, maka bila tujuan
persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir,
sepanjang nilai t signifikan.

o. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?


Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan
dalam suatu penelitian, karena apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak
dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap
nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna
sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak
dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas
terdahulu,

akan menghasilkan bilangan pembagian,

Sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada
standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
p. Jelaskan apa yang dimaksud dengan normalitas!
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data
dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu.
q. Jelaskan kenapa normalitas timbul!
Normalitas timbul untuk menghindari dampak yang mungkin akan ditimbulkan
dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F
hitung. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal.

r. Bagaimana cara mendeteksi masalah normalitas?


Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan nilai statistik, yaitu
antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika
perbandingan antara mean dan median menghasilkan nilai yang kurang lebih
sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka
nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai
berikut:

dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai berikut:
Kurtosis dapat dicari dengan formula sebagai berikut:

3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa


prosentase data observasi dan berada di area mana. Untuk menentukan posisi
normal dari sebaran data, langkah awal yang dilakukan adalah menghitung
standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:

Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi
simetris data.

s. Apa konsekuensi dari adanya masalah normalitas dalam model?


Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data
berdistribusi normal atau tidak normal. Apabila data telah berdistribusi normal
maka tidak ada masalah karena uji t dan uji F dapat dilakukan (Kuncoro, 2001:
110). Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti:
memotong data yang out liers, memperbesar sampel, atau melakukan transformasi
data. Data yang tidak normal juga dapat dibedakan dari
tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut
positif skewness, dan jika data cenderung menceng ke kanan disebut negatif
skewness. Data dikatakan normal jika datanya simetris.
t. Bagaimana cara menangani jika data ternyata tidak normal?
Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat
dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan logaritma.
Dengan mentransformasi data ke bentuk logaritma akan memperkecil error
sehingga kemungkinan timbulnya masalah heteroskedastisitas juga menjadi
sangat kecil (Setiaji, 2004: 18).

Anda mungkin juga menyukai