Anda di halaman 1dari 17

BAB V

UJI ASUMSI KLASIK

1.RANGKUMAN
Munculnya kewajiban untuk memenuhi Asumsi dalam regresi linear sederhana maupun
linear berganda mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu
asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang
diregresi tidak memenuhi asumsiasumsi yang telah disebutkan, maka regresi yang diterapkan
akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi
regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan
dari: Best, Linear, Unbiased, Estimator.
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi dikatakan Best
apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari
sebaran data, menghasilkan error yang terkecil. Error itu sendiri adalah perbedaan antara
nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best
dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam
model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah
model OLS dimana variabel-variabel penduganya hanya berpangkat satu.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai harapan dari
estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-
rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai.
Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya
itu.
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal
dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati
(1995) merinci 10 asumsi yang menjadi syarat penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam
parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter
sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated
sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji. Sebagian cukup hanya
diasumsikan, sedangkan sebagian yang lain memerlukan test. Tepatnya bahwa nilai X adalah
nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya,
garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada
di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus
bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama
sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki
rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan
pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya
akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter
yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka
persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang
observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang
bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10: Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara
variabel penjelas tidak boleh sempurna atau tinggi.

Penyimpangan masing-masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas
(asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan
oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb,
menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu
diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada
autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi
tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan,
keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-
asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan,
seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

A. Uji Autokorelasi

Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi
antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat
silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time
series, karena lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data.
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan
variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh
perubahan nilai suatu observasi berdampak pada observasi lain.
Autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu
yang secara otomatis mempengaruhi data berikutnya. Jika terdapat ketergantungan, dalam
bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang
secara otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan
muncul. Hal seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) = 0; i j
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi
antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. Sebagai misal kita
ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik,
banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi.
Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan meningkat
tentu akan pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak
mampu bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak
dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya
autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun
data tersebut tidak tersedia.
4. Menggunakan data yang tidak empiris.

Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi
dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan
untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan
sebagai berikut:

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat
dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa
dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif. Misalnya: terdapat
autokorelasi positif, atau, terdapat autokorelasi negatif. Bertolak dari hipotesis tersebut, maka
perlu mengujinya karena hipotesis sendiri merupakan jawaban sementara yang masih perlu
diuji. Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW
test, yang semuanya menentukan lokasi dimana nilai DW berada.

2. Menggunakan metode LaGrange Multiplier (LM).


LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat
variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen. Dengan demikian model dalam LM
menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada
lag berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1
menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan
waktu 2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan.
Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya.
Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari
signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-
masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t
sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi
atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka
untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk
disesuaikan dengan kurun waktu lag tersebut.

B. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum
ataupun setelah tahapan analisis regresi. Pengujian normalitas ini berdampak pada nilai t dan
F karena pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e
berdistribusi normal.

Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:

1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai
median dengan nilai mean.
2. Menggunakan formula Jarque Bera (JB test),
3. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase
data observasi dan berada di area mana.

Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi


normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah
karena uji t dan uji F dapat dilakukan ( Kuncoro, 2001: 110). Apabila data tidak normal,
maka diperlukan upaya untuk mengatasi seperti: memotong data yang out liers,
memperbesar sampel, atau melakukan transformasi data.

Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness) . Jika
data cenderung menceng ke kiri disebut positif skewness, dan jika data cenderung menceng
ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris. Lihat
gambar berikut:

Positif Skewness Normal

Negatif Skewness
Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan
dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan
mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan
timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).
C. Uji Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak
memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001:
112). Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi
bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan
besarnya variabel-variabel independen (Arsyad, 1994:198).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang
output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan
menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan
kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil
pengujian.
D. Uji Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang perfect
atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam
suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis
matrix korelasi dengan Pearson Correlation atau dengan Spearmans Rho
Correlation, melakukan regresi partial dengan teknik auxilary regression, atau dapat
pula dilakukan dengan mengamati nilai variance inflation factor (VIF).
2.KESIMPULAN
Mengerti apa yang dimaksud dengan uji asumsi klasik.
Mengerti item-item asumsi.
Menjelaskan maksud item-item asumsi.
Menyebutkan nama-nama asumsi yang harus dipenuhi.
Mengerti apa yang dimaksud dengan autokorelasi.
Mengerti apa yang dimaksud dengan multikolinearitas.
Mengerti apa yang yang dimaksud dengan heteroskedastisitas.
Mengerti apa yang dimaksud dengan normalitas.
Menjelaskan timbulnya masalah-masalah dalam uji asumsi klasik.
Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas,
normalitas.
Menyebutkan alat deteksi dari masalah-masalah tersebut.
Menggunakan sebagian alat-alat deteksi.
Menjelaskan keterkaitan asumsi-asumsi.
Menjelaskan konsekuensi-konsekuensi dari asumsi.

3.MENJAWAB PERTANYAAN- PERTANYAAN

a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!


Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear
berganda yang berbasis ordinary least square (OLS). Jika hasil regresi telah memenuhi
asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang
merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal
dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati
(1995) merinci 10 asumsi yang menjadi syarat penerapan OLS, yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam
parameter.
Y = a + bX +e
Untuk model regresi Y = a + bX + cX2 + e
Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter
sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated
sampling). Dari sepuluh asumsi di atas tidak semuanya perlu diuji. Sebagian cukup hanya
diasumsikan, sedangkan sebagian yang lain memerlukan test. Tepatnya bahwa nilai X adalah
nonstochastic (tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya,
garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada
di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus
bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama
sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki
rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan
pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya
akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter
yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup
besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka
persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang
observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang
bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara
variabel penjelas tidak boleh sempurna atau tinggi.

c. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!


Karena penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap
regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi
multikolinearitas (asumsi 10) tidak berarti menggangu, sepanjang uji t sudah signifikan. Hal
ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai
t,b,Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak
perlu diatasi.

d. Jelaskan apa yang dimaksud dengan autokorelasi!


Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari
masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana variabel
gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat
autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut
waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi
lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat
dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross
section hal itu kecil kemungkinan terjadi.
e. Jelaskan kenapa autokorelasi timbul!
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi
antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. Sebagai misal kita
ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik,
banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi.
Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan meningkat
tentu akan pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak
mampu bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak
dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya
autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun
data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia,
untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi. Contohnya membagi
tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke
satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi
autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa
data tersebut tidak didukung oleh realita.
f. Bagaimana cara mendeteksi masalah autokorelasi?
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi
dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan
untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan
sebagai berikut:

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
-

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat
dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa
dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif. Misalnya: terdapat
autokorelasi positif, atau, terdapat autokorelasi negatif. Bertolak dari hipotesis tersebut, maka
perlu mengujinya karena hipotesis sendiri merupakan jawaban sementara yang masih perlu
diuji. Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW
test, yang semuanya menentukan lokasi dimana nilai DW berada.
2. Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat
variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen. Dengan demikian model dalam LM
menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk mengetahui pada
lag berapa problem otokorelasi muncul. Lag sendiri merupakan rentang waktu. Lag 1
menunjukkan adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan
waktu 2 periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan.
Lag 1 data harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan seterusnya.
Sebagai kunci untuk mengetahui pada lag berapa autokorelasi muncul, dapat dilihat dari
signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t masing-
masing variabel lag yang dibandingkan dengan t tabel, seperti yang telah dibahas pada uji t
sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah autokorelasi
atau pengaruh kesalahan pengganggu mulai satu periode sebelumnya. Jika ini terjadi, maka
untuk perbaikan hasil regresi perlu dilakukan regresi ulang dengan merubah posisi data untuk
disesuaikan dengan kurun waktu lag tersebut.

g. Apa konsekuensi dari adanya masalah autokorelasi dalam model?


Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai
variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t
hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).
Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

h. Jelaskan apa yang dimaksud dengan heteroskedastisitas!


Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model
regresi linier, adalah residual harus homoskedastis, artinya, variance residual harus memiliki
variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika
variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas.

i. Jelaskan kenapa heteroskedastisitas timbul!


Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak
memiliki varians yang konstan dari satu observasi ke observasi lainnya (Kuncoro, 2001: 112).
Padahal rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e,
diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi
varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami
heteroskedastisitas (Setiaji, 2004: 17).

j. Bagaimana cara mendeteksi masalah heteroskedastisitas?


Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara
seperti uji grafik, uji Park, Uji Glejser, uji Spearmans Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier (Setiaji, 2004: 18).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan
membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya, yang
output pendeteksiannya akan tertera berupa sebaran data pada scatter plot. Dengan
menggunakan alat bantu komputer teknik ini sering dipilih, karena alasan kemudahan dan
kesederhanaan cara pengujian, juga tetap mempertimbangkan valid dan tidaknya hasil
pengujian.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara melakukan
regresi atas residual, dengan model yang dapat dituliskan e2 a bY 2 u .
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan dengan jumlah sampel (R2
x N). Hasil perkalian ini kemudian dibandingkan dengan nilai chi-square (2) pada derajat
kesalahan tertentu.
Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2 x N lebih besar dari
chi-square (2) tabel, maka standar error mengalami heteroskedastisitas. Sebaliknya, jika R2

x N lebih kecil dari chi-square (2) tabel, maka standar error telah bebas dari masalah
heteroskedastisitas, atau telah homoskedastis.

k. Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?


Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan bahwa standar
error (Sb) masing-masing observasi tidak mengalami perubahan, sehingga Sb nya tidak bias.
Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah
sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil
regresi akan menjadi bias. Selain itu, adanya kesalahan dalam model yang dapat
mengakibatkan nilai b meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang
terbaik. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias,
akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t
dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung
membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi
karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t
akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak
signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.

l. Jelaskan apa yang dimaksud dengan multikolinearitas!


Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang perfect atau
eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan
hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan
sempurna.
m. Jelaskan kenapa multikolinearitas timbul!
Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai
sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat
yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya
terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna.
Sedangkan Tidak berkolinear jika antara variabel penjelas tidak mempunyai sama sekali
kesamaan.

n. Bagaimana cara mendeteksi masalah multikolinearitas?


Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix
korelasi dengan Pearson Correlation atau dengan Spearmans Rho Correlation, melakukan
regresi partial dengan teknik auxilary regression, atau dapat pula dilakukan dengan
mengamati nilai variance inflation factor (VIF). Cara mendeteksi ada tidaknya
multikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan
Spearmans Rho Correlation dapat dilakukan apabila data dengan skala ordinal (Kuncoro,
2001: 114). Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson
Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap memenuhi
syarat untuk dilakukan. Pengujian multikolinearitas menggunakan angka korelasi
dimaksudkan untuk menentukan ada tidaknya multikolinearitas. Mengacu pendapat Pindyk
dan Rubinfeld, yang mengatakan bahwa apabila korelasi antara dua variabel bebas lebih
tinggi dibanding korelasi salah satu atau kedua variabel bebas tersebut dengan variabel
terikat. Juga pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua
variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati
juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar
dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat
dikatakan tidak terdapat masalah yang serius. Dengan demikian, dapat disimpulkan bahwa
apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah
multikolinearitas. Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak
terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan mempertimbangkan
sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan
prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

o. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?


Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan
nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb)
cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga
data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan
hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,

akan menghasilkan bilangan pembagian,

Sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb
akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
p. Jelaskan apa yang dimaksud dengan normalitas!
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e)
memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum
ataupun setelah tahapan analisis regresi. Hanya saja pengalaman menunjukkan bahwa
pengujian normalitas yang dilakukan sebelum tahapan regresi lebih efisien dalam waktu.
q. Jelaskan kenapa normalitas timbul!
Normalitas timbul untuk menghindari dampak yang mungkin akan ditimbulkan dari adanya
ketidaknormalan data seperti bias pada nilai t hitung dan nilai F hitung. Pengujian normalitas
ini berdampak pada nilai t dan F karena pengujian terhadap keduanya diturunkan dari asumsi
bahwa data Y atau e berdistribusi normal.

r. Bagaimana cara mendeteksi masalah normalitas?


Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai
median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean
dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika
dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral
(Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:

dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai berikut:

Kurtosis dapat dicari dengan formula sebagai berikut:


3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data
observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data,
langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari
melalui rumus sebagai berikut:

Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi simetris data.

s. Apa konsekuensi dari adanya masalah normalitas dalam model?


Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi normal
atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada masalah karena uji
t dan uji F dapat dilakukan (Kuncoro, 2001: 110). Apabila data tidak normal, maka
diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar
sampel, atau melakukan transformasi data. Data yang tidak normal juga dapat dibedakan dari
tingkat kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut positif
skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data
dikatakan normal jika datanya simetris.
t. Bagaimana cara menangani jika data ternyata tidak normal?
Langkah transformasi data sebagai upaya untuk menormalkan sebaran data dapat dilakukan
dengan merubah data dengan nilai absolut ke dalam bilangan logaritma. Dengan
mentransformasi data ke bentuk logaritma akan memperkecil error sehingga kemungkinan
timbulnya masalah heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).

Anda mungkin juga menyukai