Anda di halaman 1dari 19

BAB V

UJI ASUMSI KLASIK

A. RANGKUMAN
Munculnya kewajiban untuk memenuhi Asumsi dalam regresi linear
sederhana maupun linear berganda mengandung arti bahwa formula atau rumus
regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat
diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsiasumsi
yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi
yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai
estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best,
Linear, Unbiased, Estimator.
1. Best dimaksudkan sebagai terbaik. analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi
atau peramalan dari sebaran data, menghasilkan error yang terkecil. Error itu
sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh
garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak
bias (unbiased), maka estimator regresi akan efisien.
2. Linear mewakili linear dalam model, maupun linear dalam parameter. Linear
dalam model artinya model yang digunakan dalam analisis regresi telah sesuai
dengan kaidah model OLS dimana variabel-variabel penduganya hanya
berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa
parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila
diukur dengan nilai rata-rata.
3. Unbiased atau tidak bias, suatu estimator dikatakan unbiased jika nilai harapan
dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b =
b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
4. Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah
tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari
ketiga hal sebelumnya itu.

Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-
asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan
OLS, yaitu:
Asumsi 1 : Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.

Y = a + bX +e

Untuk model regresi Y = a + bX + cX2 + e


Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam
parameter sehingga OLS masih dapat diterapkan.

Asumsi 2 : Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in


repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu
diuji. Sebagian cukup hanya diasumsikan, sedangkan sebagian yang
lain memerlukan test. Tepatnya bahwa nilai X adalah nonstochastic
(tidak random).
Asumsi 3 : Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat
di tengah. Bisa saja terdapat error yang berada di atas garis regresi
atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus
bernilai nol.
Asumsi 4 : Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data
Y pada setiap X memiliki rentangan yang sama. Jika rentangannya
tidak sama, maka disebut heteroskedastisitas
Asumsi 5 : Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6 : Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e
berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit
dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7 : Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain,
sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama
atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
Asumsi 8 : Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9 : Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau
sesuai dengan teori.
Asumsi 10 : Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.

Penyimpangan masing-masing asumsi tidak mempunyai dampak yang sama


terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya
asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah
signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus
multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih
signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi
penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak
menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak
signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk
memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi
dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi,
heteroskedastisitas, atupun multikolinearitas.

Uji Autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode
tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat
autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data
jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya
saja masalah autokorelasi lebih sering muncul pada data time series, karena lekat
dengan kontinyuitas dan adanya sifat ketergantungan antar data.
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang
mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak
konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi
berdampak pada observasi lain.
Autokorelasi akan muncul apabila ada ketergantungan atau adanya
kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya. Jika
terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:
E(ui, uj) 0; i j
Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya
kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya
maka masalah autokorelasi tidak akan muncul. Hal seperti itu dalam bahasa
matematisnya dituliskan sebagai berikut: E(ui, uj) = 0; i j
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya
masalah autokorelasi antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk
menganalisis regresi tidak didukung oleh teori-teori yang relevan dan
mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang
dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja
yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah
Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi. Alur
berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan
meningkat tentu akan pula diikuti dengan permintaan yang meningkat pula,
Jika jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat,
ini berarti inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai
prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data
bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba
menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui
cara interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan
tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu
akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk
terjadi autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan,
terkesan bahwa data tersebut tidak didukung oleh realita.

Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,,bn)


model regresi tetap linear dan tidak bias dalam memprediksi B (parameter
sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1,
Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena
nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi,


antara lain melalui:
1. Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan
sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut:
atau dapat pula ditulis dalam rumus sebagai berikut

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin


Watson (DW test) dapat dimulai dari menentukan hipotesis. Rumusan
hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial
autokorelasi baik positif maupun negatif. Misalnya: terdapat autokorelasi positif,
atau, terdapat autokorelasi negatif. Bertolak dari hipotesis tersebut, maka perlu
mengujinya karena hipotesis sendiri merupakan jawaban sementara yang masih
perlu diuji. Terdapat beberapa standar keputusan yang perlu dipedomani ketika
menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW
berada.
2. Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag.
Sehingga terdapat variabel tambahan yang dimasukkan dalam model.
Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan
demikian model dalam LM menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan
untuk mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri
merupakan rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1
periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya
tergantung pada jenis data apakah data harian, bulanan, tahunan. Lag 1 data
harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan
seterusnya. Sebagai kunci untuk mengetahui pada lag berapa autokorelasi
muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran
yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan
dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat
masalah autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode
sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu
dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan
dengan kurun waktu lag tersebut.
B. KESIMPULAN

MENJAWAB PERTANYAAN- PERTANYAAN


a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least square (OLS). Jika hasil
regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh
akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased,
Estimator.

b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!


Asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori
tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan
asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat
penerapan OLS, yaitu:
Asumsi 1 : Linear regression Model. Model regresi merupakan hubungan linear
dalam parameter.

Y = a + bX +e

Untuk model regresi Y = a + bX + cX2 + e


Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang
linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2 : Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in


repeated sampling). Dari sepuluh asumsi di atas tidak semuanya perlu
diuji. Sebagian cukup hanya diasumsikan, sedangkan sebagian yang
lain memerlukan test. Tepatnya bahwa nilai X adalah nonstochastic
(tidak random).
Asumsi 3 : Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat
di tengah. Bisa saja terdapat error yang berada di atas garis regresi
atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus
bernilai nol.
Asumsi 4 : Homoskedastisitas, atau variabel pengganggu e memiliki variance
yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data
Y pada setiap X memiliki rentangan yang sama. Jika rentangannya
tidak sama, maka disebut heteroskedastisitas
Asumsi 5 : Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6 : Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e
berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit
dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti
terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7 : Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain,
sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama
atau bahkan lebih besar dari jumlah observasi, maka persamaan
regresi tidak akan bisa diestimasi.
Asumsi 8 : Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9 : Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau
sesuai dengan teori.
Asumsi 10 : Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.

c. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!


d. Jelaskan apa yang dimaksud dengan autokorelasi!
Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah
terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah
keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan
variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series)
ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih
sering muncul pada data time series, karena sifat data time series ini sendiri lekat
dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada
data cross section hal itu kecil kemungkinan terjadi.

e. Jelaskan kenapa autokorelasi timbul!


Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya
masalah autokorelasi antara lain:
1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk
menganalisis regresi tidak didukung oleh teori-teori yang relevan dan
mendukung.
2. Tidak memasukkan variabel yang penting. Variabel penting yang
dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja
yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah
Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi. Alur
berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan
meningkat tentu akan pula diikuti dengan permintaan yang meningkat pula,
Jika jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat,
ini berarti inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai
prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data
bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba
menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui
cara interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan
tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu
akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk
terjadi autokorelasi.
4. Menggunakan data yang tidak empiris. Jika data semacam ini digunakan,
terkesan bahwa data tersebut tidak didukung oleh realita.

f. Bagaimana cara mendeteksi masalah autokorelasi?


Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1) Uji Durbin-Watson (DW Test).
Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya
serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan
Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan
sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut:

atau dapat pula ditulis dalam rumus sebagai berikut

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random (nonstochastics).
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.
Langkah-langkah pengujian autokorelasi menggunakan uji Durbin
Watson (DW test) dapat dimulai dari menentukan hipotesis. Rumusan
hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial
autokorelasi baik positif maupun negatif. Misalnya: terdapat autokorelasi
positif, atau, terdapat autokorelasi negatif. Bertolak dari hipotesis tersebut,
maka perlu mengujinya karena hipotesis sendiri merupakan jawaban
sementara yang masih perlu diuji. Terdapat beberapa standar keputusan yang
perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan
lokasi dimana nilai DW berada.

2) Menggunakan metode LaGrange Multiplier (LM).


LM sendiri merupakan teknik regresi yang memasukkan variabel lag.
Sehingga terdapat variabel tambahan yang dimasukkan dalam model.
Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan
demikian model dalam LM menjadi sebagai berikut:

Variabel Yt-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.
Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan
untuk mengetahui pada lag berapa problem otokorelasi muncul. Lag sendiri
merupakan rentang waktu. Lag 1 menunjukkan adanya kesenjangan waktu 1
periode, sedang lag 2 menunjukkan kesenjangan waktu 2 periode. Periodenya
tergantung pada jenis data apakah data harian, bulanan, tahunan. Lag 1 data
harian berarti ada kesenjangan satu hari, lag 2 kesenjangan 2 hari dan
seterusnya. Sebagai kunci untuk mengetahui pada lag berapa autokorelasi
muncul, dapat dilihat dari signifikan tidaknya variabel lag tersebut. Ukuran
yang digunakan adalah nilai t masing-masing variabel lag yang dibandingkan
dengan t tabel, seperti yang telah dibahas pada uji t sebelumnya.
Misalnya variabel Yt-1 mempunyai nilai t signifikan, berarti terdapat masalah
autokorelasi atau pengaruh kesalahan pengganggu mulai satu periode
sebelumnya. Jika ini terjadi, maka untuk perbaikan hasil regresi perlu
dilakukan regresi ulang dengan merubah posisi data untuk disesuaikan
dengan kurun waktu lag tersebut.

g. Apa konsekuensi dari adanya masalah autokorelasi dalam model?


Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,,bn) model
regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya).
Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan
bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka
nilai t juga akan bias atau bersifat tidak pasti (misleading).

h. Jelaskan apa yang dimaksud dengan heteroskedastisitas!


Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada
model regresi linier, adalah residual harus homoskedastis, artinya, variance
residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e
kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi
masalah heteroskedastisitas.

i. Jelaskan kenapa heteroskedastisitas timbul!


Heteroskedastisitas muncul apabila kesalahan atau residual dari model
yang diamati tidak memiliki varians yang konstan dari satu observasi ke
observasi lainnya (Kuncoro, 2001: 112).
Padahal rumus regresi diperoleh dengan asumsi bahwa variabel
pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan
(rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka
kondisi tersebut dikatakan tidak homoskedastik atau mengalami
heteroskedastisitas (Setiaji, 2004: 17).
j. Bagaimana cara mendeteksi masalah heteroskedastisitas?
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan
dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearmans
Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier (Setiaji,
2004: 18).
Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan
dengan membandingkan sebaran antara nilai prediksi variabel terikat dengan
residualnya, yang output pendeteksiannya akan tertera berupa sebaran data pada
scatter plot. Dengan menggunakan alat bantu komputer teknik ini sering dipilih,
karena alasan kemudahan dan kesederhanaan cara pengujian, juga tetap
mempertimbangkan valid dan tidaknya hasil pengujian.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan
cara melakukan regresi atas residual, dengan model yang dapat dituliskan e2 a
bY 2 u.
Dari hasil regresi tersebut dihitung nilai R2. Nilai R2 tadi dikalikan
dengan jumlah sampel (R2 x N). Hasil perkalian ini kemudian dibandingkan
dengan nilai chi-square ( 2) pada derajat kesalahan tertentu.
Dengan df=1 (ingat, karena hanya memiliki satu variabel bebas). Jika R2
x N lebih besar dari chi-square ( 2) tabel, maka standar error mengalami
heteroskedastisitas. Sebaliknya, jika R2 x N lebih kecil dari chi-square ( 2)
tabel, maka standar error telah bebas dari masalah heteroskedastisitas, atau telah
homoskedastis.

k. Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?


Asumsi regresi linier yang berupa variance residual yang sama, menunjukkan
bahwa standar error (Sb) masing-masing observasi tidak mengalami perubahan,
sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga
variance residualnya berubah-ubah sesuai perubahan observasi, maka akan
mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Selain itu, adanya kesalahan dalam model yang dapat mengakibatkan nilai b
meskipun tetap linier dan tidak bias, tetapi nilai b bukan nilai yang terbaik.
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi
bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat
ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai
Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa
nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t
menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil.
Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak
signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang
mengacaukan.

l. Jelaskan apa yang dimaksud dengan multikolinearitas!


Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
perfect atau eksak di antara variabel penjelas yang dimasukkan ke dalam
model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan
lemah, tidak berkolinear, dan sempurna.

m. Jelaskan kenapa multikolinearitas timbul!


Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya
mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas
memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat
lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat
dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berkolinear jika
antara variabel penjelas tidak mempunyai sama sekali kesamaan.

n. Bagaimana cara mendeteksi masalah multikolinearitas?


Terdapat beragam cara untuk menguji multikolinearitas, di antaranya:
menganalisis matrix korelasi dengan Pearson Correlation atau dengan
Spearmans Rho Correlation, melakukan regresi partial dengan teknik auxilary
regression, atau dapat pula dilakukan dengan mengamati nilai variance inflation
factor (VIF). Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung
nilai korelasi antar variabel dengan menggunakan Spearmans Rho Correlation
dapat dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114).
Sementara untuk data interval atau nominal dapat dilakukan dengan Pearson
Correlation. Selain itu metode ini lebih mudah dan lebih sederhana tetapi tetap
memenuhi syarat untuk dilakukan. Pengujian multikolinearitas menggunakan
angka korelasi dimaksudkan untuk menentukan ada tidaknya multikolinearitas.
Mengacu pendapat Pindyk dan Rubinfeld, yang mengatakan bahwa apabila
korelasi antara dua variabel bebas lebih tinggi dibanding korelasi salah satu atau
kedua variabel bebas tersebut dengan variabel terikat. Juga pendapat Gujarati
(1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas
melebihi 0,8 maka multikolinearitas menjadi masalah yang serius. Gujarati juga
menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar
dibanding korelasi variabel terikat dengan masing-masing variabel penjelas,
maka dapat dikatakan tidak terdapat masalah yang serius. Dengan demikian,
dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat
dikatakan telah terbebas dari masalah multikolinearitas. Dalam kaitan adanya
kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas
dari masalah multikolinearitas, dengan mempertimbangkan sifat data dari cross
section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi,
hasil regresi dapat ditolerir, sepanjang nilai t signifikan.

o. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?


Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan
dalam suatu penelitian, karena apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak
dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap
nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna
sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak
dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas
terdahulu,
akan menghasilkan bilangan pembagian,

Sehingga nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada
standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil
nilai t.

p. Jelaskan apa yang dimaksud dengan normalitas!


Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel
penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data
dapat dilakukan sebelum ataupun setelah tahapan analisis regresi. Hanya saja
pengalaman menunjukkan bahwa pengujian normalitas yang dilakukan sebelum
tahapan regresi lebih efisien dalam waktu.

q. Jelaskan kenapa normalitas timbul!


Normalitas timbul untuk menghindari dampak yang mungkin akan ditimbulkan
dari adanya ketidaknormalan data seperti bias pada nilai t hitung dan nilai F
hitung. Pengujian normalitas ini berdampak pada nilai t dan F karena pengujian
terhadap keduanya diturunkan dari asumsi bahwa data Y atau e berdistribusi
normal.

r. Bagaimana cara mendeteksi masalah normalitas?


Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan nilai statistik, yaitu
antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika
perbandingan antara mean dan median menghasilkan nilai yang kurang lebih
sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan
angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai
berikut:

dimana:
S = Skewness (kemencengan) distribusi data
K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai berikut:

Kurtosis dapat dicari dengan formula sebagai berikut:

3) Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa


prosentase ata observasi dan berada di area mana. Untuk menentukan posisi
normal dari sebaran data, langkah awal yang dilakukan adalah menghitung
standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:

Standar deviasi ini digunakan untuk menentukan rentang deviasi dari posisi
simetris data.
s. Apa konsekuensi dari adanya masalah normalitas dalam model?
Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data
berdistribusi normal atau tidak normal. Apabila data telah berdistribusi
normal maka tidak ada masalah karena uji t dan uji F dapat dilakukan
(Kuncoro, 2001: 110). Apabila data tidak normal, maka diperlukan upaya
untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel,
atau melakukan transformasi data. Data yang tidak normal juga dapat
dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung
menceng ke kiri disebut positif skewness, dan jika data cenderung menceng
ke kanan disebut negatif skewness. Data dikatakan normal jika datanya
simetris.

t. Bagaimana cara menangani jika data ternyata tidak normal?


Langkah transformasi data sebagai upaya untuk menormalkan sebaran data
dapat dilakukan dengan merubah data dengan nilai absolut ke dalam bilangan
logaritma. Dengan mentransformasi data ke bentuk logaritma akan
memperkecil error sehingga kemungkinan timbulnya masalah
heteroskedastisitas juga menjadi sangat kecil (Setiaji, 2004: 18).

Anda mungkin juga menyukai