Anda di halaman 1dari 12

BAB V

UJI ASUMSI KLASIK

Tugas:
1. Buatlah rangkuman dari pembahasan di atas!
2. Cobalah untuk menyimpulkan maksud dari uraian bab ini!
3. Jawablah pertanyaan-pertanyaan di bawah ini:
a. Coba jelaskan apa yang dimaksud dengan asumsi klasik!
b. Sebutkan apa saja asumsi-asumsi yang ditetapkan!
c. Coba jelaskan mengapa tidak semua asumsi perlu lakukan pengujian!
d. Jelaskan apa yang dimaksud dengan autokorelasi!
e. Jelaskan kenapa autokorelasi timbul!
f. Bagaimana cara mendeteksi masalah autokorelasi?
g. Apa konsekuensi dari adanya masalah autokorelasi dalam model?
h. Jelaskan apa yang dimaksud dengan heteroskedastisitas!
i. Jelaskan kenapa heteroskedastisitas timbul!
j. Bagaimana cara mendeteksi masalah heteroskedastisitas?
k. Apa konsekuensi dari adanya masalah heteroskedastisitas dalam model?
l. Jelaskan apa yang dimaksud dengan multikolinearitas!
m. Jelaskan kenapa multikolinearitas timbul!
n. Bagaimana cara mendeteksi masalah multikolinearitas?
o. Apa konsekuensi dari adanya masalah multikolinearitas dalam model?
p. Jelaskan apa yang dimaksud dengan normalitas!
q. Jelaskan kenapa normalitas timbul!
r. Bagaimana cara mendeteksi masalah normalitas?
s. Apa konsekuensi dari adanya masalah normalitas dalam model?
t. Bagaimana cara menangani jika data ternyata tidak normal?

Jawab:
1. Dalam memenuhi asumsi pada regresi linear sederhana maupun regresi linear
berganda perlu memenuhi asumsi yang mengandung arti bahwa formula atau rumus
regresi diturunkan dari suatu asumsi tertentu. Artinya tidak semua data dapat
diperlakukan dengan regeresi, jika data yang diregresi tidak memenuhi asumsi yang
telah disebutkan maka regresi yang diterapkan akan mengalami estimasi bias.Apabila
regresi memenuhi asumsi-asumsi regresi maka nilai estimasi akan bersifat BLUE
(Best, Linear, Unbiased, Estimator ).

Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna
melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang
terkecil. Error adalah perbedaan antara nilai observasi dan nilai yang diramalakan
oleh garis regresi. Jika garis regresi telah Best dan disertai kondisi tidak bias
(unbiased), maka estimator regresi akan efisien.

Linear dalam model artinya digunakan dalam analisi regresi telah sesuai
dengan kaidah model OLS yang variabel-variabel penduganya hanya berpangkat satu.
Linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan
fungsi linear dari sampel.

Unbiased suatu estimator dikatakan unbiased jika nilai harapan dari nilia
estimator b sama dengan nilai yang benar dari b. Artinya nilai rata-rata b = b. Bila
tidak sama, maka selisihnya itu disebut dengan bias.

Estimator yang efisien dapat ditemukan apabila ketiga kondisi diatas telah
tercapai, karena sifat estimator merupakan konklusi. Meskipun nilai t sudah signifikan
ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang
sesungguhnya.

Uji Autokorelasi

Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu


berkorelasi dengan variabel gangguan pada periode lain. Masalah autokorelasi lebih
sering muncul pada data time series, karena sifat data ini lekat dengan kontiyuitas dan
adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu
kemungkinan kecil terjadi. Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e
yang mempunyai rata-rata nol dan variannya konstan.
Sebab-sebab autokorelasi :

1. Kesalahan dalam pembentukan model.


2. Tidak memasukkan variabel yang penting. Variabel yang dimaksud adalah
variabel yang signifikan mempengaruhi variabel Y.
3. Manipulasi data.
4. Menggunakan data yang tidak empiris.

Akibat autokorelasi

Nilai parameter estimator (b1, b2,.....bn) model regresi tetap linear dan tidak
bias dalam memprediksi B (parameter sebenarnya). Nilai variance tidak minimum dan
standard error akan bias. Akibatnya adalah nilai t hitung akan menjadi bias, karena
nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).

Pengujian Autokorelasi :

- Uji Durbin Watson (DW Test)


Formula yang digunakan untuk mendeteksi dikenal dengan sebutan Durbin
Watson d statistic, ditulis sebagai berikut :

Dalam DW test ini perlu memtuhi asumsi penting, yaitu :


- Terdapat intercept dalam model regresi.
- Variabel penjelasnya tidak random.
- Tidak ada unsur lag dari variabel dependen di dalam model.
- Tidak ada data yang hilang.

Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan


DW test, yang semuanya mennetukan lokasi dimana DW berada :

DW < dL = terdapat autokorelasi postif


dL< DW< dU = tidak dapat disimpulkan (inconlusive)

dU > DW > 4-dU = tidak terdapat autokorelasi

4-dU < DW < 4-dL = tidak dapat disimpulkan (inconclusive)

DW > 4-dL = terdapat autokorelasi negatif

Dimana :

DW = Nilai Durbin-Watson d statistik

dU = Nilai batas atas (didapat dari tabel)

dL = Nilai batas bawah (didapat dari tabel)

- Menggunakan metode LaGrange Multiplier (LM)


LM

Y = 0 + 1X1 + 2X2 + 3Y t-1 + 4 Yt-2 +

Variabel Y t-1 merupakan variabel lag 1 dari Y.


Variabel Yt-2 merupakan variabel lag 2 dari Y.

Lag 1 dan Lag 2 variabel Y dimasukkan dalam model ini bertujuan untuk
mengetahui pada lag berapa problem autokorelasi muncul. Lag 1 menunjukkan
adanya kesenjangan waktu 1 periode, sedang lag 2 menunjukkan kesenjangan waktu 2
periode. Periodenya tergantung pada jenis data apakah data harian, bulanan, tahunan.

Untuk mengetahui pada lag berapa autokorelai muncul, dapat dilhat dari
signifikan tidaknya variabel lag tersebut. Ukuran yang digunakan adalah nilai t
masing-masing variabel lag yang dibandingkan dengan t tabel.

Uji Normalitas

Tujuan dilakukan uji normalitas adalah untuk menguji aspek variabel


pengganggu (e) memiliki distribusi normal atau tidak. Beberapa cara dapat dilakukan
untuk melakukan uji normalitas antara lain :

1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu anatar nilai
median dengan nilai mean. Data dikatakan normal jika perbandingan anatara mean
dan median menghasilkan nilai yang kurang lebih sama.
2. Menggunakan formula Jarque Bera (JB test) dengan rumus sebagai berikut :
2 3 2
JB = n [ 6 + ]
24

Dimana:
S = Skewness (kemencengan) distribusi data
K = Kurtosis (keruncingan)

Skewness dapat dicari dengan formula sebagai berikut:

Kurtosis dapat dicari dengan formula sebagai berikut:


3. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase
data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran
data, langkah awal yag dilakukan adalah menghitung standar deviasi.

Standar deviasi digunakan untuk menentukan rentang deviasi dan posisi simetris
data.
Dalam pengujian normalitas mempunyai dua kemungkinan, yaitu data berdistribusi
normal atau tidak normal. Apabila data telah berdistribusi normal maka tidak ada
masalah, karena uji t dan uji F dapat dilakukan (Kuncoro, 2001 110). Apabila data
tidak normal, maka diperlukan upaya untuk mengatasi seperti : memotong data yang
out liers, memperbesar sampel, atau melakukan transformasi data. Jika data
cenderung menceng ke kiri disebut positif skewness, dan jika cenderung ke kanan
disebut negatif skewness.

Uji Heteroskedastisitas
Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang
diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya
(Kuncoro, 2001:112). Masalah heteroskedastisitas lebih sering muncul dalam data
cross section dari pada data time series (Kuncoro, 2001:112; Setiaji, 2004:17 ).

Konsekuensi Heteroskedasitas

Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu


asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random
sesuai dengan besarnya variabel-variabel independen (Arsyad, 1994:198). Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t
dihasilkan dari hasil bagi antara b dengan Sb.
Pendeteksian Heteroskedasitas

Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan


membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya,
yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Pengujian heteroskedastisitas menggunakan uji Arch, dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + b2 + u.

Uji Multikolinieritas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang
perfect atau eskak diantara variabel penjelas yang dimasukkan ke dalam model.
Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak
berkolinear, dan sempurna.

Konsekuensi Multikolinieritas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan
dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas
akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai
standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian
nilainya, sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).

Pendeteksian Multikolinieritas
Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai korelasi
antar variabel dengan menggunakan Spearmans Rho Correlation dapat dilakukan
apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara untuk data
interval atau nominal dapat dilakukan dengan Pearson Correlation. Selain itu metode
ini lebih mudah dan lebih sederhana tetapi tetap memenuhi syarat untuk dilakukan.
Pengujian multikolinearitas menggunakan angka korelasi dimaksudkan untuk
menentukan ada tidaknya multikolinearitas. Apabila angka korelasi lebih kecil dari
0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.

1. Uji asumsi klasik digunakan untuk memenuhi asumsi formula atau rumus regresi
yang diturunkan dari suatu asumsi tertentu. Regresi yang memenuhi asumsi-
asumsi regresi akan bersifat BLUE yaitu singkatan dari Blue, Linear, Unbiased,
dan Estimator. Untuk menghasilkan hasil regresi yang BLUE (Best, Linear,
Unbiased, Estimator) maka perlu adanya pengujian yang diperlukan, yaitu dengan
uji autokorelasi, uji normalitas, uji heteroskedasitas dan uji multikolinearitas.

2. a) Asumsi klasik adalah suatu syarat yang harus ada atau dipenuhi dalam regresi
linear sederhana atau regresi linear berganda dengan menghasilkan nilai parameter
yang memenuhi asumsi tidak ada autokorelasi, tidak ada multikolinearitas, dan
tidak ada heteroskedasitas sehingga menghasilkan hasil regresi yang BLUE (best,
linear, unbiased, estimator).

b) Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear


dalam parameter.
Asumsi 2: Nilai X adalah tetap dalam sampling yang
diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah
nonstochastic(tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of
disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah.
Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X
memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas.
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.Ini berarti kita dapat
memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi
maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-
masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau
non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah
parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya
jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar
dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama
sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada
spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan
teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear
antara variabel penjelas tidak boleh sempurna atau tinggi.

c) Karena asumsi-asumsi tersebut telah memenuhi asumsi regresi dan nilai yang
diperoleh telah bersifat BLUE (Best, Linear, Unbiased, Estimator).

d) Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu


berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul
bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu
(time series) atau data kerat silang (cross section). Masalah autokorelasi lebih
sering muncul pada data time series, karena sifatnya lekat dengan kontinyuitas dan
adanya sifat ketergantungan antar data, sedangkan pada cross section hal itu kecil
kemungkinan terjadi.

e) 1. Kesalahan dalam pembentukan model, artinya model yang digunakan untuk


menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.Tidak memasukkan variabel yang penting. Variabel penting yang dimaksud
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
3.Manipulasi data.
4. Menggunakan data yang tidak empiris.

f) Cara menguji autokorelasi ayitu dengan cara :


1) Uji Durbin-Watson (DW Test). Dengan langkah-langkahnya menentukan
hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya
tidak ada serial autokorelasi baik positif maupun negatif.
2) Menggunakan metode LaGrange Multiplier (LM). LM sendiri merupakan
teknik regresi yang memasukkan variabel lag, sehingga terdapat variabel
tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data
Lag dari variabel dependen.
g) Nilai parameter estimator (b1, b2,.....bn) model regresi tetap linear dan tidak
bias dalam memprediksi B (parameter sebenarnya). Nilai variance tidak minimum
dan standard error akan bias. Akibatnya adalah nilai t hitung akan menjadi bias,
karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb).

h) Heteroskedastisitas adalah residual yang harus homoskedastis, artinya variance


residual harus memiliki variabel yang konstan atau dengan kata lain rentangan e
kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi
masalah heteroskedastisitas.

i) Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang


diamati tidak memiliki varians yang konstan dari satu observasi ke observasi
lainnya (Kuncoro, 2001:112). Masalah heteroskedastisitas lebih sering muncul
dalam data cross section dari pada data time series (Kuncoro, 2001:112; Setiaji,
2004:17 ).

j) Pengujian heteroskedastisitas menggunakan uji grafik, dapat dilakukan dengan


membandingkan sebaran antara nilai prediksi variabel terikat dengan residualnya,
yang output pendeteksiannya akan tertera berupa sebaran data pada scatter plot.
Pengujian heteroskedastisitas menggunakan uji Arch dilakukan dengan cara
melakukan regresi atas residual, dengan model yang dapat dituliskan e2 = a + b2
+ u.

k) Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi


bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.
Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb.

l) Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang


perfect atau eskak diantara variabel penjelas yang dimasukkan ke dalam model.
Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah,
tidak berkolinear, dan sempurna.
m) Multikolinieritas timbul karena nilai koefisien regresi (b) masing-masing
variabel bebas dan standar error nya (Sb) cenderung bias dalam arti tidak dapat
ditentukan kepastian nilainya.

n) Cara mendeteksi ada tidaknya multikolinieritas dengan menghitung nilai


korelasi antar variabel dengan menggunakan Spearmans Rho Correlation dapat
dilakukan apabila data dengan skala ordinal (Kuncoro, 2001: 114). Sementara
untuk data interval atau nominal dapat dilakukan dengan Pearson Correlation.

o) Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan


dalam suatu penelitian, karena apabila belum terbebas dari masalah
multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing
variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak
dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap
nilai t (Setiaji, 2004: 26).

p) Normalitas adalah untuk menguji aspek variabel pengganggu (e) memiliki


distribusi normal atau tidak yang dapat dilakukan sebelum atau setelah tahapan
analisis regresi.

q) Normalitas timbul karena mempunyai dua kemungkinan, yaitu apakah variabel


pengganggu pada data berdistribusi normal atau tidak normal.

r) Beberapa cara dapat dilakukan untuk melakukan uji normalitas antara lain :
1. Menggunakan metode numerik yang membandingkan nilai statistik, yaitu
antara nilai median dengan nilai mean. Data dikatakan normal jika perbandingan
anatara mean dan median menghasilkan nilai yang kurang lebih sama.
2. Menggunakan formula Jarque Bera (JB test) dengan rumus sebagai berikut :
2 3 2
JB = n [ 6 + ]
24

Dimana:
S = Skewness (kemencengan) distribusi data
K = Kurtosis (keruncingan)
Skewness dapat dicari dengan formula sebagai berikut:
Kurtosis dapat dicari dengan formula sebagai berikut:

3. Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa


prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal
dari sebaran data, langkah awal yag dilakukan adalah menghitung standar deviasi.

s) Konsekuensi normalitas dalam model berdampak pada nilai t dan F karena


pengujian terhadap keduanya diturunkan dari asumsi bahwa data Y atau e
berdistribusi normal.

t) Apabila data tidak normal, maka diperlukan upaya untuk mengatasi seperti :
memotong data yang out liers, memperbesar sampel, atau melakukan transformasi
data.

Supawi Pawenang , 2017, Ekonometrika, Uniba. www.uniba.ac.id