7 - Analisis Asumsi Klasik Regresi PDF
7 - Analisis Asumsi Klasik Regresi PDF
7.1 Pendahuluan
Dalam pembicaraan ini, secara umunm akan dibahas syarat-syarat atau asumsi-asumsi
dasar yang sering digunakan dalam analisis regresi yang disebut dengan asumsi klasik
dalam metode OLS (ordinary least squares) yang sangat sering dilanggar di dalam
melakukan estimasi sebuah model regresi, sehingga parameter yang diperoleh menjadi
menyimpang atau bias atau jauh dari harapan, tidak konsisten, dan tidak efisien. Apabila
dalam analisis regresi tidak didasarkan pada analisis yang benar maka akan
mengakibatkan hasil pedugaan regresi akan menyimpang dari harapan. Misalnya,
apabila dalam peubah bebas Xi terjadinya kolinieritas ganda yang sempurna akan
menyebabkan matriks X’X menjadi singular, sehingga tidak mempunyai determinan dan
akibatnya koefisien regresi bi tidak dapat diduga.
Untuk melakukan analisis regresi yang benar berdasarkan metode OLS, maka
diperlukan asumsi-asumsi yang harus dipenuhi di antaranya adalah:
1. Asumsi pertama yaitu: nilai tengah (mean value) dari komponen pengganggu ui,
yang ditimbulkan variabel eksplanatori atau variabel bebas X harus sama dengan nol.
2. Asumsi kedua yaitu: varians dari komponen penggangu ui harus konstan atau harus
memenuhi syarat homoskedastisitas atau setiap variabel bebas X mempunyai varians
komponen penggangu ui harus sama.
3. Asumsi ketiga yaitu: tidak terjadi autokorelasi antar komponen penggangu ui atau
harus konstan atau tidak terjadi korelasi antar Xt dengan Xt+1 dan seterusnya.
4. Asumsi keempat yaitu: variabel eksplanatori atau variabel bebas X nilainya harus
non stokastik atau apabila bersifat stokastik harus menyebar bebas dari komponen
pengganggunya.
5. Asumsi kelima yaitu: tidak terjadi multikolinieritas antarvariabel eksplanatori atau
variabel bebas X
6. Asumsi keemam yaitu: komponen pengganggu ui harus menyebar menurut sebaran
normal dengan nilai tengah μ = 0 dengan varians sebesar σ2 hal ini kalau terpenuhi,
maka asumsi 1) dan asumsi 2) secara otomatis telah terpenuhi. .
Dengan keenam asumsi tersebut di atas dapat diketahui bahwa estimator OLS dari
koefisien regresi bi ternyata bersifat BLUE (Best Linier Unbias Estimaior), dan atas
dasar asumsi normalitas maka estimator–estimator tersebut akan menyebar mengikuti
sebaran normal. Sehingga, hasilnya memungkinkan unuk mendapatkan suatu kisaran
atau range yang dapat diuji kebenarannya terhadap koefisien regresi populasi βi. Dalam
uraian selanjutnya tidak akan dibahas lebih mendalam untuk asumsi-asumsi pertama,
keempat, dan keenam, karena pelanggaran asumsi tersebut tidaklah serius akaibatnya
dalam analisis regresi.
7.1.1 Pelanggaran terhadap asumsi pertama
Pelanggaran terhadap asumsi pertama yang akibatnya tidaklah begitu parah
mempengaruhi hasil perhitungan dalam prakteknya, sebab hanya akan berpengaruh
pada nilai intersep atau b0 yaitu titik potong terhadap sumbu vertikal Y. Hal ini dapat
ditunjukkan dengan model persamaan:
Yi = B0 + B1 X1 + ui.
157
Apabila X dan u berkorelasi, maka bagian terakhir dari persamaan yang kedua di atas
tidak akan sama dengan nol. Oleh karena itu, E(b1) tidak akan sama dengan B1 atau
dikatakan sama dengan b1, tetapai akan membias. Dalam asumsi keempat nanti akan
dikatakan bahwa apabila terjadi bias tidak akan muncul jika jumlah sampelnya diperbesar
atau ditambah.
Jika variabel-variabel eksplanatori dan komponen pengganggu ui berkorelasi atau
keduanya berkorelasi maka metode OLS tidak dapat dipergunakan
7.1.3 Pelanggaran terhadap asumsi keenam
Pelanggaran terhadap asumsi keenam, dalam hal ini pelanggaran terhadat asumsi ini
tidaklah dianggap penting, sebab sebaran data yang normal sangat tergantung pada
jumlah sampel atau bagaimana data itu diambil atau dikumpulkan. Apabila tujuan
daripada analisis data hanya semata-mata untuk melakukan estimasi atau pendugaan
koefisisen regresi bi saja, maka sebaran nomar tidak dianggap penting. Telah diketahui
bahwa estimator OLS adalah bersifat BLUE apakah ui menyebar normal atau tidak
tidaklah dianggap mempengaruhi hasil analisis.
158
Istilah kolinieritas ganda dipergunakan dalam arti yang lebih luas yang mencakup
hubungan linier sempurna atau eksak seperti pada persamaan [7.1] dan juga di mana
variabel-variabel bebas X interkorelasi, akan tetapi tidak sempurna seperti hubungan
berikut:
[7.2] C1 X1 + C2 X2 + . . . + Ck Xk + Vi = 0.
Di mana: Vi adalah kesalahan pengganggu
Apabila ada dua variabel bebas X interkorelasi dapat diukur dengan koefisien korelasi
sederhana atau koefisien korelasi order nol, tetapi apabila terdapat lebih dari dua variabel
bebas X interkorelasi dapat diukur dengan koefisien korelasi parsial atau koefisien
korelasi berganda antara satu variabel bebas X dengan sisa variabel bebas X lainnya
secara simultan.
Untuk mengetahui perbedaan antara hubungan linier sempurna dan hampir sempurna,
dengan anggapan C2 ≠ 0. Persamaan [7.1] dapat ditulis seperti berikut:
C1 C C
[7.3] X 2i = X 1i − 3 X 3i − . . . − k X ki C1 X1.
C2 C2 C2
159
Bahwa dari persamaan [7.4] menunjukkan tidak terjadi hubungngan linier sempurna
dengan sisa variabel lainnya, sebab masih tergantung pada kesalahan pengganggu
dengan kesalahan stokastik (stocastic error term).
Sebagai teladan perhatikan data hipotetis berikut:
X1 X2 X3*
0 50 50
15 75 75
18 90 97
24 120 150
30 150 152
Dari tabel data di atas terlihat bahwa X2 = 5X1 menunjukkan hubungan yang sepurna
antara X1 dengan X2 dikarenakan terdapat nilai koefisien korelasi antara X1 dengan X2
yaitu r12 = 1 (coba anda hitung sendiri lagi besarnya nilai r12 tersebut). Apabila data X3
diperhatikan dengan baik, ternyata nilai data X 3 dapat diperoleh dari data X2 dengan
menambahkan suatu nilai atau apabilangan sebesar 2; 0; 7; 9; dan 2 terhadap data X2,
sehibngga tidak terdapat hubungan yang sempurna antara X2 dengan X3,
tetapi hubungannya sangat kuat karena koefisien korelasi antaraa X2 dengan X3
dengan r23 = 0,9959 mendekat 1 (unity).
Perlu ditegaskan di sini bahwa kolinieritas ganda hanya berlaku untuk hubungan linier
antara variabel bebas Xi, dan tidak berlaku bagi hubungan yang bukan linier atau
non linier.
Mengapa perlu adanya nonkolinieritas pada variabel bebas X dalam analisis regresi
linier, hal ini diperlukan dengan alasan bahwa apabila terjadi kolinieritas antara variabel
bebas X yang bersifat sempurna seperti contoh data di atas maka dari variabel bebas X
yang berkorelasi linier sempurna koefisien regresinya tidak akan dapat diestimasi
bahkan tidak dapat ditentukan, serta salah baku koefisien regresi bernilai tidak berhingga
(infinite). Apabila terjadi kolinieritas yang kurang sempurna, koefisien regresi tetap masih
bisa ditentukan, tetapi akan mempunyai nilai salah baku koefisien regresi yang sangat
besar, sehingga koefisien regresi regresi tidak dapat diperkirakan dengan pasti sampai
tinggkat ketelitian yang tinggi (pendugaan nilai beta tidak didapatkan).
Dalam analisis regresi yang dilakukan, telah terdapat anggapan bahwa variabel bebas X
adalah bersifat bebas sesamanya di dalam mempengaruhi variabek tak bebas Y. Kalau
terjadi hubungan linier yang kuat pada semua variabel bebas X, akan berdampak pada
tidak dapat melakuakan pemisahan pengaruh individu masing-masing variabel bebas X
terhadap variabel Y.
Sebagai ilustrasi, di mana sulit memisahkan antara pengaruh kekayaan dan pendapatan
terhadap konsumsi dapat ditulis dengan persamaan:
[7.5] Konsumsi = B1 + B2 pendapatan + B3 kekayaan + ε atau dapat ditulis
Konsumsi = B1 + B2 X2i + B3 X3i + εi
Dalam contoh di atas bisa terjadi bahwa antara kekayaan dan pendapatan mempunyai
koefisien korelasi yang mendekati satu (unity) sebab orang kaya bisa pendapatanya
tinggi. Secara logika antara kekayaan dan pendapatan berpengaruh sendiri-sendiri
terhadap konsumsi, dalam kenyataannya sulit dibedakan atau dipisahkan.
160
[7.6a] B1 =
∑ x22 ∑ x1 y − ∑ x2 y ∑ x1 x2 `
∑ x12 ∑ x22 − (∑ x1 x2 )
2
[7.6b]. B2 =
∑ x12 ∑ x2 y − ∑ x1 y ∑ x1 x2
∑ x12 ∑ x22 − (∑ x1 x2 )
2
∑ (k x1 ) 2 ∑ x1 y − ∑ k x1 y ∑ x1 k x1
B2 = `
∑ x12 ∑ (k x1 ) − (∑ x1k x1 )
2 2
k 2 ∑ x 12∑ x1 y − k ∑ x 1 y k ∑ x12 `
=
∑ x12 k 2 ∑ x12 − k 2 (∑ x 12 )
2
Nilai B1di atas tidak dapat ditentukan, demikian juga halnya dengan nilai B2. karena
kernilai nol dibagi dengan nol.
Ingat arti dari nilai B1 dan B2. yang menyebabkan perubahan yang terjadi pada nilai Y
apabila nilai X1 berubah satu unit, dengan anggapan bahwa nilai X2 konstan atau tetap.
Dalam pengertian di mana X1 dan X2 berkorelasi dengan sempurna, maka tidak dapat
membuat X1 yang konstan apabila X2 berubah, karena perubahan X2 akan diikuti oleh
perubahan X1 dengan perubahan berkelipatan k. Ini berart tidak dapat memisahkan
antara X1 dan X2. terhadap Y apabila terjadi korelasi yang sempurna...
161
[7.8]. r12 =
∑ x1 x2
∑ x12 ∑ x22
=
∑ (dx 2 + V ) x2
∑ (dx 2 + V ) 2 ∑ x 22
=
∑ dx22
d 2 (∑ ( x 22 ) 2 + ∑ V 2 ∑ x 22
Dari analisis regresi linier sederhana bahwa nilai koefisien korelasi adalah:
d 2 ∑ x 22
[7.9] r12 =
d 2 (∑ x 22 + ∑V 2
Apabila ∑ V 2 = 0 maka r12 = 1 sehingga akan didapatkan kolinieritas ganda yang
sempurna antara kedua variabel X1 dan X2. Akan tetapi, sebaliknya apabila
∑ V 2
= ∑ 1
x 2
didapatkan bahwa nilai d = 0, sehingga nilai r12 = 0, yang berari bahwa X1
dan X2. bebas sesamanya.
Pada umumnya dalam analisis regresi berganda jarang terjadi kedua nilai ektrim di atas,
atau. didapatkan nilai 0 < ∑ V 2 < 1 sehinga nilai 0 < r12 < 0, kenyataan ini berati bahwa
antara variabel bebas X1 dan X2 terdapat korelasi tetapi tidak sempurna.
Untuk mengukur adanya kolinieritas ganda pada suatu model persamaan regresi linier
berganda, dapat ditentukan dengan semakin tinggi nilai koefisien korelasi antara dua
variabel bebas X, maka semakin tinggi juga derajat kolinieriras ganda yang terdapat
dalam peubah bebas tersebut. Apabila dalam suatu model persamaan yang terdiri atas p
buah variabel bebas Xi di mana p > 2, maka. ukuran derajat korelasi antara dua variabel
bebas X tidak bisa dipakai mengukur adanya kolinieritas yang meyakinkan, kecuali
terjadi kolinieritas sempurna atau rij = 1.
Ada pula yang menyatakan apabila nilai kofisien korelasi rij = > 0,90 terdapat indikasi
adanya sifat kolinieritas, tetapi hal ini sangat tidak dapat diterima apabila jumlah sampel
sangat rendah atau minim, dan hal ini dapat diterima apabila jumlah sapel di atas 30..
Banyak peneliti menggunakan determinant X’X yang rendah sebagai pengukur adanya
kolinieritas ganda, akan tetapi batas rendah suatu determinan sangat tergantung pada
ukuran sampel dan jumlah variabel bebas X.
Selain dengan menggunakan cara di atas sebagai pengukur adanya kolinieritas ganda,
2
dapat juga digunakan cara lain yaitu mengetahui selisih koefisien determinasi (R ) model
penuh dengan kuadrat koefisien korelasi individual variabel bebas Xi. Apabila selisih
2
antara koefisien determinasi (R ) model penuh dengan kuadrat koefisien korelasi variabel
bebas Xi individual yang nilainya terkecil atau minimal maka variabel tersebut
diindikasikan terdapat kolinieritas ganda.
Dengan berkembangnya alat analisis data dengan berbagai solf-wares statistika, sering
digunakan nilai VIP (variance inflaction vactor) atau tolerance untuk menentukan
adanya kolinieritas ganda, di mana VIP = 1/tolerance. Untuk mengetahui adanya
kolinieritas ganda pada variabel bebas Xi. Kedua ukuran tersebut menyatakan
setiap variabel bebas Xi yang manaka dapat dijelaskan oleh variabel bebas Xi yang
lainnya. Dalam pengertian sederhana setiap variabel bebas Xi menjadi variabel tak
bebas (variabel terikat) yang diregresikan terhadap variabel bebas Xi yang lainnya.
162
163
164
εj εj
4 εj
3
3 10
2
2
1 5 1
0 0
0
-1 0 5 10 15 20
0 5 10 15 -1 0 5 10 15 20
-2 -5
-3 -2
-4 -10 -3
[A] terdapat autokorelasi [B] terdapat autokorelasi [C] tidak terdapat autokorelasi
εj εj 8
4 6
2 4
2
0
0
0 5 10 15 20 1 6 11
-2 -2
-4
-4
-6
-6 -8
165
2 2 2 2
sehingga ∑ e12 = σi ≠ σ . Adanya gejala gejala ∑ e12 σi ≠ σ sering disebut dengan
gejala adanya sifat heterokedasitas yaitu varians variabel pengganggu bersifat tidak
homogen (ingat asumsi ke dua).
Kejadian-kejadian yang menyebabkan terjadinya gejala heterokedasitas adalah:
1. Proses latihan yang kontinyu menyebabkan kesalahan (error)yang timbul akan makin
kecil, sehingga lama-lama menjadi sangat kecil dan konstas yang berarti varian
2
residu σi akan sama dengan satu.
2. Dengan sistem pengumpulan data yang baik, memungkinkan terjadinya penyipangan
atau kekeliruan yang semakin kecil sehingga didapatkan data dengan kekeliruan
yang relatif kecil dan konstan
Dengan terpenuhinya semua asumsi, maka estimasi OLS akan BLUE (best linier
unbiased estimator) yaitu etimator-etimator tidak bias atau menyimpang dan mempunyai
varians yang minimal. Atau dapat dikatakan bahwa estimator adalah bersifat efisien dan
konsisten. Sebaliknya, apabila dalam analisis regresi terjadi adanya sifat heterokedasitas
dapat ditunjukkan bahwa estimator OLS masih tetap tidak berbias atau menyimpang
dan tetap konsisten pada populasinya, tetapi pada sampelnya akan terjadi tidak
konsisten dan tidak terpenuhinya varians yang minimal, maka akan terjadi ketidak
seragaman variansnya.
Konsekuensi adanya gejala heterokedasitas dapat diketahui dengan:
*
1. Jika terjadi gejala heterokedasitas estimator bi dapat dikoreksi dengan Bi , walaupu
sebenarnya bi masih BLUE (best linier unbiased estimator) yaitu tidak bias.
2. Varians bi menurut asumsi heterokedasitas tidak lagi minimal, sedangkan varians Bi
memenuhi syarat minimal.
3. Selang kepercayaan masaalah 1 & 2 di atas berdasarkan asumsi heterokedasitas
akan menjadi lebih besar dan uji signifikansinya kurang ampuh.
4. Keadaan akam menjadi lebih buruk lagi apabila dalam keadaan heterokedasitas
yang tidak efisien menggunakan pendekatan OLS untuk mengestimasi varians bi,
2
sebab dalam hal ini terjadi bias yang tergantung pada σ .
5. Apabila tetap menggunakan OLS dalam keadaan heterokedasitas akan memberikan
kesimpulan yang salah, disebabkan uji-t dan uji-F nilai-nilainya akan menyipang.
Sebararan Sebararan
sekitar sekitar garis
garis
Sebararan
sekitar
garis
Sebararan sekitar garis
166
.9 9 9
.9 9
.9 5
Probability
.8 0
.5 0
.2 0
.0 5
.0 1
.0 0 1
25 35 45 55 65 75 85 95
P r
A ve ra g e : 5 6 . 6 4 4 4 A n d e rs o n -D a rlin g N o rm a lit y T e s t
S t D e v: 1 5 . 4 5 9 5 A -S q u a re d : 0 . 2 4 2
N : 90 P -V a lu e : 0 .7 6 4
Mean = -9.02E-17
20 Std. Dev. = 0.997
N = 150
Frequency
15
10
0
-3 -2 -1 0 1 2 3
Kurva Normal
167