Anda di halaman 1dari 29

7 UJI ASUMSI KLASIK

7.1 Uji Multikolonieritas


Uji multikolonieritas bertujuan untuk menguji apakah model regresi ditemukan adanya
korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi
korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka
variabel-variabel ini tidak ortogonal.Variabel ortogonal adalah variabel independen yang nilai
korelasi sesama variabel independen sama dengan nol. Untuk mendeteksi ada atau tidaknya
multikolonieritas di dalam model regresi adalah sebagai berikut:
a. Nilai R² yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi secara
individual variabel- variabel independen banyak yang tidak signifikan mempengaruhi
variabel dependen.
b. Menganalisis matrik korelasi variabel-variabel independen. Jika antar variabel independen
ada korelasi yang cukup tinggi (umumnya di atas 0.90), maka hal ini merupakan indikasi
adanya multikolonieritas. Tidak adanya korelasi yang tinggi antar variabel independen tidak
berarti bebas dari multikolonieritas. Multikolonieritas dapat disebabkan karena adanya efek
kombinasi dua atau lebih variabel independen.
c. Multikolonieritas dapat juga dilihat dari (1) nilai tolerance dan lawannya (2) variance
inflation factor (VIF). Kedua ukuran au menunjakkan setiap variabel independen manakah
yang dijelaskan oleh variabel independen lainnya. Dalam pengertian sederhana setiap
variabel independen menjadi variabel dependen (terikat) dan diregres terhadap variabel
independen lainnya. Tolerance mengukur variabilitas variabel independen yang terpilih
yang tidak dijelaskan oleh variabel independen laiinya. Jadi nilai tolerance yang rendah

91
sama dengan nilai VIF tinggi (karena VIF=1/Tolerance). Nilai cutoff yang umum dipakai
untuk menunjukkan adanya multikolonieritas adalah nilai Tolerance <0.10 atau sama
dengan nilai VIF >10. Setiap peneliti harus menentukan tingkat kolonierias yang masih
dapat ditolerir. Sebagai misal nilai tolerance 0.10 sama dengan tingkat kolonieritas
0,95.Walaupun multikolonieritas dapat dideteksi dengan nilai Tolerance dari VIF, tetapi kita
masih tetap tidak mengetahui variabel-variabel independen mana sajakah yang saling
berkorelasi.

Berikut ini disajikan cara mendetcksi multikolonieritas dengan menganalis matrik korelasi
antar variahel independen dan perhitungan nilai Tolerance dan VIF
Langkah Analisis
a. Buka file Crossec.xls
b. Dari menu utama SPSs, pilih menu Analyze, kemudian submenu regression, lalu pilih puth
linear.
c. Tampak di layar windows Linear Regression,
d. Pada kotak Dependent isikan variabel INCOME
e. Pada kotak Independent isikan variabel SIZE, ARNS WEALTH dan SAVING.
f. Pada kotak method, pilih Enter.
g. Untıuk menampilkan matrik korelasi dan nilai Tolernace serta VIF
h. Pilih Statistics, dilayar akan muncul tampilan windows Linear Regression Statistics
i. Aktitkan pilihan Covariance matrix dan Colinicrity Diagnostics

Gambar 7.1 Linear Regression: Statistic

92
j. Tekan continue, abaikan yang lain dan tekan OK

k. Tampilan output SPSS


Cofficient Correlations (a)

Model SAVING
SIZE WEALTH EARNS
1 Correlations SAVING 1000 -,058 131 -435
SIZE 0,58 1.000 161 -072
WEALTH .131 .161 1.000 -,620
EARNS -,435 -,072 -,620 1.000
Covariences SAVING .004 -,001 .000 -,002
SIZE -,001 ..028 -,001 -,001
WEALTH .000 .001 000 -,001
EARNS -,002 -,001 -,001 -,005
a.Dependen variable INCOME

Coefficient (a)

Unstandarddized Standardized Collinearity


Modal Coefficients Coefficients t Sig. Statistics
Std.
B Error Beta Tolerence VIF
1 (Contans) 3.848 .862 4.466 000
SIZE -.302 168 -.081 -1.798 75 968 1.033
EARNS .840 069 -.771 12.192 0 488 2.048
WEALTH .059 019 .179 3.080 3 581 1.720
SAVING .009 064 .007 ,892 892 776 1.289
a Dependen Variable : INCOME

Melihat hasil besaran korelasi antar variabel independen tampak bahwa hanya variabel
EARNS yang hanya mempunyai korelasi cukup tinggi dengan variabe WEALTH dengan
tingkat korelasi sebesar -0.620 atau sekitar 62%. Oleh karena korelasi ini maih di bawah 95%
maka dapat dikatakan tidak terjadi multikolonieritas yang serius.
Hasil perhitungan ini Tolerance juga menunjukkan tidak ada variabel independent yang
memiliki nilai Tolerence kurang dari 0.10 yang berarti tidak ada korelasi antar variabel
independen yang nilainya lebih dari 95%. Hasil perhitungan nilai Varience Inflaction Factor
(VIF) juga menunjukkan hal yang sama tidak ada satu variabel independen yang memiliki nilai
VIF lebih dari 10. Jadi dapat disimoulkan bahwa tidak ada multikolonieritas antar variabel
independen dalam model regresi.

d. Cara lain mendeteksi ada tidaknya multikolonieritas adalah menggunakan cara regresi
parsial :
1.Lakukan estimasi pada model regresi awal INCOME=
f(SIZE,EARNS,WEALTH,SAVING) dan dapatkan nolai R² nya.

93
2. Lakukan auxilary regression antar variabel independen :
SIZE = f (EARNS,WEALTH,SAVING)
EARNS= f(SIZE, WEALTH, SAVING)
SAVING= f ( SIZE,EARNS, WEALTH)
3. Nilai R² dati masing-masing regresi pada point 2 du atas kemudian dibandingkan dengan
nila R² lebih tingfi dibandingkan dengan model utama, maka di dalam regresi parsial
tersebut terdapat multikolonierotas.

e. Seperti metode (d), metode ini dikemukakan oleh Farrar dan Glauber (1967) . Setelah
dilakukan regresi parsial variabel independen seperti pada point d, dapatkan nila R²
kemudian nilai F dengam rumus :

𝑅² 𝑥 𝑡 𝑛−𝑘
F hitung = x
1−𝑅²𝑥 𝑡 𝑘−𝑙

R² x t = nilai R² dari hasil estimasi regresi parsial variabel independen.


n = Jumlah onservasi (data)
k = Jumlah variabel independen termaasuk konstanta.

Jika nilai F hitung > tabel, berarti variabel independen berkolerasi dengan variabel independen
lainnya dan ini menunjukan adanya multikololinear.

f. Eigenvalues dan Condition Index (CI)


Pada prigram komputer SAS diagnosis ada tidaknua multikolonieritas dengan menggunakan
eigenvalues dan condition index.

Condition jumlah k adalah :

𝑀𝑎𝑘𝑠𝑖𝑚𝑢𝑚 𝑒𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒
𝑘=
𝑀𝑖𝑛𝑖𝑚𝑢𝑚 𝑒𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒

Condition Indeks (CI) :

𝑀𝑎𝑥𝑖𝑚𝑢𝑚 𝑒𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒
𝐶𝐼 = √ = √𝑘
𝑀𝑖𝑛𝑖𝑚𝑢𝑚 𝑒𝑖𝑔𝑒𝑛𝑣𝑎𝑙𝑢𝑒

94
Jika nilai k antara 100 dan 1000, maka terdapat multikolinieritas moderat ke kuat. Jika k
>1000 , maka terdapat multikolonieritas sangat kuat.Dengan cara lain jika CI (= k) nilainya
antara 10 dan 30 terdapat multikolonieritas moderat ke kuat, jika nilai CT > 30
multikolonieritas sangat kuat.

Cara mengobat Multikolonieritas


a. Menggabungkan data crossection dan time series (pooling data)
b. Keluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dan
model regresi dan identifikasi variabel independen lainnya untuk membantu predisksi.
c. Transformasi variabel merupakan salah satu cara mengurangi hubungan linear di antara
variabel independen.Transformasi dapat dilakukan dalam bentuk logaritma natural dan
bentuk first diffrence atau delta. Caranya

Yt = b1 + b2 X2t + b3t + ut …………….. …. ……..(1)


Yt-1 = b1 +b2 X2t-1 + b3X3t-1 + ut-1………………(2)
Kurangkan persamaan (2) dari (1) didapat first difference
Yt-Yt-1 = b2 (X2t-1) + b3(X3t-X3t-1) + vt…………….(3)

d. Gunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya
semata-mata untuk prediksi (jangan mencoba untuk menginterpretasikan koefisien
regresinya)
e. Gunakan metode analisis yang lenih canggih seperti Bayesian regression atau dalam
kasus ridge regression.
f. Gunakan center data untuk analisis. Center data adalah data mentah dikurangi nilai
mean ( Xi-Xmean)

7.2 Uji Autokorelasi


Uji autokorelasi bertujuan menguji apakah dalam model regresi linear ada korelasi
antata kesalahan peganggu pada periode t dengan kesalahan peganggu pada periode t-1
(sebelumnya). Jika terjadi korelasi, maka dianamakan ada problem autokorelasi. Autokorelasi
muncul karena ada onservasi yang berurutan sepanjang waktu berkaitan satu sama lainnya.
Masalah ini timbul karena residual (kesalahan peganggu) tidak bebas darisatu observasi ke
observasi lainnya. Hal ini sering ditemukan pada data runtut waktu (time series) karena
“gangguan” pada seseorang atau individu/kelompok cenderung mempengaruhi “gangguan”
pada individu/kelompok yang sama pada periode berikutnya.

95
Pada data crossection (silang waktu), masalah autokorelasi relatif jarang terjadi karena
“gangguan” pada observasi yang berbeda berasal dari individu. Kelompok yang berbeda.
Model regresi yang baik adalah regresi yang bebas dari autokorelasi. Ada beberapa cara yang
dapat digunakan untuk mendetekasi ada atau tidaknya autokorelasi.

a. Uji Durbin -Watson (DW test)


Uji Durbin Watson hanya digunakan untuk autokorelasi tingkat satu (first order
autorrelation) dan mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak
ada variabel lag di antara variabel indepeden. Hipotesis yang akan di uji adalah :

H0 : tidak ada autokorelasi ( r = 0 )


HA: ada autokorelasi ( r ≠ 0 )
Pengambilan keputusan ada tidaknya autokorelasi :

Hipotesis nol Keputusan Jika

Tdk ada autokorelasi positif Tolak 0 < d < d1

Tdk ada autokorelasi positif No desicison d1 ≤ d ≤ du

Tdk ada korelasi negative Tolak 4 – d1 < d < 4

Tdk ada korelasi negative No desicison 4 – du ≤ d ≤ 4 – d1


Tdk ada autokorelasi, Tdk ditolak du < d < 4 - du
Positif atau negatif

Contoh analisis

Langkah Analisis
a. Lakukan langkah analisis regresi dengam model INCOME = f ( SIZE, EARNS,
WEALTH,SAVING seperti contoh sebelumnya.
b. Lanjutkan dengan menekan tombolb Statistics, hingga tampak tampilan layar windows
Linear Regression Statistics.
c. Aktifkan pilihan Durbin Watson

96
Gambar 7.2 Linear Regression : Statistics

Hasil Output SPSS

Model Sumarry(b)
Model R R Square Adjusted R Std. Error of Durbin-
Square the Estimate Watson
1 .902(a) .814 .807 2.45627 2.061
a. Predictors: (Constant), SAVING, SIZE, WEALTH, EARNS
b. Dependent Variable: INCOME
Nilai DW sebesar 2.061, nilai ini akan kita bandngkan dengan nilai tabel dengan menggunakan
nilai signifikansi 5%, jumlah sampel 100(n) dan jumlah variabel independen 4(k=4), maka di
tabel Durbin Watson akan didapatkan nilai sbb :

Tabel 7.1 Durbin Watson Test Bound


k=4
N DI du
15 0.69 1.97
. . .
. . .
. . .
. . .
. . .
100 1.59 1.76

97
Oleh karena nilai DW 2.061 lebih besar dari batas atas (du) 1.76 dan kurang dari 4 – 1.76 (4 -
du), maka dapat disimpulkan bahwa kita tidak bisa menolak H0 yang menyatakan bahwa tidak
ada autokorelasi positif atau negatif (lihat tabel keputusan) atau dapat disimpulkan tidak
terdapat autokorelasi.

a. Uji Lagrange Multiplier (LM test)


Uji autokorelasi dengan LM test terutama digunakan untuk samplebesar di atas 100
observasi. Uji ini memang lebih tepat digunakan dengan uji DW terutama bila sample yang
digunakan relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan
statistik Breusch-Godfrey. Pengujian Breusch-Godfrey (BG-test) dilakukan dengan meregress
variabel pengganggu (residual) ut mengunakan autogressive model dengan orde p :

Ut = p1Ut-1 + p1Ut-2 + ...............+ ppUp + 𝜀 t

Dengan hipotesis nol (H0) adalah p1 = p2 = pp = 0, dimana koefesien autogresive secara simultan
sama dengan nol, menunjukkan bahwa tidak terdapat autokorelasi pada setiap orde. Secara
manual, jika ( n – p )* R2 atau C2 hitung lebih besar dari C2 tabel, kita dapat menolak hipotesis
nol yang menyatakan bahwa tidak ada autokorelasi dalam model.
Untuk memberikan gambaran uji autokorelasi ini, kita gunakan data time series (timeserie.xls)
permintaan uang kartal di Indonesia. Kita akan bandingkan hasil uji autokorelasi dengan DW
dan BG test. Misalkan kita ingin menguji apakah permintaan uang dipengaruhi oleh GDP,
suku bunga dalam negeri (R) dan suku bunga luar negeri (RF) dengan persamaan regresi sbb:

LMSCR = b0 +b1 LGDPR + b2 R b3 RF + e

Langkah Analisis
a. Buka file timeserixls
b. Dari menu utama SPSS, pilih submenu Analyze kemudian submenu Regression, lalu pilih
Linear.
c. Tampak dilayar windows Linear Regression.
d. Pada kotak Dependent isikan variabel LMSCR
e. Pada kotak Independent isikan variabel LGDPR, R dan RF
f. Pada kotak method isikan Enter
g. Pilih Statistic dan aktifkan estimate dan Durbin Watson
h. Abaikan yang lain dan tekan OK
i. Output SPSS

98
Model Sumarry(b)
Model R R square Adjusted R Std. Error of Durbin-
Square Estimate Watson
1 .976(a) .953 .951 .06465 .898
a. Predictors (Constant), RF, R, LGDPR
b. Dependent Variable: LMSCR

ANOVA(b)
Model Sum of df Mean F Sig.
Squares Square
1 Regression 4.353 3 1.451 347.208 .000(a)
Residual .213 51 .004
Total 4.566 54
a. Dependent Variable: LMSCR
b. Dependent Variable: LMSCR

Coefficients(a)
Model Unstandardized Standardized Sig.
Coefficients Coefficients
B Std. Error Beta
1 (Constant) -.951 .246 -3.861 .000
LGDPR .889 .037 .967 23.898 .000
R -.006 .003 -.070 -2.225 .031
RF -.005 .005 -.038 -975 .334
a. Dependent Variable: LMSCR

Dari tampilan output SPSS besarnya Adjusted R2 adalah 0.951, hal ini berarti 95.1% variasi
Ln permintaan uang (LMSCR) yang dapat dijelaskan oleh variasi tiga variabel Independen Ln
Gross Domestic Product (LGDPR), tingkat suku bunga dalam negeri (R) dan tingkat suku
bunga luar negeri (RF). Sedangkan sisanya (100% - 95.1% = 4.9%) dijelaskan oleh sebab-
sebab lain diluar model.
Uji ANOVA atau F test, didapat F hitung sebesar 347.208 dengan tingkat probabilitas 0.000
(signifikan). Karena probabilitas jauh lebih kecil daripada 0,05 , maka model regresi dapat
digunakan untuk memprediksi LMSCR atau dapat dikatakan bahwa LGDPR, R dan RF secara
bersama-sama berpengaruh terhadap LMSCR.
Dari ketiga variabel independen yang dimasukkan dalam model regresi, variabel tingka
suku bunga luar negeri (RF) tidak berpengaruh terhadap LMSCR hal ini dapat dilihat dari
probabilitas signifikan untuk RF sebesar 0.334 yang jauh diatas 0.05. Sementara itu variabel
LGDPR dan tingkat suku bunga dalam negeri (R) berpengaruh signifikan terhadap permintaan
uang (LMSCR) masing-masing dengan tingkat probabilitas signifikan 0.000 dan 0.031.

99
Uji Durbin Watson memberikan nilai DW 0.898, nilai ini akan dibandingkan dengan tabel
DW dengan jumlah observasi (n) = 55, Jumlah variabel independen (k) = 3 dan tingkat
signifikansi 0.05 didapat nilai d1 = 1.45 dan nilai du = 1.68. Oleh karena DW 0.898 berada di
bawah d1 = 1.45 dan diatas 0, maka dari tabel keputusan H0 yang menyatakan tidak ada
autokorelasi positif ditolak, yang berarti terdapat autokorelasi positif.

Cara menguji autokorelasi dengan LM test atau Breusch-Godfrey test.

Untuk menguji BG test pertama kita perlu mendapatkan nilai pengganggu (residual)
dengan cara :
a. Pada windows Linear Regression (lihat langkah contoh sebelumnya)
b. Pilih save dan aktifkan unstandardized residual. Setelah ini dilakukan, maka kita
mempunyai file data residual (Res_1)

Gambar 7.3 Linear Regression : Save

100
a. Selanjutnya membentuk variabel lag residual (Ut-1, Ut-2 dst) dengan perintah pilih
Transform, lalu Compute.
b. Akan tampak tampilan Windows Compute Variable.
c. Pada kotak target Variable isikan res_2 merupakan variabel residual lag 2 (Ut-2)
d. Pada kotak Nuemric expression, pilih fungsi Lag (Variabel) dan isikan menjadi Lag (res_1)

Gambar 7.4 Compute Variable

e. Abaikan lainnya dan tekan Ok, maka kita sekarang mempunyai dua variabel lag residual
(res_1 dan res_2)
f. Sekarang kita siap untuk melakukan Uji Breusch-Godfrey dengan meregress model
persamaan sbb (residual lag 1):

Res_1 = b0 + b1 LGDPR + b2 R + b3 RF + b4 Res_2

g. Tampilan output SPSS

Coefficients(a)
Model Unstandardized Standardized Sig.
Coefficients Coefficients
B Std. Beta
Error
1 (Constant) .012 .211 .059 .953
LGDPR -001 .032 -007 -045 .964
R .001 .002 .036 .290 .773
RF -002 .005 -071 -462 .646
RES_2 .559 .124 .543 4.501 .000
a. Dependent Variable : Unstandardized Residual

101
Tampilan output menunjukkan bahwa koefisien parameter untuk residual lag 2 (res_2)
memberikan probabilitas signifikan 0.000 hal ini menunjukkan indikasi adanya autokorelasi
tingkat satu. Sesuai dengan uji Durbin Watson yang juga menyatakan adanya autokorelasi.
c. Uji Statistics Q : Box-Pierce dan Ljung Box
Uji Box Pierce dan Ljung Box digunakan untuk melihat autokorelasi dengan lag lebih dari
dua (by default SPSS menguji sampai lag 16). Uji ini dilakukan dengan cara:

a. Dari menu utama SPSS, pilih Graph kemudian submenu Time Series, lalu pilih
Autocorrelation.
b. Tampak dilayar windows Autocorrelation

Gambar 7.5 Autocorrelations

c. Pada kotak variable isikan res_1 (unstandardized residual)


d. Pilih display Autocorrelation
e. Abaikan yang lain dan tekan Ok
f. Hasil Output SPSS

102
Hasil statistik Ljung Box jelas bahwa enam belas lag (16) ternyata semua signifikan.
Kriteria ada tidaknya autokorelasi adalah jika jumlah lag yang signifikan lebih dari dua, maka
dikatakan terjadi autokorelasi. Jika lag yang signifikan dua aatu kurang dari dua, maka
dikatakan tidak ada autokorelasi. Hasil uji Ljung Box juga konsisten dengan uji Durbin Watson
maupun uji Breusch-Godfrey.

d. Mendeteksi Autokorelasi dengan Run Test


Run test sebagai bagian dari statistik non-parametrik dapat pula digunakan untuk menguji
apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak terdapat hubungan
korelasi maka dikatakan bahwa residual adalah acak atau random. Run test digunakan untuk
melihat apakah data residual terjadi secara random atau tidak (sistematis).

H0 : residual (res_1) random (acak)


HA : residual (res_1) tidak random

Langkah Analisis
a. Dari menu SPSS, pilih Analize, lalu Non-parametric Test
b. Kemudian pilih Runs
c. Tampak di layar windows Run Test

103
Gambar 7.6 Runs Test

d. Pada kotak test Variabel list, isikan Understandardized Residual (res_I)


e. Pilih Cut Point median
f. Abaikan lainnya dan tekan OK
g. Tampilan output SPSS
h. Tampilan output SPSS

Runs Test
Unstandardize
d Residual
Test Value (a) -01299
Cases < Test Value 27
Cases >= test value 28
Total Cases 55
Number of Runs 13
Z -4.128
Asymp. Sig (2-tailed) 000
a Median

Hasil output SPSS menunjukkan bahwa Nilai test adalah -0,01299 dengan probabilitas 0.000
signifikan pada 0.05 yang berarti hipotesis nol ditolak, sehingga dapat disimpulkan bahwa
residual tidak random atau terjadi autokorelasi antar nilai residual.

104
7.3 Uji Heteroskedastisitas
Uji Heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi
ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Jika variance
dari residual satu pengamatan ke pengamatan yang lain tetap, maka disebut Homoskedastisitas
dan jika berbeda disebut Heteroskedastisitas. Model regresi yang baik adalah yang
Homoskedastisitas atau tidak terjadi heteroskedastisitas karena data ini menghimpun data yang
mewakili berbagai ukuran (kecil, sedang dan besar).

Ada beberapa cara untuk mendeteksi ada atau tidaknya heteroskedastisitas :


a. Melihat Grafik Plot antara nilai prediksi variabel terikat (deoenden) yaitu ZPRED dengan
residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan dengan melihat
ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu
Y adalah Y yang telah diprediksi, dan sumbu X adalah residual (Y prediksi – Y sesungguhnya)
yang telah di-studentized.

Dasar analisis :
1. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur
(bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi
heteroskedastisitas.
2. Jika tidak ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0
pada sumbu Y, maka tidak terjadi heteroskedastisitas.

Untuk menggambarkan hal ini kita lihat regresi dengan data crossec.xls dengan langkah
analisis sbb :
a. Lakukan regresi dengan persamaan INCOME = f (SIZE, EARNS, WEALTH, SAVING).
b. Lanjutkan dengan menekan tombol Plots hingga di layar tampak tampilan windows
Linear Regression Plots

105
Gambar 7.7 Linear Regression : Plots

c. Masukkan variabel SPRESID pada kotak pilihan Y, dan


d. Masukkan variabel ZPRED pada kotak pilihan X
e. Tekan Continue dan abaikan yang lain lalu OK
f. Hasil Output SPSS

SCATTERPLOT

Dependent Variabel : INCOME

106
Dari grafik scatterplots terlihat bahwa titik-titik menyebar secara acak serta tersebar baik di
atas maupun di bawah angka 0 pada sumbu Y. Hal ini dapat disimpulkan bahwa tidak terjadi
heteroskedastisitas pada model regresi., sehingga model regresi layak dipakai untuk
memprediksi INCOME keluarga bredasarkan masukan variabel independen SIZE, EARNS,
WEALTH dan SAVING.

Analisis dengan grafik plots memiliki kelemahan yang cukup signifikan oleh karena jumlah
pengamatan mempengaruhi hasil ploting. Semakin sedikit jumlah pengamatan semakin sulit
menginterpretasikan hasil grafik plot. Oleh sebab itu diperlukan uji statistik yang lebih dapat
menjamin keakuratan hasil. Ada beberapa uji statistik yang dapat digunakan untuk mendeteksi
ada tidaknya Heteroskedastisitas.

b. Uji Park
park mengemukakan metode bahwa variance (S2) merupakan fungsi dari variabel-
variabel independen yang dinyatakan dalam persamaan sbb :

o2i = α Xiβ

Persamaan ini dijadikan linear dalam bentuk persamaan logaritma sehingga menjadi :

Ln o2i = α + β LnXi + vi

Karena s2i umumnya tidak diketahui, maka dapat ditaksir dengan menggunakan residual
sebagai proksi, sehingga persamaan menjadi :

LnU2i = α + β LnXi + vi

Cara melakukan Uji Park dengan SPSS :


a. Lakukan regresi utama dengan persamaan INCOME =
f(SIZE,EARNS,WEALTH,SAVING)
b. Dapatkan variabel residual (Ui) dengan cara memilih tombol Save pada tampilan
windows Linear Regression dan aktifkan unstandardized residual (lihat contoh pada uji
autokorelasi)
c. Kuadratkan nilai residual (U2i) dengan menu Transform dan Compute.
d. Hitung logaritma dari kuadrat residual (LnU2i) dengan menu Transform dan Compute

107
e. Regresikan variabel Ln U2i sebagai variabel dependen dan variabel independen SIZE,
EARNS, WEALTH, SAVING sehingga persamaan regresi menjadi :

Ln U2i = bO + bI SIZE + b2 EARNS + b3 WELATH + b4 SAVING

Hasil output SPSS :


Apabila koefisien parameter beta dari persamaan regresi tersebut signifikan secara
statistik, hal ini menunjukkan bahwa dalam data model empiris yang diestimasi terdapat
heteroskedastisitas, maka asumsi homoskedastisitas pada data model tersebut tidak dapat
ditolak.

Coefficients (a)
Unstandardized Standardized
Model Coefficients Coefficients t Sig
B Std Error Beta
1 (Constant) 1.025 .660 1.552 .124
SIZE -173 .129 -137 -1.343 .183
EARNS -001 .053 -002 -015 .988
WEALTH -016 .015 .143 1.085 .281
SAVING -021 .049 -047 -417 .678

Hasil tampilan output SPSS memberikan koefisien parameter untuk variabel independen tidak
ada yang signifikan, maka dapat disimpulkan bahwa model regresi tidak terdapat
Heteroskedastisitas. Hal ini konsisten dengan hasil uji Scatterplots.

c. Uji Glejser
Seperti halnya Uji Park, Glejser mengusulkan untuk meregres nilai absolut residual
terhadap variabel independen (Gujarati, 2003) dengan persamaan regresi :

Ut = α + βXt + vt

Cara melakukan Uji Glejser dengan SPSS


a. Lekukan regresi INCOME = f (SIZE, EARNS,WEALTH,SAVING)
b. Dapatkan regresi residual (Ut) dengan cara memilih tombil Save pada tampilan windows
Linear Regression dan aktifkan Unstandardized residual (lihat contoh pada Uji
Autokorelasi)
c. Absolutkan nilai residual (AbsUt) dengan menu Transform dan Compute.

108
d. Regresikan variabel (AbsUt) sebagai variabel dependen dan variabel
SIZE,EARNS,WEALTH dan SAVING sebagai variabel independen sehingga persamaan
regresi menjadi:

AbsUt = b0 + b1 SIZE + b2 EARSN + b3 WEALTH + b4 SAVING

Jika variabel independen signifikan secara statistik mempengaruhi variabel dependen,


maka ada indikasi terjadi Heteroskedastisitas. Hasil tampilan output SPSS dengan jelas
menunjukkan bahwa tidak ada satupun variabel independen yang signifikan secara statistik
mempengaruhi variabel dependen nilai Absolut Ut (AbsUt). Hal ini terlihat dari probabilitas
signifikansinya di atas tingkat kepercayaan 5%. Jadi dapat disimpulkan model regresi tidak
mengandung adanya Heteroskedastisitas.

Coefficiennts (a)
Ustandardized Ustandardized
Model Coefficients Coefficients t Sig.

B Std. Error Beta


1 (Constant) 2.135 .568 3,761 .000
SIZE -.077 .111 -.070 -.692 .491
EARNS -.041 .045 -.130 -.908 -366
WEALTH .024 .013 .247 1.880 .063
SAVING -.007 .042 -.018 -.154 .878

a Dependen Variable: ABSUT

d. Uji White
Pada dasaranya uji White mirip dengan kedua uji Park dan Glejser. Menurut White, uji
ini dapat dapat dilakukan dengan meregres residual kuadrat (U2t) denagan veriabel independen,
variabel independen kuadrat dan perkalian (interaksi) variabel independen. Misalkan kita
punya dua variabel independen X1 dan X2, maka persamaan regresinya sbb:

U2t = b0 + b1X1 + b2X2 + b3X12 + b4X22 + b5 X1X2

Dari persamaan regresi ini dapatkan nilai R2 untuk menghitung c2, dimana c2 = n x R2
(Gujarati,2003). Pengujiannya adalah jika c2 hitung < c2 tabel, maka hipotesis alternatif adanya
heteroskesastisitas dalam model ditolak.

Cara Memperbaiki Model Jika Terdapat Heteroskedastisitas


Perbaikan Heteroskedastisitas dapat dilakukan dengan beberapa cara:
1. Melakukan transformasi dalam bentuk model regresi dengan membagi model regresi
dengan salah satu variabel independen yang digunakan dalam model tersebut.

109
Misalkan model awal Yi = b0 + b1X1 + b2X2 + ut
Model transformasinya menjadi

Y/X1 = b0/X1 + b1 + b2X2/X1 + ut/X1


Dalam bentuk ini b1 menjadi intercept (konstanta) dan b0 menjadi koefisien. Jika ingin
mengembalikan ke model asal, hendaklah dikalikan model transformasi yang suda
diestimasi ini dengan X1

2. Melakukan transformasi Logaritma sehingga model persamaan regresinya menjadi:


Log Y = b0 + b1LogX1 + b2LogX2.

7.4 Uji Normalitas


Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji t dan F
mengamsumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini dilanggar
maka uji statistik mrnjadi tidak valid untuk jimlah sampel kecil. Ada dua cara untuk mendeteksi
apakah residual berdistribusi normal atau tidak yaitu dengan analisi grafik dan uji statistik.

a. Analisis Grafik
Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat grafik
histogram yang membandingkan antara data observasi denga distribusi yang mendekati
distribusi normal. Namun demikian hanya dengan melihat histogram hal ini dapat menyesatkan
khususnya untuk jumlah sampel yang kecil. Metode yang lebih handal adalah dengan melihat
normal probability plot yang membandingkan distribusi kumulatif dari distribusi normal.
Distribusi normal akan membentuk satu garis lurus diagonal. Jika distribusi data residual
normal, maka garis yang menggambarkan data sesungguhnya akan mengikuti garis
diagonalnya.
Cara menguji normalitas residual dengan analisis grafik lewat SPSS dapat dilakukan
dengan langkah sebagai berikut:

a. Lakukan regresi dengan persamaan INCOME =f(SIZE,EARNS,WEALTH,SAVING)


b. Lanjutkan dengan menekan tombol Plots hingga di layar tampak tampilan windows Linear
Regression Plots.

110
Gambar 7.8 Linear Regression : Plots

c. Aktifkan standardized Residual Plots pada Histogram dan pada Normal Probability Plots
d. Tekan Continue dan abaikan lainnya dan tekan Ok.

Hasil output SPSS

Histogram
Dependent Variabel: INCOME
30

20

Std. Dev = .98

10 Mean = 0.00
Frequency

N = 100.00

Regression Standardized Residual

111
Normal P-P Plot of Regression Stanc

Dependent Variable: INCOME

1.00

.75

.50
Ekspected Cum Prob

.25

0.00

0.00 .25 .50 .75 1.00

Observed Cum Prob

Dengan melihat tampilan grafik histogram maupun grafik normal plot dapat
disimpulkan bahwa grafik histpgram memberikan pola distribusi yang menceng (skewness) ke
kiri dan normal. Sedangkan pada grafik normal plot terlihat titik-titik menyebar disekitar garis
diagonal, serta penyebarannya agak menjauh dari garis diagonal. Kedua grafik ini menunjukan
bahwa model regresi menyalahi asumsi normalitas.
Pada prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada
sumbu diagonal dari grafik atau dengan melihat histogram dari residualnya. Dasar pengambilan
keputusan :
 Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal atau grafik
histogramnya menunjukan pola distribusi normal, maka model regresi memenuhi asumsi
normalitas.
 Jika data menyebar jauh dari diagonal dan/atau tidak mengikuti arah garis diagonal atau
grafik histogram tidak menunjukan pola distribusi normal, maka model regresi tidak
memenuhi asumsi normalitas.

b. Analisis Statistik
Uji normalitas dengan grafik dapat menyesatkan kalao tidak hati-hati secara visual
kelihatan normal, pada hal secara statistik bisa sebaliknya. Oleh sebab itu dianjurkan disamping
uji grafik dilengkapi dengan uji statistik. Uji statistik sederhana dapat dilakukan dengan melihat
nilai kurtosis dan

112
skewness dari residual. Nilai z statistik untuk skewness dapat dihitung dengan rumus:
Skewness
Zskewness =
√6/N

Sedangkan nilai z kurtosis dapat dihitung dengan rumus :


Kurtosis
Zkurtosis =
√24/N

Dimana N adalah jumlah sampel, jika nilai Z hitung > Z tabel, maka distribusi tidak
normal. Misalkan nilai Z hitung > 2,58 menunjukan penolakan asumsi normalitas pada tingkat
signifikansi 0.01 dan pada tingkat signifikansi 0.05 nilai Z tabel = 1.96.
Sekarang kita terapkan uji ini dengan cara:
a. Lakukan regresi dengan persamaan INCOME = f (SIZE,EARNS,WEALTH,SAVING)
b. Lanjutkan dengan menekan tombol Save dan aktifkan Unstandardized Residual
c. Tekan Continue, lalu Ok
d. Sekarang kita memiliki data residual (Res-1)
e. Dari menu utama SPSS pilih Analyze, kemudian pilih Descriptive Statistics, lalu pilih
submenu Descriptive.
f. Pada kotak variabel, isikan Unstandardized Residual, lalu pilih Option
g. Aktifkan Kurtosis dan Skewness
h. Hasil output SPSS

Descriptive Stastistics

N Skewness Kurtosis
Statistic Statistic Std. Error Statistic Std. Error
Unstandardized Residual 100 1,853 .241 .478
Valid N (listwise) 100 4.169

Dari nilai skewness dan kurtosis ini dapat dihitung nilai Zskewness dan Zkurtosis sebagai
berikut:
1.853 4.169
Zskewness = = 7.566 Zkurtosis = = 8.5099
√6/100 √24/100

113
Hasil perhitungan Zskewness dan Zkurtosis jauh di atas nilai tabel. Jadi dapat disimpulkan
bahwa data residual tidak berdistribusi normal, hal ini konsisten dengan uji grafik.

Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji statistik
non-parametrik Kolmogrov-Smirnow (K-S). Uji K-S dilakukan dengan membuat hipotesisi.

H0 : Data residual berdistribusi normal


HA: Data residual tidak berdistribusi normal

Langkah Analisis
a. Dari menu utama SPSS pilih menu Analyze, lalu pilih Non-parametric Test
b. Kemudian pilih submenu I-Sample K-S, dilayar akan tampak tampilan windows One-
sample Kolmogrov-Smirnow test.
c. Pada kotak test variable list, isikan ustandardized residual, dan aktifkan test Distribusi pada
kotak Normal.

Gambar 7.9 One Sample KS Test

d. Pilih Ok
e. Output SPSS

114
One-Sample Kolmogorov-Smirnov Test

Unstandardiz
ed Resedual
N 100
Normal Parametersa,b Mean .0000000
Std. Deviation 2.40614098
Most Extreme Absolute .186
Positive .186
Negative -.124
Kolmogorov-Smirnov Z 1.861
Asymp. Sig. (2-tailed) .002
a. Test distribution is Normal
b. Calculated from data.

Besarnya nilai Kolmogorov-Smirnov adalah 1.861 dan signifikan pada 0.002 hal ini berarti H0
ditolak yang berarti data residual terdistribusi tidak normal. Sekali lagi hasilnya konsisten
dengan uji sebelumnya.

7.5 Uji Linearitas


Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan sudah benar
atau tidak. Apakah fungsi yang digunakan dalam suatu studi empiris sebaiknya berbentuk
linear, kuadrat atau kubik. Dengan uji linearitas akan diperoleh informasi apakah model
empiris sebaiknya linear, kuadrat atau kubik. Ada beberapa uji yang dapat dilakukan.

a. Uji Durbin Watson


Uji ini biasanya dilakukan untuk melihat ada tidaknya autokorelasi dalam suatu model
regresi. Cara melakukan uji apakah sebaiknya model regresi linear atau kuadrat dapat
dilakukan dengan cara sebagai berikut :

a. Buka file Timeseri.xls


b. Lakukan regresi dengan dua persamaan yaitu linear dan kuadrat seperti dibawah ini :
1. LMSCR = b0 + b1LGDPR + b2R + b3RF
2. LMSCR = b0 + b1LGDPR + b2R + b3RF + b4 LGDPR2 +
b5R2 + b6RF2
c. Dapatkan nilai D-W untuk masing-masing model.
d. Dengan mendasarkan pada nilai D-W table, bandingkan nilai statistik.
Jika signifikan atau berada pada daerah autokorelasi positif, maka

115
spesifikasi model persamaan utama adalah salah, atau
misspesification.

Hasil Output SPSS

Hasil Uji Durbin Watson Model Utama (persamaan 1)

Model Summaryb
Adjusted Std. Error of Durbin-W
Model R R Square R Squere the Estimate atson
1 .976a .953 .951 .06465 .898
a. Predictors : (Constant), RF, R, LGDPR
b. Dependent Variable : LMSCR

Hasil Uji Durbin Watson Model Utama (persamaan 2)

Model Summaryb
Adjusted Std. Error of Durbin-W
Model R R Square R Squere the Estimate atson
a
1 .982 .964 .959 .05870 1.157
a. Predictors : (Constant), RF2, R, LGDPR2, RF, R2, LGDPR
b. Dependent Variable : LMSCR

Oleh karena D-W model utama 0.898 berada di bawah dl = 1.45 dengan n=55 dan k=3, maka
dapat disimpulkan terdapat autokorelasi positif pada model utama dan salah spesifikasi.

b. Ramsey Test
Uji ini dikembangkan oleh Ramsey tahun 1969. Ramsey menyarankan suatu uji yang
disebut general test of spesification atau RESET. Untuk melakukan uji ini kita harus membuat
suatu asumsi atau keyakinan bahwa fungsi yang benar adalah fungsi linear. Uji ini bertujuan
untuk menghasilkan F-hitung, caranya :
a. Dapatkan fitted value dari variabel dependen dengan cara dari linear regression, pilih
save an aktifkan Dfit pada influence statiscs.
b. Kemudian variabel fitted tersebut diregres Bersama-sama dengan model semula
sebagai variabel independent. Dapatkan nila R2 untuk menghitung F statistic dengan
rumus :

(R2new - R2old)/m
F=
(1 - R2new)/(n - k)

116
m = Jumlah variabel independen yang baru masuk
n = Jumlah data observasi
k = banyaknya parameter dalam persamaan yang baru
R2new = nilai R2 dari persamaan regresi baru
R2old = nilai R2 dari persamaan regresi awal

Dari hasil perhitungan nilai F hitung, kemudian dibandingkan dengan F table. Jika F hitung >
F table, maka hipotesis nol yang menyatakan bahwa spesifikasi model dalam bentuk fungsi
linear ditolak

Hasil output SPSS

Model Summaryb

Adjusted Std. Error of Durbin-W


Model R R Square R Squere the Estimate atson
1 .996a .991 .991 .02824 1.531
a. Predictors : (Constant), DFFIT, LGDPR, R, RF
b. Dependent Variable : LMSCR

ANOVAb

Sum of
model Squares df Mean Square F Sig.
1 Regression 4.526 4 1.132 1.419.194 .000a
Residual .040 50 .001
Total 4.566 54
a. Predictors : (Constant), DFFIT, LGDPR, R, RF
b. Dependent Variable : LMSCR

Coefficientsb

Unstandardized Standardized
Coefficients Coefficients
model B Std. Error Beta t Sig.
1 (Constant) -.895 .108 -8.317 .000
LGDPR .882 .016 .960 54.285 .000
R -.006 .001 -.072 -5.225 .000
RF -.007 .002 -.049 -2.873 .000
DFFIT 10.217 .693 .195 14.743 .000
a. Dependent Variable : LMSCR

Hasil tampilan output SPSS menunjukkan bahwa R2new = 0.991 sedangkan R2old = 0.953
(lihat regresi utama sebelumnya), jumlah variabel independent yang baru masuk adalah 1 yaitu
dffit dan n jumlah observasi 55, dan jumlah parameter k yang baru adalah 5. Dari data ini dapat
dihitung besarnya F hitung sbb :

117
( 0.991 - 0.953 ) / 1
F Hitung = = 211.11
( 1 - 0.991) / ( 55 - 5 )

Sedangkan F tabel degree of freedom (df)=(n-k) =50 dan jumlah parameter 4 adalah 2.56. jadi
F hitung > F tabel maka dapat disimpulkan bahwa hipotesa nol ditolak yang berarti model
regresi tidak dalam bentuk linear.

c. Uji Lagrange Multiplier


Uji ini merupakan uji alternative dari Ramsey test dan dikembangkan oleh Engle tahun
1982. Estimasi dengan uji ini bertujuan untuk mendapatkan nilai c2 hitung atau ( n x R2 ).
Langkah-langkah pengujiannya.

a. Lakukan regresi dengan persamaan utama LMSCR = f ( LGDPR,R,RF )


b. Jika dianggap persamaan utama tersebut benar spesifikasinya, maka nilai residualnya
harus dihubungkan dengan nilai kuadrat variable independent dengan persamaan
regresi :

Ut = b0 + b1 LGDPR2 + b2 R2 + b3 RF2

c. Dapatkan nilai R2 untuk menghitung c2 hitung


d. Jika c2 hitung > c2 tabel, maka hipotesis yang menyatakan model linear ditolak

Hasil output SPSS

Model Summaryb

Adjusted Std. Error of


Model R R Square R Squere the Estimate
1 .105a .001 .-.047 .0642848
a. Predictors : (Constant), RF2, R2, LGDPR2
b. Dependent Variable : RES _1

ANOVAb

Sum of
model Squares df Mean Square F Sig.
1 Regression .002 3 .001 .191 .902a
Residual .211 51 .004
Total .213 54
a. Predictors : (Constant), RF2, R2, LGDPR2
b. Dependent Variable : RES_1

118
Coefficientsb

Unstandardized Standardized
Coefficients Coefficients
model B Std. Error Beta t Sig.
1 (Constant) .064 .123 .524 .602
LGDPR2 -.001 .003 -.087 -.469 .641
R2 8.852E-06 .000 .017 .120 .905
RF2 .000 .000 -.135 -.750 .457
a. Dependent Variable : RES_1

Hasil tampilan output menunjukkan nilai R2 sebesar 0.011 dengan jumlah n observasi 55, maka
besarnya nilai c2 hitung = 55 x 0.011 = 0.605. Nilai ini dibandingkan dengan c2 tabel dengan
df=50 dan tingkat signifikansi 0.05 didapat nilai c2 tabel 67.5. Oleh karena nilai c2 hitung
lebih kecil dari c2 tabel maka dapat disimpulkan bahwa model yang benar adalah model linear.

119

Anda mungkin juga menyukai