Anda di halaman 1dari 17

UJI ASUMSI KLASIK

OLEH :
KELOMPOK 2

Anak Agung Istri Pawitradewi 1607532079


Ida Ayu Ardia Paramesti Ningrat 1607532080
Ni Kadek Nadia Putri Padmayuni 1607532082
I Wayan Aditya Paramarta 1607532089
Cokorda Istri Agung Evita Nindia Putri 1607532090
Dewa Gede Edwin Oktaviansa 1607532091
I Kadek Yogi Anggara 1607532105

FAKULTAS EKONOMI DAN BISNIS


UNIVERSITAS UDAYANA
2017
UJI ASUMSI KLASIK
9.1 Pengantar
Salah satu tujuan penggunaan model regresi adalah melakukan prediksi terhadap
variableterikat (Y). Berkaitan dengan hal itu, agar hasil prediksi tidak bias, maka dianggap
perlu diyakinkan kembali apakah model yang dibuat sudah valid dan tidak melanggar
asumsi-asumsi metode kuadrat terkecil, yaitu BLUE (Best, Linear, Unbias Estimator), yang
sering disebut asumsi klasik. Untuk itu dilakukan pelacakaan atau pengujian asumsi klasik
yang meliputi: 1) Uji Normalitas residual, 2) Uji Autokorelasi. 3) Uji Multikolinieritas, dan
4). Uji Heteroskedastisitas.
Oleh karena tujuan pengujian asumsi klasik tersebut bertujuan untuk lebih
meyakinkan atas kelayakan model yang dibuat, terutama untuk tujuan memprediksi. maka
beberapa buku menyebutkan uji asumsi klasik disebut uji urutan kedua (second order test)
yang dilakukan setelah uji kelayakan model F test dan t test dilakukan. Pertimbangan lain
kenapa uji asumsi klasik dilakukan setelah uji F dan uji t urutan pertama (first order test),
karena sebagian besar dalam pengujian asumsi klasik menggunakan hasil residual dari model
regresi.

9.2 Uji Normalitas


Uji normalitas bertujuan untuk menguji apakah dalam residual dari model regresi
yang dibuat berdistribusi normal ataukah tidak. Model regresi yang baik adalah memiliki
distribusi residual yang normal atau mendekati normal. Jika tidak normal, maka prediksi
yang dilakukan dengan model tersebut akan tidak baik, atau dapat memberikan hasil
prediksi yang menyimpang (bias).
Seperti telah diketahui. residual yang sering dinotasikan µ, untuk populasi atau ε1,
untuk sampel rnerupakan selisih antara niai variabel terikat aktual (Y1) dikurangi dengan
nilai prediksi dari variable terikat tersebut. Dari model regresi :
Y1 = α + β1X1i + β2X2i + ………….. βkXki + ε1…………………………….…..(9.1)
Diperoleh residual :

ε1= Y1 – {α + β1X1i + β2X2i + ………….. βkXki }…………………………………(9.2)

Dalam suatu analisis, untuk menguji apakah model sudah normal atau tidak,
pertama dapat dilakukan dengan melihat normal probability plot dari residual dengan
membandingakan distribusi komulatif dari residual yang dihasilkan dengan distribusi
komulatif dari distribusi normal. Jika titik-titik menyebar mendekati garis diagonal maka
data tersebut berdistribusi normal. Kedua, dapat dilakukan dengan Uji Komogorov-
Sminarnov. Caranya adalah dengan membandingkan distribusi kumulatif relatif hasil
observasi Scr (ε) dengan distribusi kumulatif relatif teoritisnya (harapannya) atau Fcr (ε)
seperti ditampilkan pada Gambar 9.1.

Scr (ε)
Fcr (ε)
D
Scr (ε)

t
Gambar 9.1. Distribusi kumutatif relative teoritis residual

Langkah-langkah pengujian :
1) Formulasi hipotesis:
H0 : Residual yang diuji menyebar normal
H1 : Residual yang diuji tidak menyebar normal
2) Tingkat signifikan misalnya 5% D=….? Gunakan table 1 seperti pada lampiran
3) Kriteria pengujian
H0 diterima bila Dhitung ≤ Dtabel atau p.value ≤ tingkat signifikansi
H0 ditolak bila Dhitung > Dtabel atau p.value > tingkat signifikansi
4) Perhitungan
D = maksimum │Fcr (X) – Scr (X)│
5) Kesimpulan
Bandingkan Antara langkah 4) dengan langkah 3)

Dengan menggunakan print out komputer kesimpulan dapat ditarik dengan melihat
Sig (2-tailed). Jika Sig (2-tailed) lebih besar dari level of signifikan yang dipakai, maka H0
diterima, selanjutnya disimpulkan bahwa residual yang dianalisis berdistribusi normal.
Sebaliknya jika Sig (2-tailed) lebih kecil berarti bahwa data yang dianalisis tidak
berdistribusi normal.
Contoh 9.1
Di bawah ini adalah data rnengenai penjualan (sales). Promosi dan jumlah tenaga
kerja dari PT. GUNA RAHARJA.
Tahu Semes Sales Promos T.Kerja Tahun Semes Sales Promos T.Kerja
n ter (Rp i (orang) ter (Rp i (orang)
juta) (Rp juta) (Rp
juta) juta)
2001 I 38 8 19 2003 III 33 3 20
II 49 12 22 2004 IV 35 5 20
III 32 3 17 I 49 7 28
IV 28 4 15 II 52 10 32
2002 I 37 7 23 III 66 14 38
II 51 12 27 IV 53 7 30
III 32 4 19 2005 I 45 6 27
IV 47 10 27 II 71 17 38
2003 I 25 3 15 III 46 4 28
II 33 5 22 IV 35 4 21
Buatlah model regresinya, serta uji apakah residualnya berdistribusi normal?

Langkah – langkah pengujian asumsi Kasik: Normalitas residual

 Buka file contoh 9.1


 Analysis  Regression  linear
 Masukkan variable Sales pada kotak dependent, variable Promosi dan T.Kerja
pada independent (s)
 Tekan tombol save dan centangin unstandardized residual

Sehingga diperoleh hasil olahan data regresi dan residual yang tersimpan sebagai berikut :

Regression 9.1
Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
1 Tenaga . Enter
Kerja,
Promosib
a. Dependent Variable: Sales
b. All requested variables entered.
Model Summaryb
Adjusted R Std. Error of
Model R R Square Square the Estimate
1 ,986a ,971 ,968 2,15998
a. Predictors: (Constant), Tenaga Kerja, Promosi
b. Dependent Variable: Sales

ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 2684,487 2 1342,243 287,696 ,000b
Residual 79,313 17 4,665
Total 2763,800 19
a. Dependent Variable: Sales
b. Predictors: (Constant), Tenaga Kerja, Promosi

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 5,428 2,017 2,691 ,015
Promosi 1,067 ,192 ,357 5,548 ,000
Tenaga Kerja 1,227 ,115 ,684 10,627 ,000
a. Dependent Variable: Sales

Residuals Statisticsa
Minimu Maximu Std.
m m Mean Deviation N
Predicted Value 27,0330 70,1866 43,1000 11,88650 20
Residual -4,11552 3,77867 ,00000 2,04313 20
Std. Predicted -1,352 2,279 ,000 1,000 20
Value
Std. Residual -1,905 1,749 ,000 ,946 20
a. Dependent Variable: Sales

Unstandardized Residual
Tahun Triwulan Y X1 X2 RES_1
1 2001,00 1,00 38,00 8,00 19,00 ,726
2 2001,00 2,00 49,00 12,00 22,00 3,779
3 2001,00 3,00 32,00 3,00 17,00 2,513
4 2001,00 4,00 28,00 4,00 15,00 -,100
Berdasarkan hasil olahan data di atas ternyata variabel promosi dan tenaga kerja
berpengaruh signifikan terhadap sales pada tingkat signifikansi kurang dari satu persen,
baik secara parsial (uji t) maupun secara serempak (uji F). Hasil olahan data tersebut
dapat dibuat persamaan regresi:

Sales = 5,428+ 1,067 Promosi+ 1,227 T.Kerja……………….(9.01)

Selanjutnya berdasarkan persamaan 9.01 dan data pada Tabel 9.1 dihitung
residualnya untuk diuji kenormalannya, dengan langkah-langkah:

 Analyze  Nonparametric Test  Legacy Dialogs  1-Sample K-S


 Masukkan variable Unstandarized Residual ke kotak Test Variable List
 OK
Hasil olahan data tampak sebagai berikut :

One-Sample Kolmogorov-Smirnov Test


Unstandardiz
ed Residual
N 20
Normal Parametersa,b Mean ,0000000
Std. 2,04313189
Deviation
Most Extreme Absolute ,111
Differences Positive ,102
Negative -,111
Test Statistic ,111
Asymp. Sig. (2-tailed) ,200c,d
a. Test distribution is Normal.
b. Calculated from data.
c. Lilliefors Significance Correction.
d. This is a lower bound of the true significance.

Hasil pengujian statistic dengan menggunakan SPSS ternyata residual model


pengaruh peromosi dan tenaga kerja terhadap sales berdistribusi normal. Hal ini ditunjukan
nilai statistic Kolmogorev-Smitnov sebesar 0,111 dengan Sig (2-tailed) sebesar 0,200 yang
lebih besar dari 0,05. Oleh karena residual model berdistribusi normal, maka model layak
digunakan untuk analisis lebih lanjut.

9.3 Uji Autokorelasi atau Serial Korelasi


Untuk melacak adanya korelasi auto atau pengaruh data dari pengamatan
sebelumnya dalam suatu model regresi dilakukan uji autokorelasi. Jika suatu model
regresi mengandung gejala autokorelasi, maka prediksi yang dilakukan dengan model
tersebut akan tidak baik (bias), atau dapat memberikan hasil prediksi yang
menyimpang. Uji autokorelasi dapat dilakukan dengan beberapa cara. namun sebagian
besar program Statistik menggunakan uji Durbin-Watson (DW-test) atau d statistik.
Nilai d dihitung dengan rumus:
∑ (et – ei-1)2
d= ………………………………………………(9.2)
∑e2𝑖
Dimana :
D = nilai d (Durbin-Watson) statistik
et = Variable pengganggu pada periode t
ei-1 = Variable pengganggu pada satu periode sebelum periode t

Dari hasi perhitungan nilai di statistik itu kemudian dibandingkan dengan kriteria
pengujian seperti berikut ini.
H0 = Tidak ada auto korelasi dalam model
Ha = Ada aouto korelasi dalam model
N = 20; K’ = jumlah variable bebas = 2; dL = 1,10 du = 1,54
Jika : 1,54 < d < 2,46 Berarti tidak ada auto korelasi
1,10 > d > 2,90 Berarti ada auto korelasi
1,10 ≤ d ≤ 1,54 Berarti tidak ada keputusan atau
2,46 ≥ d ≥ 2,9 ragu-ragu

Langkah-langkah pengolahan data dengan SPSS:

 Masukan variable sales pada kota dependent dan promosi serta T,kerja pada kotak
indepensent
 Tekan tombol statistics
Contoh 9.2

Berdasarkan Contoh 9.1 apabila dihitung DW dengan mengguanakan SPSS tampak


sebagai berikut

Model Summaryb
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson
1 ,986a ,971 ,968 2,15998 1,612
a. Predictors: (Constant), Tenaga Kerja, Promosi
b. Dependent Variable: Sales

Dengan level of signifikan 5 persen, untuk n 20 dan jumlah variabel bebas (k)
sebanyak 2, du 1.10 dan du 1.54. Dengan demikian d statistic berada pada daerah tidak ada
autokorelasi atau model regresi mengenai pengaruh promosi dan tenaga kerj terhadap sales,
yaitu Sales 5,428 1,067 Promosi 1.227 T Keria tidak mengandung gejala autokorelasi
sehingga layak dipakai untuk memprediksi

Metode Bruesch-Godfrey

Bruesch dan Godfrey mengembangkan uji autokorelasi yang lebih umum berdasarkan
kelemahan-kelemahan metode Durbin Watson terutama dengan kesimpulan tidak
memberikan keputusan (ragu-ragu). Sebaliknya, pengujian autokorelasi Bruesch dan Godfrey
dikenal dengan uji Lagrange Multiplier (LM). yang memberikan kesimpulan ada autokorelasi
vs tidak ada autokorelasi. Untuk memahami uji LM, misalkan kita mempunyai model regresi
sederhana sbb:

𝑌𝑡 = 𝛼 + 𝛽𝑋𝑡 + 𝜀𝑡 …………………………………………………….(9,3)

Sebenarnya kita bisa memasukkan lebih dari satu variabel independen, namun untuk
memudahkan kita menggunakan model regresi sederhana. Diasumsikan model residualnya
mengikuti model autoregresif dengan order 𝜌 atau disingkat AR (𝜌) sebagai berikut:

𝑒𝑡 = 𝜌1 𝑒𝑡−1 + 𝜌2 𝑒𝑡−2 + ……….. 𝜌 𝑒𝑡−𝑘 + 𝑉𝑡 ………………..(9.4)

dimana 𝑉𝑡 adalah residual.

Sebagaimana uji Durbin-Watson, maka hipotesis nul tidak adanya au yang dapat
diformulasikan sbb

𝐻0 : 𝑝1 = 𝑝2 = … = 𝑝𝑘 = 0 ……………………………………………………(9.5)

Jika kita menerima Ho maka dikatakan tidak ada autokorelasi dalam Adapun prosedur uji
dari LM adalah sbb:

1) estimasi persamaan (9.3) dengan metode OLS dan kita dapatkan residualnya

2) melakukan regresi residual 𝑒𝑡 dengan variabel independen 𝑋𝑡 (jika ada lebih dari satu
variable maka kita harus masukan variabel independen) dan lag dari residual 𝑒𝑡−1 𝑒𝑡−2 …
𝑒𝑡−𝑘 langkah kedua ini dapat ditulis sbb:

𝑒𝑡 = 𝑝1 𝑒𝑡−1 + ….. 𝜌 𝑒𝑡−𝑘 + 𝑉𝑡 ……………………………………………….(9.6)

kemudian dapatkan 𝑅 2

3) Jika sampel adalah besar, menurut Breusch dan Godfrey maka model dalam persamaan
(9.6) akan mengikuti distribusi Chi-squares dengan df sebanyak p Nilai hitung statistik Chi
Squares dapat dihitung dengan menggunakan formula sbb:

(n) 𝑅 3 = 𝑋𝑝2 ………………………………………………………………(9.7)


Nilai (n) 𝑅 2 merupakan chi-squares (𝑋 2 ) hitung. Jika nilainya lebih besar nilai kritis
chi squares pada derajat kepercayaan tertentu (𝛼), maka menolak hipotesis nul (𝐻0 ), maka hal
ini menunjukkan adanya masalah autokorelasi dalam model. Sebaliknya jika nilai Chi squares
hitung lebih kecil dari nilai kritisnya, maka hipotesis nul diterima, atau model tidak
mengandung unsur autokorelasi

Meskipun demikian, pelacakan autokorelasi dengan metode LM yang dikembangkan


oleh Breusch-Godfrey memiliki kelemahan yaitu dalam hal menentukan panjangnya
kelembaban (k) untuk variable residual. Keputusan ada tidaknya masalah autokorelasi sangat
tergantung dari kelembaban yang di pilih

Dapat dilakukan metode coba-coba (trial and errors) untuk menghindari masalah
autokorelasi. Untuk memilih panjangnya lag residual yang tepat kita bisa menggunakan
kriteria yang ditemukan oleh Akaike dan Schwarz. Berdasarkan kriteria ini, panjangnya lag
yang dipilih adalah ketika nilai kriteria Akaike dan Schwarz paling kecil

9.4. Uji Multikolinieritas

Uji multikolienieritas bertujuan untuk menguji apakah pada model regresi ditemukan
adanya korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak teradi
korelasi diantara variabel bebas atau bebas dari gejala multikolinier. Jika suatu model regresi
yang mengandung gejala multikolinier dipaksakan untuk digunakan, maka akan memberikan
hasil prediksi yang menyimpang. Untuk mendeteksi ada atau tidaknya korelasi antar sesama
variabel bebas dapat dilihat dari nilai tolerance dan nilai variance inflation factor (VIF). Jika
nilai tolerance lebih dari 10 persen atau VIF kurang dari 10, maka dikatakan tidak ada
multikolinieritas. Adanya gejala multikolinier sering diindikasikan oleh 𝑅 2 yang sangat besar
atau uji F yang signifikant, tetapi variabel bebas sedikit atau mungkin juga tidak ada yang
signifikan.jika diuji melalui uji parsial (t).

Langkah-langkah pengolahan data dengan SPSS:

 Masukkan variabel Sales pada kota dependent dan Promosi serta T,Kerja pada kotak
independent's (lihat ketika menguji Autokoralasi)
 Tekan tombol Statistics Centangin Collinearity diagnostics
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 5,428 2,017 2,691 ,015
Promosi 1,067 ,192 ,357 5,548 ,000 ,408 2,454
Tenaga Kerja 1,227 ,115 ,684 10,627 ,000 ,408 2,454
a. Dependent Variable: Sales

Contoh 9.4

Berdasarkan hasil olahan data terhadap Contoh 9.1, ternyata koefisien tolerance lebih
besar dari 0,10 dan VIF lebih kecil dari 10. Hal ini berarti bahwa model regresi pengaruh
promosi dan tenaga kerja terhadap sales yang dibuat tidak terdapat gejala multikolinier,
sehingga model tersebut layak digunakan untuk memprediksi.

9.5 Uji Heteroskedastisitas

Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi


ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain. Model regresi
yang baik adalah yang tidak mengandung gejala heteroskedastisitas atau mempunyai varians
yang homogen. Jika suatu model regresi yang mengandung gejala heteroskedastis akan
memberikan hasil prediksi yang menyimpang. Banyak metode untuk menditeksi adanya
gejala heteroskedastis, tetapi dalam buku ini untuk mendeteksi ada atau tidaknya
heteroskedastisitas dilakukan uji Glejser dan metode Park.

a. Metode Glejser
Metode ini adalah meregres variabel bebas terhadap absolut residual. Namun untuk
melakukan hal itu harus dihitung residualnya melalui regresi dengan formula:
Yi = α + β1X1 + …………. ΒkXk + ei …………………………. (9.10)
Setelah residual diperoleh kemudian diabsolutkan dan diregresikan dengan formulasi:
| ei | = α + β1X1 + …………. ΒkXk + ui……………………….(9.11)
Jika variabel bebas yang dianalisis tidak mempunyai pengaruh signifikan terhadap
residual absolut | ei |, berarti model regresi yang dianalisis tidak mengandung gelaja
heteriskesdastis.

Contoh 9.5
Apabila data pada Contoh 9.1 diuji adanya gejala heteroskesdastis dengan
menggunakan metode Glejser hasilnya nampak sebagai berikut.

Regression

ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 2684,487 2 1342,243 287,696 ,000b
Residual 79,313 17 4,665
Total 2763,800 19
a. Dependent Variable: Sales
b. Predictors: (Constant), Tenaga Kerja, Promosi

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 5,428 2,017 2,691 ,015
Promosi 1,067 ,192 ,357 5,548 ,000 ,408 2,454
Tenaga Kerja 1,227 ,115 ,684 10,627 ,000 ,408 2,454
a. Dependent Variable: Sales

Berdasarkan olahan data dengan SPSS terlihat bahwa tidak ada pengaruh variabel bebas
promosi dan tenaga kerja terhadap absolut residual (ABRES), baik secara serempak maupun
secara parsial. Dengan demikian model regresi promosi dan tenaga kerja terhadap sales yang
dibuat, yaitu Sales = 5,428 + 1,067 Promosi + 1,227 T.Kerja tidak mengandung gejala
heteroskedastis, sehingga layak digunakan untuk memprediksi.

b. Metode Park

Metode ini menganggap bahwa varians (s2) merupakan fungsi variabel bebas,
yang dapat dinyatakan dalam persamaan :

𝛼𝑖2 = αXiβ …………………………………………………………… (9.12)

Persamaan ini σ2i dapat ditransformasikan dalam persamaan logaritma, sehingga menjadi :

Ln σ2i = α + β1LnXti + ….. βkLnXki + Vi …………………………….(9.13)

Selanjutnya σ2 , ditaksir dengan menggunakan residual µ, sehingga persamaan menjadi:

Ln µ2 i = α + β1LnXn +….. βkLnXki + Vi …………………………….(9.14)

Contoh 9.6

Berdasarkan hasil olahan data dengan SPSS yangditampilkan pada kotak berikut.

Model Summaryb
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson
1 ,149a ,022 -,093 1,39091 2,555
a. Predictors: (Constant), Tenaga Kerja, Promosi
b. Dependent Variable: RES_4
ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression ,749 2 ,374 ,194 ,826b
Residual 32,889 17 1,935
Total 33,637 19
a. Dependent Variable: RES_4
b. Predictors: (Constant), Tenaga Kerja, Promosi

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 1,063 1,299 ,819 ,424
Promosi ,041 ,124 ,123 ,328 ,747 ,408 2,454
Tenaga Kerja ,006 ,074 ,032 ,085 ,934 ,408 2,454
a. Dependent Variable: RES_4

Berdasarkan hasil olahan data dengan SPSS dapat diketahui bahwa tidak terdapat
variabel bebas yang berpengaruh signifikan terhadap residual kuadrat. Hal ini berarti bahwa
dengan menggunakan metode Park maka modal regresi tentang pengaruh promosi dan tenaga
kerja terhadap sales, yaitu Sales = 5,428 + 1,067 Promosi + 1,227 T.Kerja tidak mengandung
gejala heteroskedastis.

Catatan : Program EViews memberikan cara yang lebih sederhana, ringkas, serta
tampilan yang lebih menarik untuk mengolah model regresi, serta
melakukan pengujian asumsi klasik.

Anda mungkin juga menyukai