Anda di halaman 1dari 17

STATISTIKA BISNIS

UJI ASUMSI KLASIK

OLEH:

KELOMPOK 5

1. Ni Kadek Widnyani Widyastari (2081621011/11)


2. Komang Putri Utami (2081621012/12)
3. Pande Putu Biantari Darmayanti (2081621014/14)
4. Ni Nyoman Trisna Dewi Ariyani (2081621020/20)

PROGRAM MAGISTER AKUNTANSI


FAKULTAS EKONOMI DAN BISNIS
UNIVERSITAS UDAYANA
2021

1
Uji Asumsi Klasik
Pengantar
Salah satu tujuan penggunaan model regresi adalah melakukan prediksi variable
terikat (Y). Berkaitan dengan hal itu, agar hasil prediksi tidak bias, maka dianggap perlu
diyakinkan Kembali apakah model yang dibuat sudah valid dan tidak melanggar asumsi-
asumsi metode kuadrat terkecil, yaitu BLUE (Best, Linear, Unbias Estimator) yang sering
disebut asumsi klasik. Untuk itu dilakukan pelacakan atau pengujian asumsi klasik yang
meliputi: uji normalitas residual, uji autokorelasi, uji multikolinieritas, dan uji
heteroskedastisitas.
Tujuan pengujian asumsi klasik tersebut untuk lebih meyakinkan atas kelayakan
model yang dibuat terutama untuk tujuan memprediksi. Uji asumsi klasik disebut uji urutan
kedua (second order test) yang dilakukan setelah uji kelayakan model F test dan t test
dilakukan. Pertimbangan lain kenapa uji asumsi klasik dilakukan setelah uji F dan uji t urutan
pertama (first order test), karena sebagian besar dalam pengujian asumsi klasik menggunakan
hasil residual dari model regresi.
1. Uji Normalitas
Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk menilai sebaran
data pada sebuah kelompok data atau variabel, apakah sebaran data tersebut berdistribusi
normal ataukah tidak.
Uji Normalitas berguna untuk menentukan data yang telah dikumpulkan berdistribusi
normal atau diambil dari populasi normal. Metode klasik dalam pengujian normalitas suatu
data tidak begitu rumit. Berdasarkan pengalaman empiris beberapa pakar statistik, data yang
banyaknya lebih dari 30 (n > 30), maka sudah dapat diasumsikan berdistribusi normal. Biasa
dikatakan sebagai sampel besar.
Model regresi yang baik adalah memiliki distribusi residual yang normal atau mendekati
normal. Jika tidak normal, maka prediksi yang dilakukan dengan model tersebut akan tidak
baik, atau dapat memberikan hasil prediksi yang menyimpang (bias).
Residual yang sering dinotasikan µ untuk populasi atau ε1 untuk sampel merupakan
selisih antara nilai variable terikat aktual (Yi) dikurangi dengan nilai prediksi dari variable
terikat tersebut. Dari model regresi:
Yi = α + β1X1i + β2X2i + …………………..+ βkXki + εi …………………….. (1)
Diperoleh residual:
ε1 = Yi – {α + β1X1i + β2X2i + ……………….. + βkXki} ………………………... (2)

2
Dalam suatu analisis untuk menguji apakah model sudah normal atau tidak, pertama
dapat dilakukan dengan melihat normal probability plot dari residual dengan membandingkan
distribusi komulatif dari residual yang dihasilkan dengan distirbusi komulatif dari distribusi
normal. Jika titik-titik menyebar mendekati garis diagonal maka data tersebut dianggap
terdistribusi normal. Kedua, dapat dilakukan dengan Uji Komogorov-Sminarnov. Caranya
adalah dengan membandingkan distribusi kumulatif relative hasil observasi Scr (ε) dengan
distribusi kumulatif relative teoritisnya (harapannya) atau Fcr (ε) seperti ditampilkan pada
gambar berikut:

Langkah-langkah pengujian:
1) Formulasi hipotesis:
Ho : Residual yang diuji menyebar normal
H1: Residual yang diuji tidak menyebar normal
2) Tingkat signifikansi misalnya 5%
Ditanya D = ….?
3) Kriteria pengujian:
Ho ditolak bila Dhitung ≤ Dtabel atau p.value ≤ tingkat signifikansi
Ho ditolak bila Dhitung > Dtabel atau p.value > tingkat signifikansi
4) Perhitungan
D = maksimum │Fcr (x) – Scr (x)│
5) Kesimpulan
Bandingkan antara Langkah 4 dan Langkah 5.

3
Dengan menggunakan print out computer kesimpulan dapat ditarik dengan melihat
Sig (2-tailed). Jika Sig (2-tailed) lebih besar dari level of signifikan yang dipakai,
maka Ho terima. Sehingga dapat disimpulkan bahwa residual yang dianalisis
terdistribusi normal. Sebaliknya apabila nilai Sig (2-tailed) lebih kecil berarti bahwa
data yang dianalisis tidak terdistribusi normal.

2. Uji Auto korelasi


Untuk melacak adanya auto korelasi atau pengaruh data dari pengamatan sebelumnya
dalam suatu model regresi dilakukan uji autokorelasi. Jika suatu model regresi
mengandung gejala autokorelasi, maka prediksi yang dilakukan dengan model tersebut
akan tidak baik atau bias, atau dapat memberikan hasil prediksi yang menyimpang. Uji
autokorelasi dapat dilakukan dengan beberapa cara, namun sebagian besar program
statistic menggunakan Uji Durbin-Watson (DW-test) atau d statistic. Nilai d dihitung
dengan rumus :

d=
∑ ( et −e t−1 )2
∑ e2i

Dimana :

d = nilai d (Durbin-Watson) statistik


et = Variabel penganggu pada periode t
e t−1 = Variabel penganggu pada satu periode sebelum periode t
Dari hasil perhitungan nilai d statistik itu kemudian dibandingkan dengan kriteria
pengujian seperti berikut ini:

H0 = Tidak ada auto korelasi dalam model


H1 = Ada auto korelasi dalam model

Uji Durbin watson akan menghasilkan nilai Durbin Watson (d) yang nantinya akan
dibandingkan dengan dua (2) nilai Durbin Watson Tabel, yaitu Durbin Upper (dU) dan
Durbin Lower (dL). Dikatakan tidak terdapat autokorelasi jika nilai d U < d < ( 4−d U ).

Berikut beberapa keputusan setelah membandingkan DW.


Bila d < dL maka tolak Ho; Berarti ada korelasi yang positif
Bila dL < d < dU maka kita tidak dapat mengambil kesimpulan apa-apa

4
Bila dU < d < 4 – dU maka Ho diterima; Artinya tidak ada korelasi positif maupun
negatif
Bila 4 – dU < d < 4 – dL maka kita tidak dapat mengambil kesimpulan apa-apa
Bila d > 4 – dL maka Ho ditolak ; Berarti ada korelasi negatif

Selain metode pengujian Durbin Watson, ada beberapa metode lainnya yang dapat
digunakan, seperti:

 Metode Grafik
Dalam metode grafik, untuk mendeteksi autokorelasi pada data time series
dilakukan dengan cara memplotkan et terhadap waktu (t) atau et dengan et-1.
Nilai et ini merupakan pendekatan untuk melihat gangguan atau disturbansi
populasi ut (atau ui), yang tidak dapat diamati secara langsung. et adalah nilai
residual yang dapat diperoleh dari prosedur OLS yang biasa.
Setelah memplotkan et terhadap t atau et dengan et-1, amati pola yang terjadi.
Jika terdapat pola-pola yang sistematis, maka diduga ada autokorelasi. Sebaliknya,
jika tidak terdapat pola yang sistematis (atau bersifat acak), maka tidak ada
autokorelasi. Ada beberapa pola et ini, diantaranya sebagai berikut:

5
 Uji Run
Uji durbin Watson juga memiliki kelemahan ketika berada antara nilai dL dan
dU atau antara (4-dU) dan (4-dL) maka keputusannya autokorelasi tidak bisa
diketahui mempunyai autokorelasi apa tidak. Sehingga dilakukan uji lain bisa
dengan metode grafik atau metode formal lainnya. Salah satu uji formal yaitu uji
run. Uji run adalah uji yang digunakan untuk menguji data ordinal satu sampel.
Uji ini dilakukan untuk membuktikan apakah sebuah data memiliki sampel yang
acak atau tidak.
Prinsip kerja uji run sangat sederhana yaitu dengan melihat tanda nilai residual
negtaif atau positif(+) atau negatif (-), tanpa memperhatikan nilainya. Sehingga
run yang dimaksud disini adalah sekelompok nilai residual yang mempunyai tanda
sama secara berturut-turut.
Untuk menghitungnya digunakan beberapa fungsi berikut:
N 1 N2
Mean : E(R) = +1
N
2 N 1 N 2 (2 N 1 N 2  N )
σ2 ( N ) 2 ( N  1)
Variance : R=
Dimana:
N1 = jumlah tanda + (residual positif)
N2 = jumlad tanda – (residual negatif )
N = N1 + N2
R = jumlah runs

6
[E(R) - 1,96 σR ≤ R ≤ E(R) + 1,96 σR ]

Jika nilai R (jumlah run) diluar kisaran itu, maka Ho ditolak (berarti ada
autokorelasi)

 Uji Bruesch Godfrey (BG) / Lagrange Multiplier (LM)


Bruesch dan Godfrey mengembangkan uji autokorelasi yang lebih umum
berdasarkan kelemahan-kelemahan metode Durbin-Watson terutama dengan
kesimpulan tidak memberikan keputusan (ragu-ragu). Sebaliknya, pengujian
autokorelasi Bruesch dan Godfrey dikenal dengan uji Lagrange Multiplier (LM),
yang memberikan kesimpulan ada autokorelasi vs tidak ada autokorelasi. Untuk
memahami uji LM, misalkan kita mempunyai model regresi sederhana sebagai
berikut:
Y t= α + βX 1 + ε t
Berdasarkan model tersebut Breusch-Godfrey mengasumsikan model
residualnya mengikuti autoregresif order p atau yang disingkat AR(p), sebagai
berikut:
ε t = ρ1 e t−1 + ρ2 e t−2 + …..+ ρ e t−k + v t
Dimana v t adalah residual. Sebagaimana uji Durbin-Watson, maka hipotesis nul
tidak adanya autokorelasi, yang dapat diformulasikan sebagai berikut:
Ho: ρ1 = ρ2 = … = ρk = 0
Jika kita menerima Ho maka dikatakan tidak ada autokorelasi dalam model.

3. Uji Multikolinieritas
Uji multikolineritas bertujuan untuk menguji apakah pada model regresi ditemukan
adanya korelasi antar variabel bebas. Model regresi yang baik seharusnya tidak terjadi
korelasi diantara variabel bebas atau bebas dari gejala multikolinier. Untuk mendeteksi
ada atau tidaknya korelasi antar sesama variabel bebas dapat dilihat dari nilai tolerance
dan nilai variance inflation factor (VIF) kurang dari 10 maka dikatakan tidak ada
multikolineritas. Sedangkan apabila VIF menunjukkan lebih dari 10 maka dikatakan
terjadi multikolinieritas dalam model regresi. Adanya gejala multikolinier sering
diindikasikan oleh R2 yang sangat besar atau uji F yang signifikan tetapi variabel bebas
sedikit atau mungkin juga tidak ada yang signifikan jika diuji melalui uji parsial (t).

7
Untuk regresi yang terdiri dari k variabel bebas yaitu X 1, X2, ....... Xk dikatakan
memiliki hubungan linier yang sempurna apabila memenuhi syarat yaitu sebagai
berikut :
λ 1 X 1 + λ 2 X 2 + ............... + λ k X k = 0...............................................................(1)
Dimana λ 1, λ 2, ........... λ k adalah konstanta yang tidak semua secara simultan sama
dengan 0.
Apabila antar variabel bebas (X) berkolerasi tetapi tidak sempurna, maka persamaan
yang berlaku adalah sebagai berikut :
λ 1 X 1 + λ 2 X 2 + .............. + λ k X k + V i = 0........................................................(2)
Dimana V i adalah kesalahan stochastic error term.
Jika λ 2 ≠ 0 maka persamaan (1) dapat ditulis :
λ1 λ
X2i = - X 1 i - .......... - k X ki .......................................................................(3)
λ2 λ2
Persamaan (3) menunjukkan bahwa X2 berhubungan linear yang sempurna dengan X
lainnya. Sedangkan pada persamaan (2) dapat dijabarkan sebagai berikut :
λ1 λ 1
X2i = - X 1 i - ..........- k X ki- v ................................................(4)
λ2 λ2 λ2 i
Persamaan (4) menunjukkan tidak ada hubungan linier yang sempurna antara X2
dengan X lainnya karena ada unsur stochastic error term (vi).
- Pendeteksian Multikolinearitas
Terdapat 6 cara untuk mendeteksi adanya multikolinearitas, yaitu sebagai berikut
a. Jika R2 tinggi ( > 0,8), uji simultan (uji F) menolak hipotesis nol, tetapi tidak
ada atau sangat sedikit koefesien regresi parsial yang signifikan berdasarkan
uji t.
b. Korelasi derajat nol (zero order) yang tinggi (> 0,8) merupakan syarat cukup
(sufficient condition) tetapi bukan syarat perlu (necessary condition), kecuali
pada regresi dengan dua variabel bebas. Jadi korelasi derajat nol bukan kriteria
yang tepat bagi adanya multikolinearitas, karena multikolinearitas bisa terjadi
walaupun korelasi derajat nol relatif rendah (< 0,5).
c. Melalui koefisien korelasi parsial, misalnya dari regresi Y atas X2, X3, dan X4.
d. Melalui auxiliary regresion , yaitu regresi dari setiap variabel bebas (Xi) atas
sisa variabel X lainnya dan dihitung R2. Jika R2 dari auxiliary regretion lebih

8
besar dari R2 dari Y atas seluruh regressor maka multikolinearitas merupakan
masalah serius. Atau dapat juga dilakukan uji F sebagai berikut:

R 2 x , x , x ....x /(k 1)


F 1 2 3 k.........
 2 
1  R x , x , x ,....x  /(n  k)
 1 2 3 k
e. Egenvalue dan condition Index (CI).
Jika ada egenvalue yang mendekati nol menunjukkan adanya
multikolinearitas. Demikian juga jika ada CI yang bernilai 10-30 menunjukkan
multikolinearitas yang moderat dan jika CI lebih besar dari itu menunjukkan
multikolinearitas yang serius.
f. Tolerance dan Variance Inflating Factor (VIF)
Tolerance (TOL) = (1-R2j) = 1/VIFj
VIFj = 1/(1-R2j)
R2j = koefisien determinasi antara satu variabel bebas dengan variabel bebas
sisanya.
Jika R2j = 1, TOL = 0 atau jika R2j = 0, TOL = 1 menunjukkan
multikolinearitas sempurna
Jika VIF suatu variabel > 10 ( Rj2 = 0,90) menunjukkan ada masalah
multikolinearitas

4. Uji Heteroskedastisitas
Uji Heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi
ketidaksamaan varian dari residual satu pengamatan ke pengamatan yang lain. Model
regresi yang baik adalah yang tidak mengandung gejala heteroskedastisitas atau
mempunyai varians yang homogen. Apabila suatu model regresi mengandung gejala
heteroskedastisitas akan memberikan hasil prediksi yang menyimpang.
Uji statistik yang dapat digunakan untuk mendeteksi heteroskadstisitas antara lain:
a. Uji Korelasi Rank Spearman Model
Dalam metode ini mengkorelasikan nilai residual dengan variabel bebas dengan
menggunakan Rank-Spearman. Adapun persamaannya adalah sebagai berikut :

∑ d2
r s= 1 – 6
[ n (n2−1) ]
dimana:

9
rs = koefisien korelasi rank Spearman
d = selisih rank antara residual absolut dengan variabel independen
n = jumlah observasi

apabila koefisien korelasinya signifikan secara statistik maka terdapat masalah


heteroskedastisitas.

b. Metode Glejser
Dalam metode ini meregresi variabel bebas terhadap absolut residual. Namun
untuk melakukan hal itu, terlebih dahulu menghitung residualnya melalui regresi
dengan formula:
Yi= α + β1 X 1 + ............... + βk X k+ e i...............................................................(1)
Setelah residual diperoleh kemudian diabsolutkan dan diregresikan dengan
formulasi :
|e i|= α + β1 X 1 + ............... + βk X k+∪i ..................................................................(2)
Apabila variabel bebas yang dianalisis tidak memiliki pengaruh signifikan
terhadap residual absolut |e i| , maka model regresi yang dianalisis tidak
mengandung gejala heteroskedastisitas.
c. Metode Park
Metode ini menganggap bahwa varians (s2) merupakan fungsi variabel bebas
yang dapat dinyatakan dalam persamaan sebagai berikut :
σ i2 = α X iβ ................................................................................................(1)
Persamaan ini dapat ditransformasikan dalam persamaan logaritma, sehingga
menjadi :
Ln σ i2 = α + β1 Ln X1i + ...... βk Ln Xki + vi ....................................................(2)
Selanjutnya σ i2 ditaksir dengan menggunakan residual μ, sehingga persamaannya
menjadi :
Ln μ2i = α + β1 Ln X1i + ...... βk Ln Xki + vi ....................................................(3)
d. Melihat Pola Gambar Scatterplots
Salah satu uji dalam heteroskedastisitas yaitu dengan melihat grafik. Metode ini
melihat pola titik-titik pada scatter plots regresi. Kriteria pengujian untuk
menjawab hipotesis berdasarkan grafik adalah
- H0 : tidak ada gejala heteroskedastisitas apabila tidak ada pola yang jelas,
seperti titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y.

10
- Ha: ada gejala heteroskedastisitas apabila ada pola tertentu yang jelas, seperti
titik-titik membentuk pola tertentu yang teratur.

Berikut salah satu contoh dari pola grafik scatterplots:

Contoh Soal dan Pembahasan Menggunakan SPSS


1. Dibawah ini adalah data mengenai penjualan (Sales), promosi dan jumlah tenaga kerja
dari PT. Guna Raharja.
Tahun Triwulan X1 X2 Y
2001 1 8 19 38
2001 2 12 22 49
2001 3 3 17 32
2001 4 4 15 28
2002 1 7 23 37
2002 2 12 27 51
2002 3 4 19 32

11
2002 4 10 27 47
2003 1 3 15 25
2003 2 5 22 38
2003 3 3 20 33
2003 4 5 20 35
2004 1 7 28 49
2004 2 10 32 52
2004 3 14 38 66
2004 4 7 30 53
2005 1 6 27 45
2005 2 17 38 71
2005 3 4 28 46
2005 4 4 21 35

Buatlah model regresinya, serta lakukan pengujian menggunakan uji normalitas,


autokorelasi, multikolinieritas, dan heterokedastisitas.

Jawab:
1) Hasil untuk pengujian normalitas menggunakan SPSS

Output tersebut memberikan informasi tentang variabel yang digunakan. Variabel


independennya adalah Promosi (X1) dan T.Kerja (X2).

R Square adalah sebesar 0,971 atau 97,1% berarti bahwa variabel T. Kerja dan
Promosi secara serentak/ bersama-sama simultan berpengaruh pada Y sebesar 97,1%
dan sisanya dipengaruhi oleh variabel lain.

12
Bila Sig kurang dari 0,05 maka hipotesis diterima yang artinya Variabel indepeden
secara bersama-sama berpengaruh pada variabel dependen)

Y = a + bX1 + bX2 +e
Y= 5,428 + 1,067X1 + 1,227X2 + e

Nilai Sig Promosi adalah 0,000 < 0,05 (Hipotesis diterima)


Nilai Sig T. Kerja adalah 0,000 < 0,05 (Hipotesis diterima)

Berdasarkan hasil olahan tersebut ternyata variabel Promosi dan T.Kerja


berpengaruh signifikan terhadap Sales baik secara parsial (Uji t) maupun secara
serempak (Uji F).

13
Jika titik titik menyebar mendekati garis diagonal, maka data tersebut dianggap
berdistribusi normal. Untuk lebih yakin dapat dilakukan dengan uji Kolmogorov-
Smirnov.

Hasil pengujian statistik dengan menggunakan SPSS ternyata residual model


pengaruh Promosi dan T.Kerja terhadap Sales berdistribusi normal. Hal ini
ditunjukkan nilai statistik Kolmogorov-Smirnov sebesar 0,111 dengan Sig (2-tailed)
sebesar 0,200 > 0,05. Oleh karena residual model berdistribusi normal, maka model
layak digunakan untuk analisis lebih lanjut.

14
2) Hasil untuk pengujian autokorelasi menggunakan SPSS

Dengan level of signifikan 5%, untuk n = 20 dan jumlah variable bebas (k) sebanyak
2, dL = 1,10 dan du = 1,54. Dengan demikian nilai dw lebih besar dari du dan
kurang dari nilai (4-du) atau 4-1,54 = 2,46. Sehingga dapat disimpulkan bahwa tidak
terdapat autokorelasi.

3) Hasil untuk pengujian multikolinieritas menggunakan SPSS

Berdasarkan hasil olahan data, ternyata koefisien tolerance yaitu 0,408 lebih besar
dari 0,10 dan VIF 2,454 lebih kecil dari 10. Hal ini berarti bahwa model regresi
pengaruh Promosi dan T.kerja terhadap Sales yang dibuat tidak terdapat gejala
Multikolinieritas, sehingga model tersebut layak digunakan untuk memprediksi.

4) Hasil untuk pengujian heterokedastisitas menggunakan SPSS


Metode Glejser

15
Untuk memaknai hasil uji heterokedastisitas dengan uji glejser ini, maka bisa dilihat
dari tabe output Coefficients dengan variable RES4 berperan sebagai variable
dependen. Berdasarkan output tersebut nilai signifikansi untuk variabel promosi
sebesar 0,747 dan T. Kerja yaitu sebesar 0,934. Dimana dari kedua variabel tersebut
lebih besalr dari tingkat signikansi 0,05, maka sesuai dengan dasar pengambilan
keputusan dalam uji glejser, dapat disimpulkan bahwa tidak terjadi gelaja
heteroskedastisitas dalam model regresi.

Metode Park

Dari tabel diatas diketahui bahwa nilai signifikasi LnX1 sebesar 0,599 dan LnX2
sebesar 0,887 dimana keduanya nilai signifikansi lebih besar dari 0,05. Maka
kesimpulannya tidak terjadi gejala heterokedastisitas

Melihat Pola Gambar Scatterplot

16
Dari gambar tersebut dapat disimpulkan bahwa:
1. Titik-titik menyebar diatas dan dibawah atau di sekitar angka 0.
2. Titik-titik tidak mengumpul hanya diatas atau dibawah saja.
3. Titik-titik data tidak membentuk pola bergelombang melebar kemudian
menyempit dan melebar Kembali.
4. Penyebaran titik-titik data tidak berpola, dengan demikian dapat disimpulkan
bahwa tidak terjadi masalah heterokedastisitas.

17

Anda mungkin juga menyukai