Anda di halaman 1dari 26

BAB VI

PENGUJIAN ASUMSI
Normalitas

Uji Normalitas adalah sebuah uji yang dilakukan dengan tujuan untuk
menilai sebaran data pada sebuah kelompok data atau variabel,
apakah sebaran data tersebut berdistribusi normal ataukah tidak.

Uji Normalitas berguna untuk menentukan data yang telah


dikumpulkan berdistribusi normal atau diambil dari populasi normal.
Pengujian normalitas suatu data tidak begitu rumit. Berdasarkan
pengalaman empiris beberapa pakar statistik, data yang banyaknya
lebih dari 30 angka (n > 30), maka sudah dapat diasumsikan
berdistribusi normal. Biasa dikatakan sebagai sampel besar
Pengertian Uji Normalitas
Formula/rumus yang digunakan untuk melakukan suatu uji dibuat
dengan mengasumsikan bahwa data yang akan dianalisis berasal dari
populasi yang sebarannya normal.

Data yang normal memiliki kekhasan seperti mean, median dan


modusnya memiliki nilai yang sama
Selain itu juga data normal memiliki bentuk kurva yang sama, bell
curve

Dengan mengasumsikan bahwa data dalam bentuk normal ini,


analisis statistik baru bisa dilakukan.
Distribusi Normal : kurva berbentuk bel, simetris, simetris terhadap sumbu yang
melalui nilai rata-rata

Kurtosis = keruncingan

Skewness = kemiringan

+3s  +2s  -s   +s  +2s  +3s


68%
95%
99%

• Lakukan uji normalitas


• Rasio Skewness & Kurtosis berada –2 sampai +2
Rasio = nilai
Standard error
• Jika tidak berdistribusi normal, lakukan uji normalitas non parametrik (Wilcoxon,

Mann-White, Tau Kendall)


UJI NORMALITAS DGN UJI LILLIEFORS

Langkah-langkah yang harus ditempuh dalam pengujian adalah:

1. Pengamatan x1, x2,………,xn dijadikan bilangan baku z1, z2, ……., zn dengan
menggunakan rumus z = ,dimana dan s masing-masing merupakan

rata-rata dan simpangan baku sampel.

2. Untuk tiap bilangan baku ini dan menggunakan distribusi normal baku, kemudian
dihitung peluang F(zi) = P(z < z).

3. Hitung proporsi z1, z2,………,zn yang lebih kecil atau sama dengan zi. Jika proporsi ini
dinyatakan oleh S(zi), maka S(zi) =

4. Hitunglah selisih F (zi) – S (zi) kemudian tentukan harga mutlaknya.

5. Selanjutnya ambil harga yang paling besar diantara harga-harga mutlak selisih
tersebut. Sebutan harga tersebesar ini adalah L0.
Daftar Nilai Kritis untuk Uji Lillifors
Ukuran Sampel
(n) Taraf Nyata (α)

0,01 0,05 0,10 0,15 0,20

9 0,311 0,271 0,249 0,233 0,223


10 0,294 0,258 0,239 0,224 0,215
11 0,284 0,249 0,230 0,217 0,206
12 0,275 0,242 0,223 0,212 0,199
13 0,268 0,234 0,214 0,202 0,190
14 0,261 0,227 0,207 0,194 0,183
15 0,257 0,220 0,201 0,187 0,177
16 0,250 0,213 0,195 0,182 0,173
17 0,245 0,206 0,189 0,177 0,169
18 0,239 0,200 0,184 0,173 0,166
19 0,235 0,195 0,179 0,169 0,163
20 0,231 0,190 0,174 0,166 0,160
25 0,200 0,173 0,158 0,147 0,142
30 0,187 0,161 0,144 0,136 0,131
N > 30
Perhitungan Uji Normalitas Data
Xi f zi F(zi) S(zi)
67 1 -2,074 0,019 0,062 0,043
70 1 -1,547 0,061 0,125 0,064
71 3 -1,371 0,085 0,187 0,102
72 1 -1,195 0,116 0,250 0,134
74 2 -0,844 0,199 0,312 0,113
76 3 -0,492 0,311 0,375 0,064
77 1 -0,316 0,375 0,437 0,062
78 2 -0,141 0,444 0,500 0,056
79 1 0,0352 0,514 0,562 0,048
81 6 0,3867 0,650 0,625 0,025
83 2 0,7383 0,769 0,687 0,082
84 2 0,914 0,819 0,750 0,069
95 2 2,8476 0,997 0,812 0,185
87 1 1,4414 0,925 0,875 0,050
88 1 1,6172 0,947 0,937 0,009
89 1 1,7929 0,963 1 0,036
- 30 - - - -

Keterangan: Rata-rata = 78,8 dan standar deviasi = 5,689. Kolom 3 diperoleh dengan menggunakan rumus :
, kolom 4 diperoleh dari daftar distribusi normal untuk setiap nilai Z dan
z=
kolom 5 adalah 1/n.
Dari hasil analisis pada tabel di atas diperoleh L0
terbesar = 0,185, sedangkan Ltabel Lillifors = 0,161 pada
taraf nyata (α) 5 % (n = 30). Ini berarti L0 > Ltabel Lillifors
sehingga H0 di tolak atau data sampel berasal dari
populasi berdistribusi tidak normal.
Uji Normalitas dengan Kolmogorov-
Smirnov

Perhitungan Uji Normalitas Data


Xi fi kp zi ztabel a1 a2
159 3 0,10000 -1,4990 0,0669 0,06694 0,0331
160 2 0,16667 -1,2617 0,1035 0,00354 0,0631
163 3 0,26667 -0,9057 0,1825 0,01588 0,0841
165 1 0,30000 -0,6684 0,2519 0,01473 0,0481
166 1 0,33333 -0,5498 0,2912 0,00875 0,0421
167 2 0,40000 -0,4311 0,3332 0,00014 0,0668
169 1 0,43333 -0,1938 0,4232 0,02317 0,0101
170 3 0,53333 -0,0751 0,4700 0,03672 0,0633
171 1 0,56667 0,0435 0,5174 0,01598 0,0492
172 1 0,60000 0,1622 0,5644 0,00226 0,0356
174 3 0,70000 0,3995 0,6552 0,05522 0,0448
176 1 0,73333 0,6368 0,7379 0,02881 0,0045
177 1 0,76667 0,7554 0,7750 0,02500 0,0083
178 3 0,86667 0,8741 0,8090 0,04229 0,0576
179 1 0,90000 0,9927 0,8396 0,02709 0,0604
184 1 0,93333 1,5856 0,9436 0,02304 0,0102
186 1 0,96667 1,8233 0,9659 0,03254 0,0007
191 1 1,00000 1,4165 0,9922 0,02550 0,0078
Mean 170,633
SD 8,428
Dengan perhitungan di atas diperoleh Dhitung = 0,08412, sedangkan dari
Dtabel(0,05; 30) = 0,242. Ini berarti Dhitung < Dtabel, sehingga H0 diterima.
Dengan demikian data sampel berasal dari populasi berdistribusi normal.
Uji Normalitas dengan
Chi-Square

Perhitungan Uji Normalitas dengan Chi-Square


Skor fi Pj 100Pj Pj-100Pj

60-64 5 3 2,59 0,41 0,0649

65-69 15 10 9,31 0,69 0,0511

70,74 25 17 20,52 -3,52 0,6036

75-79 50 33 27,77 5,23 0,9849

80-84 30 20 23,07 -3,07 0,4085

85-89 18 12 11,77 0,23 0m0045

90-94 7 5 3,68 1,32 0,4734

Jumlah 150 100 - - 2,5911


UJI HOMOGENITAS

Homogenitas Varians dengan Uji Bartlett

Andaikan empat kelompok A1, A2, A3, dan A4


dengan ukuran sampel masing-masing 40 subjek.
Uji homogenitas varians dari empat kelompok,
yaitu kelompok A1, A2, A3, dan A4 dilakukan
dengan menggunakan uji Bartlett.
Hipotesis yang diuji adalah:
H0: σ₁² = σ²₂ = σ²3 = σ²4
H1: Bukan H0
Perhitungan Uji Homogenitas Varians
Kelompok db s2 Log s2 bb Log s2
Sampel

A1 29 73,482 1,8662 54,119

A2 29 81,614 1,9117 55,441

A3 29 134,869 2,1299 61,767

A4 29 62.120 1,7932 52,004

Jumlah 116 352,085 - 223,331


S2gabungan =
= 29(352,085)/116 = 88,021
B = (Log S2gabungan)∑(ni-1) = (log 88,021)(116) = 225,572

X2hitung = (ln 10)(B - ∑(ni – 1) log s2 = (2,3026)(225,572 – 223,331) = 5,16

X2hitung = 5,16 dan X2tabel(0,05)(3) = 7,81

Hasil perhitungan menunjukkan bahwa


X2hitung = 5,16 < X2tabel(0,05)(3) = 7,81 yang
berate H0 diterima. Dengan demikian
keempat kelompok data mempunyai
varians yang sama atau skor dari keempat
kelompok adalah homogen
Uji Multikolinearitas
• Bertujuan untuk menguji apakah dalam model regresi
ditemukan adanya korelasi antar variabel independen.
• Jika variabel independen saling berkorelasi, maka
variabel-variabel ini tidak ortogonal.
• Variabel ortogonal adalah variabel independen yang nilai
korelasi antar sesama variabel independen sama dengan
nol.
Cara Mendeteksi Multikolinearitas
– Nilai koefisien determinasi ( R2 ) yang dihasilkan oleh suatu estimasi model
regresi empiris sangat tinggi, tetapi secara individual variabel-variabel
banyak yang tidak signifikan mempengaruhi variabel dependen
– Menganalisis matriks korelasi variabel-variabel independen. Jika nilainya >
0.90 berarti terdapat multikolinearitas
– Dilihat dari nilai VIF dan Tolerance. Nilai cut off Tolerance < 0.10 dan VIF >
10 (berarti terdapat multikolinearitas).
– Menggunakan cara regresi parsial. Membandingkan R2 model utama
dengan R2 model auxiliary regression antar variabel independent. Jika R2
model auxiliary > R2 model utama maka terjadi multikolinearitas.
– Dengan regresi parsial.
– Menggunakan Eigenvalues dan Condition Index ( CI ).
Cara Mengobati
• Menggabungkan data cross section dan time series
• Mengeluarkan satu atau lebih variabel independen yang
mempunyai korelasi tinggi dari model regresi
• Transformasi variabel dalam bentuk bentuk logaritma
natural dan bentuk first difference
• Gunakan model dengan variabel independen yang
punya korelasi tinggi hanya untuk prediksi
Uji Autokorelasi
• Bertujuan untuk menguji apakah dalam model regresi
linear ada korelasi antara kesalahan pengganggu pada
periode t dengan kesalahan pengganggu pada periode t-1
(sebelumnya).
• Autokorelasi muncul karena observasi yang berurutan
sepanjang waktu berkaitan satu sama lainnya. Model
regresi yang baik adalah regresi yang bebas dari
autokorelasi.
Cara Mendeteksi
• Uji Durbin-Watson
– Hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan
mensyaratkan adanya intercept (konstanta) dalam model regresi dan tidak ada variabel lag
diantara variabel independen.
– Dengan membandingkan DW hasil dengan DW tabel.
• Uji Lagrange Multiplier (LM Test)
– Uji autokorelasi dengan LM test terutama digunakan untuk sampel besar di atas 100 observasi.
• Uji Statistics Q : Box-Pierce dan Ljung Box
– Digunakan untuk melihat autokorelasi dengan lag lebih dari dua.
• Run Test
– Run test sebagai bagian dari statistik non parametrik dapat pula digunakan untuk menguji
apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak terdapat
hubungan korelasi maka dikatakan bahwa residual adalah acak atau random. Run test
digunakan untuk melihat apakah data residual terjadi secara random atau tidak (sistematis).
Uji Heteroskedastisitas
• Bertujuan untuk menguji apakah dalam model
regresi terjadi ketidaksamaan variance dari
residual satu pengamatan ke pengamatan lain.
• Model yang baik adalah yang homoskedastisitas
atau tidak terjadi heteroskedastisitas.
Cara Mendeteksi
• Melihat Grafik Plot antara prediksi variabel dependen
yaitu ZPRED dengan residualnya SRESID. Dengan
melihat ada tidaknya pola tertentu pada grafik
scatterplot. Jika ada pola tertentu, maka
mengindikasikan telah terjadi heteroskedastisitas.
• Uji Park
• Uji Glejser
• Uji White
Uji Linearitas
• Digunakan untuk melihat apakah spesifikasi model yang digunakan
sudah benar atau tidak. Dengan uji linearitas akan diperoleh
informasi apakah model empiris sebaiknya linear, kuadrat, atau
kubik.
• Uji yang dapat dilakukan :
– Uji Durbin Watson
• Untuk melihat ada atau tidaknya autokorelasi dalam suatu model regresi. Dengan
mendasarkan pada DW tabel dibandingkan dengan nilai statistic, jika signifikan
atau berada pada daerah autokorelasi positif maka spesifikasi model persamaan
adalah salah atau misspesification.
– Ramsey Test
– Uji Lagrange Multiplier
Uji Normalitas
• Bertujuan untuk menguji apakah dalam model regresi,
variabel pengganggu atau residual memiliki distribusi
normal.
• Seperti diketahui bahwa uji t dan F mengasumsikan
bahwa nilai residual mengikuti distribusi normal, jika
asumsi ini dilanggar maka uji statistic menjadi tidak valid
untuk jumlah sampel kecil.
Cara Mendeteksi
• Analisis grafik
– Dengan melihat grafik histogram yang membandingkan data observasi
dengan distribusi yang mendekati distribusi normal. Kemudian dengan
melihat normal probability plot yang membandingkan distribusi kumulatif
dari distribusi normal. Distribusi normal akan membentuk satu garis lurus
diagonal, dan ploting data residual akan dibandingkan dengan garis
diagonal. Jika data residual normal, maka garis yang menggambarkan data
sesungguhnya akan mengikuti garis diagonalnya.
• Analisis Statistik
– Uji statistic sederhana dilakukan dengan melihat nilai kurtosis dan
skewness dari residual.
• Uji Kolmogorov – Smirnov
data dikatakan terdistribusi normal apabila
memiliki nilai signifikansi >0.05
Contoh
• Open file Crossec1.xls
• Analyze, regression, linear
• Dependent income, independent size, earns, weakth, saving
• Statistic centang collinearity statistic, covariance matrix dan durbin
watson
• Plots aktifkanSRESID pada kotak Y dan ZPRED pada kotak X,
aktifkan Standardized Residual Plots pada Histogram dan Normal
Probability Plot.
• Save aktifkan unstandardized residual

Anda mungkin juga menyukai