Anda di halaman 1dari 14

MAKALAH

UJI NORMALITAS

Disusun guna memenuhi tugas semester 3


Mata Kuliah : Pemrograman Komputer
Dosen Pengampu : Ahmad Aunur Rohman, S.Pd. I.

Disusun Oleh :
Heri Sucipto 113511120

FAKULTAS TARBIYAH
INSTITUT AGAMA ISLAM NEGERI WALISONGO
SEMARANG

2012
BAB I

PENDAHULUAN

A.    Latar Belakang


Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling
baik atau paling tepat.Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji
normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa
pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin
memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan
beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data outliers atau
menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural,
akar kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah
condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

B.     Tujuan
Dalam uji normalitas tujuannya adalah ingin mengetahui apakah distribusi sebuah
data mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng
( bell sheped ). Data yang baik adalah data yang mempunyai pola seperti distribusi normal,
yaitu distribusi data tersebut tidak menceng kekiri atau kekanan.

BAB II

PEMBAHASAN
A.    Pengertian Uji Normalitas
Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat
pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji
statistik menjadi tidak valid atau bias terutama untuk sampel kecil.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis
Chi Square dan Kolmogorov-Smirnov. Bagaimana analisisnya untuk sementara kita serahkan
pada program analisis statistik seperti SPSS dulu ya. Tapi pada dasarnya kedua analisis ini
dapat diibaratkan seperti ini :
a.       pertama komputer memeriksa data kita, kemudian membuat sebuah data virtual yang sudah
dibuat normal.
b.      kemudian komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan data
virtual yang dibuat normal tadi.
c.       dari hasil uji beda tersebut, dapat disimpulkan dua hal :
Jika p lebih kecil daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki
berbeda secara signifikan dengan data virtual yang normal tadi. Ini berarti data yang kita
miliki sebaran datanya tidak normal.
Jika p lebih besar daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki
tidak berbeda secara signifikan dengan data virtual yang normal. Ini berarti data yang kita
miliki sebaran datanya normal juga.

Ukuran inilah yang digunakan untuk menentukan apakah data kita berasal dari
populasi yang normal atau tidak.
B.     Bagaimana mengatasi masalah normalitas ?

Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :

1.      Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2.      Melakukan transformasi data.
3.      Menggunakan alat analisis nonparametric

Data yang tidak normal tidak selalu berasal dari penelitian yang buruk.Data ini
mungkin saja terjadi karena ada kejadian yang di luar kebiasaan.Atau memang kondisi
datanya memang nggak normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted)
jelas tidak akan normal, besar kemungkinannya akan juling positif.
Lalu apa yang bisa kita lakukan?
a.       Kita perlu ngecek apakah ketidaknormalannya parah nggak. Tidak ada patokan pasti tentang
keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang didapatkan sebesar 0,049
maka ketidaknormalannya tidak terlalu parah (nilai tersebut hanya sedikit di bawah 0,05).
Ada beberapa analisis statistik yang agak kebal dengan kondisi ketidaknormalan yang tidak
terlalu parah (disebut memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap
menggunakan analisis ini jika ketidaknormalannya tidak parah.
b.      Kita bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini disebut
outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai frekuensi dan y sebagai
semua nilai yang ada dalam data kita (ini tentunya bisa dikerjakan oleh komputer). Dari sini
kita akan bisa melihat nilai mana yang sangat jauh dari kelompoknya. Nilai inilah yang
kemudian perlu dibuang dari data kita, dengan asumsi nilai ini muncul akibat situasi yang
tidak biasanya. Misal responden yang mengisi skala kita dengan sembarang yang membuat
nilainya jadi sangat tinggi atau sangat rendah.
c.       Tindakan ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak
cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari data kita, dll.
d.      Bagaimana jika semua usaha di atas tidak membuahkan hasil. Maka langkah terakhir yang
bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis ini disebut
juga sebagai analisis yang distribution free. Sayangnya analisis ini seringkali mengubah data
kita menjadi data yang lebih rendah tingkatannya. Misal kalau sebelumnya data kita termasuk
data interval dengan analisis ini akan diubah menjadi data ordinal.
C.    Teknik Uji Normalitas

Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah
dikembangkan oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-
cari cara untuk menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat
bantu berupa program statistik yang tinggal pakai. Berikut adalah salah satu pengujian
normalitas dengan menggunakan teknik Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai,
terutama setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah
sederhana dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan
pengamat yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.
Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan
membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal
baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-
Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda
antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa,
jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika
signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji
Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan
diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut
tidak normal.
Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang
signifikan antara data yang akan diuji dengan data normal baku, artinya data yang kita uji
normal.
Kelemahan dari Uji Kolmogorov Smirnovyaitu bahwa jika kesimpulan kita
memberikan hasil yang tidak normal, maka kita tidak bisa menentukan transformasi seperti
apa yang harus kita gunakan untuk normalisasi. Jadi kalau tidak normal, gunakan plot grafik
untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis
sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS


Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu
Analyze, kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S.K-S itu
singkatan dari Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-
Smirnov Test. Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda
panah. Lalu tekan OK. Pada output, lihat pada baris paling bawah dan paling kanan yang
berisi Asymp.Sig.(2-tailed). Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka
distribusi data dinyatakan memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05
maka diinterpretasikan sebagai tidak normal.
Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat
pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
pengganggu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji
statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat
dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot)
atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk

(bahasan mengatasi masalah normalitas akan dibahas terpisah)

Contoh Kasus :
Akan diuji pengaruh pengaruh kinerja keuangan terhadap return saham. Variabel
independen  yang digunakan adalah variabel kinerja keuangan yang diwakili oleh rasio EPS,
PER, DER, ROA, ROE, sedangkan variabel dependen/variabel yang dijelaskan yang diteliti
adalah return saham perusahaan

Data diperoleh dari kinerja keuangan diperoleh dari ICMD, sementara data saham
diperoleh dari yahoo finance .

Rangkuman data adalah sbb :

EPS PER DER ROA ROE RET


0.001 0.481 0.295 5.667 0.007 -0.481
0.333 0.154 0.362 0.838 0.317 0.190
0.205 0.078 1.282 8.755 0.063 0.597
0.014 0.121 1.163 6.587 0.081 0.680
0.067 0.181 0.806 5.152 0.087 -0.300
0.284 0.098 3.125 10.409 0.073 0.379
0.077 0.014 0.429 0.838 0.353 0.363
0.242 0.083 0.658 -4.470 0.026 0.178
0.017 0.073 1.639 2.949 0.195 4.689
0.012 1.031 0.433 4.155 0.007 5.685
0.083 3.030 0.269 9.388 0.002 12.716
0.125 0.054 2.222 2.306 0.299 4.921
0.500 0.005 1.852 0.399 1.628 4.066
2.890 0.039 1.563 2.786 0.223 7.944
9.820 0.084 1.449 0.852 0.694 3.079
5.440 0.061 0.645 1.997 0.019 2.722
0.063 0.119 1.538 0.917 0.103 0.888
0.008 0.170 2.439 1.523 0.054 1.531
0.333 0.027 1.042 1.927 0.265 2.260
0.100 0.066 2.564 4.499 0.159 4.599
0.016 0.065 1.316 1.381 0.037 1.397
0.500 0.055 4.762 1.299 0.630 1.799
-2.400 0.022 0.014 -0.135 -0.010 0.100
0.388 0.106 4.762 2.661 0.031 0.079
0.050 0.074 7.143 3.093 0.284 -0.061
0.002 0.145 5.263 17.033 0.049 -0.011
0.005 0.044 1.316 37.480 0.012 0.318
-0.014 -0.377 0.917 -6.211 -0.077 -0.523
0.040 0.308 0.260 1.818 0.113 -0.077
0.008 0.833 2.857 25.743 0.029 3.800

Penyelesaian

Pertama. Lakukan pengujian regresi ganda seperti biasa, dengan mengklik Analyze –
Regression – Linier
Kedua, Masukkan variabel EPS, PER, DER, ROA, ROE ke kotak Independent dan RET ke
kotak dependent

Ketiga. Klik Plot, lalu beri tanda pada “HISTOGRAM” dan “NORMAL PROBABILITY
PLOT” seperti gambar di bawah

Klik Continue, lalu OK

Akan tampil output, Perhatikan Grafik Histogram dan P-P Plot

Berdasarkan grafik Histogram, diketahui bahwa sebaran data yang menyebar ke


semua daerah kurva normal.Dapat disimpulkan bahwa data mempunyai distribusi
normal.Demikian juga dengan Normal P-Plot.Data menyebar di sekitar garis diagonal dan
mengikuti garis diagonal yang menandakan normalitas data.

Meski dua grafik di atas menunjukkan bahwa model telah memenuhi asumsi
normalitas, namun untuk meyakinkan dilakukan uji statistik dengan melihat nilai kurtonis dan
Skewness dari residual.

langkah-langkah ujinya :

Lakukan pengujian ulang seperti langkah-langkah satu dan dua di atas.

Klik Tombol “SAVE”, lalu beri tanda pada pilihan “UNSTANDARDIZED” seperti gambar
di bawah
Sekarang kita memperoleh variabel baru yaitu RES_1.Variabel ini adalah data residual.

Kemudian dari Menu Utama SPSS, pilih Analyze – Descriptive Statistics, dan pilih sub menu
Descriptive

Pada kotak variabel, masukkan data Residual (RES_1)

Aktifkan Kurtonis dan Skewness pada pilihan Option, lalu tekan continue

Interprestasi Nilai Skewness dan Kurtosis

Diperoleh nilai Skewness = 1.382 dan Kurtosis 2.458. Dari nilai ini kemudian dapat
dihitung nilai ZKurtosis dan ZSkewness dengan formulasi sbb :

ZKurtosis = Kurtosis / sqrt (24/N)

ZSkewness = Skewness / sqrt (6/N)


Maka hasil perhitungannya adalah

ZKurtnosis = 2.748, dan ZSkewness = 3.090

Nilai Z kritis untuk alpha 0.01 adalah 2.58. Berdasarkan nilai ZKurtosis hasil uji
menunjukkan bahwa residual adalah normal (ZKurtosis < 2.58), sementara berdasarkan
ZSkewness nilai ZSkewness > 2.58 (tidak normal), karena dua pengujian ini berbeda, maka
dilakukan uji lanjutan dengan menggunakan teknik Kolmogorov Smirnov

Masih menggunakan data yang sama,..

Pilih Analyze – nonparametric, lalu pilih 1-Sample-K-S

Masukkan variabel RES_1 ke kotak “TEST VARIABLE LIST”

Kemudian klik OK

Hasil uji KOLMOGOROV-SMIRNOV menunjukkan bahwa nilai Asymp.Sig adalah


sebesar 0.186.Nilai ini jauh lebih besar diatas 0.05 sehingga dapat disimpulkan residual
berdistribusi Normal.Lihat Output

Dengan demikian dapat disimpulkan bahwa berdasarkan hasil uji diketahui bahwa
model tidak terkena masalah normalitas

D.    Rumus Uji Normalitas

Metode Shapiro Wilk menggunakan data dasar yang belum diolah dalam tabel
distribusi frekuensi.Data diurut, kemudian dibagi dalam dua kelompok untuk dikonversi
dalam Shapiro Wilk.Dapat juga dilanjutkan transformasi dalam nilai Z untuk dapat dihitung
luasan kurva normal.

RUMUS
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Data dari sampel random

Signifikansi

Signifikansi dibandingkan dengan tabel Shapiro Wilk.Signifikansi uji nilai T3


dibandingkan dengan nilai tabel Shapiro Wilk, untuk dilihat posisi nilai probabilitasnya (p).
Jika nilai p lebih dari 5%, maka Ho diterima ; H 1 ditolak. Jika nilai p kurang dari 5%, maka
Ho ditolak ; H1 diterima. Jika digunakan rumus G, maka digunakan tabel distribusi normal.

Metode Kolmogorov-Smirnov untuk Uji Normalitas

Metode Kolmogorov-Smirnov tidak jauh beda dengan metode Lilliefors. Langkah-


langkah penyelesaian dan penggunaan rumus sama, namun pada signifikansi yang berbeda.
Signifikansi metode Kolmogorov-Smirnov menggunakan tabel pembanding Kolmogorov-
Smirnov, sedangkan metode Lilliefors menggunakan tabel pembanding metode Lilliefors.

Rumus
Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
FT = Probabilitas komulatif normal
FS = Probabilitas komulatif empiris
FT = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan
kurva mulai dari ujung kiri kurva sampai dengan titik Z.

Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Siginifikansi

Signifikansi uji, nilai | FT – FS | terbesar dibandingkan dengan nilai tabel


Kolmogorov Smirnov. Jika nilai | FT – FS | terbesar kurang dari nilai tabel Kolmogorov
Smirnov, maka Ho diterima ; H1 ditolak. Jika nilai | FT – FS | terbesar lebih besar dari nilai
tabel Kolmogorov Smirnov, maka Ho ditolak ; H1 diterima. Tabel Nilai Quantil Statistik
Kolmogorov Distribusi Normal.

Metode Liliefors untuk Uji Normalitas

Metode Lilliefors menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data ditransformasikan dalam nilai Z untuk dapat dihitung luasan kurva normal
sebagai probabilitas komulatif normal.Probabilitas tersebut dicari bedanya dengan
probabilitas komultaif empiris.Beda terbesar dibanding dengan tabel Lilliefors pada Tabel
Nilai Quantil Statistik Lilliefors Distribusi Normal.
Rumus

Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
F(x) = Probabilitas komulatif normal
S(x) = Probabilitas komulatif empiris
F(x) = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan
kurva normal mulai dari ujung kiri kurva sampai dengan titik Zi.

Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Signifikansi

Signifikansi uji, nilai | F (x) – S (x) | terbesar dibandingkan dengan nilai tabel
Lilliefors. Jika nilai | F (x) – S (x) | terbesar kurang dari nilai tabel Lilliefors, maka Ho
diterima ; Ha ditolak. Jika nilai | F (x) – S (x) | terbesar lebih besar dari nilai tabel Lilliefors,
maka Ho ditolak ; H1 diterima. Tabel nilai Quantil Statistik Lilliefors.
BAB III
PENUTUP

A.    Kesimpulan
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal.
Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1.      Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2.      Melakukan transformasi data.
3.      Menggunakan alat analisis nonparametric.

Ada dua Metode dalam Uji Normalitas, yaitu Uji Kolmogorov Smirnov dan Metode
Lilliefors.

B.     Saran
Demikianlah makalah yang dapat penulis susun.Seberapa besarpun usaha penulis
tetap masih banyak kekurangan dalam penulisan makalah ini.Oleh sebab itu penulis sangat
mengharapkan saran dan kritikan yang membangun serta menjadikan makalah ini lebih
sempurna.
DAFTAR PUSTAKA

Leslie, P. H. “The calculation of Chi Scuare for an r x c Contingency table”. Biometrics, 7:283-86,
1856.

Yates, F. “Contingency Tables Involving Small numbers and the Chi Square Test”, J. Suppl. J. royal
Stat, Soc, 1:217-35, 1934.

Anda mungkin juga menyukai