UJI NORMALITAS
Disusun Oleh :
Heri Sucipto 113511120
FAKULTAS TARBIYAH
INSTITUT AGAMA ISLAM NEGERI WALISONGO
SEMARANG
2012
BAB I
PENDAHULUAN
B. Tujuan
Dalam uji normalitas tujuannya adalah ingin mengetahui apakah distribusi sebuah
data mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng
( bell sheped ). Data yang baik adalah data yang mempunyai pola seperti distribusi normal,
yaitu distribusi data tersebut tidak menceng kekiri atau kekanan.
BAB II
PEMBAHASAN
A. Pengertian Uji Normalitas
Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat
pertama.Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal. Jika asumsi ini dilanggar, maka uji
statistik menjadi tidak valid atau bias terutama untuk sampel kecil.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis
Chi Square dan Kolmogorov-Smirnov. Bagaimana analisisnya untuk sementara kita serahkan
pada program analisis statistik seperti SPSS dulu ya. Tapi pada dasarnya kedua analisis ini
dapat diibaratkan seperti ini :
a. pertama komputer memeriksa data kita, kemudian membuat sebuah data virtual yang sudah
dibuat normal.
b. kemudian komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan data
virtual yang dibuat normal tadi.
c. dari hasil uji beda tersebut, dapat disimpulkan dua hal :
Jika p lebih kecil daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki
berbeda secara signifikan dengan data virtual yang normal tadi. Ini berarti data yang kita
miliki sebaran datanya tidak normal.
Jika p lebih besar daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki
tidak berbeda secara signifikan dengan data virtual yang normal. Ini berarti data yang kita
miliki sebaran datanya normal juga.
Ukuran inilah yang digunakan untuk menentukan apakah data kita berasal dari
populasi yang normal atau tidak.
B. Bagaimana mengatasi masalah normalitas ?
Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1. Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2. Melakukan transformasi data.
3. Menggunakan alat analisis nonparametric
Data yang tidak normal tidak selalu berasal dari penelitian yang buruk.Data ini
mungkin saja terjadi karena ada kejadian yang di luar kebiasaan.Atau memang kondisi
datanya memang nggak normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted)
jelas tidak akan normal, besar kemungkinannya akan juling positif.
Lalu apa yang bisa kita lakukan?
a. Kita perlu ngecek apakah ketidaknormalannya parah nggak. Tidak ada patokan pasti tentang
keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang didapatkan sebesar 0,049
maka ketidaknormalannya tidak terlalu parah (nilai tersebut hanya sedikit di bawah 0,05).
Ada beberapa analisis statistik yang agak kebal dengan kondisi ketidaknormalan yang tidak
terlalu parah (disebut memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap
menggunakan analisis ini jika ketidaknormalannya tidak parah.
b. Kita bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini disebut
outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai frekuensi dan y sebagai
semua nilai yang ada dalam data kita (ini tentunya bisa dikerjakan oleh komputer). Dari sini
kita akan bisa melihat nilai mana yang sangat jauh dari kelompoknya. Nilai inilah yang
kemudian perlu dibuang dari data kita, dengan asumsi nilai ini muncul akibat situasi yang
tidak biasanya. Misal responden yang mengisi skala kita dengan sembarang yang membuat
nilainya jadi sangat tinggi atau sangat rendah.
c. Tindakan ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak
cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari data kita, dll.
d. Bagaimana jika semua usaha di atas tidak membuahkan hasil. Maka langkah terakhir yang
bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis ini disebut
juga sebagai analisis yang distribution free. Sayangnya analisis ini seringkali mengubah data
kita menjadi data yang lebih rendah tingkatannya. Misal kalau sebelumnya data kita termasuk
data interval dengan analisis ini akan diubah menjadi data ordinal.
C. Teknik Uji Normalitas
Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah
dikembangkan oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-
cari cara untuk menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat
bantu berupa program statistik yang tinggal pakai. Berikut adalah salah satu pengujian
normalitas dengan menggunakan teknik Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai,
terutama setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah
sederhana dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan
pengamat yang lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.
Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan
membandingkan distribusi data (yang akan diuji normalitasnya) dengan distribusi normal
baku. Distribusi normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-
Score dan diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda
antara data yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa,
jika signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika
signifikansi di atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji
Kolmogorov Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan
diuji mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut
tidak normal.
Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang
signifikan antara data yang akan diuji dengan data normal baku, artinya data yang kita uji
normal.
Kelemahan dari Uji Kolmogorov Smirnovyaitu bahwa jika kesimpulan kita
memberikan hasil yang tidak normal, maka kita tidak bisa menentukan transformasi seperti
apa yang harus kita gunakan untuk normalisasi. Jadi kalau tidak normal, gunakan plot grafik
untuk melihat menceng ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis
sehingga dapat ditentukan transformasi seperti apa yang paling tepat dipergunakan.
Contoh Kasus :
Akan diuji pengaruh pengaruh kinerja keuangan terhadap return saham. Variabel
independen yang digunakan adalah variabel kinerja keuangan yang diwakili oleh rasio EPS,
PER, DER, ROA, ROE, sedangkan variabel dependen/variabel yang dijelaskan yang diteliti
adalah return saham perusahaan
Data diperoleh dari kinerja keuangan diperoleh dari ICMD, sementara data saham
diperoleh dari yahoo finance .
Penyelesaian
Pertama. Lakukan pengujian regresi ganda seperti biasa, dengan mengklik Analyze –
Regression – Linier
Kedua, Masukkan variabel EPS, PER, DER, ROA, ROE ke kotak Independent dan RET ke
kotak dependent
Ketiga. Klik Plot, lalu beri tanda pada “HISTOGRAM” dan “NORMAL PROBABILITY
PLOT” seperti gambar di bawah
Meski dua grafik di atas menunjukkan bahwa model telah memenuhi asumsi
normalitas, namun untuk meyakinkan dilakukan uji statistik dengan melihat nilai kurtonis dan
Skewness dari residual.
langkah-langkah ujinya :
Klik Tombol “SAVE”, lalu beri tanda pada pilihan “UNSTANDARDIZED” seperti gambar
di bawah
Sekarang kita memperoleh variabel baru yaitu RES_1.Variabel ini adalah data residual.
Kemudian dari Menu Utama SPSS, pilih Analyze – Descriptive Statistics, dan pilih sub menu
Descriptive
Aktifkan Kurtonis dan Skewness pada pilihan Option, lalu tekan continue
Diperoleh nilai Skewness = 1.382 dan Kurtosis 2.458. Dari nilai ini kemudian dapat
dihitung nilai ZKurtosis dan ZSkewness dengan formulasi sbb :
Nilai Z kritis untuk alpha 0.01 adalah 2.58. Berdasarkan nilai ZKurtosis hasil uji
menunjukkan bahwa residual adalah normal (ZKurtosis < 2.58), sementara berdasarkan
ZSkewness nilai ZSkewness > 2.58 (tidak normal), karena dua pengujian ini berbeda, maka
dilakukan uji lanjutan dengan menggunakan teknik Kolmogorov Smirnov
Kemudian klik OK
Dengan demikian dapat disimpulkan bahwa berdasarkan hasil uji diketahui bahwa
model tidak terkena masalah normalitas
Metode Shapiro Wilk menggunakan data dasar yang belum diolah dalam tabel
distribusi frekuensi.Data diurut, kemudian dibagi dalam dua kelompok untuk dikonversi
dalam Shapiro Wilk.Dapat juga dilanjutkan transformasi dalam nilai Z untuk dapat dihitung
luasan kurva normal.
RUMUS
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Data dari sampel random
Signifikansi
Rumus
Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
FT = Probabilitas komulatif normal
FS = Probabilitas komulatif empiris
FT = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan
kurva mulai dari ujung kiri kurva sampai dengan titik Z.
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Siginifikansi
Metode Lilliefors menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data ditransformasikan dalam nilai Z untuk dapat dihitung luasan kurva normal
sebagai probabilitas komulatif normal.Probabilitas tersebut dicari bedanya dengan
probabilitas komultaif empiris.Beda terbesar dibanding dengan tabel Lilliefors pada Tabel
Nilai Quantil Statistik Lilliefors Distribusi Normal.
Rumus
Keterangan :
Xi = Angka pada data
Z = Transformasi dari angka ke notasi pada distribusi normal
F(x) = Probabilitas komulatif normal
S(x) = Probabilitas komulatif empiris
F(x) = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan
kurva normal mulai dari ujung kiri kurva sampai dengan titik Zi.
Persyaratan
a. Data berskala interval atau ratio (kuantitatif)
b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi
c. Dapat untuk n besar maupun n kecil.
Signifikansi
Signifikansi uji, nilai | F (x) – S (x) | terbesar dibandingkan dengan nilai tabel
Lilliefors. Jika nilai | F (x) – S (x) | terbesar kurang dari nilai tabel Lilliefors, maka Ho
diterima ; Ha ditolak. Jika nilai | F (x) – S (x) | terbesar lebih besar dari nilai tabel Lilliefors,
maka Ho ditolak ; H1 diterima. Tabel nilai Quantil Statistik Lilliefors.
BAB III
PENUTUP
A. Kesimpulan
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal.
Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :
1. Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2. Melakukan transformasi data.
3. Menggunakan alat analisis nonparametric.
Ada dua Metode dalam Uji Normalitas, yaitu Uji Kolmogorov Smirnov dan Metode
Lilliefors.
B. Saran
Demikianlah makalah yang dapat penulis susun.Seberapa besarpun usaha penulis
tetap masih banyak kekurangan dalam penulisan makalah ini.Oleh sebab itu penulis sangat
mengharapkan saran dan kritikan yang membangun serta menjadikan makalah ini lebih
sempurna.
DAFTAR PUSTAKA
Leslie, P. H. “The calculation of Chi Scuare for an r x c Contingency table”. Biometrics, 7:283-86,
1856.
Yates, F. “Contingency Tables Involving Small numbers and the Chi Square Test”, J. Suppl. J. royal
Stat, Soc, 1:217-35, 1934.