Anda di halaman 1dari 17

MAKALAH UJI NORMALITAS

Disusun guna memenuhi tugas semester 2

Mata Kuliah : Statistik Inferensial

Dosen Pengampu : Rianti Setyawasih, Ir., M.E.

Disusun Oleh:

Yeni Amin Wijaya Akuntansi A 41183403170014


Tia Wahyuningsih Akuntansi A 41183403170015
Atika Fawaz Akuntansi A 41183403170019
Mirna Novianti Akuntansi A 41183403170020
Raihanah Mesrania Akuntansi A 41183403170022

FAKULTAS EKONOMI

UNIVERSITAS ISLAM “45” KOTA BEKASI


2017
BAB I

PENDAHULUAN

A. Latar Belakang

Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau
paling tepat.Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji normalitas dengan uji
statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.

Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov
Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang mungkin memberikan
justifikasi normal. Tetapi jika jauh dari nilai normal, maka dapat dilakukan beberapa langkah
yaitu: melakukan transformasi data, melakukan trimming data outliers atau menambah data
observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri,
ke kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.

B. Tujuan

Dalam uji normalitas tujuannya adalah ingin mengetahui apakah distribusi sebuah data
mengikuti atau mendekati distribusi normal, yakni distribusi data dengan bentuk lonceng ( bell
sheped ). Data yang baik adalah data yang mempunyai pola seperti distribusi normal, yaitu
distribusi data tersebut tidak menceng kekiri atau kekanan.
BAB II

PEMBAHASAN

A. Pengertian Uji Normalitas

Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat pertama.Uji
normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau
residual memiliki distribusi normal. Jika asumsi ini dilanggar, maka uji statistik menjadi tidak
valid atau bias terutama untuk sampel kecil.

Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan analisis Chi Square
dan Kolmogorov-Smirnov. Bagaimana analisisnya untuk sementara kita serahkan pada program
analisis statistik seperti SPSS dulu ya. Tapi pada dasarnya kedua analisis ini dapat diibaratkan
seperti ini :

a. pertama komputer memeriksa data kita, kemudian membuat sebuah data virtual yang
sudah dibuat normal.

b. kemudian komputer seolah-olah melakukan uji beda antara data yang kita miliki dengan
data virtual yang dibuat normal tadi.

c. dari hasil uji beda tersebut, dapat disimpulkan dua hal :

Jika p lebih kecil daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki berbeda
secara signifikan dengan data virtual yang normal tadi. Ini berarti data yang kita miliki sebaran
datanya tidak normal.

Jika p lebih besar daripada 0,05 maka dapat disimpulkan bahwa data yang kita miliki tidak
berbeda secara signifikan dengan data virtual yang normal. Ini berarti data yang kita miliki
sebaran datanya normal juga.

Ukuran inilah yang digunakan untuk menentukan apakah data kita berasal dari populasi yang
normal atau tidak.

B. Bagaimana mengatasi masalah normalitas ?

Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :

1. Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).
2. Melakukan transformasi data.

3. Menggunakan alat analisis nonparametric

Data yang tidak normal tidak selalu berasal dari penelitian yang buruk.Data ini mungkin saja
terjadi karena ada kejadian yang di luar kebiasaan.Atau memang kondisi datanya memang nggak
normal. Misal data inteligensi di sekolah anak-anak berbakat (gifted) jelas tidak akan normal,
besar kemungkinannya akan juling positif.

Lalu apa yang bisa kita lakukan?

a. Kita perlu ngecek apakah ketidaknormalannya parah nggak. Tidak ada patokan pasti
tentang keparahan ini. Tapi kita bisa mengira-ira jika misalnya nilai p yang didapatkan sebesar
0,049 maka ketidaknormalannya tidak terlalu parah (nilai tersebut hanya sedikit di bawah 0,05).
Ada beberapa analisis statistik yang agak kebal dengan kondisi ketidaknormalan yang tidak
terlalu parah (disebut memiliki sifat robust), misalnya F-test dan t-test. Jadi kita bisa tetap
menggunakan analisis ini jika ketidaknormalannya tidak parah.

b. Kita bisa membuang nilai-nilai yang ekstrem, baik atas atau bawah. Nilai ekstrem ini
disebut outliers. Pertama kita perlu membuat grafik, dengan sumbu x sebagai frekuensi dan y
sebagai semua nilai yang ada dalam data kita (ini tentunya bisa dikerjakan oleh komputer). Dari
sini kita akan bisa melihat nilai mana yang sangat jauh dari kelompoknya. Nilai inilah yang
kemudian perlu dibuang dari data kita, dengan asumsi nilai ini muncul akibat situasi yang tidak
biasanya. Misal responden yang mengisi skala kita dengan sembarang yang membuat nilainya
jadi sangat tinggi atau sangat rendah.

c. Tindakan ketiga yang bisa kita lakukan adalah dengan mentransform data kita. Ada banyak
cara untuk mentransform data kita, misalnya dengan mencari akar kuadrat dari data kita, dll.

d. Bagaimana jika semua usaha di atas tidak membuahkan hasil. Maka langkah terakhir yang
bisa kita lakukan adalah dengan menggunakan analisis non-parametrik. Analisis ini disebut juga
sebagai analisis yang distribution free. Sayangnya analisis ini seringkali mengubah data kita
menjadi data yang lebih rendah tingkatannya. Misal kalau sebelumnya data kita termasuk data
interval dengan analisis ini akan diubah menjadi data ordinal.

C. Teknik Uji Normalitas

Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan oleh
para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk menguji
normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa program statistik
yang tinggal pakai. Berikut adalah salah satu pengujian normalitas dengan menggunakan teknik
Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama
setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana
dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang lain,
yang sering terjadi pada uji normalitas dengan menggunakan grafik.

Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan distribusi
data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi normal baku
adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan diasumsikan normal. Jadi
sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data yang diuji normalitasnya
dengan data normal baku. Seperti pada uji beda biasa, jika signifikansi di bawah 0,05 berarti
terdapat perbedaan yang signifikan, dan jika signifikansi di atas 0,05 maka tidak terjadi
perbedaan yang signifikan. Penerapan pada uji Kolmogorov Smirnov adalah bahwa jika
signifikansi di bawah 0,05 berarti data yang akan diuji mempunyai perbedaan yang signifikan
dengan data normal baku, berarti data tersebut tidak normal.

Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang signifikan
antara data yang akan diuji dengan data normal baku, artinya data yang kita uji normal.

Kelemahan dari Uji Kolmogorov Smirnovyaitu bahwa jika kesimpulan kita memberikan hasil
yang tidak normal, maka kita tidak bisa menentukan transformasi seperti apa yang harus kita
gunakan untuk normalisasi. Jadi kalau tidak normal, gunakan plot grafik untuk melihat menceng
ke kanan atau ke kiri, atau menggunakan Skewness dan Kurtosis sehingga dapat ditentukan
transformasi seperti apa yang paling tepat dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS

Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze,
kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S.K-S itu singkatan dari
Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test. Data
yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan OK.
Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.(2-tailed).
Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data dinyatakan
memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka diinterpretasikan sebagai
tidak normal.

Normalitas dalam statistik parametric seperti regresi dan Anova merupakan syarat pertama.Uji
normalitas bertujuan untuk menguji apakah dalam model regresi, variabel pengganggu atau
residual memiliki distribusi normal. Jika asumsi ini dilanggar, maka uji statistik menjadi tidak
valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua
pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-
smirnov, chi-square, Liliefors maupun Shapiro-Wilk
(bahasan mengatasi masalah normalitas akan dibahas terpisah)

Contoh Kasus :

Akan diuji pengaruh pengaruh kinerja keuangan terhadap return saham. Variabel independen
yang digunakan adalah variabel kinerja keuangan yang diwakili oleh rasio EPS, PER, DER,
ROA, ROE, sedangkan variabel dependen/variabel yang dijelaskan yang diteliti adalah return
saham perusahaan

Data diperoleh dari kinerja keuangan dari ICMD, sementara data saham diperoleh dari yahoo
finance .

Rangkuman data adalah sbb :

EPS PER DER ROA ROE RET

0.001 0.481 0.295 5.667 0.007 -0.481

0.333 0.154 0.362 0.838 0.317 0.190

0.205 0.078 1.282 8.755 0.063 0.597

0.014 0.121 1.163 6.587 0.081 0.680

0.067 0.181 0.806 5.152 0.087 -0.300

0.284 0.098 3.125 10.409 0.073 0.379

0.077 0.014 0.429 0.838 0.353 0.363

0.242 0.083 0.658 -4.470 0.026 0.178

0.017 0.073 1.639 2.949 0.195 4.689

0.012 1.031 0.433 4.155 0.007 5.685

0.083 3.030 0.269 9.388 0.002 12.716

0.125 0.054 2.222 2.306 0.299 4.921

0.500 0.005 1.852 0.399 1.628 4.066

2.890 0.039 1.563 2.786 0.223 7.944

9.820 0.084 1.449 0.852 0.694 3.079

5.440 0.061 0.645 1.997 0.019 2.722


0.063 0.119 1.538 0.917 0.103 0.888

0.008 0.170 2.439 1.523 0.054 1.531

0.333 0.027 1.042 1.927 0.265 2.260

0.100 0.066 2.564 4.499 0.159 4.599

0.016 0.065 1.316 1.381 0.037 1.397

0.500 0.055 4.762 1.299 0.630 1.799

-2.400 0.022 0.014 -0.135 -0.010 0.100

0.388 0.106 4.762 2.661 0.031 0.079

0.050 0.074 7.143 3.093 0.284 -0.061

0.002 0.145 5.263 17.033 0.049 -0.011

0.005 0.044 1.316 37.480 0.012 0.318

-0.014 -0.377 0.917 -6.211 -0.077 -0.523

0.040 0.308 0.260 1.818 0.113 -0.077

0.008 0.833 2.857 25.743 0.029 3.800

Penyelesaian

Pertama. Lakukan pengujian regresi ganda seperti biasa, dengan mengklik Analyze – Regression
– Linier

Kedua, Masukkan variabel EPS, PER, DER, ROA, ROE ke kotak Independent dan RET ke
kotak dependent

Ketiga. Klik Plot, lalu beri tanda pada “HISTOGRAM” dan “NORMAL PROBABILITY PLOT”
seperti gambar di bawah
http://teorionline.files.wordpress.com/2011/04/norm1.jpg?w=300&h=184

Klik Continue, lalu OK

Akan tampil output, Perhatikan Grafik Histogram dan P-P Plot

Berdasarkan grafik Histogram, diketahui bahwa sebaran data yang menyebar ke semua daerah
kurva normal.Dapat disimpulkan bahwa data mempunyai distribusi normal.Demikian juga
dengan Normal P-Plot.Data menyebar di sekitar garis diagonal dan mengikuti garis diagonal
yang menandakan normalitas data.

Meski dua grafik di atas menunjukkan bahwa model telah memenuhi asumsi normalitas, namun
untuk meyakinkan dilakukan uji statistik dengan melihat nilai kurtonis dan Skewness dari
residual.

langkah-langkah ujinya :

Lakukan pengujian ulang seperti langkah-langkah satu dan dua di atas.

Klik Tombol “SAVE”, lalu beri tanda pada pilihan “UNSTANDARDIZED” seperti gambar di
bawah

http://teorionline.files.wordpress.com/2011/04/norm2.jpg?w=184&h=234
Sekarang kita memperoleh variabel baru yaitu RES_1.Variabel ini adalah data residual.

http://teorionline.files.wordpress.com/2011/04/norm3.jpg?w=214&h=214

Kemudian dari Menu Utama SPSS, pilih Analyze – Descriptive Statistics, dan pilih sub menu
Descriptive

Pada kotak variabel, masukkan data Residual (RES_1)

http://teorionline.files.wordpress.com/2011/04/norm4.jpg?w=180&h=98

Aktifkan Kurtonis dan Skewness pada pilihan Option, lalu tekan continue

Interprestasi Nilai Skewness dan Kurtosis

Diperoleh nilai Skewness = 1.382 dan Kurtosis 2.458. Dari nilai ini kemudian dapat dihitung
nilai ZKurtosis dan ZSkewness dengan formulasi sbb :

ZKurtosis = Kurtosis / sqrt (24/N)

ZSkewness = Skewness / sqrt (6/N)


Maka hasil perhitungannya adalah

ZKurtnosis = 2.748, dan ZSkewness = 3.090

Nilai Z kritis untuk alpha 0.01 adalah 2.58. Berdasarkan nilai ZKurtosis hasil uji menunjukkan
bahwa residual adalah normal (ZKurtosis < 2.58), sementara berdasarkan ZSkewness nilai
ZSkewness > 2.58 (tidak normal), karena dua pengujian ini berbeda, maka dilakukan uji lanjutan
dengan menggunakan teknik Kolmogorov Smirnov

Masih menggunakan data yang sama,..

Pilih Analyze – nonparametric, lalu pilih 1-Sample-K-S

Masukkan variabel RES_1 ke kotak “TEST VARIABLE LIST”

Kemudian klik OK

http://teorionline.files.wordpress.com/2011/04/norm6.jpg?w=300&h=197

Hasil uji KOLMOGOROV-SMIRNOV menunjukkan bahwa nilai Asymp.Sig adalah sebesar


0.186.Nilai ini jauh lebih besar diatas 0.05 sehingga dapat disimpulkan residual berdistribusi
Normal.Lihat Output

Dengan demikian dapat disimpulkan bahwa berdasarkan hasil uji diketahui bahwa model tidak
terkena masalah normalitas

D. Rumus Uji Normalitas

Metode Shapiro Wilk menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data diurut, kemudian dibagi dalam dua kelompok untuk dikonversi dalam Shapiro
Wilk.Dapat juga dilanjutkan transformasi dalam nilai Z untuk dapat dihitung luasan kurva
normal.

RUMUS
http://exponensial.files.wordpress.com/2010/04/dd2.jpg?w=500

Persyaratan

a. Data berskala interval atau ratio (kuantitatif)

b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi

c. Data dari sampel random

Signifikansi

Signifikansi dibandingkan dengan tabel Shapiro Wilk.Signifikansi uji nilai T3 dibandingkan


dengan nilai tabel Shapiro Wilk, untuk dilihat posisi nilai probabilitasnya (p). Jika nilai p lebih
dari 5%, maka Ho diterima ; H1 ditolak. Jika nilai p kurang dari 5%, maka Ho ditolak ; H1
diterima. Jika digunakan rumus G, maka digunakan tabel distribusi normal.

Metode Kolmogorov-Smirnov untuk Uji Normalitas

Metode Kolmogorov-Smirnov tidak jauh beda dengan metode Lilliefors. Langkah-langkah


penyelesaian dan penggunaan rumus sama, namun pada signifikansi yang berbeda. Signifikansi
metode Kolmogorov-Smirnov menggunakan tabel pembanding Kolmogorov-Smirnov,
sedangkan metode Lilliefors menggunakan tabel pembanding metode Lilliefors.

Rumus
http://exponensial.files.wordpress.com/2010/04/dd1.jpg?w=500

Keterangan :

Xi = Angka pada data

Z = Transformasi dari angka ke notasi pada distribusi normal

FT = Probabilitas komulatif normal

FS = Probabilitas komulatif empiris

FT = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan kurva
mulai dari ujung kiri kurva sampai dengan titik Z.

http://exponensial.files.wordpress.com/2010/04/dddddd2.jpg?w=500

Persyaratan

a. Data berskala interval atau ratio (kuantitatif)

b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi

c. Dapat untuk n besar maupun n kecil.

Siginifikansi

Signifikansi uji, nilai | FT – FS | terbesar dibandingkan dengan nilai tabel Kolmogorov Smirnov.
Jika nilai | FT – FS | terbesar kurang dari nilai tabel Kolmogorov Smirnov, maka Ho diterima ;
H1 ditolak. Jika nilai | FT – FS | terbesar lebih besar dari nilai tabel Kolmogorov Smirnov, maka
Ho ditolak ; H1 diterima. Tabel Nilai Quantil Statistik Kolmogorov Distribusi Normal.

Metode Liliefors untuk Uji Normalitas


Metode Lilliefors menggunakan data dasar yang belum diolah dalam tabel distribusi
frekuensi.Data ditransformasikan dalam nilai Z untuk dapat dihitung luasan kurva normal
sebagai probabilitas komulatif normal.Probabilitas tersebut dicari bedanya dengan probabilitas
komultaif empiris.Beda terbesar dibanding dengan tabel Lilliefors pada Tabel Nilai Quantil
Statistik Lilliefors Distribusi Normal.

Rumus

http://exponensial.files.wordpress.com/2010/04/dd.jpg?w=500

Keterangan :

Xi = Angka pada data

Z = Transformasi dari angka ke notasi pada distribusi normal

F(x) = Probabilitas komulatif normal

S(x) = Probabilitas komulatif empiris

F(x) = komulatif proporsi luasan kurva normal berdasarkan notasi Zi, dihitung dari luasan kurva
normal mulai dari ujung kiri kurva sampai dengan titik Zi.

http://exponensial.files.wordpress.com/2010/04/dddddd1.jpg?w=500

Persyaratan

a. Data berskala interval atau ratio (kuantitatif)

b. Data tunggal / belum dikelompokkan pada tabel distribusi frekuensi

c. Dapat untuk n besar maupun n kecil.

Signifikansi

Signifikansi uji, nilai | F (x) – S (x) | terbesar dibandingkan dengan nilai tabel Lilliefors. Jika
nilai | F (x) – S (x) | terbesar kurang dari nilai tabel Lilliefors, maka Ho diterima ; Ha ditolak.
Jika nilai | F (x) – S (x) | terbesar lebih besar dari nilai tabel Lilliefors, maka Ho ditolak ; H1
diterima. Tabel nilai Quantil Statistik Lilliefors.
BAB III

PENUTUP

A. Kesimpulan

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau
residual memiliki distribusi normal.

Ada tiga pilihan yang dapat dilakukan jika diketahui bahwa data tidak normal; yaitu :

1. Jika jumlah sampel besar, maka dapat menghilangkan nilai outliner dari data (bahasan
outliner akan dibahas kemudian).

2. Melakukan transformasi data.

3. Menggunakan alat analisis nonparametric.

4. Ada dua Metode dalam Uji Normalitas, yaitu Uji Kolmogorov Smirnov dan Metode
Lilliefors.
DAFTAR PUSTAKA

Leslie, P. H. “The calculation of Chi Scuare for an r x c Contingency table”. Biometrics, 7:283-
86, 1856.

Yates, F. “Contingency Tables Involving Small numbers and the Chi Square Test”, J. Suppl. J.
royal Stat, Soc, 1:217-35, 1934.

Anda mungkin juga menyukai