Anda di halaman 1dari 7

Konsultan Statistik

Layanan jasa analisis data statistik untuk riset atau keperluan lain

HOME
ORDER OLAH DATA
REGRESI
SEM
CARI MATERI
AFILIASI
LAIN2
Uji Normalitas dengan Kolmogorov Smirnov
19.44 Normalitas, Uji Asumsi Klasik 79 comments
Banyak sekali teknik pengujian normalitas suatu distribusi data yang telah dikembangkan
oleh para ahli. Kita sebenarnya sangat beruntung karena tidak perlu mencari-cari cara untuk
menguji normalitas, dan bahkan saat ini sudah tersedia banyak sekali alat bantu berupa
program statistik yang tinggal pakai. Berikut adalah salah satu pengujian normalitas dengan
menggunakan teknik Kolmogorov Smirnov.
Uji Kolmogorov Smirnov merupakan pengujian normalitas yang banyak dipakai, terutama
setelah adanya banyak program statistik yang beredar. Kelebihan dari uji ini adalah sederhana
dan tidak menimbulkan perbedaan persepsi di antara satu pengamat dengan pengamat yang
lain, yang sering terjadi pada uji normalitas dengan menggunakan grafik.

Konsep dasar dari uji normalitas Kolmogorov Smirnov adalah dengan membandingkan
distribusi data (yang akan diuji normalitasnya) dengan distribusi normal baku. Distribusi
normal baku adalah data yang telah ditransformasikan ke dalam bentuk Z-Score dan
diasumsikan normal. Jadi sebenarnya uji Kolmogorov Smirnov adalah uji beda antara data
yang diuji normalitasnya dengan data normal baku. Seperti pada uji beda biasa, jika
signifikansi di bawah 0,05 berarti terdapat perbedaan yang signifikan, dan jika signifikansi di
atas 0,05 maka tidak terjadi perbedaan yang signifikan. Penerapan pada uji Kolmogorov
Smirnov adalah bahwa jika signifikansi di bawah 0,05 berarti data yang akan diuji
mempunyai perbedaan yang signifikan dengan data normal baku, berarti data tersebut tidak
normal.
Lebih lanjut, jika signifikansi di atas 0,05 maka berarti tidak terdapat perbedaan yang
signifikan antara data yang akan diuji dengan data normal baku, artinya.ya berarti data
yang kita uji normal, kan tidak berbeda dengan normal baku.
Jika kesimpulan kita memberikan hasil yang tidak normal, maka kita tidak bisa menentukan
transformasi seperti apa yang harus kita gunakan untuk normalisasi. Jadi ya kalau tidak
normal, gunakan plot grafik untuk melihat menceng ke kanan atau ke kiri, atau menggunakan
Skewness dan Kurtosis sehingga dapat ditentukan transformasi seperti apa yang paling tepat
dipergunakan.

Uji Normalitas dengan Kolmogorov Smirnov dengan Program SPSS


Pengujian normalitas dengan menggunakan Program SPSS dilakukan dengan menu Analyze,
kemudian klik pada Nonparametric Test, lalu klik pada 1-Sample K-S. K-S itu singkatan dari
Kolmogorov-Smirnov. Maka akan muncul kotak One-Sample Kolmogorov-Smirnov Test.
Data yang akan diuji terletak di kiri dan pindahkan ke kanan dengan tanda panah. Lalu tekan
OK saja. Pada output, lihat pada baris paling bawah dan paling kanan yang berisi Asymp.Sig.
(2-tailed). Lalu intepretasinya adalah bahwa jika nilainya di atas 0,05 maka distribusi data
dinyatakan memenuhi asumsi normalitas, dan jika nilainya di bawah 0,05 maka
diinterpretasikan sebagai tidak normal.

Macam-Macam Uji t dan Perbedaannya

17.23

Dalam melakukan uji t kita sering mengalami kebingungan uji mana yang akan kita guanakan. Berikut
akan dijelaskan mengenai Macam-Macam Uji t dan Perbedaannya. semoga bermanfaat.

Salah satu cabang ilmu statistik yang digunakan untuk membuat keputusan adalah uji hipotesis.
Hipotesis adalah suatu anggapan atau pernyataan yang mungkin benar dan mungkin juga tidak benar
tentang suatu populasi. Dengan menggunakan uji hipotesis, peneliti dapat menguji berbagai teori
yang berhubungan dengan masalah-masalah yang sedang diteliti.

Salah satu metode untuk menguji hipotesis adalah sample t-Test, dimana metode sample t-Test
dibagi menjadi tiga, yaitu one sample t-Test, paired sample t-Test dan independent sample t-
Test. Uji hipotesis t-Test adalah uji hipotesis yang digunakan untuk mengetahui apakah ada
perbedaan rata-rata dari sampel yang diambil.

Uji T
Berikut adalah macam-macam Uji T

One Sample t-Test

One sample t test merupakan teknik analisis untuk membandingkan satu variabel bebas. Teknik ini
digunakan untuk menguji apakah nilai tertentu berbeda secara signifikan atau tidak dengan rata-rata
sebuah sampel. Pada uji hipotesis ini, diambil satu sampel yang kemudian dianalisis apakah ada
perbedaan rata-rata dari sampel tersebut. Prosedur yang umum dan harus diikuti untuk melakukan
uji hipotesis ini adalah sebagai berikut :

1. Mencari hipotesis nol dan hipotesis alternatifnya.

2. Pilih tingkat kepercayaan tertentu dan tentukan besarnya sampel yang diambil.1. Pilih statistik uji
yang sesuai sebagai dasar bagi prosedur pengujian.

2. Tentukan daerah kritisnya.

3. Kumpulkan data sampel dan hitung statistik sampelnya, kemudian ubah ke dalam variable normal
standar (Z) atau t (tergantung banyaknya sampel).

4. Nyatakan menolak atau menerima H0.

Paired-sample t-Test

Analisis Paired-sample t-Test merupakan prosedur yang digunakan untuk membandingkan rata-rata dua variabel
dalam satu group. Artinya analisis ini berguna untuk melakukan pengujian terhadap satu sampel yang
mendapatkan sutau treatment yang kemudian akan dibandingkan rata-rata dari sampel tersebut antara
sebelum dan sesudah treatment.

Independent sample t-Test

Independent sample t-Test adalah uji yang digunakan untuk menentukan apakah dua sampel yang tidak
berhubungan memiliki rata-rata yang berbeda. Jadi tujuan metode statistik ini adalah membandingkan rata-
rata dua grup yang tidak berhubungan satu sama lain. Pertanyaan yang coba dijawab adalah apakah kedua
grup tersebut mempunyai nilai rata-rata yang sama ataukah tidak sama secara signifikan.

sumber : wwww.ilmupendidik.com

Apa perbedaan mendasar dari Independent


Samples T-Test dan Paired Samples T-Test?
Independent Samples T-Test dan Paired Samples T-Test termasuk jenis uji
beda rerata yang sama-sama menggunakan dua kelompok sampel, yang
membedakan adalah:
Independent Samples T-Test menggunakan dua kelompok yang
anggotanya berbeda satu dengan yang lain, sedangkan Paired Samples
T-Test menggunakan dua kelompok tetapi anggota dari dua
kelompok tersebut sama

Pearson's Correlation Coefficient


Correlation is a technique for investigating the relationship between two quantitative, continuous
variables, for example, age and blood pressure. Pearson's correlation coefficient (r) is a measure
of the strength of the association between the two variables.

The first step in studying the relationship between two continuous variables is to draw a scatter
plot of the variables to check for linearity. The correlation coefficient should not be calculated if the
relationship is not linear. For correlation only purposes, it does not really matter on which axis the
variables are plotted. However, conventionally, the independent (or explanatory) variable is
plotted on the x-axis (horizontally) and the dependent (or response) variable is plotted on the y-
axis (vertically).

The nearer the scatter of points is to a straight line, the higher the strength of association between
the variables. Also, it does not matter what measurement units are used.

Values of Pearson's correlation coefficient


Pearson's correlation coefficient (r) for continuous (interval level) data ranges from -1 to +1 :

r = -1 data lie on a perfect straight line with a negative slope


r=0 no linear relationship between the variables

r = +1 data lie on a perfect straight line with a positive slope

Positive correlation indicates that both variables increase or decrease together, whereas negative
correlation indicates that as one variable increases, so the other decreases, and vice versa.

Example Scatterplots
Identify the approximate value of Pearson's correlation coefficient. There are 8 charts, and on
choosing the correct answer, you will automatically move onto the next chart.

(FLASH)

Tip: that the square of the correlation coefficient indicates the proportion of variation of one
variable 'explained' by the other (see Campbell & Machin, 1999 for more details).

Statistical significance of r

Significance
The t-test is used to establish if the correlation coefficient is significantly different from zero, and,
hence that there is evidence of an association between the two variables. There is then the
underlying assumption that the data is from a normal distribution sampled randomly. If this is not
true, the conclusions may well be invalidated. If this is the case, then it is better to use
Spearman's coefficient of rank correlation (for non-parametric variables). See Campbell & Machin
(1999) appendix A12 for calculations and more discussion of this.

It is interesting to note that with larger samples, a low strength of correlation, for example r =
0.3, can be highly statistically significant (ie p < 0.01). However, is this an indication of a
meaningful strength of association?

NB Just because two variables are related, it does not necessarily mean that one directly
causes the other!

Worked example
Nine students held their breath, once after breathing normally and relaxing for one minute,
and once after hyperventilating for one minute. The table indicates how long (in sec) they
were able to hold their breath. Is there an association between the two variables?
Subject A B C D E F G H

Normal 56 56 65 65 50 25 87 44

Hypervent 87 91 85 91 75 28 122 66

The chart shows the scatter plot (drawn in MS Excel) of the data, indicating the reasonableness of
assuming a linear association between the variables.

Hyperventilating times are considered to be the dependent variable, so are plotted on the vertical
axis.

Output from SPSS and Minitab are shown below:

SPSS
Select Analysis>Correlation>Bi-variate

Minitab
Correlations: Normal, Hypervent

Pearson correlation of Normal and Hypervent = 0.966


P-Value = 0.000

In conclusion, the printouts indicate that the strength of association between the variables is very
high (r = 0.966), and that the correlation coefficient is very highly significantly different from zero
(P < 0.001). Also, we can say that 93% (0.966 2) of the variation in hyperventilating times is
explained by normal breathing times.
Convidence Interval adalah salah satu parameter lain untuk mengukur seberapa
akurat Mean sebuah sample mewakili (mencakup) nilai Mean Populasi
sesungguhnya.

Confidence Interval adalah rentang antara dua nilai di mana nilai suatu Sample Mean tepat
berada di tengah-tengahnya. ... Contoh: 95% of confidence interval artinya jika saya
mengambil 100 samples maka kemungkinan 95 sample saya akan mencakup nilai
Population Mean sesungguhnya.