Anda di halaman 1dari 3

Nama : Wahyu Triambodo

NIM : 20102480132
Prodi : Pendidikan Musik
Menjelajah Asumsi

Ap aitu asumsi ?
Beberapa akademisi cenderung menganggap asumsi sebagai hal yang agak
membosankan yang tidak perlu dikhawatirkan oleh siapa pun, hal yang perlu diingat
adalah bahwa ketika asumsi dipatahkan, kita tidak lagi dapat menarik kesimpulan
yang akurat tentang kenyataan. Model statistik yang berbeda mengasumsikan hal
yang berbeda, dan jika model ini akan mencerminkan kenyataan secara akurat maka
asumsi ini harus benar.
Asumsi data parametrik
Tes parametrik adalah salah satu yang membutuhkan data dari salah satu
katalog besar distribusi yang telah dijelaskan oleh ahli statistik dan agar data menjadi
parametrik, asumsi tertentu harus benar. Jika Anda menggunakan tes parametrik saat
data Anda bukan parametrik maka hasilnya cenderung tidak akurat. Oleh karena itu,
sangat penting bagi Anda untuk memeriksa asumsi sebelum memutuskan uji statistik
mana yang sesuai.
Asumsi uji parametrik adalah :
1. Data terdistribusi secara normal
2. Homogenitas varian
3. Data interval
4. Kemandirian
Asumsi normalitas
Dalam banyak uji statistik (misalnya uji-t) kami berasumsi bahwa distribusi
sampling berdistribusi normal. Ini menjadi masalah karena kami tidak memiliki akses
ke distribusi ini – kami tidak dapat hanya melihat bentuknya dan melihat apakah
distribusinya normal. Akan tetapi, kita mengetahui dari teorema limit pusat (bagian
2.5.1) bahwa jika data sampel mendekati normal maka distribusi sampling juga akan
demikian. Oleh karena itu, orang cenderung melihat data sampel mereka untuk
melihat apakah mereka terdistribusi secara normal. Jika demikian, maka mereka
mengadakan pesta kecil untuk merayakan dan menganggap bahwa distribusi
sampling (yang sebenarnya penting) juga. Asumsi normalitas juga penting dalam
penelitian yang menggunakan regresi (atau model linier umum).
Menguji apakah suatu distribusi normal
Cara lain untuk melihat masalah adalah dengan melihat apakah distribusi
secara keseluruhan menyimpang dari distribusi normal yang sebanding. Uji
Kolmogorov– Smirnov dan uji Shapiro–Wilk melakukan hal ini: mereka
membandingkan skor dalam sampel dengan serangkaian skor yang terdistribusi
normal dengan rata-rata dan standar deviasi yang sama. Jika tes tidak signifikan (p >
0,05) ini memberitahu kita bahwa distribusi sampel tidak berbeda secara signifikan
dari distribusi normal (yaitu mungkin normal). Namun, jika tes tersebut signifikan (p
< 0,05) maka distribusi yang dimaksud berbeda secara signifikan dari distribusi
normal (yaitu tidak normal).
Melakukan tes Kolmogorov–Smirnov pada SPSS
Tes Kolmogorov–Smirnov (K–S mulai sekarang; Gambar 5.8) dapat diakses
melalui perintah explore. Pertama, masukkan variabel apa pun yang diinginkan ke
dalam kotak berlabel Dependent List dengan menyorotnya di sisi kiri dan
mentransfernya dengan mengklik.
Keluaran dari prosedur explore
Tabel pertama yang dihasilkan oleh SPSS berisi statistik deskriptif (rata-rata,
dll.) dan harus memiliki nilai yang sama dengan tabel yang diperoleh dengan
menggunakan prosedur frekuensi. Tabel penting adalah tabel uji K–STabel ini
mencakup statistik uji itu sendiri, derajat kebebasan (yang harus sama dengan ukuran
sampel) dan nilai signifikansi dari uji ini. Ingatlah bahwa nilai signifikan (Sig. kurang
dari 0,05) menunjukkan penyimpangan dari normalitas. Untuk skor ujian berhitung
dan SPSS, tes K–S sangat signfiikan.
Melaporkan uji K–S
Statistik uji untuk uji K–S dilambangkan dengan D dan kita juga harus
melaporkan derajat kebebasan (df ) dari tabel dalam tanda kurung setelah D. Kita
dapat melaporkan hasilnya di SPSS Output 5.4 dengan cara berikut :

 ÿ Persentase pada ujian SPSS, D(100) = 0,10, p < 0,05, dan skor berhitung,
D (100) = 0,15, p < 0,001, keduanya secara signifikan tidak normal.

Anda mungkin juga menyukai