Anda di halaman 1dari 30

Biostatistik Dasar

PENGERTIAN
Statistik adalah sekumpulan konsep dan metode yang digunakan untuk mengumpulkan dan
menginterpretasi data tentang bidang kegiatan tertentu dan mengambil kesimpulan dalam situasi dimana
ada ketidakpastian dan variasi.

Kata statistik berasal dari kata status (bahasa Latin) yang berarti negara. Mengapa negara ? Karena dulu ,
statistik hanya semata-mata sering digunakan untuk menyajikan data-data yang berhubungan dengan
negara seperti: statistik tenaga kerja, statistik produksi pertanian, statistik pendidikan,dsb.

Namun saat ini statistik telah berkembang ke seluruh aspek kehidupan seperti dibidang kedokteran,
bisnis, hukum,dll. Statistik yang diterapkan dibidang biologi, farmasi,kesehatan, dan kedokteran disebut
dengan biostatistik.
Contoh :

1. Suatu studi dilakukan untuk melihat efek dari dua macam bentuk makanan (cair & padat) yang
mempunyai kadar protein tinggi apakah menghasilkan penyerapan yang sama pada anak-anak.
2. Pusdakes menaksir proporsi ibu hamil yang melakukan pemeriksaan K4 di Kab. Bekasi.

RUANG LINGKUP STATISTIK


1. Statistik Deskriptif
Kegiatan mulai dari pengumpulan data sampai mendapatkan informasi dengan jalan menyajikan dan
analisis data yang telah terkumpul atau sengaja dikumpulkan. Atau kegiatannya hanya mendeskripsikan
data yang disurvey saja tanpa melakukan generalisasi.
Contoh : Untuk menggambarkan karakteristik penduduk diperlukan data seperti: umur, jenis kelamin,
status perkawinan, dsb.

2. Statistik Inferens/Induktif
Kumpulan cara atau metode yang dapat menggeneralisasi nilai-nilai dari sampel yang sengaja
dikumpulkan menjadi nilai populasi. Atau kegiatannya sudah melakukan generalisasi dari sampel ke
populasi.
Contoh : Untuk menganalisa hubungan pertambahan berat badan Ibu hamil dengan berat lahir di daerah
Cibinong diambil sampel di RSUD Cibinong.
Statistik inferens/induktif dibagi menjadi dua, yaitu statistik parametrik dan statistik non parametrik.
Tahapan kegiatan di dalam statistika biasanya dibagi dalam benerapa tahap, yaitu :
1. Pengumpulan data
2. Penyajian data
3. Pengolahan data
4. Analisis/interpretasi data.
Populasi dan Sampel
1. Populasi
Populasi adalah keseluruhan objek yang akan/ingin diteliti. Populasi ini sering juga disebut
Universe. Anggota populasi dapat berupa benda hidup maupun benda mati, dimana sifat-sifat
yang ada padanya dapat diukur atau diamati. Populasi yang tidak pernah diketahui dengan pasti
jumlahnya disebut "Populasi Infinit" atau tak terbatas, dan populasi yang jumlahnya diketahui
dengan pasti (populasi yang dapat diberi nomor identifikasi), misalnya murid sekolah, jumlah
karyawan tetap pabrik, dll disebut "Populasi Finit". Suatu kelompok objek yang berkembang
terus (melakukan proses sebagai akibat kehidupan atau suatu proses kejadian) adalah Populasi
Infinitif. Misalnya penduduk suatu negara adalah populasi yang infinit karena setiap waktu terus
berubah jumlahnya. Apabilah penduduk tersebut dibatasi dalam waktu dan tempat, maka
popuJasi yang infinit bisa berubah menjadi populasi yang finit. Misalnya penduduk Kota Medan
pada tahun 1990 (1 Januari s/d 31 Desember 1990) dapat diketahui jumlahnya. Umumnya
populasi yang infinit hanyalah teori saja, sedangkan kenyataan dalam prakteknya, semua benda
hidup dianggap populasi yang finit. Bila dinyatakan bahwa 60% penduduk Indonesia adalah
petani, ini berati bahwa setiap 100 orang penduduk Indonesia, 60 orang adalah
petani. Hasil pengukuran atau karakteristik dari populasi disebut "parameter" yaitu untuk harga-
harga rata-rata hitung (mean) dan s untuk simpangan baku (standard deviasai). Jadi populasi
yang diteliti harus didefenisikan dengan jelas, termasuk didalam nya ciri-ciri dimensi waktu dan
tempat.

2. Sampel.
Sampel adalah bagian dari populasi yang menjadi objek penelitian (sampel sendiri secara harfiah
berarti contoh). Hasil pengukuran atau karakteristik dari sampel disebut "statistik" yaitu X untuk
harga rata-rata hitung dan S atau SD untuk simpangan baku.
Alasan perlunya pengambilan sampel adalah sebagai berikut :
1. Keterbatasan waktu, tenaga dan biaya.
2. Lebih cepat dan lebih mudah.
3. Memberi informasi yang lebih banyak dan dalam.
4. Dapat ditangani lebih teliti.
Pengambilan sampel kadang-kadang merupakan satu-satunya jalan yang
harus dipilih, (tidak mungkin untuk mempelajari seluruh populasi) misalnya:
- Meneliti air sungai
- Mencicipi rasa makanan didapur
- Mencicipi duku yang hendak dibeli
1. Tujuan.
Agar sampel yang diambil dari populasinya "representatif" (mewakili), sehingga dapat diperoleh
informasi yang cukup untuk mengestimasi populasinya.
2. Defenisi
Dalam rangka pengambilan sampel, ada beberapa pengertian yang perlu diketahui, yaitu:
Populasi Sasaran (Target Populasi):
Yaitu populasi yang menjadi sasaran pengamatan atau populasi dari mana suatu keterangan,akan
diperoleh (misalnya efek obat pada ibu hamil) maka target populasi adalah ibu hamil.

Kerangka Sampel (Sampling Frame):


Yaitu suatu daftar unit-unit yang ada pada populasi yang akan diambil sampelnya (daftar anggota
populasinya).

Unit Sampel(Sampling Unit):


Yaitu unit terkecil pada populasi yang akan diambil sebagai sampel (KK atau RT).

Rancangan Sampel
Yaitu rancangan yang meliputi cara pengambilan sampel dan penentuan besar sampelnya.

Random.
Yaitu cara mengambil sampel, dimana setiap unit dalam populasi mempunyai kesempatan yang
sama untuk dipilih menjadi anggota sampel.

Statistik Parametrik dan Non Parametrik

Terkadang kita bingung dalam melakukan uji hipotesa/hipotesisi. Nah..sebelum kita lebih jauh
melakukan uji, sebaiknya kita mengetahui dulu jenis statistiknya. Statistik itu terbagi dua yaitu
statistik Deskriptif dan Statistik Induktif/inferensial.

Statistik Deskriptif adalah statistik yang kegiatannya hanya mendeskripsikan data yang disurvey
saja tanpa melakukan generalisasi. Sementara Statistik Induktif/inferensial adalah statistik yang
kegiatannya sudah melakukan generalisasi dari sampel ke populasi.

Statistik induktif terbagi menjadi dua lagi yaitu statistik Parametrik dan Non Parametrik. Untuk
membedakan keduanya (Parametrik dan Non Parametrik), maka ada beberapa hal yang perlu
diperhatikan.

Dalam pengujian hipotesa sangat berhubungan dengan distribusi data populasi yang akan diuji.
Bila distribusi data populasi yang akan diuji berbentuk normal/simetris/Gauss, maka proses
pengujian dapat digunakan dengan pendekatan uji statistik paramerik. Sedangkan bila distribusi
data populasinya tidak normal atau tidak diketahui distribusinya maka dapat digunakan
pendekatan uji statistik non paramerik.

Kenormalan suatu data juga dapat dilihat dari jenis variabelnya, bila variabelnya berjenis
numerik/kuantitatif bisaanya distribusi datanya mendekati normal/simetris, sehingga dapat
digunakan uji statistik paramerik. Bila jenis variabelnya katagorik, maka bentuk distribusinya
tidak normal, sehingga uji non-parametrik dapat digunakan. Penentuan jenis uji statistik juga
ditentukan oleh jumlah data yang dianalisis, bila jumlah data kecil cendrung digunakan uji non
paramerik.

Pada statistik paramerik, pengujian hipotesa dan pengambilan keputusan dipengaruhi oleh
beberapa asumsi. yang bila tidak terpenuhi maka validitas hasil penelitian diragukan. Asumsi
tersebut adalah (Bhisma Murti, 1996):

1. Normalitas distribusi populasi.


2. Independensi pemilihan unit sampel dari populasi
3. Independensi pengamatan unit observasi
4. Kesamaan varians jika membandingkan dua atau sejumlah sampel
5. Variabel diukur paling sedikit dalam skala interval

Namun dalam prakteknya, situasi yang sering muncul tidak memenuhi asumsi yang dimaksud.
Oleh karena itu digunakan statistik non-parametrik sebagai alternatif dalam pengujian hipotesis
atau pengambilan keputusan.

Statistik Non Parametrik

PENGERTIAN
Statistik non-parametrik termasuk salah satu bagian dari statistik inferensi atau statistik induktif.
Uji statistik non-parametrik sering juga disebut statistik bebas distribusi (distribution-free
statistics), karena prosedur pengujiannya tidak membutuhkan asumsi bahwa pengamatan
berdistribusi normal (Kuzma, 1973).

PENGGUNAAN STATISTIK NON PARAMETRIK


Statistik non paramerik digunakan dalam situasi sebagai berikut :
1. Apabila ukuran sampel sedemikian kecil sehingga distribusi sampel tidak mendekati
normal, dan apabila tidak ada asumsi yang dapat dibuat tentang bentuk distribusi populasi
yang menjadi sumber sampel.
2. Apabila digunakan data ordinal, yaitu data-data yang disusun dalam urutan atau
diklasifikasikan rangkingnya
3. Apabila digunakan data nominal, yaitu data-data yang dapat diklasifikasikan dalam
kategori dan dihitung frekuensinya.

KELEBIHAN DAN KELEMAHAN METODE STATISTIK NON PARAMETRIK


Beberapa keuntungan yang dapat diperoleh jika kita memilih prosedur non-parametrik adalah
(Bhisma Murti, 1996) :
1. Jika ukuran sampel kita kecil, tidak ada pilihan lain yang lebih baik daripada menggunakan
metode statistik non-parametrik, kecuali jika distribusi populasi jelas normal.
2. Karena memerlukan sedikit asumsi, umumnya metode non-parametrik lebih relevan pada
situasi-situasi tertentu, sehingga kemungkinan penerapannya lebih luas. Disamping itu,
kemungkinan digunakan secara salah (karena pelanggaran asumsi) lebih kecil daripada
metode paramerik.
3. Metode non-paramerik dapat digunakan meskipun data diukur dalam skala ordinal.
4. Metode non-parametrik dapat digunakan meskipun data diukur dalam skala nominal
(katagorikal). Sebaliknya tidak ada teknik paramerik yang dapat diterapkan untuk data
nominal
5. Beberapa uji statistik non-parametrik dapat menganalisis perbedaan sejumlah sampel.
Beberapa uji statistik paramerik dapat dipakai untuk menganalisis persoalan serupa, tetapi
menuntut pemenuhan sejumlah asumsi yang hampir tidak mungkin diwujudkan.
6. Uji statistik non-parametrik mudah dilakukan meskipun tidak terdapat komputer (dapat
dianalisa secara manual). Analisa data dapat diselesaikan hanya dengan menggunakan
kalkulator tangan. Oleh karena itu, metode non-parametrik pantas disebut teknologi tepat
guna (appropriate technology) yang masih dibutuhkan di negara-negara berkembang (dan
terbelakang).
7. Pada umumnya para peneliti dengan dasar matematika yang kurang merasakan bahwa
konsep dan metode non-parametrik mudah dipahami.

Sementara dari beberapa kelebihan metode non-parametrik, ditemukan beberapa kekurangannya


yaitu:
1. Fleksibilitas terhadap skala pengukuran variabel kadang-kadang mendorong peneliti memilih
metode non-parametrik, meskipun situasinya memungkinkan untuk menggunakan metode
paramerik. Karena didasarkan asumsi yang lebih sedikit, metode non-parametrik secara
statistik kurang kuat (rigorous) dibandingkan metode paramerik.
2. Jika asumsi untuk metode paramerik terpenuhi, dengan ukuran sampel yang sama, metode
non-parametrik kurang memiliki kuasa (power) dibandingkan metode paramerik.
3. Penyederhanaan data (data reduction) dari skala rasio atau interval ke dalam ordinal atau
nominal merupakan pemborosan (detail) informasi yang sudah dikumpulkan.
4. Meski konsep dan prosedur non-parametrik sederhana, tetapi pekerjaan hitung-menghitung
bisa membutuhkan banyak waktu jika ukuran sampel yang dianalisis besar.

Uji Parametrik dan Non-Parametrik

Jenis Analisis Data ada 2, yaitu Uji Parametrik dan Non-parametrik.


Statistika Parametrik adalah ilmu statistika yang mempertimbangkan jenis sebaran/distribusi
data, yaitu apakah data menyebar normal atau tidak. Pada umumnya jika data tidak menyebar
normal, maka data harus dikerjakan dengan metode Statistika Parametrik atau setidaknya
dilakukan transformasi agar data mengikuti sebaran normal.
Ciri-ciri data parametrik adalah :
1. Data berdistribusio normal
2. Merupakan data interval
3. Jumlah data lebih dari sama dengan 30 (n>=30)

Jenis-Jenis Uji Statistik Parametrik:


1. Uji-t
Uji-t digunakan untuk menguji signifikansi dalam satu kelompok sampel (satu rerata) atau
dua kelompok sampel (dua rerata).
Uji-t satu kelompok sampel menggunakan One Sample t-test. Uji-t dua kelompok sampel
dibedakan menjadi dua, independent sample t-test dan paired t-test.
Independen sample t-test digunakan untuk menghitung dua kelompok sample yang tidak
saling berhubungan. Sedangkan paired sample t-test digunakan untuk menghitung dua
kelompok sample yang bepasangan/berkorelasi.
2. ANOVA
ANOVA adalah analisis yang digunakan untuk menguji signifikansi perbedaan dua rerata
atau lebih. Jenis-jenis ANOVA meliputi ANOVA satu jalan dan ANOVA dua jalan.
3. Regresi
Regresi digunakan untuk uji asosiatif, lebih ditujukan untuk
mengestimasi/memprediksikan variabel bebas terhadap variabel terikat.
4. Korelasi
Korelasi digunakan untuk menguji hubungan antar variabel.
5. Analisis Jalur
Analisis jalur digunakan untuk menguji hubungan kausal (sebab akibat) yang didapatkan
melalui kajian teori yang telah dirumuskan.Analisis jalur digunakan dalam rangka
mempelajari saling ketergantungan antar variabel.
Ada beberapa hal yang perlu diperhatikan dalam memilih tool untuk pengujian statistik. Uji
pengaruh untuk penelitian sosial bukan menggunakan uji regresi. Uji regresi hanya digunakan
untuk uji hubungan antara variabel hingga ke tingkat memprediksikan. Sedangkan uji pengaruh
untuk penelitian sosial yang dimaksud misalnya: pengaruh antara model pembelajaran tertentu
terhadap hasil belajar dan minat belajar. Hal ini tidak diuji menggunakan regresi, melainkan diuji
dengan menggunakan Uji komparasi, selain itu, pelaksanaan penelitiannya biasanya
menggunakan metode eksperimen. Regresi bukan untuk menguji penelitian eksperimen, tetapi
untuk memprediksikan.
Sedangkan Statistika Non-Parametrik adalah statistika bebas sebaran (tidak mensyaratkan bentuk
sebaran parameter populasi, baik normal atau tidak). Statistik non-parametrik biasanya
digunakan untuk analisis pada data berjenis Nominal atau Ordinal. Data berjenis nominal atau
ordinal tidak menyebar normal. Contoh metode Statistika non-parametrik adalah Binominal Test,
Chi-Square Test, dan Regresi Logistik.

Parametrik
Uji T Satu Sampel (One Sample T-Test)
Uji ini digunakan untuk mengetahui perbedaan mean (rerata) populasi atau penelitian terdahulu
dengan mean data sampel penelitian.

Misalnya Seorang Kepala Puskesmas menyatakan bahwa rata-rata perhari jumlah kunjungan
pasien adalah 20 orang. Untuk membuktikan pernyatan tsb, kemudian di ambil sampel random
sebanyak 20 hari kerja dan diperoleh rata-rata 23 orang dengan standar deviasi 6 orang.

Sekarang kita akan menguji apakah rata-rata jumlah kunjungan pasien sebelumnya berbeda
secara statistik dengan yang saat ini.

Langkah-langkah pengujian.
1. HIPOTESIS
Ho = 20 ( tidak ada perbedaan kunjungan pasien tahun lalu dengan saat ini)
Ha ≠ 20 ( ada perbedaan kunjungan pasien tahun lalu dengan saat ini )

2. STATISTIK UJI
Uji t satu sampel
KETERANGAN :
x = rata-rata sampel
µ = rata-rata populasi/penelitian terdahulu
S = Standar Deviasi
n = jumlah (banyaknya) sampel

Perhitungan :

DF = n – 1 → 20 -1 = 19, di tabel T, p value terletak antara 0,025 dan 0,001.

3. KEPUTUSAN STATISTIK
Karena nilai P pada tabel (< 0,025) yang berarti kurang dari nilai α = 0,05, maka Ho dapat kita
ditolak

4. KESIMPULAN
Secara statistik ada perbedaan yang signifikan antara kunjungan pasien tahun lalu dengan saat
ini.

Uji ANOVA

Anova (analysis of varian) digunakan untuk menguji perbedaan mean (rata-rata) data lebih dari
dua kelompok. Misalnya kita ingin mengetahui apakah ada perbedaan rata-rata lama hari dirawat
antara pasien kelas VIP, I, II, dan kelas III. Anova mempunyai dua jenis yaitu analisis varian satu
faktor (one way anova) dan analsis varian dua faktor (two ways anova). Pada kesempatan ini
hanya akan dibahas analisis varian satu faktor.
Beberapa asumsi yang harus dipenuhi pada uji Anova adalah:
1. Sampel berasal dari kelompok yang independen
2. Varian antar kelompok harus homogen
3. Data masing-masing kelompok berdistribusi normal
Asumsi pertama harus dipenuhi pada saat pengambilan sampel yang dilakukan secara random
terhadap beberapa (> 2) kelompok yang independen, yang mana nilai pada satu kelompok tidak
tergantung pada nilai di kelompok lain. Sedangkan pemenuhan terhadap asumsi kedua dan ketiga
dapat dicek jika data telah dimasukkan ke komputer, jika asumsi ini tidak terpenuhi dapat
dilakukan transformasi terhadap data. Apabila proses transformasi tidak juga dapat memenuhi
asumsi ini maka uji Anova tidak valid untuk dilakukan, sehingga harus menggunakan uji non-
parametrik misalnya Kruskal Wallis.

Uji Anova pada prinsipnya adalah melakukan analisis variabilitas data menjadi dua sumber
variasi yaitu variasi didalam kelompok (within) dan variasi antar kelompok (between). Bila
variasi within dan between sama (nilai perbandingan kedua varian mendekati angka satu), maka
berarti tidak ada perbedaan efek dari intervensi yang dilakukan, dengan kata lain nilai mean yang
dibandingkan tidak ada perbedaan. Sebaliknya bila variasi antar kelompok lebih besar dari
variasi didalam kelompok, artinya intervensi tersebut memberikan efek yang berbeda, dengan
kata lain nilai mean yang dibandingkan menunjukkan adanya perbedaan.

Rumus uji Anova adalah sebagai berikut :

DF = Numerator (pembilang) = k-1, Denomirator (penyebut) = n-k


Dimana varian between :

Dimana rata-rata gabungannya :


Sementara varian within :

KETERANGAN :
Sb = varian between
Sw = varian within
Sn2 = varian kelompok
X = rata-rata gabungan
Xn = rata-rata kelompok
Nn = banyaknya sampel pada kelompok
k = banyaknya kelompok

Uji Korelasi dan Regresi Linear

A. KORELASI
Uji korelasi bertujuan untuk mengetahui arah dan kekuatan hubungan antara variabel numerik dan
numerik, contoh untuk mengetahuai hubungan berat badan (numerik) dan tekanan darah (numerik).
Arah hubungan dalam korelasi ada dua, yaitu :

 Bila kenaikan suatu variabel diikuti oleh kenaikan variabel lain, arah ini disebut arah positif.
 Bila kenaikan variabel diikuti penurunan oleh variabel lain, ini disebut arah negatif.

Untuk mengetahui korelasi pada uji parametrik digunakan Koefisien Korelasi Pearson (r), dengan rumus
sebagai berikut :

Keterangan :
n = banyaknya sampel
X = variabel independen (prediktor)
Y = variabel dependen (outcome)
Nilai “r” berkisar antara 0.0 yang berarti tidak ada korelasi, sampai dengan 1.0 yang berarti adanya
korelasi yang sempurna. Semakin kecil nilai “r” semakin lemah korelasi, sebaliknya semakin besar nilai
“r” semakin kuat korelasi.

Berikut pembagian kekuatan korelasi menurut Colton :

r = 0,00 - 0,25 --> tidak ada hubungan/hubungan lemah

r = 0,26 - 0,50 --> hubungan sedang

r = 0,51 - 0,75 --> hubungan kuat

r = 0,76 - 1,00 --> hubungan sangat kuat/sempurna

B. REGRESI LINEAR

Regresi linear bertujuan untuk memprediksi variabel dependen melalui variabel independen. Untuk
memprediksi digunakan persamaan garis regresi dengan metode Least Square :

Keterangan :

Y = variabel Dependen

X = variabel Independen

a = Intercep

b = Slope

Dimana Slope :

*Intercep : Besarnya nilai Y, ketika X=0

*Slope : Besarnya perubahan nilai Y bila nilai X berubah setiap unitnya.


Sebetulnya persamaan garis di atas merupakan model deterministik yang secara sempurna/tepat dapat
digunakan hanya untuk peristiwa alam. Namun ketika kita berhadapan dengan kondisi ilmu sosial, ada
kemungkinan terjadi kesalahan atau penyimpangan (tidak eksak) pada hubungan antara variabel, artinya
untuk beberapa nilai X yang sama akan menghasilkan nilan Y yang berbeda. Sehingga persamaan garis
yang dibentuk menjadi :

e = nilai keslahan (error) yaitu selisih anatara nilai Y individual teramati dengan nila Y yang
sesungguhnya pad titik X tertentu.

Uji T Independen

Uji ini untuk mengetahui perbedaan rata-rata dua populasi/kelompok data yang independen. Contoh
kasus suatu penelitian ingin mengetahui hubungan status merokok ibu hamil dengan berat badan bayi
yang dilahirkan. Respondan terbagi dalam dua kelompok, yauti mereka yang merokok dan yang tidak
merokok.
Uji T independen ini memiliki asumsi/syarat yang mesti dipenuhi, yaitu :

1. Datanya berdistribusi normal.


2. Kedua kelompok data independen (bebas)
3. variabel yang dihubungkan berbentuk numerik dan kategorik (dengan hanya 2 kelompok)

Secara perhitungan manual ada dua formula (rumus) uji T independen, yaitu uji T yang variannya sama
dan uji T yang variannya tidak sama.
Untuk varian sama gunakan formulasi berikut :
Dimana Sp :

KETERANGAN :
Xa = rata-rata kelompok a
Xb = rata-rata kelompok b
Sp = Standar Deviasi gabungan
Sa = Standar deviasi kelompok a
Sb = Standar deviasi kelompok b
na = banyaknya sampel di kelompok a
nb = banyaknya sampel di kelompok b
DF = na + nb -2

Sedangkan untuk varian yang tidak sama gunakan formulasi berikut :

Untuk DF (degrre of freedom) uji T independen yang variannya tidak sama itu berbeda dengan yang di
atas (DF= Na + Nb -2), tetapi menggunakan rumus :
Untuk mentukan apakah varian sama atau beda, maka menggunaka rumus :

Bila nilai P > α , maka variannya sama, namun bila nilai P <= α, berati variannya berbeda

Uji T Dependen (Berpasangan)


Uji ini untuk menguji perbedaan rata-rata antara dua kelompok data yang dependen. Misalnya untuk
mengetahui apakah ada perbedaan berat badan sebelum mengikuti proram diet dan berat badan setelah
mengikuti program diet.
Sama seperti uji T independen, uji T dependen memiliki asumsi yang harus dipenuhi, yaitu :
1. Datanya berdistribusi normal.
2. Kedua kelompok data dependen (berpasangan)
3. variabel yang dihubungkan berbentuk numerik dan kategorik (dengan hanya 2 kelompok).
Rumus yang digunakan, sebagai berikut :

KETERANGAN :

δ = rata-rata deviasi (selisih sampel sebelum dan sampel sesudah)

SDδ = Standar deviasi dari δ (selisih sampel sebelum dan sampel sesudah)

n = banyaknya sampel

DF = n-1

Contoh :
Data sampel terdiri atas 10 pasien pria mendapat obat captoril dengan dosis 6,25 mg. Pasien diukur
tekanan darah sistolik sebelum pemberian obat dan 60 menit sesudah pemberian obat. Peneliti ingin
mengetahui apakah pengobatan tersebut efektif untuk menurunkan tekanan darah pasien-pasien tersebut
dengan alpha 5%. Adapun data hasil pengukuran adalah sebagai berikut.

Sebelum : 175 179 165 170 162 180 177 178 140 176

Sesudah : 140 143 135 133 162 150 182 150 175

1. HIPOTESIS :

Ho : δ = 0 (Tidak ada perbedaan tekanan darah sistolik pria antara sebelum dibandingkan sesudah dengan
pemberian Catopril)

Ha : δ ≠ 0 (Ada perbedaan tekanan darah sistolik setelah diberikan Catopril dibanding sebelum diberikan
obat)

2. STATISTIK UJI

Uji T dua sampel berpasangan (Uji T Dependen)


Perhitungan :
Diperoleh :
δ : -35 -36 -30 - 37 0 -30 5 - 28 35 -16
δrata-rata = -17,2
S = 23,62
n = 10

t= δ = - 17,2 = - 17,2 = -17,2

S/√n 23,62/√10 23,62/3,162 7,469

= -2,302

Df = n - 1 = 10-1 = 9
Dilihat pada tabel t pada df = 19, t = 2,302 diperoleh Pvalue < 0,0253.
3. KEPUTUSAN
Dengan α = 0,05, maka Pvalue < α, sehingga Ho ditolak
4. KESIMPULAN
Tekanan Darah sistolik setelah pemberian Catopril terbukti bermakna atau signifikan berbeda
dibandingkan sebelum pemberian catropil
Uji Fisher Exact

Seperti diketahui bahwa uji Fisher Exact digunakan sebagai uji alternatif Kai Kuadrat untuk tabel
silang (kontingensi) 2 x 2 dengan ketentuan, sampel kurang atau sama dengan 40 dan terdapat sel
yang nilai harapan (E) kurang dari 5. Uji Fisher Exact juga dapat digunakan untuk sampel kurang
dari 20 dalam kondisi apapun (baik terdapat sel yang nilai E-nya kurang dari 5 ataupun tidak).
Asumsi dari uji ini adalah data yang akan diuji mempunyai skala pengukuran nominal

CONTOH KASUS 1 :
Sebuah studi kasus kontrol ingin melihat pengaruh merokok malam dengan kejadian kanker
paru, hasil yang diperoleh tersaji pada tabel silang berikut :

Dalam menghitung probailitas Fisher seperti tabel di atas akan mudah dilakukan, dikarenakan
salah satu sel-nya ada yang bernilai "0 (nol)". Sehingga kita tdk perlu lagi menghitung nilai
deviasi ekstrim-nya.

Penyelesaian tabel di atas, sebagai berikut :


Perlu diingat bahwa nilai Probabilitas yang diperoleh dari perhitungan di atas merupakan
perhitungan Uji Satu Sisi dan untuk melakukan Uji 2 sisi, tinggal mengalikan nilai di atas dengan
2.

Kesimpulan :
Karena nilai P = 0,114 lebih besar dari nilai alfa =0,05, maka kita menerima Ho pada Uji Satu
sisi. Sedangkan Pada Uji 2 sisi di peroleh nilai P = 0,114*2 = 0,228, sehingga kita menerima
Ho. Jadi, baik pada Uji satu sisi maupun dua sisi, kita menyimpulkan tidak ada perbedaan yang
bermakna antara mereka yang merokok maupun tidak merokok pada malam hari terhadap kanker
paru.

KASUS 2
Masih kasus yang sama, cuma nilai sel-nya tidak ada yang bernilai "0 (nol)". :

Karena tidak ada sel yang nilainya "0", maka kita perlu membuat kemungkinan deviasi nilai
ekstrimnya :
Dengan menggunakan rumus yang sama, kita cari probabilitas dari masing-masing kemungkinan
tersebut. Hasil perhitungan sebagai berikut :
P (1) = 0,0048
P (2) = 0,0571
P (3) = 0,1714
P (4) = 0,1143

Untuk mengetahui nilai probabilitas Fisher Eexact kita akan menjumlahkan probabilitas soal
(kasus) dengan nilai probabilitas terkecilnya dari probabilitas yang diperoleh dari nilai deviasi
ekstrim.
Dari hitungan di atas, diketahui bahwa nilai probabilitas soal (P2) = 0,0571, sementara nilai
probabilitas terkecil dari probabilitas soal hanya P1.
Sehingga :
P = P(2) + P(1) = 0.0571 + 0,0048 = 0,0619 (Sekali lagi perhitungan ini adalah untuk uji satu
sisi).

Uji Kesesuaian Kolmogorov-Smirnov

Uji 1 sampel kolmogorov-Smirnov digunakan untuk menetahui apakah distribusi nilai-nilai


sampel yang teramati sesuai dengan distribusi teoritis tertentu (normal, uniform, poisson,
eksponensial). Uji Kolmogorov-Smirnov beranggapan bahwa distribusi variabel yang sedang
diuji bersifat kontinu dan pengambilan sampel secara acak sederhana. Dengan demikian uji ini
hanya dapat digunakan, bila variabel diukur paling sedikit dalam skala ordinal.

Uji keselarasan Kolmogorov–Smirnov dapat diterapkan pada dua keadaan:


1. Menguji apakah suatu sampel mengikuti suatu bentuk distribusi populasi teoritis
2. Menguji apakah dua buah sampel berasal dari dua populasi yang identik.

Prinsip dari uji Kolmogorov–Smirnov adalah menghitung selisih absolut antara fungsi distribusi
frekuensi kumulatif sampel [S(x)] dan fungsi distribusi frekuensi kumulatif teoritis [Fo(x)] pada
masing-masing interval kelas.

Hipotesis yang diuji dinyatakan sebagai berikut (dua sisi):

Ho : F(x) = Fo(x) untuk semua x dari - ~ sampai + ~

Ha : F(x) ≠ Fo(x) untuk paling sedikit sebuah x

Dengan F(x) ialah fungsi distribusi frekuensi kumulatif populasi pengamatan

Statistik uji Kolmogorov-Smirnov merupakan selisih absolut terbesar antara S(x) dan Fo(x),
yang disebut deviasi maksimum D.

D = |S(x) – Fo(x)| maks i = 1,2,…,n

Nilai D kemudian dibandingkan dengan nilai kritis pada tabel distribusi pencuplikan (tabel D),
pada ukuran sampel n dan a. Ho ditolak bila nilai teramati maksimum D lebih besar atau sama
dengan nilai kritis D maksimum. Dengan penolakan Ho berarti distribusi teramati dan distribusi
teoritis berbeda secara bermakna. Sebaliknya dengan tidak menolak Ho berarti tidak terdapat
perbedaan bermakna antara distribusi teramati dan distribusi teoritis. Perbedaan-perbedaan yang
tampek hanya disebabkan variasi pencuplikan (sampling variation).

Langkah-langkah prinsip uji Kolmogorov-Smirnov ialah sebagai berikut:


1. Susun frekuensi-frekuensi dari tiap nilai teramati, berurutan dari nilai terkecil sampai nilai
terbesar. Kemudian susun frekuensi kumulatif dari nilai-nilai teramati itu.
2. Konversikan frekuensi kumulatif itu ke dalam probabilitas, yaitu ke dalam fungsi distribusi
frekuensi kumulatif [S(x)]. Sekali lagi ingat bahwa, distribusi frekuensi teramati harus
merupakan hasil pengukuran variabel paling sedikit dalam skala ordinal (tidak isa dalam
skala nominal).
3. Hitung nilai z untuk masing-masing nilai teramati di atas dengan rumus z=(xi–x) /s. dengan
mengacu kepada tabel distribusi normal baku (tabel B), carilah probabilitas (luas area)
kumulatif untuk setiap nilai teramati. Hasilnya ialah sebagai Fo(xi).
4. Susun Fs(x) berdampingan dengan Fo(x). hitung selisih absolut antara S(x) dan Fo(x) pada
masing-masing nilai teramati.
5. Statistik uji Kolmogorov-Smirnov ialah selisih absolut terbesar Fs(xi) dan Ft(xi) yang juga
disebut deviasi maksimum D
6. Dengan mengacu pada distribusi pencuplikan kita bisa mengetahui apakah perbedaan sebesar
itu (yaitu nilai D maksimum teramati) terjadi hanya karena kebetulan. Dengan mengacu pada
tabel D, kita lihat berapa probabilitas (dua sisi) kejadian untuk menemukan nilai-nilai
teramati sebesar D, bila Ho benar. Jika probabilitas itu sama atau lebih kecil dari a, maka Ho
ditolak
Terdapat beberapa keuntungan dan kerugian relatif uji kesesuaian Kolmogorov-Smirnov
dibandingkan dengan uji kesesuaian Kai Kuadrat, yaitu:
1. Data dalam Uji Kolmogorov-Smirnov tidak perlu dilakukan kategorisasi. Dengan demikian
semua informasi hasil pengamatan terpakai.
2. Uji Kolmogorov-Smirnov bisa dipakai untuk semua ukuran sampel, sedang uji Kai Kuadrat
membutuhkan ukuran sampel minimum tertentu.
3. Uji Kolmogorov-Smirnov tidak bisa dipakai untuk memperkirakan parameter populasi.
Sebaliknya uji Kai Kuadrat bisa digunakan untuk memperkirakan parameterpopulasi,dengan
cara mengurangi derajat bebas sebanyak parameter yang diperkirakan.
4. Uji Kolmogorov-Smirnov memakai asumsi bahwa distribusi populasi teoritis bersifat
kontinu.

CONTOH ANALISA SECARA MANUAL:


Berikut ini usia mulai haid pada sejumlah wanita diambil sampel sebanyak 18 orang dengan
distribusi sebagaimana tersaji pada tabel berikut :

Ujilah hipotesis nol yang menyatakan bahwa data ini berasal dari suatu populasi berdistribusi
normal; diketahui bahwa pada populasi, rata-rata usia mulai haid =12; dengan SD=50.
HIPOTESIS
Hipotesis yang diuji dinyatakan sebagai berikut (dua sisi):
Ho : Kedua sampel berasal dari populasi dengan distribusi yang sama
Ha : kedua sampel bukan berasal dari populasi dengan distribusi yang sama
PERHITUNGAN
Langkah-langkah menghitung nilai-nilai S(xi) dan Fo(xi) :

Untuk memperoleh nilai-nilai Fo(x), pertama-tama yang dilakukan adalah mengkonversikan


setiap nilai x teramati menjadi nilai unit variabel normal yang disebut z. Sedang z=(xi–x) /s. dari
tabel distribusi kumulatif normal baku (Tabel B), kita temukan luas area dari minus tak terhingga
sampai z. luas area tersebut memuat nilai-nilai Fo(x). Selanjutnya kita hitung statistik uji D, dari
sekian banyak nilai D ternyata statistik uji D maksimum adalah = 0,7222. Selanjutnya nilai
tersebut dibandingkan dengan nilai D tabel (Tabel Kolmogorv-Smirnov).
KEPUTUSAN
Dari tabel D diatas, dengan n=18 dan α (dua sisi) = 0,05 kita dapatkan nilai tabel 0,309. Karena
0,722 > 0,309, maka Ho ditolak, maka kita simpulkan bahwa sampel yang berasal dari populasi
tidak dengan distribusi normal.

Uji Kesesuaian Kai Kuadrat (Test of Goodness of Fit)

Metode ini dikembangkan oleh Pearson tahun 1900 yang merupakan perhitungan suatu kuantitas yang
disebut Kai Kuadrat . Metode ini sangat bermanfaat ketika data yang tersedia hanya berupa frekuensi
(disebut count), misalnya banyaknya subjek dalam kategori sakit dan tidak sakit, atau banyaknya
penderita diabetes mellitus dalam kategori I, II, III, IV menurut keparahan penyakitnya.

Uji kai kuadrat untuk satu sampel dapat dipakai untuk menguji apakah data sebuah sampel yang diambil
menunjang hipotesa yang menyatakan bahwa populasi asal sampel tersebut mengikuti suatu distribusi
yang telah ditetapkan. Oleh karena itu uji ini disebut juga uji keselarasan (goodness of fit test), karena
untuk menguji apakah sebuah sampel selaras dengan salah satu distribusi teoritis (seperti distribusi
normal, uniform, binomial dan lainnya).

Rumus yang digunakan untuk uji ini sama dengan rumus umum Uji Kai Kuadrat :
Contoh Kasus :

Sebuah survei berminat menyelidiki determinasi orang dalam mencegah factor-faktor risiko penyakit
jantung koroner. Setiap subjek dari sampel berukuran 200 orang diminta menyatakan sikapnya terhadap
sebuah pertanyaan kuesioner sebagai berikut “ apakah anda yakin dapat menghindari makanan
berkolesterol tinggi” dengan hasil 70 orang sangat yakin, 50 orang yakin, 45 orang ragu-ragu, dan 35
orang sangat ragu-ragu. Dapatkah kita menarik kesimpulan berdasarkan data tersebut, bahwa keempat
sikap yang berbeda menyebar merata di dalam populasi asal sampel?
(soal latihan dikutip dari Bhisma Murti, hal. 45).

Penyelesaian :
Buat tabel seperti ini untuk memudahkan dalam perhitungan :

Nilai E = 50, karena kita berharap bahwa jumlah yang menjawab pada masing-masing kategorik akan
berdistribusi sama. Selanjutnya masukan dalam rumus.

Dari hasil perhitungan terlihat Chi square hitung adalah 13. Selanjutnya melihat nilai tabel pada
kemaknaan alfa = 0.05 pada df = 4-1 = 3.
Dari tabel chi square diperoleh chi square tabel dengan df= 3 adalah 7,815, berarti Chi-square hitung >
chi-square tabel, maka Ho ditolak. Artinya sikap responden terhadap pertanyaan tidak proporsional,
dimana sikap responden cendrung pada sikap tertentu

NON PARAMETRIK
Contoh metode Statistika non-parametrik adalah Binominal Test, Chi-Square Test, dan Regresi
Logistik.

Uji Binomial

Distribusi binomial adalah distribusi yang menghasilkan salah satu dari dua hasil yang saling
mutually exclusive, seperti sakit-sehat, hidup-mati, sukses-gagal dan dilakukan pada percobaan
yang saling independen, artinya hasil percobaan satu tidak mempengaruhi hasil percobaan
lainnya (Bisma Murti, 1996). Uji binomial digunakan untuk menguji hipotesis tentang suatu
proporsi populasi. Data yang cocok untuk melakukan pengujian adalah berbentuk nominal
dengan dua kategori. Dalam hal ini semua nilai pengamatan yang ada di dalam populasi akan
masuk dalam klasifikasi tersebut. Bila proporsi pengamatan yang masuk dalam kategori pertama
adalah “sukses” = p, maka proporsi yang masuk dalam kategori kedua ”gagal” adalah 1-p = q.
Uji binomial memungkinkan kita untuk menghitung peluang atau probabilitas untuk memperoleh
k objek dalam suatu kategori dan n-k objek dari kategori lain. (Wahid Siulaiman, 2003).

Jika jumlah kategori pertama (P) dari satu seri pengamatan dengan n sampel adalah k, maka
probabilitas untuk memperoleh P adalah:

k= jumlah objek berelemen”sukses” dari seri pengamatan berukuran n


Distribusi binomial disebut juga percobaan Bernouli, dimana percobaan Bernouli dapat
dilakukan pada keadaan :
1. Setiap percobaan menghasilkan salah satu dari dua kemungkinan hasil yang saling terpisah
(mutually exclusive).
2. Probabilitas “sukses (p)” adalah tetap dari satu percobaan ke percobaan lainnya.
3. Percobaan-percobaan bersifat independen, dimana hasil dari satu perobaan tidak
mempengaruhi hasil percobaan lainnya.
Dengan uji binomial, pertanyaan penelitian yang akan dicari jawabannya adalah apakah kita
mempunyai alasan yang cukup kuat untuk mempercayai bahwa proporsi elemen pada sampel
kita sama dengan proporsi pada populasi asal sampel. Dalam prosedur uji hipoesa, distribusi
binomial kita gunakan sebagai acuan dalam menetapkan besarnya probabiitas untuk memperoleh
suatu nilai “kategori pertama” sebesar yang teramati dan yang lebih ekstrim dari nilai itu, dari
sebuah sampel yang berasal dari populasi binomial.

Hipotesa dalam Uji Binomial


Dua sisi : Ho: p = po dan Ha: p ≠ po
Satu sisi : Ho: p <= po dan Ha: p > po
Ho: p >= po dan Ha: p < po

p = proporsi pada sampel


po = proporsi pada populasi

Perhitungan Nilai p secara Manual (Bisma Murti, 1986):


Dua Sisi
Jika p ≤ po, maka:

Jika p > po, maka:


Satu Sisi :

Jika Ho: p ≥ po dan Ha: p < po, maka:

Jika Ho: p ≤ po dan Ha: p > po, maka :

Kriteria Pengambilan Keputusan:


Untuk Uji Dua sisi:
Bila Exact Sig. (2-tailed) < α/2 maka Ho ditolak
Exact Sig. (2-tailed) > α/2 maka Ho gagal ditolak

Untuk Uji Satu sisi:


Bila Exact Sig. (2-tailed) < α maka Ho ditolak
Exact Sig. (2-tailed) > α maka Ho gagal ditolak

Contoh Soal :
Sebuah studi berminat melakukan uji fluorescent antibody guna meneliti adanya reaksi serum
setelah pengobatan pada penderita malaria falcifarum. Dari 25 subjek yang telah disembuhkan,
15 subjek ditemukan bereaksi positif. Jika sampel itu memenuhi semua asumsi yang mendasari
uji binomial, dapatkah kita menyimpulkan dari data itu bahwa proporsi reaksi positif dalam
populasi yang bersangkutan adalah lebih besar dari 0,5? Misalkan α = 0,05 (Wayne W.Daniel,
2003, hal 67).

HIPOTESA
Ho : p ≤ 0,5 dan Ha: p > 0,5
PERHITUNGAN
Dari tabel binomial, dengan n=25, x-1=14 dan Po=0,5, untuk uji satu sisi dengan P = 15/25 =
0,6 > po =0,5, diperoleh nilai p :
14 25!
p=P(X ≥ 15) = 1 - ∑ -------------- 0,5k 0,525-k
k=0 25! (25-k)!

= 1 – 0,7878 = 0,2122

Karena p = 0,2122 > 0,05. maka Ho gagal ditolak, sehingga kita dapat menyimpulkan bahwa
proporsi reaksi serum di antara populasi yang telah mendapat pengobatan malaria tidak dapat
dikatakan lebih besar secara bermakna dari 0,5.

Uji Kai Kuadrat (Chi Square Test)

Uji kai kuadrat (dilambangkan dengan "χ2" dari huruf Yunani "Chi" dilafalkan "Kai") digunakan untuk
menguji dua kelompok data baik variabel independen maupun dependennya berbentuk kategorik atau
dapat juga dikatakan sebagai uji proporsi untuk dua peristiwa atau lebih, sehingga datanya bersifat diskrit.
Misalnya ingin mengetahui hubungan antara status gizi ibu (baik atau kurang) dengan kejadian BBLR (ya
atau tidak).

Dasar uji kai kuadrat itu sendiri adalah membandingkan perbedaan frekuensi hasil observasi (O) dengan
frekuensi yang diharapkan (E). Perbedaan tersebut meyakinkan jika harga dari Kai Kuadrat sama atau
lebih besar dari suatu harga yang ditetapkan pada taraf signifikan tertentu (dari tabel χ2).

Uji Kai Kuadrat dapat digunakan untuk menguji :


1. Uji χ2 untuk ada tidaknya hubungan antara dua variabel (Independency test).
2. Uji χ2 untuk homogenitas antar- sub kelompok (Homogenity test).
3. Uji χ2 untuk Bentuk Distribusi (Goodness of Fit)

Sebagai rumus dasar dari uji Kai Kuadrat adalah :

Keterangan :
O = frekuensi hasil observasi
E = frekuensi yang diharapkan.
Nilai E = (Jumlah sebaris x Jumlah Sekolom) / Jumlah data
df = (b-1) (k-1)
Dalam melakukan uji kai kuadrat, harus memenuhi syarat:
1. Sampel dipilih secara acak
2. Semua pengamatan dilakukan dengan independen
3. Setiap sel paling sedikit berisi frekuensi harapan sebesar 1 (satu). Sel-sel dengdan frekuensi harapan
kurang dari 5 tidak melebihi 20% dari total sel
4. Besar sampel sebaiknya > 40 (Cochran, 1954)

Keterbatasan penggunaan uji Kai Kuadrat adalah tehnik uji kai kuadarat memakai data yang diskrit
dengan pendekatan distribusi kontinu. Dekatnya pendekatan yang dihasilkan tergantung pada ukuran pada
berbagai sel dari tabel kontingensi. Untuk menjamin pendekatan yang memadai digunakan aturan dasar
“frekuensi harapan tidak boleh terlalu kecil” secara umum dengan ketentuan:

1. Tidak boleh ada sel yang mempunyai nilai harapan lebih kecil dari 1 (satu)
2. Tidak lebih dari 20% sel mempunyai nilai harapan lebih kecil dari 5 (lima)

Bila hal ini ditemukan dalam suatu tabel kontingensi, cara untuk menanggulanginyanya adalah dengan
menggabungkan nilai dari sel yang kecil ke se lainnya (mengcollaps), artinya kategori dari variabel
dikurangi sehingga kategori yang nilai harapannya kecil dapat digabung ke kategori lain. Khusus untuk
tabel 2x2 hal ini tidak dapat dilakukan, maka solusinya adalah melakukan uji “Fisher Exact atau Koreksi
Yates”

Contoh Kasus:
Suatu survey ingin mengetahui apakah ada hubungan Asupan Lauk dengan kejadian Anemia pada
penduduk desa X. Kemudian diambil sampel sebanyak 120 orang yang terdiri dari 50 orang asupan
lauknya baik dan 70 orang asupan lauknya kurang. Setelah dilakukan pengukuran kadar Hb ternyata dari
50 orang yang asupan lauknya baik, ada 10 orang yang dinyatakan anemia. Sedangkan dari 70 orang yang
asupan lauknya kurang ada 20 orang yang anemia. Ujilah apakah ada perbedaan proporsi anemia pada
kedua kelompok tersebut.

Jawab :
HIPOTESIS :
Ho : P1 = P2 (Tidak ada perbedaan proporsi anemia pada kedua kelompok tersebut)
Ho : P1 ≠ P2 (Ada perbedaan proporsi anemia pada kedua kelompok tersebut)

PERHITUNGAN :
Untuk membantu dalam perhitungannya kita membuat tabel silangnya seperti ini :
Kemudian tentukan nilai observasi (O) dan nilai ekspektasi (E) :

Selanjutnya masukan dalam rumus :

Perhitungan selesai, sekarang kita menentukan nilai tabel pada taraf nyata/alfa = 0.05. Sebelumnya kita
harus menentukan nilai df-nya. Karena tabel kita 2x2, maka nilai df = (2-1)*(2-1)=1.

Dari tabeli kai kudrat di atas pada df=1 dan alfa=0.05 diperoleh nilai tabel = 3.841.

KEPUTUSAN STATISTIK
Bila nilai hitung lebih kecil dari nilai tabel, maka Ho gagal ditolak, sebaliknya bila nilai hitung lebih besar
atau sama dengan nilai tabel, maka Ho ditolak.
Dari perhitungan di atas menunjukan bahwa χ2 hitung < χ2 tabel, sehingga Ho gagal ditolak.

KESIMPULAN
Tidak ada perbedaan yang bermakna proporsi antara kedua kelompok tersebut. Atau dengan kata lain
tidak ada hubungan antara asupan lauk dengan kejadian anemia.

Anda mungkin juga menyukai