Anda di halaman 1dari 11

Hipotesis

2.
3. Ha two tail
PENGERTIAN
→ p-value 2x lebih besar dibanding one tail
→ menggabungkan/menghubungkan 2 fenomena
→ untuk menguji apakah hipotesis terbukti/tidak
→ menggunakan “data sampel” Kesalahan Penyimpulan

1. Tipe I (α) → CI
Signifikan
→ hasil : ada perbedaan
1. Substansi → di populasi : tidak ada perbedaan
→ besarnya perbedaan 2 kelompok yg diuji, → (1-α) : tk.kepercayaan : probabilitas utk
biasanya eksperimen tdk membuat kesalahan jenis pertama
2. Statistik
→ menggunakan uji statistic, hasilnya berupa p- 2. Tipe II (β)
value → hasil : tidak ada perbedaan
Lebih dipercayai : signifikan substansi → di populasi : ada perbedaan
→ (1-β) : tk.kekuatan uji :probabilitas utk tdk
Langkah Uji Hipotesis membuat kesalahan jenis kedua
1. Menetapkan hipotesis
Ho → tidak ada perbedaan/hubungan Jenis Uji Statistik
Ha → ada perbedaan/hubungan
- one tail → “lebih” A. Beda Mean 1 Sampel
- two tail → “ada perbedaan” → pembanding : populasi
→ menguji rata-rata sampel (survei) dan data
2. Menetapkan uji statistic
di populasi (laporan data sebelumnya)
- Parametric : Uji T, ANOVA
1. Bila σ diketahui
- Non parametric : Wilcoxon, Mann Whitney
→ uji Z
3. Perhitungan uji statistic
Xb − µ Xb : rata” sampel
→ memperoleh nilai p-value : besarnya peluang Z= σ µ : rata” populasi
menerima Ho, harapannya nilai kecil agar √n σ : SD populasi
dapat menolak Ho
4. Menetapkan batas kemaknaan 2. Bila σ tidak diketahui
→ alpha (0.05) → uji t sampel
5. Keputusan & kesimpulan
𝑋𝑏 − µ
→ membandingkan p-value dg nilai alpha t= 𝑠 df = n − 1
- p ≤ 0.05 → Ho ditolak (ada perbedaan) √𝑛
- p > 0.05 → Ho diterima (tidak ada
perbedaan) Semakin ke kanan, p-value semakin
kecil
Jenis Ha Semakin ke kiri, p-value semakin besar
1. Ha one tail
- Menceng kiri (µ1 < µ2) Mencari p-value
p-value 1. Cari nilai Z dan lihat di table Z
2. p-value = 0.5 – Ztabel
- Menceng kanan (µ1 > µ2) - Two tail : p-value x 2

p-value Distribusi normal


95% data → mean ± 2 SE
Estimasi Interval
CI 95% → mean ± 2 SE
Bahan Uas Biostatistik
Intermediate
Pengantar Sampel Independen/
Perbandingan 2 mean, berkelompok
yaitu : → memiliki subjek/responden
yang berbeda
1. Populasi yang sama
Uji Statistik : Independen T
2. Populasi yang berbeda
Test

UJI T TEST
* Varian Sama
→ Untuk menguji data variabel
→ “tidak ada hubungan/
numerik dan variabel
perbedaan”
kategorik
→ menguji perbedaan rata-rata
antara 2 sampel (n1 − 1)s12 + (n2 − 1)s22
sp = √
n1 + n2 − 2
Jenis Uji T
1. Independen T Test (X1 − X2 )
t= df = n1 + n2 − 2
2. Dependen T Test 1 1
sp√n + n
1 2

Jenis Uji Pada


X1 , X2 = rata − rata sampel
Statistik s1 , s2 = standar deviasi sampel
Variabel 1 Variabel 2 Uji sp = standar deviasi gabungan
Statistik n1 , n2 = jumlah data sampel
Numerik Kategorik Uji T
(2 klmpk)
Kategorik Uji
* varian beda
(>2 ANOVA → “ada hubungan/perbedaan”
klmpk)
2
Kategorik Kategorik Chi X1 − X 2 𝑠2 𝑠2
t= (𝑛1 + 𝑛2 )
Square df = 1 2
Numerik Numerik Uji s2 s2 2
𝑠 2 2
√ 1+ 2 𝑠2 ( 22 )
Korelasi n1 n2 (𝑛1 ) 𝑛2
1
𝑛1 − 1 + 𝑛2 − 1
Uji Varian Uji Kenormalan
→ untuk menguji apakah varian Data
sama/berbeda → variabel numerik
𝑠12 Ada 3 cara :
F= 𝐬𝟏 = 𝐚𝐧𝐠𝐤𝐚 𝐲𝐠
𝑠22 𝐥𝐞𝐛𝐢𝐡 𝐛𝐞𝐬𝐚𝐫 1. Lihat grafik
histogram/kurva normal
df1 = n1 − 1 → 𝐍𝐮𝐦𝐞𝐫𝐚𝐭𝐨𝐫 2. Menghitung nilai skewness
df2 = n2 − 1 → 𝐃𝐞𝐧𝐮𝐦𝐞𝐫𝐚𝐭𝐨𝐫 dan SE
- Bila nilai koefisien -2
Syarat Uji T s/d +2, data normal
- Diluar kisaran, disebut
1. Data Distribusi Normal tidak normal
2. Jika data tidak distribusi
3. Uji Statistik : Kolmogorov
normal → Uji Mann
Smirnov
Whitney
- P-value ≥ 0.05 : tidak
normal
Langkah Uji T SPSS - P-value > 0.05 :
normal
→ Analyze – compare means
→ Independen T Test, Test
variabel (numerik), grouping Langkah Uji
variabel (kategorik), define Normalitas Data
group (1 2) SPSS
→ OK
→ analyze – Descriptive –
frekuensi – variabel numerik
Langkah Uji T
– charts (histogram with
Manual normal curve)
→ Penentuan Hipotesis → analyze – descriptive –
→ Uji Statistik yang dipakai explore – variabel numerik ke
→ Perhitungan Uji (mean, s, n) dependen – plots (centang
→ uji varian (F, p-value, Ho/Ha) normality)
→ Keputusan
→ Hasil dan Kesimpulan
Σd1
df = n − 1 đ=
n
Catatan utk uji
kenormalan data d = nilai selisih pre dan post
→ utamakan dengan nilai đ = rata-rata nilai d
skewness dan SE (jika
salah satu data tidak
nomal, maka data Langkah Uji T
tersebut tidak normal ) Dependen SPSS
→ shapiro wilk dipakai jika → analyze – compare means
sampel < 50 → paired sample T Test –
masukkan variabel
→ OK
Uji Mann Whitney

→ utk T independen dengan Jika data tidak normal → Uji


data tidak normal Wilcoxon
→ analyze – non parameteric – 2 → analyze – non parametric
independen sample → 2 related sample – masukkan
→ test variabel (numerik) – variabel
grouping variabel (kategorik) → OK
– define group (1 2)
→ OK
Uji ANOVA

→ numerik dengan kategorik


Sampel Dependen/
(>2 kelompok)
Berpasangan
→ menguji perbedaan rata-rata
→ jika memiliki antara 3 atau lebih sampel
subjek/responden yang sama MSb2 df nume = k − 1
→ minimal 2x intervensi F= df denum = N − k
MSw 2
(sebelum dan sesudah)
MSb2
Uji Statistik : T Dependen/ = varian antar kelompok (between)
Paired MSw 2
đ = varian dalam kelompok (within)
t= Σ (𝑑1 − đ)2 k = jumlah kelompok
d SDd = √
SD N = total sampel
√n 𝑛−1
Prinsip Uji ANOVA Metode Bonferonni

→ membandingkan MSb2 dan 𝑋1 − 𝑋2 0.05


MSw2 𝑇= α∗ =
1 1 (k 2)
√𝑀𝑆𝑤 2 ( + )
𝑛1 𝑛2
- hasil = 1, tidak ada
perbedaan
df = N − k → dari ANOVA k = kombinasi
- hasil > 1, ada perbedaan

n1 X1 + n2 X2 + ⋯ + nk X k Langkah ANOVA
Grand Mean =
n1 + n2 + ⋯ + nk SPSS
∑{n1 (X1 − X)2 + n2 (X2 − X)2 + ⋯ nk (Xk − X)2 } - analyze – compare means
MSb2 =
k−1 - one way ANOVA –
∑{S12 (n1 − 1) + S22 (n2 − 1) + ⋯ Sk2 (nk − 1)}
dependen list (numerik) –
MSw 2 = factor (kategorik)
N−k
- options – centang
Maksud signifikan dalam descriptive dan
Uji ANOVA homogenity
→ signifikan : minimal ada 1 - post hoc – centang
kelompok yang berbeda bonferonni
→ Ho diterima : antar kelompok
dipastikan tidak ada yang
berbeda Syarat ANOVA

1. Varian Homogen
Cara Menelusuri 2. Distribusi normal
Kelompok Mana Jika tidak normal → Uji
yang Berbeda Kruskal Walis

→ ANALISIS MULTIPLE
COMPARISON
Langkah Uji
Menelusuri lebih jauh Kruskal Walis SPSS
perbedaan antar kelompok
- Non parametric
→ jika hasil ANOVA - K independen sampel – test
signifikan/Ho ditolak /p- variabel (numerik) –
value < alpha (0.05) grouping (kategorik) –
koding (min 1, max 4)
- OK

Untuk pertanyaan “mana


yang terbaik”
 jika hasilnya pengen cepat
yang terbaik → X terkecil
 jika hasilnya pengurangan
yang besar yang terbaik → X
terbesar
Uji Chi-Square
Pengertian (a + b)(a + c) (a + b)(b + d)
→perbedaan persentase antara 2 sampel Ea = Eb =
N N
→ hubungan antara kategorik dg kategorik
→ dapat menguji hubungan dan menguji perbedaan (a + c)(c + d) (c + d)(b + d)
Ec = Ed =
D N N
Proporsi
→ persentase untuk menggambarkan biasanya penyakit
→ perbandingan a/(a+b) (2) survei 100 pasien, didapatkan hasil Sosek tinggi 60
→ persentase pada desain studi : orang dg 35 org yg puas, dan sosek rendah 40 org dg
1. Cross sectional & cohort 10 org yg puas. Hitunglah : (a) hitung tk.kepuasan utk
→ % pada baris/row pasien sosek tinggi dan rendah, (b) ujilah apakah ada
2. Case Control perbedaan % tk.kepuasan, (c) besarnya risiko
→ % pada kolom/colomn hubungan !
(a)
Rumus Chi-Square D+ D- jlh
Σ(𝑂 − 𝐸)2 tot. baris x tot. kolom E+ 35 25 60
𝑋2 = E= E- 10 30 40
𝐸 tot. sampel
45 55 100
Sosek tinggi = 35/60 x 100% = 58.3%
df = (k − 1)(b − 1) k = jumlah kolom Sosek rendah = 10/40 x 100% = 25%
b = jumlah baris
(b) Uji Statistik = Uji Chi-Square
Prinsip Chi-Square Hipotesis :
Membandingkan nilai harapan (E) dg nilai kenyataan Ho : H1 = H2 (tidak ada perbedaan tk.kepuasan dg
(O) sosek tinggi dan rendah)
→ hasil sama : kejadian bebas/independen → tidak Ha : H1 ≠ H2 (ada perbedaan tk.kepuasaan dg sosek
ada hubungan tinggi dan rendah)
→ hasil berbeda : kejadian terikat/dependen → ada 60.45
Oa = 35 Ea = = 27
perbedaan 100
60.55
Ob = 25 Ea = = 33
CONTOH : 100
(1) Kasus Diare 40.45
Oc = 10 Ea = = 18
D+ D- jlh 100
40.55
E+ 16(a) 64(b) 80 Od = 30 Ea =
100
= 22
E- 24(c) 96(d) 120 (35 − 27)2 (25 − 33)2 (10 − 18)2 (30 − 22)2
40 160 200 X2 = + + +
27 33 18 22
Proporsi diare = 40/200 = 0.2 X 2 = 10.78 df = (2 − 1)(2 − 1) = 1
Tidak CTPS = 0.2 x 80 = 16 p-value (table F) = 0.001 < p-value < 0.01
CTPS = 0.2 x 120 = 24 Ho ditolak → ada perbedaan antara tk.kepuasan dg sosek
Nilai E = a, b, c, d tinggi dan rendah
Nilai O = nilai pd table/kenyataan
(c) besar risiko (OR)
a. d 35.30
OR = = = 4.2
b. c 10.25

Odds Ratio (OR)


→ utk mengetahui kuat lemahnya hubungan
(besarnya hubungan)
a. d
OR =
b. c

Keterbatasan Chi-Square
→ tidak boleh digunakan, ketika :
1. Nilai E < 1
2. Nilai E < 5, jmlhnya lebih dari 20% dari jmlh total
sel
Solusi :
1. Jika table lebih dari 2x2, lakukan
penggabungan baris/kolom
2. Jika table 2x2, gunakan fisher exact

Penggunaan table 2x2


→ yate’s continuity correction, karena :
1. Table 2x2 cenderung overestimate dlm
menentukan nilai p-value
2. Utk itu koresi dg mengurangi 0,5 tiap angka di
dalam sel

Rumus utk Tabel 2x2


n{ad − bc}
X2 =
(a + d)(c + d)(a + c)(b + d)

Uji Chi-Square SPSS


1) Analyze – descriptive statistic
2) Crosstabs – row (v.independen/faktor yg
mempengaruhi) – colomn (v.dependen)
3) Statistic – centang chi-square dan risk
4) Cells – centang row

Beberapa catatan ttg chi-square


- Cross sectional & kohort : centang row utk %
- Case control : centang colomn utk %
- Table 2x2 : continuity correction
- Table lebih 2x2 : pearson
- Table 2x2 (jika ada <5) : fisher exact
Uji Korelasi
Pengertian Uji Statistik Korelasi
→ untuk mengetahui besar dana rah hubungan → pendekatan table T
variabel
→ untuk hubungan numerik dg numerik *) Uji Hipotesis
Ho : 𝛒 = 0 (tidak ada korelasi antar variabel)
Arah Kekuatan Ha : 𝛒 ≠ 1 (ada korelasi antar variabel)
1. Nilai 0 – 0.25 : tidak ada korelasi
linier/lemah *) Standar Eror
2. Nilai 0.26 – 0.50 : sedang r−o
3. Nilai 0.51 – 0.75 : kuat 1 − r2 t=
SE (r) = √ √1 − r
2
4. Nilai 0.76 – 1 : sangat kuat n−2 n−2

Ctt : r=0 → tidak ada korelasi linier


Uji SPSS :
Arah Korelasi 1) Analisis uji korelasi
→ analyze – correlate – bivariate – masukkan
1. Positif → kenaikan satu variabel diikuti oleh
variabel – correlation “pearson”
variabel lain (searah)
2) Buat grafik
2. Negatif → berlawanan arah
→ graph – legacy dialog – scatter – simple – define
– Y (dependen) – X (independen) – OK
Dpt dilihat menggunakan scatter plot (diagram
tebar) 3) Kenormalan Data
→ analyze – descriptive – explore – masukkan
- Renggang : lemah
kedua variabel ke dependen list – OK
- Rapat : kuat
r= +1 → ke arah kanan atas, berhimpit 4) Non parametric
→ analyze – correlate – bivariate – masukkan
hasil pasti (parametrik) : koefisien korelasi pearson variabel – correlation “spearman” – OK
“r”

ΣX ΣY
ΣXY − n
r=
(ΣX)2 2
2 − (ΣY) ]
√[ΣX 2 − ] [ΣY
n n

X = Var. 1 (independen)
Y = Var. 2 (dependen)

Interpretasi Soal :
→hub. Var.1 dg var.2 menunjukkan korelasi yg kuat
dan arahnya bersifat positif, sehingga semakin
besar var.1 maka akan semakin besar var.2
Regresi Linier
Pengertian Anova pada regresi linier
→ sama dg korelasi, tapi ini lebih untuk 1) Membandingkan variasi nilai Y yg dpt
memprediksi dependen (numerik) melalui dijelaskan oleh persamaan regresi trhdp
vari.independen (numerik) variasi residual yg tdk dpt dijelaskan :
 Rasio besar : hasil analisis regresi
→ digunakan untuk mencari persamaan signifikan, pers.regresi bermanfaat
garis regresi linier dengan metode : least- untuk menjelaskan variasi
square  Rasio kecil : hasil anova regresi tidak
signifikan
→ regresi linier sederhana : pers. garis lurus
menggambarkan hub. independen & dependen 2) Total variasi = variasi diprediksi + variasi
residu
→ least-square : meminimalkan sum of square of
SSY = SSR + SSE
eror antara observasi dg nilai prediksi Y

Y = A + BX Y = dependen Uji Hipotesis – Koefisien B


X = independen  Uji hipotesis nol
A = intercept : besarnya nilai Y ketika X tidak Koefisien B = 0
ada (X = 0)  P-value < alpha → koef. ≠ 0 → variasi X signifikan
B = slope : besarnya perubahan nilai Y bila X prediksi nilai Y
berubah P-value > alpha → koef. = 0

Koefisien A dan B Koefisien Determinasi (R2)


→ variasi dependen dpt dijelaskan oleh variabel
(ΣX)(ΣY)
ΣXY − n independen
b= 2
(ΣX) a = ẏ - bẋ
ΣX 2 − n R2 = R square
R2 = (korelasi)2 x 100%
Nilainya = 0 – 100%
Uji Hipotesis – Garis Linier
 Uji Hipotesis Nol
R2 ↓ : ketepatan prediksi <, kesalahan >,
Ho = garis tidak linier/lurus
variasi besar
R2 ↑ : ketepatan prediksi >, variasi kecil
 Uji Anova Regresi → uji Anova (F) → hasil p-
R2 ↑ semakin baik dalam menentukan variasi
value
P < alpha (0.05) → Ho ditolak
Kesimpulan : garis linier/lurus
Asumsi Regresi Linier / Syarat 4) Koefisien Determinasi (Tabel R2)
1) Homogenity → varian Y = X - Hasilnya berapa
2) Existance → random → mean 0, SD tertentu - Artinya variasi var.1 dpt menjelaskan var.2
3) Independence → nilai Y tdk tergantung nilai X sebesar x%. atau dengan kata lain, var.1
4) Linearity → garis harus linier/lurus mempengaruhi var.2 sebesar x%, sedangkan
5) Distribusi normal sisanya x% dipengaruhi faktor lain

Uji SPSS Regresi Linier


1) Analyze - regresi
2) Linier – dependen dan independen
dimasukkan - OK

Latihan dalam Soal


1) Untuk table correlation
- Hasil r dan p-value
- Keputusan
- Kesimpulan : korelasi antara var.1 dg
var.2 menunjukkan besar hubungan
dan arah hubungan, artinya semakin
besar var.1 maka akan semakin
besar/kecil var.2. Hasil uji korelasi
didapatkan p-value, artinya
terdapat/tidak terdapat korelasi antara
var.1 dan var.2

2) Untuk table anova regresi


- Hasil p value
- Keputusan
- Kesimpulan : garis linier/tidak linier

3) Untuk table Koefisien B


- Hasil p-value
- Keputusan
- Kesimpulan : var.1 secara statistic dpt
digunakan utk memprediksi var.2. atau
dg kata lain, var.1 berhubungan/tidak
berhubungan dengan var.2
- Persamaan garis linier : Y = A + BX
Jadi untuk penduduk berusia x tahun
diperkirakan var.2 adalah ….
- Arti Koefisien B, artinya setiap var.1
bertambah, maka var.2 juga akan
bertambah/berkurangnya sebanyak …

Anda mungkin juga menyukai