PENDAHULUAN
1.1 Latar Belakang
Pada kehidupan sehari-hari, banyak hal yang melibatkan pengambilan keputusan
berdasarkan konsep dasar statistika dengan penerapan statistika inferensia. Statistika
inferensia merupakan keilmuan statistik yang berperan dalam pengambilan keputusan dari
suatu permasalahan berdasarkan data yang dikumpulkan, diolah, dan dianalisis. Beberapa
jenis statistika inferensia yang dapat dijadikan pertimbangan pengambilan keputusan adalah
analisis korelasi, regresi, dan statistik non-parametrik.
Dalam suatu penelitian, terkadang diperlukan analisis mengenai hubungan antara
beberapa variabel penelitian. Variabel penelitian merupakan faktor-faktor yang dapat
berubah-ubah ataupun dapat diubah untuk tujuan penelitian (Bungin, 2005). Secara umum
terdapat dua jenis variabel, yakni variabel bebas (independent variable) dan variabel terikat
(dependent variable). Variabel bebas atau independent variable merupakan variabel yang
memberikan pengaruh atau dampak pada variabel terikat, sehingga dapat diartikan bahwa
variabel ini merupakan variabel penyebab. Variabel terikat atau dependent variable
merupakan variabel respon yang menjadi akibat dari variabel bebas. Salah satu cara untuk
menganalisis variabel penelitian adalah dengan menggunakan teknik analisis korelasi dan
regresi linear.
Menurut Bluman (2012), statistika non-parametrik atau distribution-free statistics
merupakan cabang dari statistika yang digunakan ketika populasi tidak terdistribusi normal.
Pada statistika non-parametrik, uji hipotesis dapat dilakukan tanpa melibatkan parameter
seperti mean, variansi, atau proporsi.
Pada modul ini, praktikan akan menyelesaikan studi kasus mengenai statistika
inferensia, yaitu korelasi, regresi, dan uji hipotesis. Dengan demikian, diharapkan praktikan
dapat memahami dan mengaplikasikan statistika inferensia setelah menyelesaikan studi
kasus yang diberikan.
𝑛 ∑ 𝑋𝑌 − (∑ 𝑋)(∑ 𝑌)
𝑟= (2-3)
√{𝑛 ∑ 𝑋 2 − (∑ 𝑋)2 }{(𝑛 ∑ 𝑌 2 −(∑ 𝑌)2 )}
Sumber: Hasan (2001)
Keterangan:
r = koefisien korelasi Y = skor variabel Y
X = skor variabel X n = besar sampel/banyaknya responden
𝑋2
𝑐 =√
𝑋2 + 𝑛
Keterangan:
𝑋2 = kai kuadrat
C = koefisien korelasi
n = jumlah semua frekuensi
4. Koefisien Penentu (KP) atau Koefisien Determinasi (R)
Apabila koefisien korelasi dikuadratkan, akan menjadi koefisien penentu (KP) atau
koefisien determinasi, artinya penyebab perubahan pada variabel Y yang datang dari
variabel X, sebesar kuadrat koefisien korelasinya. Koefisien penentu ini menjelaskan
besarnya pengaruh nilai suatu variabel (variabel X) terhadap naik/turunnya (variasi)
nilai variabel lainnya (variabel Y). Dirumuskan sebagai berikut.
𝐾𝑃 = 𝑅 = K𝐾 2 𝑥100
Sumber: Hasan (2001)
Keterangan:
KP = Koefisien penentu
R = Koefisien determinasi
K𝐾 2 = Kuadrat koefisiensi korelasi
Nilai koefisien penentu ini terletak antara 0 dan + 1 (0 ≤ KP ≤ + 1). Jika koefisien
korelasinya adalah koefisien korelasi pearson (r), maka koefisien penentunya adalah:
𝐾𝑃 = 𝑅 = 𝑟 2 𝑥100
Sumber: Hasan (2001)
Keterangan:
KP = Koefisien penentu
R = Koefisien determinasi
2
𝑟 = Kuadrat koefisiensi korelasi pearson
Dalam bentuk rumus, koefisien penentu (KP) dituliskan:
[n∑XY − (∑X)(∑Y)]2
𝐾𝑃 =
[n∑X 2 − (∑X)2 ][n∑Y 2 − (∑Y)2 ]
Sumber: Noer (2010)
2.2 Regresi
Regresi adalah metode untuk menentukan hubungan satu variabel terikat dengan satu
atau dua variabel bebas dalam cara non-deterministik. Tujuan utama dalam penggunaan
analisis ini adalah untuk meramalkan atau menduga nilai dari suatu variabel dalam
hubungannya dengan variabel yang lain yang diketahui melalui persamaan garis regresinya.
Persamaan regresi juga dapat digunakan untuk pengoptimalan suatu proses, seperti mencari
tingkat maksimal dalam suatu proses (Montgomery, 2011).
𝑦̂ = 𝑏0 + 𝑏1 𝑥
Sumber: Walpole (2011)
Dengan analisis determinasi R,
= +11+22
+33 + ⋯+ (2-13)
Sumber: Hasan (2001)
(Ʃ 2)(Ʃ )−(Ʃ )( ) (Ʃ 2)(Ʃ )−(Ʃ )( )
2 1 2 2 1 2 1 2 1
1=
(Ʃ
2
)(Ʃ
1
2
)−(Ʃ
)
2
2=
(Ʃ
2
)(Ʃ
2
)−(Ʃ
)
2
(2-14)
1 2 1 2 1 2 1 2
(2-15)
r12= √(n ∑ x12−(∑ x1)2)(n ∑ x22−(∑ x2)2
(2-16)
ry,1 = √(n ∑ y2−(∑ y)2)(n ∑ x12−(∑ x1)2)
(2-17)
ry,2 = √(n ∑ y2−(∑ y)2)(n ∑ x22−(∑ x2)2
Sb
Syx (2-19)
1 2 =
2
̅ 2
̅
2 2 2 2
Menurut Walpole (2011), kriteria statistik regresi terdiri dari tiga macam, yaitu:
1. Uji t
Tujuan dari uji t adalah untuk menguji koefisien regresi secara individual.
68
∙√ −2
Rumus: = (2-21)
√1− 2
3. R2
R square (R2) merupakan proporsi variabilitas dalam suatu data yang dihitung
didasarkan pada model statistik.
2.2.4.1 Autokorelasi
Autokorelasi adalah hubungan yang terjadi antara residual dari pengamatan satu
dengan pengamatan yang lain (Duwi, 2012). Untuk mendeteksi ada atau tidaknya
autokorelasi, maka nilai Durbin-Watson (DW) akan dibandingkan dengan DW tabel.
Kriterianya adalah.
d= ∑ e2
(2-25)
n
2.2.4.2 Heteroskedastisitas
Heterokedastisitas adalah varian residual yang tidak sama pada semua pengamatan di
dalam model regresi (Duwi, 2012). Pengambilan keputusannya, yaitu:
1. Pada scatter plot jika ada pola tertentu, seperti titik-titik yang membentuk suatu pola
tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka terjadi
heteroskedastisitas.
2. Pada scatter plot data menyebar pada empat kuadraan, sehingga data bersifat
homogen dan tidak terjadi penyimpangan heteroskedastisistas
2.2.4.3 Multikolinieritas
Multikolinearitas adalah keadaan di mana ada hubungan linear secara sempurna atau
mendekati sempurna antara variabel independen dalam model regresi (Duwi, 2012). Model
regresi yang baik adalah yang terbebas dari multikolinearitas. Variabel yang menyebabkan
multikolinearitas dapat dilihat dari nilai tolerance < 0,1 atau nilai VIF > 5 (Hair et al. 1992).
1
2.4.1 Kelebihan
Berikut merupakan beberapa kelebihan dari statistika non-parametrik.
1. Non-parametrik dapat digunakan untuk menguji parameter populasi dengan variabel
yang tidak berdistribusi normal.
2. Non-parametrik dapat digunakan untuk data nominal maupun ordinal.
3. Non-parametrik dapat digunakan untuk menguji hipotesis yang tidak menyertakan
parameter populasi.
4. Pada beberapa kasus, perhitungannya lebih mudah dibandingkan menggunakan
parameter.
5. Non-parametrik mudah untuk dimengerti.
2.4.2 Kekurangan
Berikut merupakan beberapa kekurangan dari statistika non-parametrik.
1. Non-parametrik tidak terlalu sensitif jika dibandingkan pada saat asumsi-asumsi
terpenuhi dalam statistika parametrik. Oleh karena itu, dibutuhkan perbedaan data
yang besar untuk menolak H0.
2. Non-parametrik cenderung membutuhkan informasi yang lebih sedikit dibandingkan
dengan statistika parametrik. Contohnya, pada uji tanda peneliti hanya perlu untuk
menentukan apakah nilai berada di atas atau di bawah median, bukan seberapa besar
nilainya terhadap median.
3. Non-parametrik tidak terlalu efisien jika dibandingkan pada saat asumsi-asumsi
terpenuhi dalam statistika parametrik. Oleh karena itu, dibutuhkan jumlah sampel yang
lebih besar untuk mengatasi kekurangan informasi yang terjadi. Uji tanda non-
parametrik sekitar 60% efisien dibandingkan dengan statistika parametrik, seperti uji
Z. Oleh karena itu, 100 sampel yang dibutuhkan untuk uji tanda akan mendapatkan
hasil yang sama dibandingkan dengan 60 sampel yang digunakan untuk uji Z.
1+ 2
n1 = Run 1
n2 = Run 2
2 1 2(2 1 2− 1− 2)
=√( 2
1+ 2) ( 1+ 2−1)
Zhitung =
Sumber : Corder (2009: 202)
5. Menentukan nilai yang dibutuhkan untuk menolak H0 menggunakan tabel nilai kritis.
Untuk sebuah uji two-tailed dengan α = 0,05, maka H0 diterima jika -1,96 < Zhitung <
1,96.
6. Interpretasi hasil
Menarik kesimpulan serta menentukan apakah H0 dapat diterima atau ditolak.
U2 = . +
2( 2+1)
−
(2-31)
1 2 2
2
U = min ( U1 ; U2 ) (2-32)
Sumber: Roger (2008)
Di mana :
n1 = Ukuran sampel 1
n2 = Ukuran sampel 2
R1 = Jumlah peringkat yang diberikan pada sampel dengan jumlah
n1 R2 = Jumlah peringkat yang diberikan pada sampel dengan
jumlah n2 Menentukan penggunaan rumus dari hasil perhitungan
uji U
Untuk n1 + n2 ≤ 20 menggunakan tabel Mann-Whitney
Untuk n1 + n2 > 20 menggunakan tabel normal Z dengan rumus: (2-33)
.
µ = 12 2
=√ 1. 2( 1+ 2+1)
12
(2-34)
Z =
−
(2-35)
Sumber: Bluman (2009)
4. Menentukan kriteria
pengujian Untuk n1 + n2
≤ 20
H1 : µ1 ≠ µ2 , H0 akan ditolak jika U < Uα
H1 : µ1 > µ2 , H0 akan ditolak jika U1 < Uα
H1 : µ1 > µ2 , H0 akan ditolak jika
U2 < Uα Untuk n1 + n2 > 20
H1 : µ1 ≠ µ2 , H0 akan ditolak jika Zhitung < - atau Zhitung > 2 2
5. Membuat kesimpulan
=
4
(2-36)
=√
( +1)(2 +1)
(2-37)
24
−
= (2-38)
Sumber: Walpole (1995)
Di mana:
μw = Rata-rata data
σw = Varian data
n = Banyak data
Tinjauan
Pustaka
Identifikasi Masalah
Perumusan Masalah
Pengolahan Data:
1. Dengan Software SmartPLS - Pembuatan model konstruk - Uji
inner dan outer model
2. Secara Manual
- Pengujian hipotesis menggunakan Mann Whitney Test TAHAP
PENGUM
PULAN
DATA
TAHAP
P
E
Kesimpulan dan Saran N
G
O
L
A
H
Selesai A
N
D
A
T
A
TAHAP
ANALISIS DAN
P
E
M
B
A
H
A
S
AN
TAHAP
PENUTUP