Anda di halaman 1dari 26

TUGAS KELOMPOK

METEDOLOGI PENELITIAN
“ASOSIASI DAN UJI PERBEDAAN”

DISUSUN OLEH :

KELOMPOK IV

ARZA LESTARI
EVANDU PRANSYAH DEWA
MEILITA KHAIRUNISYAH
NUR KHOLIDAH NOLA APRILIA
PUJI RAHAYU
RIA PANJAITAN

POLITEKNIK KEMENTERIAN KESEHATAN REPUBLIK INDONESIA

POLTEKKES KEMENKES BENGKULU

PRODI SARJANA TERAPAN JURUSAN KEPERAWATAN

TAHUN AJARAN 2021/ 2022


A. Uji Chi Square

1.Pengertian Uji Chi-Square.

Uji chi-square adalah salah satu uji dari statistika non parametik yang sering di
pakai untuk sebuah penelitian. Uji chi-square diterapkan pada kasus dimana akan diuji
apakah frekuensi yang akan di amati (data observasi) bebeda secara nyata ataukah tidak
dengan frekuensi yang diharapkan (expected value).Sehingga akan menentukan apakah
penelitian kita sesuai dengan yang diharapkan atau tidak. Chi-square Test atau Uji Chi-
square adalah teknik analisis yang digunakan untuk menentukan perbedaan frekuensi
observasi (Oi) dengan frekuensi ekspektasi atau frekuensi harapan (Ei) suatu kategori
tertentu. Uji chi-square ini bias diterapkan untuk pengujian kenormalan data, pengujian
data yang berlevel nominal atau untuk menguji perbedaan dua atau lebih proporsi
sampel.Data yang dapat diujikan dengan chi-square ini adalah data yang berupa diskrit
atau frekunsi.

Pengertian chi square atau chi kuadrat lainnya adalah sebuah uji hipotesis tentang
perbandingan antara frekuensi observasi dengan frekuensi harapan yang didasarkan oleh
hipotesis tertentu pada setiap kasus atau data . Chi kuadrat adalah pengujian hipotesis
tentang perbandingan antara frekuensi sampel yang benar–benar terjadi (Haryono,1994).
Chi-square biasanya di dalam frekuensi observasi berlambangkan dengan frekuensi
harapan yang didasarkan atas hipotesis dilambangkan . Ekspresi matematis tentang
distribusi chi kuadrat hanya tergantung pada suatu parameter, yaitu derajat kebebasan
(d.f.).

Chi-square mempunyai masing–masing nilai derajat kebebasan, yaitu distribusi


(kuadrat standard normal) merupakan distribusi chi-square dengan d.f. = 1, dan nilai
variabel tidak bernilai negative. Kegunaan dari chi square untuk menguji seberapa baik
kesesuaian diantara frekuensi yang teramati dengan frekuensi harapan yang didasarkan
pada sebaran yang akan dihipotesiskan, atau juga menguji perbedaan antara dua
kelompok pada data dua kategorik untuk dapat menguji signifikansi asosiasi dua
kelompok pada data dua katagorik tersebut (Sri,1990).

Jadi uji chi square ini merupakan uji untuk mengetahui apakah hasil penelitian
kita akan sama dengan kenyataan/harapan atau tidak. Dan uji ini akan menentukan
apakah uji yang kita lakukan berhasil atau tidak.
2. Fungsi Uji Chi-Square.

Adapun kegunaan dari uji Chi-Square, adalah :

 Ada tidaknya asosiasi antara 2 variabel (Independent test).


 Apakah suatu kelompok homogen atau tidak (Homogenity test).
 Uji kenormalan data dengan melihat distribusi data (Goodness of fit test).
3. Uji Normalitas Data Penelitian dengan Chi-Square.

Sebaran data dikatakan baik adalah jika data tersebut berdistribusi normal. Dan
untuk mengetahui apakah data itu berdistribusi normal atau tidak kita dapat
menggunakan uji chi-square.Yaitu dihitung dengan rumus di bawah ini :

Dimana :

X2 = Nilai X2

O = Nilai Observasi.

E = Nilai Harapan.

Setelah nilai Chi square didapat maka nilai chi square itu akan dibandingkan
dengan nilai chi square tabel dengan alpha 5% dan dB = B-1 .Jika Xh 2<Xt2 Maka data
tersebut dikatakan data normal.

Untuk memudahkan perhitungan chi-square, maka skor data penelitian disusun


dalam tabel distribusi frekuensi. Harga Z skor dapat dicari dengan mengurangkan batas
nyata (Xi) dengan mean skor (M), kemudian dibagi dengan standart deviasi (SD), yang
rumusnya dapat dituliskan sebagai berikut :

Xi−X '
Z skor=
SD

Setelah diketahui harga Z skor kemudian dikonfirmasikan dengan tabel harga


kritik distribusi Z yang merupakan batas luas daerahnya. Luas daerah adalah selisish
antara batas luas daerah terbesar dengan batas luas daerah terkecil. Harga frekuensi
observasi (fo) didapat dari banyaknya skor responden dalam suatu interval, sedangkan
frekuensi harapan (fh) diperoleh dengan mengalikan luas daerah dengan jumlah sampel
penelitian. Setelah besar-besaran tersebut diperoleh, maka dapat dihitung harga chi-
kuadrat untuk masing-masing variabel penelitian.

4. Contoh Perhitungan

Berikut merupakan data pertumbuhan 23 domba dalam bentuk data distribusi frekuensi.

Kelas Interval F1 X1 X12 Fi*x1 F1*x12


1 14 – 15 2 14,5 210,25 29 420,5
2 16 – 17 4 16,5 272,25 66 1089
3 18 – 19 7 18,5 342,25 129,5 2395,75
4 20 – 21 5 20,5 420,25 102,5 2101,25
5 22 – 23 3 22,5 506,25 67,5 1518,75
6 24 – 25 2 24,5 600,25 49 1200,5
Jumlah 23 2351,5 443,5 8725,75

Berdasarkan tabel diatas, maka dapat dicari harga Mean (M) , Modus (Mo), Median
(Me) dan Standart Deviasi (SD) dari skor hasil belajar, yaitu

∑fxi 443,5
 M= = =19,28
∑ fi 23
b1 3
 Mo=b+ p [ ]
b 1+b 2
=17,5+2[ ]
3+2
=18,7

1 1

Me=b+ p
2n
[ ] [
−F
f
=17,5+ 2
2
× ( 23−6 )
7
=19,07 ]
 SD=√ (n¿∑fx i 2−( ∑fxi)²)/n(n−1)=¿ ¿√(23(8725,75)-(443,5)²)/23(23-1) =2,81

Perhitungan Kenormalan Data, yaitu:


Tabel Perhitungan normalitas Pertumbuhan Domba
Kela Interval Batas Zskor Batas Luas fo Fh (fo – (fo- (fo-
s Luas Daerah Fh) fh)/2 fh)2/fh
1 14 – 15 13,5 -2,06 0,0197 0.0688 2 1,58 0,42 0,17 0,11
2 16 – 17 15,5 -1,35 0,0885 0,1758 4 4,04 -0,04 0,00 0,00
3 18 – 19 17,5 -0,63 0,2643 0,2676 7 6,15 0,85 0,71 0,12
4 20 – 21 19,5 0,08 0,5319 0,2533 5 5,83 -0,83 0,68 0,12
5 22 – 23 21,5 0,79 0,7852 0,148 3 3,40 -0,40 0,16 0,05
6 24 – 25 23,5 1,50 0,9332 0,0532 2 1,22 0,78 0,60 0,49
25,5 2,21 0,9864
Jumlah 23 22,2 0,77 2,34 0,88
3
Mean = 19,26

S. Deviasi = 2,81

Berdasarkan tabel diatas harga chi square hitung sebesar 0,88. Sedangkan harga
chi-square tabel pada α = 5% dengan dk = 6-1. Yaitu sebesar 11,07. Dengan demikian
Xh2<Xt2 yaitu 0,88 < 11,07. Hasil ini dapat disimpulkan bahwa skor hasil belajar berasal
dari populasi yang berdistrubusi normal.

B. Uji T , Uji wilcoxon dan Uji whitney u test


1.Uji (T)
Pengertian UJI T

Sebagai salah satu tes statistik parametrik, Tes “t” mula pertama dikembangkan oleh
William Seely Gosset pada 1915. Pada waktu itu ia menggunakan nama samaran Student,
dan huruf “t” yang terdapat dalam istilah Tes “t” itu diambilkan huruf terakhir dari nama
beliau. Itu pula sebabnya mengapa Tes “t” sering juga disebut dengan nama atau istilah
Student t.
Tes “t” atau “t” Test, adalah salah satu tes statistik yamg dipergunakan untuk
menguji kebenaran atau kepalsuan hipotesis nihil yang menyatakan bahwa diantara dua buah
Mean Sampel yang diambil secara random dari populasi yang sama, tidak terdapat
perbedaan yang signifikan.
Pemakaian uji t ini bervariasi. Uji ini bisa digunakan untuk objek studi yang
berpasangan dan juga bisa untuk objek studi yang tidak berpasangan. Namun sebelum
menghitung uji – t terlebih dahulu kita analisis dengan Uji Normalitas dan Uji Hogenitas.
Dalam Uji – t terdapat istilah uji satu arah ( one tail ) dan uji dua arah ( two tail )

1. Uji dua arah. pada hipotesis awal tidak terdapat perbedaan yang signifikan antara
rata-rata1 dan rata-rata2.sedangkan pada hipotesis alternatif sebaliknya yaitu terdapat
perbedaan rata-rata 1 dan rata-rata 2.

2. Uji satu arah dimana pada hipotesis awal kelompok/sampel 1 memiliki rata-rata
sama dengan atau lebih besar dengan rata-rata kelompok 2. sedangakan hipotesis
alternatif rata-rata kelompok 1 lebih kecil dibandingkan dengan rata-rata kelompok
2.

Atau

Contoh perbedaan satu arah dan dua arah:

Misal, ingin diketahui rata-rata IQ mahasiswa univ. X. Untuk itu dilakukan penelitian
dengan mengambil beberapa sampel mahasiswa univ.X.Nah, apabila peneliti memiliki
asumsi bahwa rata-rata IQ mahasiswa univ. X lebih dari 140, maka uji hipotesis yang
digunakan adalah uji 1-pihak.Namun, apabila asumsi ini tidak dimiliki, dengan kata lain,
peneliti tidak tahu apakah rata-rata IQ mahasiswa univ.X lebih dari atau kurang dari 140,
maka akan tepat jika menggunakan uji 2-pihak.Ciri khas dari uji 1-pihak atau 2-pihak adalah
tanda pertidaksamaan yang digunakan dalam penulisan HIPOTESIS 1. Dari kasus di atas,
maka uji 1-pihak memiliki hipotesis:

H0 : µ = 140 H1 : µ > 140 Hal ini berarti, rata-rata IQ mahasiswa univ.X lebih besar
dari 140
 uji 2-pihak memiliki hipotesis:

H0 : µ = 140 H1 : µ ≠ 140

Hal ini berarti, rata-rata IQ mahasiswa univ.X tidak sama dengan 140, entah itu lebih besar atau
lebih kecil dari 140. Keterangan :

Hipotesis awal ditolak, bila:t hitung| > t tabel


atau:
Hipotesis awal diterima, bila:t hitung| ≤ t tabel 

2.Uji Wilcoxon
Uji wilcoxon signed test merupakan uji nonparametris yang digunakan untuk megukur
perbedaan 2 kelompok data berpasangan berskala ordinal atau interval tetapi data berdistribusi tidak
normal. Uji ini juga dikenal dengan nama uji match pair test. Dasar pengambilan keputusan dalam
uji wilcoxon signed test adalah sebagai berikut : - Ketika nilai probabilitas Asym.sig 2 failed < 0,05
maka terdapat perbedaan rata-rata. - Ketika nilai probabilitas Asym.sig 2 failed > 0,05 maka tidak
terdapat perbedaan rata-rata.

Asumsi Wilcoxon Signed Rank Test

1. Variabel dependen berskala data ordinal atau interval/rasio tetapi berdistribusi tidak
normal. Oleh karenanya anda perlu melakukan uji normalitas terlebih dahulu pada selisih
antara kedua kelompok. Selisih yang dimaksud adalah misal: nilai pretest atau sebelum
pelajaran dikurangi nilai posttest atau setelah pelajaran. Apabila memenuhi asumsi
normalitas maka sebaiknya menggunakan uji parametris yang sesuai yaitu uji paired t test.
Dan apabila tidak memenuhi maka uji Wilcoxon Signed Rank Test dapat digunakan
sebagai alternatif.

2. Variabel independen terdiri dari 2 kategori yang bersifat berpasangan. Seperti yang sudah
dijelaskan di atas, berpasangan artinya subjek sebagai sumber data adalah 1 individu atau
observasi yang sama. Apabila subjeknya beda, misal nilai ujian kelas A dan kelas B, maka
uji yang tepat apabila memenuhi asumsi normalitas adalah uji Independen T Test. Dan
apabila tidak memenuhi asumsi normalitas, maka uji yang tepat adalah Mann Whitney U
Test atau yang disebut juga Wilcoxon Rank Sum Test.

3. Bentuk dan sebaran data antara kedua kelompok yang berpasangan adalah simetris. Jika
tidak memenuhi asumsi ini maka gunakanlah alternatif uji yang lain, yaitu uji Sign Test.
3.uji man whitney u test

Pengertian Uji Mann Whitney


Mann Whitney U Test disebut juga dengan Wilcoxon Rank Sum Test. Merupakan pilihan uji
non parametris apabila uji Independent T Test tidak dapat dilakukan oleh karena asumsi normalitas
tidak terpenuhi. Tetapi meskipun bentuk non parametris dari uji independent t test, uji Mann Whitney
U Test tidak menguji perbedaan Mean (rerata) dua kelompok seperti layaknya uji Independen T Test,
melainkan untuk menguji perbedaan Median (nilai tengah) dua kelompok.Mann Whitney U
Test adalah uji non parametris yang digunakan untuk mengetahui perbedaan median 2 kelompok
bebas apabila skala data variabel terikatnya adalah ordinal atau interval/ratio tetapi tidak berdistribusi
normal.Berdasarkan definisi di atas, uji Mann Whitney U Test mewajibkan data berskala ordinal,
interval atau rasio. Apabila data interval atau rasio, maka distribusinya tidak normal. Sumber data
adalah 2 kelompok yang berbeda, misal kelas A dan kelas B di mana individu atau objek yang diteliti
adalah objek yang berbeda satu sama lain

Tujuan Uji Mann Whitney

Berdasarkan pemahaman pendapat-pendapat di atas, maka kesimpulannya adalah:Seseorang


akan melakukan uji Mann Whitney U Test apabila menemui kasus: Diketahui dengan jelas bahwa
terdapat perbedaan median, bentuk dan sebaran data sama, tetapi tidak diketahui secara pasti apakah
perbedaan median tersebut bermakna atau tidak. Untuk lebih jelasnya silahkan lihat gambar di bawah
ini:

Mann Whitney U Test

Asumsi Mann Whitney

Berdasarkan uraian di atas, maka dapat disimpulkan Asumsi yang harus terpenuhi dalam Mann
Whitney U Test, yaitu:
1. Skala data variabel terikat adalah ordinal, interval atau rasio. Apabila skala interval atau
rasio, asumsi normalitas tidak terpenuhi. (Normalitas dapat diketahui setelah uji
normalitas).

2. Data berasal dari 2 kelompok. (Apabila data berasal dari 3 kelompok atau lebih, maka
sebaiknya gunakan uji Kruskall Wallis).

3. Variabel independen satu dengan yang lainnya, artinya data berasal dari kelompok yang
berbeda atau tidak berpasangan.

4. Varians kedua kelompok sama atau homogen. (Karena distribusi tidak normal, maka uji
homogenitas yang tepat dilakukan adalah uji Levene’s Test. Di mana uji Fisher
F diperuntukkan bila asumsi normalitas terpenuhi).
Asumsi point 1,2 dan 3 tidak memerlukan uji tersendiri. Sedangkan point 4 jelas perlu sebuah uji yang
dapat menentukan apakah kedua kelompok memiliki varians yang sama atau tidak, yaitu disebut
dengan uji homogenitas.Untuk pengujian dengan Excel, baca Mann Whitney U Test dengan Excel.

C. Uji Anova

1.Pengertian

Analysis of Variance merupakan metode untuk menguji hubungan antara satu variabel
dependen (skala metrik) dengan satu atau lebih variabel independen (skala nonmetrik atau kategorikal
dengan kategori lebih dari dua). Misalkan kita ingin mengetahui apakah pengalaman kerja
sebelumnya (variabel dependen) dipengaruhi oleh jabatan atau job category (variabel independen
skala kategori). Hubungan antara satu variabel dependen dengan satu variabel indeependen disebut
One Way ANOVA. Pada kasus satu dependen metrik dan dua atau tiga variabel independen
kategorikal sering disebut Two Way ANOVA dan Three Ways ANOVA.

ANOVA digunakan untuk mengetahui pengaruh utama (main effect) dan pengaruh interaksi
(interaction effect) dari variabel independen kategorikal (sering disebut faktor) terhadap variabel
dependen metrik. Pengaruh utama (main effect) adalah pengaruh langsung variabel independen
terhadap variabel dependen. Sedangkan pengaruh interaksi adalah pengaruh bersama atau joint effect
dua atau lebih variabel independen terhadap variabel dependen.

2 Ciri Ciri

Ciri khasnya adalah adanya satu atau lebih variabel bebas sebagai faktor penyebab dan satu
atau lebih variabel response sebagai akibat atau efek dari adanya faktor. Contoh penelitian yang dapat
menggambarkan penjelasan ini: “Adakah pengaruh jenis bahan bakar terhadap umur thorax mesin.”
Dari judul tersebut jelas sekali bahwa bahan bakar adalah faktor penyebab sedangkan umur thorax
mesin adalah akibat atau efek dari adanya perlakuan faktor. Ciri lainnya adalah variabel response
berskala data rasio atau interval (numerik atau kuantitatif).

Anova merupakan salah satu dari berbagai jenis uji parametris, karena mensyaratkan adanya
distribusi normal pada variabel terikat per perlakuan atau distribusi normal pada residual. Syarat
normalitas ini mengasumsikan bahwa sample diambil secara acak dan dapat mewakili keseluruhan
populasi agar hasil penelitian dapat digunakan sebagai generalisasi. Namun keunikannya, uji ini dapat
dikatakan relatif robust atau kebal terhadap adanya asumsi tersebut.

3 Asumsi yang harus dipenuhi

Ada beberapa asumsi yang harus dipenuhi dalam ANOVA yaitu sebagai berikut.

1. Data berdistribusi normal, karena pengujiannya menggunakan uji F-Snedecor.


2. Varians atau ragamnya homogen, dikenal sebagai homoskedastisitas, karena hanya digunakan
satu penduga (estimate) untuk varians dalam contoh.
3. Masing-masing contoh saling bebas, yang harus dapat diatur dengan perancangan percobaan
yang tepat.
4. Komponen-komponen dalam modelnya bersifat aditif (saling menjumlah).

5. Interprestasi Uji ANOVA

Interprestasi Baca adalah sebagai berikut:

 Dari tabel Descriptives nampak bahwa responden yang bekerja sebagai Tani rata-rata
berpendapatan sebesar 195497,50, Buruh rata-rata berpendapatan sebesar 265080,75 dan
Lainnya rata-rata berpendapatan 326423,25. Selanjutnya untuk melihat uji kita lihat di tabel
ANOVA.
 Sebelum melanjutkan uji perlu diingat bahwa salah satu asumsi Anova adalah variansnya
sama. Dari tabel Test of Homegeneity of Variances terlihat bahwa hasil uji menunjukan
bahwa varian ketiga kelompok tersebut sama (P-value = 0,357), sehingga uji Anova valid
untuk menguji hubungan ini.
 Selanjutnya untuk melihat apakah ada perbedaan pendapatan dari ketiga kelompok pekerja
tersebut. Kita lihat tabel ANOVA , dari tabel itu pada kolom Sig. diperoleh nilai P (P-value)
= 0,037. Dengan demikian pada taraf nyata = 0,05 kita menolak Ho, sehingga kesimpulan
yang didapatkan adalah ada perbedaan yang bermakna rata-rata pendapatan berdasarkan
ketiga kelompok pekerjaan tersebut.
6.Interprestasi Uji ANOVA: Post Hoc

 Jika hasil uji menunjukan Ho gagal ditolak (tidak ada perbedaan), maka uji lanjut (Post Hoc
Test) tidak dilakukan. Sebaliknya jika hasil uji menunjukan Ho ditolak (ada perbedaan), maka
uji lanjut (Post Hoc Test) harus dilakukan.
 Karena hasil uji Anova menunjukan adanya perbedaan yang bermakna, maka uji selanjutnya
adalah melihat kelompok mana saja yang berbeda.
 Untuk menentukan uji lanjut mana yang digunakan, maka kembali kita lihat tabel Test of
Homogeneity of Variances, bila hasil tes menunjukan varian sama, maka uji lanjut yang
digunakan adalah uji Bonferroni. Namun bilai hasil tes menunjukan varian tidak sama, maka
uji lanjut yang digunakan adalah uji Games-Howell.
 Dari Test of Homogeneity menghasilkan bahwa varian ketiga kelompok tersebut sama, maka
uji lanjut (Post Hoc Test) yang digunakan adalah Uji Bonferroni.
 Dari tabel Post Hoc Test di atas memperlihatkan bahwa kelompok yang menunjukan adanya
perbedaan rata-rata pendapatan (ditandai dengan tanda bintang “*”) adalah Kelompok “Tani”
dan “Lainnya”.

2. ANALISIS MULTIVARIAT

Sebagai dasar dari metode SEM, analisis multivariat perlu dipahami dengan baik.
Menurut Widarjono (2010:1) analisis multivariat merupakan salah satu analisis statistik yang
berkaitan dengan banyak variabel. Analisis statistik bisa dikelompokkan berdasarkan jumlah
variable, yaitu : univariate, bivariate dan multivariate.

Kata univariate terbentuk dari kata uni (satu) dan variate (variable), sehingga analisis
univariat adalah analisis satu variabel. Contoh analisis univariat adalah pengukuran rata-rata
(mean), standar deviasi dan varian sebagai ukuran pusat dari sekelompok data. Jadi analisis
univariate lebih bersifat analisis tunggal terhadap satu variabel. Menurut Supranto (2010:7)
kalau nasabah suatu bank ditanya tentang jumlah tabungannya, penghasilan per bulan, umur,
tingkat pendidikan dan jumlah anggota keluarga maka diperoleh lima variabel yang berdiri
sendiri dan tidak dikaitkan dengan variabel lain. Jadi analisis disebut univariat jika setiap
variabel berdiri sendiri tidak terkait dengan variabel lain. Analisis terhadap variabel tunggal
ini disebut univariate. Dengan demikian analisis univariat boleh saja dikatakan sebagai
analisis statistik deskriptif. Dalam statistika dikenal istilah statistik deskriptif dan inferensial.
Statistik deskriptif berfungsi mendeskripsikan karakteristik dari sekelompok hasil data
penelitian terhadap variabel tunggal. Sedangkan statistik inferensial berusaha menyimpulkan
fenomena atau hubungan-hubungan antara lebih dari satu variabel pada sebuah persamaan
statistik.

Kata bivariate berasal dari kata bi (dua) dan variate (variable), sehingga analisis
bivariate berkaitan dengan dua variabel. Misalnya analisis korelasi yang mencari keeratan
hubungan antara dua variable exogen dan endogen. Menurut Sunyoto (2007:31) pengukuran
korelasi bivariat dapat dibedakan menjadi pengukuran secara linear (termasuk parsial) dan
secara berganda (multiple). Yang dimaksud dengan pengukuran korelasi linear adalah
pengukuran atau perhitungan korelasi yang hanya melibatkan satu variable bebas
(independent atau X) dan satu variable terikat (dependent atau Y). Sedangkan pengukuran
korelasi berganda adalah perhitungan korelasi dengan melibatkan lebih dari satu variabel
independent (bebas) dengan satu variabel dependent (terikat).

Analisis multivariate berasal kata multi (banyak) dan variate (variable), sehingga
analisis multivariate adalah analisis terhadap banyak variable yang merupakan
pengembangan dari analisis univariate dan bivariate. Analisis multivariate memiliki lebih dari
dua variabel. Supranto (2010:18) mengilustrasikan analisis multivariate dengan adanya
masalah atau gap yang disebabkan oleh tidak adanya kesesuaian antara harapan (expected)
dan kenyataan (observed). Setiap masalah pasti ada faktor-faktor penyebab (pada umumnya
lebih dari satu penyebab). Kalau masalah kita sebut variabel dependen (Y) dan faktor
penyebab kita sebut variabel bebas (X) maka masalah (Y) adalah fungsi dari X1, X2, X3….
… Xn. Fenomena ini disebut fenomena multivariate. Dengan demikian, analisis multivariate
ini merujuk kepada teknik statistik tertentu yang menganalisis banyak variabel secara
simultan. Contoh analisis multivariat adalah Structural Equation Modeling (SEM) yang
akhir-akhir ini berkembang pesat.

3. Regresi

Analisis regresi adalah suatu proses memperkirakan secara sistematis tentang apa
yang paling mungkin terjadi dimasa yang akan datang berdasarkan informasi yang sekarang
dimiliki agar memperkecil kesalahan. Regresi merupakan suatu alat ukur yang juga dapat
digunakan untuk mengukur ada atau tidaknya korelasi antarvariabel. Jika kita memiliki dua
buah variabel atau lebih maka sudah selayaknya apabila kita ingin mempelajari bagaimana
variabel-variabel itu berhubungan atau dapat diramalkan. Analisis regresi dapat juga diartikan
sebagai usaha memprediksi perubahan. Perubahan nilai suatu variabel dapat disebabkan
karena adanya perubahan pada variabel-variabel lain yang mempengaruhinya. Misalnya,
volume pupuk terhadap hasil panen padi, karena adanya perubahan volume pupuk maka
produksi padi dengan sendirinya akan berubah. Dalam fenomena alam banyak sekali kejadian
yang saling berkaitan sehingga perubahan pada variabel lain berakibat pada perubahan
variabel lainnya. Teknik yang digunakan untuk menganalisis ini adalah analisis regresi.

Analisis regresi (regression analysis) merupakan suatu teknik untuk membangun


persamaan dan menggunakan persamaan tersebut untuk membuat perkiraan (prediction).
Dengan demikian, analisis regresi sering disebut sebagai analisis prediksi. Karena merupakan
prediksi, maka nilai prediksi tidak selalu tetap dengan nilai riilnya, semakin kecil tingkat
penyimpangan antara nilai prediksi dengan nilai riilnya, maka semakin tepat persamaan
regresinya. Analisis regresi mempelajari hubungan yang diperoleh dinyatakan dalam
persamaan matematika yang menyatakan hubungan fungsional antara variabel-variabel.
Hubungan fungsional antara satu variabel prediktor dengan satu variabel kriterium disebut
analisis regresi sederhana (tunggal), sedangkan hubungan fungsional yang lebih dari satu
variabel disebut analisis regresi ganda. Sehingga dapat didefinisikan bahwa: Analisis regresi
adalah metode statistik yang digunakan untuk menentukan kemungkinan hubungan antara
variabel-variabel.

a. Regresi Linear
Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh
antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi
sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang
dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear
hanya dapat digunakan pada skala interval dan ratio. Secara umum regresi linear terdiri dari
dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah
variabel terikat; dan regresi linear berganda (regresi ganda) dengan beberapa variabel bebas
dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling
jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For
Service Solutions).

a. Regresi Linear Sederhana

Sering kali dalam praktek kita berhadapan dengan persoalan yang menyangkut
sekelompok peubah bila diketahui bahwa diantara peubah tersebut terdapat suatu
hubungan alamiah. Misalnya dalam industri diketahui bahwa kadar ter hasil suatu proses
kimia berkaitan dengan temperature masukan. Mungkin perlu dikembangkan suatu
metode peramalan, yaitu suatu cara kerja guna menaksir kadar ter untuk berbagai taraf
temperature masukan yang didapat dari data percobaan.

Untuk contoh ini dan kebanyakan terapannya terdapat perbedaan yang jelas antara
peubah sepanjang menyangkut perannya dalam proses percobaan. Seringkali terdapat
suatu peubah terikat yang tunggal atau yang disebut respon Y. Respon bergantung pada
satu atau lebih peubah bebas, misalnya x 1, x 2, x 3,…,x k, yang galat pengukurannya dapat
diabaikan.

Dalam makalah ini yang akan dibahas adalah regresi linear sederhana, yang hanya
menyangkut satu peubah bebas. Nyatakanlah sampel acak ukuran n dengan himpunan
{ ( xi , yi ) ; i=1 , 2, .. , n }. Bila diambil sampel tambahan tepat sama dengan nilai x maka kita
yakin harga y akan berbeda-beda. Jadi harga y i pada pasangan terurut (x i, y i) merupakan
harga dari sebuah peubah acak Yi. Untuk mudahnya akan ditulis YIx dan ini menyatakan
peubaha acak Y yang berkaitan dengan suatu nilai tetap x, dan nyatakan rataan dan
2
variansinya masing-masing dengan µYIX dan variansinya σ YIX . Jelas, bahwa bila x=x i
2
maka lambang YIxi menyatakan peubah acak Yi dengan rataan µYIX dan variansinya σ YIX .

Istilah Regresi Linear berarti, bahwa rataan µYIX berkaitan linear dengan x dalam
bentuk persamaan linear populasi.

µYIX ¿ α + βx.

Koefisien regresi α dan β merupakan dua parameter yang ditaksir dari data
sampel. Bila taksiran kedua parameter itu masing-masing dinyatakan dengan a dan b maka
µYIX dapat ditaksir dengan ^y dari bentuk garis regresi berdasarkan sampel atau garis
kecocokan regresi.

^y =a+b x

Dengan taksiran a dan b masing-masing menyatakan perpotongan dengan sumbu


y dan tanjakannya. Lambang ^y digunakan untuk membedakan antara taksiran atau nilai
prediksi yang diberikan oleh regresi sampel dan nilai y amatan percobaan yang
sesungguhnya untuk suatu nilai x.

Dalam hal regresi linear sederhana, yaitu hanya terdapat peubah bebas x dan satu
peubah acak terikat Y, datanya dapat disajikan sebagai pasangan pengamatan
{ ( xi , yi ) ; i=1 , 2, .. , n }. Akan menolong bila digunakan gagasan dari pasal sebelumnya
untuk mendefinisikan setiap peubah acak Y i=Y I x i dengan suatu model statistika. Bila
dimisalkan bahwa semua rataan µY I x terletak pada suatu garis lurus, maka setiap Y idapat
i

ditulis sebagai model regresi linear sederhana.

Y i=Y I x i + Ei =α + β x i+ E i,

dengan galat acak Ei , galat model, haruslah mempunyai rataan nol. Setiap
pengamatan ( x i , y i) dalam sampel memenuhi hubungan y i=α + βx i+ ε i

dengan ε i nilai yang dicapai Ei bila Y i mendapat nilai y i. Persamaan di atas dapat
dipandang sebagai model untuk pengamatan tunggal y i. Demikian juga, dengan
menggunakan taksiran atau kecocokan garis regresi

^y =a+b x
Tiap pasangan pengamatan memenuhi

y i=a+bx i+ ei ,

e i= y i− ^y disebut galat sisa dan memberikan galat dalam kecocokan model pada
titik data ke i.

1. Prosedur untuk Melakukan Estimasi Parameter (Metode Kuadrat Kecil)

Akan dicari a dan b, taksiran α dan β, sehingga jumlah kuadrat sisa minimum.
Jumlah kuadrat sisa sering pula disebut jumlah kuadrat galat terhadap garis regresi
dan dinyatakan dengan JKG. Cara peminimuman untuk menaksir parameter
dinamakan metode kuadrat terkecil. Jika a dan b akan dicari sehingga akan
meminimumkan

n n n
JKG=∑ e 2i =∑ ( y i−^y i)2=¿ ∑ ( y i−a−b x i )2 ¿
i=1 i=1 i=1

Bila J diturunkan terhadap a dan b, maka diperoleh

n
∂ ( JKG )
=−2 ∑ (¿ y i−a−b x i )¿
∂a i=1

n
∂(JKG)
=−2 ∑ ( y i−a−b x i ) x i
∂b i=1

Menaksir koefisien regresi bila diketahui sampel { ( xi , yi ) ; i=1 , 2, .. , n } maka


taksiran kuadrat terkecil a dan b dari koefisien regresi α dan β dihitung menggunakan
rumus :

n
b=n ∑ x i y i−¿ ¿¿
i=1

n n

∑ y i−b ∑ x i
a= i=1 i=1
n

Contoh soal
1. Tariklah garis regresi untuk data pencemaran pada tabel di bawah ini !

Tabel 1

Penurunan zat Kebutuhan oksigen Penurunan zat Kebutuhan oksigen


pada x (%) kimiawi y(%) pada x (%) kimiawi y(%)
3 5 36 34
7 11 37 36
11 21 38 38
15 16 39 37
18 16 39 36
27 28 39 45
29 27 40 39
30 25 41 41
30 35 42 40
31 30 42 44
31 40 43 37
32 32 44 44
33 34 45 46
33 32 46 46
34 34 47 49
36 37 50 51
36 38

Jawab :

Dari tabel di atas diperoleh

33 33

∑ x 1=1.104, ∑ yi =1.124,
i=1 i=1

33 33

∑ x i y i=41.355 , ∑ x 2=41.086
i=1 i=1

n
b=n ∑ x i y i−¿ ¿¿
i=1

(33 )( 41.355 )−(1.104)(1.124)


b= =0,903643
( 33 )( 41.086 )−(1.104)2

n n

∑ y i−b ∑ x i
a= i=1 i=1
n
1.124−(0,903643)(1.104)
a= =3,829633
33

Jadi, taksiran regresinya adalah ^y =3,8296+ 0,9036 x

2. Pengujian Hipotesis Parameter Regresi

Uji model regresi sebaiknya dilakukan dengan dua macam, yaitu :

a. Uji Serentak

Statistik uji yang dipakai untuk melakukan uji serentak ini adalah uji F. Uji F
dikenal juga dengan uji Anova (Analysis Of Varians) yaitu uji untuk melihat
bagaimanakah pengaruh semua variabel prediktornya secara bersama-sama terhadap
variabel terikatnya atau untuk menguji apakah model regresi yang kita buat baik
(signifikan) atau tidak baik (non signifikan). Jika model signifikan maka model bisa
digunakan untuk peramalan, sebaliknya jika non signifikan maka model regresi tidak
bisa digunakan untuk peramalan. Uji serentak merupakan uji terhadap nilai-nilai
koefisien regresi secara bersama-sama dengan hipotesa.

Hipotesisnya sebagai berikut :

1. H0 :
β 1=β 2 =. ..= β k=0

H1 :
β j  0, j = 1,2,…,k
2. Tentukan taraf nyata

3. Daerah kritik penerimaan :


−f ( v1 , v2 )≤ F0 ≤ f ∝ ( v1 , v2 )
( ∝2 ) (2)
Daerah kritik penolakan : F0<
−f ( v 1 , v 2 ) atau F0 > f ∝ ( v 1 , v 2 )
( ∝2 ) (2)
4. Uji Statistik
f hitung =¿

5. Kesimpulan
fhitung ≤ fα(v1,v2), H0 gagal tolak
fhitung > fα(v1,v2), Ho ditolak
Tabel Analisis Ragam Regresi Linear
Sumber df SS MS F hitung
varians
i
2 2
Σ ( Y^ −Y ) Σ ( Y^ −Y )

Regresi 1 atau Atau


2
β^ 2 Σ ( X− X )
2 2 2
^β 2 Σ ( X−X ) ^β 2 Σ ( X−X ) Se

2
2 Σ ( Y −Y^ )
Galat n-2 Σ ( Y −Y^ ) S 2e =
n−2
n n

Total n-1 ∑ Y i − 1n ( ∑ Y )2
2
i=1 i=1

Dimana:

( Y −Y ) = simpangan total

( Y^ −Y ) = simpangan regresi

( Y −Y^ ) = simpangan residu

Uji F dapat dilakukan dengan membandingkan F hitung dengan F tabel, jika F


hitung > dari F tabel, maka Ho di tolak dan H 1 diterima dengan kata lain persamaaan
garis regresi tersebut tidak bisa kita terima sebagai penduga hubungan antara variabel
X dengan variabel Y. Bila bentuk hubungan antar variabel X dengan variabel Y sudah
dapat kita terima maka kita bisa mengetahui seberapa besar keeratan hubungannya
(korelasinya).

Walaupun bentuk hubungan antara variabel X dengan variabel Y ada dalam


bentuk yang benar belum tentu korelasinya besar karena banyak variabel lain yang
turut mempengaruhi perubahan variabel Y. Besarnya perubahan variabel Y yang
dapat diterangkan oleh variabel X dengan menggunakan persamaan garis regresi yang
diperoleh disebut koefisien determinan.

b. Uji Parsial
Statistik uji yang dipakai untuk melakukan uji parsial ini adalah statistik uji T. Uji
T digunakan untuk menguji bagaimana pengaruh masing-masing variabel bebasnya
secara sendiri-sendiri terhadap variabel terikatnya. Jika hasil pada uji serentak
menunjukkan bahwa H0 ditolak, maka perlu dilakukan uji individu dengan hipotesa :

1. H0: β = 0

H1: β ≠ 0 atau H1: β < 0 atau H1: β >0

2. Tentukan taraf nyata


−t ≤ t0 ≤ t
3. Daerah kritik penerimaan : ( ∝2 ) ( ∝2 )
−t t
Daerah kritik penolakan : t0< ( ∝2 ) atau t0 > ( ∝2 )
4. Uji statistik
( a−β0 )
(b−β 1 ) 1 x̄ 2

thitung =
se / √∑ ( X −X )2 thitung =
se
(√ +
n ∑ ( x i − x̄ )2 )
atau

dapat juga ditulis


(b  1 )
se / J xx
thitung =
Dimana:

a = taksiran bagi β0

b = taksiran bagi β1

t = nilai sebaran t

5. Keputusan:

a. H0 ditolak jika thitung > tα/2(n-2) atau thitung < - tα/2(n-2)untuk lawan alternatif
H1:β≠ 0

b. H0 ditolak jika thitung < - tα(n-2) untuk lawan alternatif H1: β < 0

c. H0 ditolak jika thitung > tα(n-2) untuk lawan alternatif H1: β > 0
3. Selang Kepercayaan

a Nilai dugaan bagi parameter yang sesungguhnya bagi α dan β yang didasarkan
pada n pengamatan yang diperoleh. Nilai-nilai dugaan lain bagi α dan β yang dapat
diperoleh melalui pengambilan contoh berukuran n beberapa kali dapat dipandang
sebagai nilai-nilai peubah acak. Selang kepercayaan sebesar (1-α)100% untuk
parameter β adalah

   
se se
b  t      b  t  
2 
  ( X  X )2  2 

2 
 (X  X ) 
Dapat ditulis juga dengan

 t s   t s 
b 2    b 2 
 J xx   J xx 
   

Dimana:

b = taksiran bagi β1

t = nilai sebaran t

Sedangkan selang kepercayaan sebesar (1-α)100% untuk  adalah

 1 x2   1 x2 
a  t S       a  t s   
 n  ( xi  x )  n  ( xi  x )
2 e   2 e  
2 2
 

Dapat ditulis juga dengan

 n   n 
  S  xi   S  xi
2 2
t  t 
a      a   2 i 1 
2 i 1
 nJ xx   nJ xx 
   
   
Dimana:

a = taksiran bagi 

x̄ = nilai rata-rata x

Contoh soal :

2. Dengan menggunakan nilai taksiran b = 0,903643 pada contoh soal 1, ujilah hipotesis
bahwa  = 1,0 pada taraf keberartian 0,05 lawan tandingan bahwa  < 1,0

Jawab :

1. H0 :  = 1,0

2. H1 :  < 1,0

3. Pilih taraf keberartian 0,05

4. Daerah kritis t < -1,699 (tabel)

5. Hitungan

(b  1 ) (0,903643  1, 0)
 1,92
se / J xx 3, 2295 / 4152,18
thitung = =

P  0,03 diperoleh dari hitungan program komputer

6. Keputusan : harga t berarti pada taraf 0,03, suatu petunjuk kuat bahwa  < 1,0. H0
ditolak

b. Regresi Logistik

Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti
halnya regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS)
regression. Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat
yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan
dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.
Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual)
terdistribusi secara normal. Sebaliknya, pada regresi ini tidak dibutuhkan asumsi tersebut
sebab pada regresi jenis logistik ini mengikuti distribusi logistik.

a. Asumsi Regresi Logistik


Asumsi Regresi Logistik antara lain:

1. Regresi logistik tidak membutuhkan hubungan linier antara variabel independen


dengan variabel dependen.
2. Variabel independen tidak memerlukan asumsi multivariate normality.
3. Asumsi homokedastisitas tidak diperlukan
4. Variabel bebas tidak perlu diubah ke dalam bentuk metrik (interval atau skala ratio).
5. Variabel dependen harus bersifat dikotomi (2 kategori, misal: tinggi dan rendah atau
baik dan buruk)
6. Variabel independen tidak harus memiliki keragaman yang sama antar kelompok
variabel
7. Kategori dalam variabel independen harus terpisah satu sama lain atau bersifat
eksklusif
8. Sampel yang diperlukan dalam jumlah relatif besar, minimum dibutuhkan hingga 50
sampel data untuk sebuah variabel prediktor (independen).
9. Dapat menyeleksi hubungan karena menggunakan pendekatan non linier log
transformasi untuk memprediksi odds ratio. Odd dalam regresi logistik sering
dinyatakan sebagai probabilitas.

b. Model Persamaan Regresi Logistik

Model persamaan aljabar layaknya OLS yang biasa kita gunakan adalah berikut: Y =
B0 + B1X + e. Dimana e adalah error varians atau residual. Dengan model regresi ini, tidak
menggunakan interpretasi yang sama seperti halnya persamaan regresi OLS. Model
Persamaan yang terbentuk berbeda dengan persamaan OLS. Berikut persamaannya:
Persamaan Regresi Logistik

Ln : Logaritma Natural.Di mana:

B0 + B1X : Persamaan yang biasa dikenal dalam OLS.

Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:

Probabilitas Regresi Logistik

Di mana:

exp atau ditulis “e” adalah fungsi exponen.

(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan
logaritma natural adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904
atau biasa dibulatkan menjadi 2,72).

Dengan model persamaan di atas, tentunya akan sangat sulit untuk


menginterprestasikan koefisien regresinya. Oleh karena itu maka diperkenalkanlah istilah
Odds Ratio atau yang biasa disingkat Exp(B) atau OR. Exp(B) merupakan exponen dari
koefisien regresi. Jadi misalkan nilai slope dari regresi adalah sebesar 0,80, maka Exp(B)
dapat diperkirakan sebagai berikut:

c. Nilai Odds Ratio


Besarnya nilai Exp(B) dapat diartikan sebagai berikut:

Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah sebesar
2,23, maka disimpulkan bahwa orang yang merokok lebih beresiko untuk mengalami kanker
paru dibadningkan dengan orang yang tidak merokok. Interprestasi ini diartikan apabila
pengkodean kategori pada tiap variabel sebagai berikut:

1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode
1 untuk mengalami kanker paru.

d. Pseudo R Square

Perbedaan lainnya yaitu pada regresi ini tidak ada nilai “R Square” untuk mengukur
besarnya pengaruh simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi
logistik dikenal istilah Pseudo R Square, yaitu nilai R Square Semu yang maksudnya sama
atau identik dengan R Square pada OLS.

Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan
seberapa baik model persamaan yang terbentuk, maka pada regresi ini menggunakan Nilai
Chi-Square. Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum Likelihood.
DAFTAR PUSTAKA

Draper, N. R. 1992. Analisis Regresi Terapan Edisi Ke 2. Jakarta: PT. Pustaka


Gramedia Utama
Sembiring, R. K. 1995. Analisis Regresi. Bandung: Institut Teknologi Bandung
Walpole. Ronald E. 1995. Ilmu Peluang dan Statistika untuk Ilmuwan. Bandung:
Institut Teknologi Bandung
Cessie, L. dan Houwelingen, J.C., (1994), Logistic Regression for Correlated Binary
Data, Applied Statistics, 42, hal. 95-108.
Collett, D., (1991), Modelling Binary Data, First Edition, Chapman and Hall, London.
Ghozali. 2001. Aplikasi Analisis Multivariate dengan Program SPSS.
Semarang:Badan Penerbit Universitas Diponegoro
Kutner, M.H., C.J. Nachtsheim dan J. Neter. Applied Linear Regression Models.
Fourth Edition. The McGraw-Hill Companies, Inc. Singapore.
Hosmer, D.W. dan Lemeshow, S., (2000). Applied Logistic Regression. John Wiley
and Sons. New York.
McCullagh, P. dan Nelder, J.A., (1989), Generalized Linier Models, 2nd edn,
Chapman and Hall, London.
Palmgren, J., (1989), Regression Models for Bivariate Binnary Response, Technical
Report 101, Department of Biostatistics, School of Public Health and
Community Medicine, Seatle.
Santoso, S. 2009. Menguasai Statistik dengan SPSS 15. Jakarta: PT Elex Media
Komputindo, Kompas Gramedia.

Anda mungkin juga menyukai