METEDOLOGI PENELITIAN
“ASOSIASI DAN UJI PERBEDAAN”
DISUSUN OLEH :
KELOMPOK IV
ARZA LESTARI
EVANDU PRANSYAH DEWA
MEILITA KHAIRUNISYAH
NUR KHOLIDAH NOLA APRILIA
PUJI RAHAYU
RIA PANJAITAN
Uji chi-square adalah salah satu uji dari statistika non parametik yang sering di
pakai untuk sebuah penelitian. Uji chi-square diterapkan pada kasus dimana akan diuji
apakah frekuensi yang akan di amati (data observasi) bebeda secara nyata ataukah tidak
dengan frekuensi yang diharapkan (expected value).Sehingga akan menentukan apakah
penelitian kita sesuai dengan yang diharapkan atau tidak. Chi-square Test atau Uji Chi-
square adalah teknik analisis yang digunakan untuk menentukan perbedaan frekuensi
observasi (Oi) dengan frekuensi ekspektasi atau frekuensi harapan (Ei) suatu kategori
tertentu. Uji chi-square ini bias diterapkan untuk pengujian kenormalan data, pengujian
data yang berlevel nominal atau untuk menguji perbedaan dua atau lebih proporsi
sampel.Data yang dapat diujikan dengan chi-square ini adalah data yang berupa diskrit
atau frekunsi.
Pengertian chi square atau chi kuadrat lainnya adalah sebuah uji hipotesis tentang
perbandingan antara frekuensi observasi dengan frekuensi harapan yang didasarkan oleh
hipotesis tertentu pada setiap kasus atau data . Chi kuadrat adalah pengujian hipotesis
tentang perbandingan antara frekuensi sampel yang benar–benar terjadi (Haryono,1994).
Chi-square biasanya di dalam frekuensi observasi berlambangkan dengan frekuensi
harapan yang didasarkan atas hipotesis dilambangkan . Ekspresi matematis tentang
distribusi chi kuadrat hanya tergantung pada suatu parameter, yaitu derajat kebebasan
(d.f.).
Jadi uji chi square ini merupakan uji untuk mengetahui apakah hasil penelitian
kita akan sama dengan kenyataan/harapan atau tidak. Dan uji ini akan menentukan
apakah uji yang kita lakukan berhasil atau tidak.
2. Fungsi Uji Chi-Square.
Sebaran data dikatakan baik adalah jika data tersebut berdistribusi normal. Dan
untuk mengetahui apakah data itu berdistribusi normal atau tidak kita dapat
menggunakan uji chi-square.Yaitu dihitung dengan rumus di bawah ini :
Dimana :
X2 = Nilai X2
O = Nilai Observasi.
E = Nilai Harapan.
Setelah nilai Chi square didapat maka nilai chi square itu akan dibandingkan
dengan nilai chi square tabel dengan alpha 5% dan dB = B-1 .Jika Xh 2<Xt2 Maka data
tersebut dikatakan data normal.
Xi−X '
Z skor=
SD
4. Contoh Perhitungan
Berikut merupakan data pertumbuhan 23 domba dalam bentuk data distribusi frekuensi.
Berdasarkan tabel diatas, maka dapat dicari harga Mean (M) , Modus (Mo), Median
(Me) dan Standart Deviasi (SD) dari skor hasil belajar, yaitu
∑fxi 443,5
M= = =19,28
∑ fi 23
b1 3
Mo=b+ p [ ]
b 1+b 2
=17,5+2[ ]
3+2
=18,7
1 1
Me=b+ p
2n
[ ] [
−F
f
=17,5+ 2
2
× ( 23−6 )
7
=19,07 ]
SD=√ (n¿∑fx i 2−( ∑fxi)²)/n(n−1)=¿ ¿√(23(8725,75)-(443,5)²)/23(23-1) =2,81
S. Deviasi = 2,81
Berdasarkan tabel diatas harga chi square hitung sebesar 0,88. Sedangkan harga
chi-square tabel pada α = 5% dengan dk = 6-1. Yaitu sebesar 11,07. Dengan demikian
Xh2<Xt2 yaitu 0,88 < 11,07. Hasil ini dapat disimpulkan bahwa skor hasil belajar berasal
dari populasi yang berdistrubusi normal.
Sebagai salah satu tes statistik parametrik, Tes “t” mula pertama dikembangkan oleh
William Seely Gosset pada 1915. Pada waktu itu ia menggunakan nama samaran Student,
dan huruf “t” yang terdapat dalam istilah Tes “t” itu diambilkan huruf terakhir dari nama
beliau. Itu pula sebabnya mengapa Tes “t” sering juga disebut dengan nama atau istilah
Student t.
Tes “t” atau “t” Test, adalah salah satu tes statistik yamg dipergunakan untuk
menguji kebenaran atau kepalsuan hipotesis nihil yang menyatakan bahwa diantara dua buah
Mean Sampel yang diambil secara random dari populasi yang sama, tidak terdapat
perbedaan yang signifikan.
Pemakaian uji t ini bervariasi. Uji ini bisa digunakan untuk objek studi yang
berpasangan dan juga bisa untuk objek studi yang tidak berpasangan. Namun sebelum
menghitung uji – t terlebih dahulu kita analisis dengan Uji Normalitas dan Uji Hogenitas.
Dalam Uji – t terdapat istilah uji satu arah ( one tail ) dan uji dua arah ( two tail )
1. Uji dua arah. pada hipotesis awal tidak terdapat perbedaan yang signifikan antara
rata-rata1 dan rata-rata2.sedangkan pada hipotesis alternatif sebaliknya yaitu terdapat
perbedaan rata-rata 1 dan rata-rata 2.
2. Uji satu arah dimana pada hipotesis awal kelompok/sampel 1 memiliki rata-rata
sama dengan atau lebih besar dengan rata-rata kelompok 2. sedangakan hipotesis
alternatif rata-rata kelompok 1 lebih kecil dibandingkan dengan rata-rata kelompok
2.
Atau
Misal, ingin diketahui rata-rata IQ mahasiswa univ. X. Untuk itu dilakukan penelitian
dengan mengambil beberapa sampel mahasiswa univ.X.Nah, apabila peneliti memiliki
asumsi bahwa rata-rata IQ mahasiswa univ. X lebih dari 140, maka uji hipotesis yang
digunakan adalah uji 1-pihak.Namun, apabila asumsi ini tidak dimiliki, dengan kata lain,
peneliti tidak tahu apakah rata-rata IQ mahasiswa univ.X lebih dari atau kurang dari 140,
maka akan tepat jika menggunakan uji 2-pihak.Ciri khas dari uji 1-pihak atau 2-pihak adalah
tanda pertidaksamaan yang digunakan dalam penulisan HIPOTESIS 1. Dari kasus di atas,
maka uji 1-pihak memiliki hipotesis:
H0 : µ = 140 H1 : µ > 140 Hal ini berarti, rata-rata IQ mahasiswa univ.X lebih besar
dari 140
uji 2-pihak memiliki hipotesis:
H0 : µ = 140 H1 : µ ≠ 140
Hal ini berarti, rata-rata IQ mahasiswa univ.X tidak sama dengan 140, entah itu lebih besar atau
lebih kecil dari 140. Keterangan :
2.Uji Wilcoxon
Uji wilcoxon signed test merupakan uji nonparametris yang digunakan untuk megukur
perbedaan 2 kelompok data berpasangan berskala ordinal atau interval tetapi data berdistribusi tidak
normal. Uji ini juga dikenal dengan nama uji match pair test. Dasar pengambilan keputusan dalam
uji wilcoxon signed test adalah sebagai berikut : - Ketika nilai probabilitas Asym.sig 2 failed < 0,05
maka terdapat perbedaan rata-rata. - Ketika nilai probabilitas Asym.sig 2 failed > 0,05 maka tidak
terdapat perbedaan rata-rata.
1. Variabel dependen berskala data ordinal atau interval/rasio tetapi berdistribusi tidak
normal. Oleh karenanya anda perlu melakukan uji normalitas terlebih dahulu pada selisih
antara kedua kelompok. Selisih yang dimaksud adalah misal: nilai pretest atau sebelum
pelajaran dikurangi nilai posttest atau setelah pelajaran. Apabila memenuhi asumsi
normalitas maka sebaiknya menggunakan uji parametris yang sesuai yaitu uji paired t test.
Dan apabila tidak memenuhi maka uji Wilcoxon Signed Rank Test dapat digunakan
sebagai alternatif.
2. Variabel independen terdiri dari 2 kategori yang bersifat berpasangan. Seperti yang sudah
dijelaskan di atas, berpasangan artinya subjek sebagai sumber data adalah 1 individu atau
observasi yang sama. Apabila subjeknya beda, misal nilai ujian kelas A dan kelas B, maka
uji yang tepat apabila memenuhi asumsi normalitas adalah uji Independen T Test. Dan
apabila tidak memenuhi asumsi normalitas, maka uji yang tepat adalah Mann Whitney U
Test atau yang disebut juga Wilcoxon Rank Sum Test.
3. Bentuk dan sebaran data antara kedua kelompok yang berpasangan adalah simetris. Jika
tidak memenuhi asumsi ini maka gunakanlah alternatif uji yang lain, yaitu uji Sign Test.
3.uji man whitney u test
Berdasarkan uraian di atas, maka dapat disimpulkan Asumsi yang harus terpenuhi dalam Mann
Whitney U Test, yaitu:
1. Skala data variabel terikat adalah ordinal, interval atau rasio. Apabila skala interval atau
rasio, asumsi normalitas tidak terpenuhi. (Normalitas dapat diketahui setelah uji
normalitas).
2. Data berasal dari 2 kelompok. (Apabila data berasal dari 3 kelompok atau lebih, maka
sebaiknya gunakan uji Kruskall Wallis).
3. Variabel independen satu dengan yang lainnya, artinya data berasal dari kelompok yang
berbeda atau tidak berpasangan.
4. Varians kedua kelompok sama atau homogen. (Karena distribusi tidak normal, maka uji
homogenitas yang tepat dilakukan adalah uji Levene’s Test. Di mana uji Fisher
F diperuntukkan bila asumsi normalitas terpenuhi).
Asumsi point 1,2 dan 3 tidak memerlukan uji tersendiri. Sedangkan point 4 jelas perlu sebuah uji yang
dapat menentukan apakah kedua kelompok memiliki varians yang sama atau tidak, yaitu disebut
dengan uji homogenitas.Untuk pengujian dengan Excel, baca Mann Whitney U Test dengan Excel.
C. Uji Anova
1.Pengertian
Analysis of Variance merupakan metode untuk menguji hubungan antara satu variabel
dependen (skala metrik) dengan satu atau lebih variabel independen (skala nonmetrik atau kategorikal
dengan kategori lebih dari dua). Misalkan kita ingin mengetahui apakah pengalaman kerja
sebelumnya (variabel dependen) dipengaruhi oleh jabatan atau job category (variabel independen
skala kategori). Hubungan antara satu variabel dependen dengan satu variabel indeependen disebut
One Way ANOVA. Pada kasus satu dependen metrik dan dua atau tiga variabel independen
kategorikal sering disebut Two Way ANOVA dan Three Ways ANOVA.
ANOVA digunakan untuk mengetahui pengaruh utama (main effect) dan pengaruh interaksi
(interaction effect) dari variabel independen kategorikal (sering disebut faktor) terhadap variabel
dependen metrik. Pengaruh utama (main effect) adalah pengaruh langsung variabel independen
terhadap variabel dependen. Sedangkan pengaruh interaksi adalah pengaruh bersama atau joint effect
dua atau lebih variabel independen terhadap variabel dependen.
2 Ciri Ciri
Ciri khasnya adalah adanya satu atau lebih variabel bebas sebagai faktor penyebab dan satu
atau lebih variabel response sebagai akibat atau efek dari adanya faktor. Contoh penelitian yang dapat
menggambarkan penjelasan ini: “Adakah pengaruh jenis bahan bakar terhadap umur thorax mesin.”
Dari judul tersebut jelas sekali bahwa bahan bakar adalah faktor penyebab sedangkan umur thorax
mesin adalah akibat atau efek dari adanya perlakuan faktor. Ciri lainnya adalah variabel response
berskala data rasio atau interval (numerik atau kuantitatif).
Anova merupakan salah satu dari berbagai jenis uji parametris, karena mensyaratkan adanya
distribusi normal pada variabel terikat per perlakuan atau distribusi normal pada residual. Syarat
normalitas ini mengasumsikan bahwa sample diambil secara acak dan dapat mewakili keseluruhan
populasi agar hasil penelitian dapat digunakan sebagai generalisasi. Namun keunikannya, uji ini dapat
dikatakan relatif robust atau kebal terhadap adanya asumsi tersebut.
Ada beberapa asumsi yang harus dipenuhi dalam ANOVA yaitu sebagai berikut.
Dari tabel Descriptives nampak bahwa responden yang bekerja sebagai Tani rata-rata
berpendapatan sebesar 195497,50, Buruh rata-rata berpendapatan sebesar 265080,75 dan
Lainnya rata-rata berpendapatan 326423,25. Selanjutnya untuk melihat uji kita lihat di tabel
ANOVA.
Sebelum melanjutkan uji perlu diingat bahwa salah satu asumsi Anova adalah variansnya
sama. Dari tabel Test of Homegeneity of Variances terlihat bahwa hasil uji menunjukan
bahwa varian ketiga kelompok tersebut sama (P-value = 0,357), sehingga uji Anova valid
untuk menguji hubungan ini.
Selanjutnya untuk melihat apakah ada perbedaan pendapatan dari ketiga kelompok pekerja
tersebut. Kita lihat tabel ANOVA , dari tabel itu pada kolom Sig. diperoleh nilai P (P-value)
= 0,037. Dengan demikian pada taraf nyata = 0,05 kita menolak Ho, sehingga kesimpulan
yang didapatkan adalah ada perbedaan yang bermakna rata-rata pendapatan berdasarkan
ketiga kelompok pekerjaan tersebut.
6.Interprestasi Uji ANOVA: Post Hoc
Jika hasil uji menunjukan Ho gagal ditolak (tidak ada perbedaan), maka uji lanjut (Post Hoc
Test) tidak dilakukan. Sebaliknya jika hasil uji menunjukan Ho ditolak (ada perbedaan), maka
uji lanjut (Post Hoc Test) harus dilakukan.
Karena hasil uji Anova menunjukan adanya perbedaan yang bermakna, maka uji selanjutnya
adalah melihat kelompok mana saja yang berbeda.
Untuk menentukan uji lanjut mana yang digunakan, maka kembali kita lihat tabel Test of
Homogeneity of Variances, bila hasil tes menunjukan varian sama, maka uji lanjut yang
digunakan adalah uji Bonferroni. Namun bilai hasil tes menunjukan varian tidak sama, maka
uji lanjut yang digunakan adalah uji Games-Howell.
Dari Test of Homogeneity menghasilkan bahwa varian ketiga kelompok tersebut sama, maka
uji lanjut (Post Hoc Test) yang digunakan adalah Uji Bonferroni.
Dari tabel Post Hoc Test di atas memperlihatkan bahwa kelompok yang menunjukan adanya
perbedaan rata-rata pendapatan (ditandai dengan tanda bintang “*”) adalah Kelompok “Tani”
dan “Lainnya”.
2. ANALISIS MULTIVARIAT
Sebagai dasar dari metode SEM, analisis multivariat perlu dipahami dengan baik.
Menurut Widarjono (2010:1) analisis multivariat merupakan salah satu analisis statistik yang
berkaitan dengan banyak variabel. Analisis statistik bisa dikelompokkan berdasarkan jumlah
variable, yaitu : univariate, bivariate dan multivariate.
Kata univariate terbentuk dari kata uni (satu) dan variate (variable), sehingga analisis
univariat adalah analisis satu variabel. Contoh analisis univariat adalah pengukuran rata-rata
(mean), standar deviasi dan varian sebagai ukuran pusat dari sekelompok data. Jadi analisis
univariate lebih bersifat analisis tunggal terhadap satu variabel. Menurut Supranto (2010:7)
kalau nasabah suatu bank ditanya tentang jumlah tabungannya, penghasilan per bulan, umur,
tingkat pendidikan dan jumlah anggota keluarga maka diperoleh lima variabel yang berdiri
sendiri dan tidak dikaitkan dengan variabel lain. Jadi analisis disebut univariat jika setiap
variabel berdiri sendiri tidak terkait dengan variabel lain. Analisis terhadap variabel tunggal
ini disebut univariate. Dengan demikian analisis univariat boleh saja dikatakan sebagai
analisis statistik deskriptif. Dalam statistika dikenal istilah statistik deskriptif dan inferensial.
Statistik deskriptif berfungsi mendeskripsikan karakteristik dari sekelompok hasil data
penelitian terhadap variabel tunggal. Sedangkan statistik inferensial berusaha menyimpulkan
fenomena atau hubungan-hubungan antara lebih dari satu variabel pada sebuah persamaan
statistik.
Kata bivariate berasal dari kata bi (dua) dan variate (variable), sehingga analisis
bivariate berkaitan dengan dua variabel. Misalnya analisis korelasi yang mencari keeratan
hubungan antara dua variable exogen dan endogen. Menurut Sunyoto (2007:31) pengukuran
korelasi bivariat dapat dibedakan menjadi pengukuran secara linear (termasuk parsial) dan
secara berganda (multiple). Yang dimaksud dengan pengukuran korelasi linear adalah
pengukuran atau perhitungan korelasi yang hanya melibatkan satu variable bebas
(independent atau X) dan satu variable terikat (dependent atau Y). Sedangkan pengukuran
korelasi berganda adalah perhitungan korelasi dengan melibatkan lebih dari satu variabel
independent (bebas) dengan satu variabel dependent (terikat).
Analisis multivariate berasal kata multi (banyak) dan variate (variable), sehingga
analisis multivariate adalah analisis terhadap banyak variable yang merupakan
pengembangan dari analisis univariate dan bivariate. Analisis multivariate memiliki lebih dari
dua variabel. Supranto (2010:18) mengilustrasikan analisis multivariate dengan adanya
masalah atau gap yang disebabkan oleh tidak adanya kesesuaian antara harapan (expected)
dan kenyataan (observed). Setiap masalah pasti ada faktor-faktor penyebab (pada umumnya
lebih dari satu penyebab). Kalau masalah kita sebut variabel dependen (Y) dan faktor
penyebab kita sebut variabel bebas (X) maka masalah (Y) adalah fungsi dari X1, X2, X3….
… Xn. Fenomena ini disebut fenomena multivariate. Dengan demikian, analisis multivariate
ini merujuk kepada teknik statistik tertentu yang menganalisis banyak variabel secara
simultan. Contoh analisis multivariat adalah Structural Equation Modeling (SEM) yang
akhir-akhir ini berkembang pesat.
3. Regresi
Analisis regresi adalah suatu proses memperkirakan secara sistematis tentang apa
yang paling mungkin terjadi dimasa yang akan datang berdasarkan informasi yang sekarang
dimiliki agar memperkecil kesalahan. Regresi merupakan suatu alat ukur yang juga dapat
digunakan untuk mengukur ada atau tidaknya korelasi antarvariabel. Jika kita memiliki dua
buah variabel atau lebih maka sudah selayaknya apabila kita ingin mempelajari bagaimana
variabel-variabel itu berhubungan atau dapat diramalkan. Analisis regresi dapat juga diartikan
sebagai usaha memprediksi perubahan. Perubahan nilai suatu variabel dapat disebabkan
karena adanya perubahan pada variabel-variabel lain yang mempengaruhinya. Misalnya,
volume pupuk terhadap hasil panen padi, karena adanya perubahan volume pupuk maka
produksi padi dengan sendirinya akan berubah. Dalam fenomena alam banyak sekali kejadian
yang saling berkaitan sehingga perubahan pada variabel lain berakibat pada perubahan
variabel lainnya. Teknik yang digunakan untuk menganalisis ini adalah analisis regresi.
a. Regresi Linear
Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh
antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi
sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang
dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear
hanya dapat digunakan pada skala interval dan ratio. Secara umum regresi linear terdiri dari
dua, yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah
variabel terikat; dan regresi linear berganda (regresi ganda) dengan beberapa variabel bebas
dan satu buah variabel terikat. Analisis regresi linear merupakan metode statistik yang paling
jamak dipergunakan dalam penelitian-penelitian sosial, terutama penelitian ekonomi.
Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For
Service Solutions).
Sering kali dalam praktek kita berhadapan dengan persoalan yang menyangkut
sekelompok peubah bila diketahui bahwa diantara peubah tersebut terdapat suatu
hubungan alamiah. Misalnya dalam industri diketahui bahwa kadar ter hasil suatu proses
kimia berkaitan dengan temperature masukan. Mungkin perlu dikembangkan suatu
metode peramalan, yaitu suatu cara kerja guna menaksir kadar ter untuk berbagai taraf
temperature masukan yang didapat dari data percobaan.
Untuk contoh ini dan kebanyakan terapannya terdapat perbedaan yang jelas antara
peubah sepanjang menyangkut perannya dalam proses percobaan. Seringkali terdapat
suatu peubah terikat yang tunggal atau yang disebut respon Y. Respon bergantung pada
satu atau lebih peubah bebas, misalnya x 1, x 2, x 3,…,x k, yang galat pengukurannya dapat
diabaikan.
Dalam makalah ini yang akan dibahas adalah regresi linear sederhana, yang hanya
menyangkut satu peubah bebas. Nyatakanlah sampel acak ukuran n dengan himpunan
{ ( xi , yi ) ; i=1 , 2, .. , n }. Bila diambil sampel tambahan tepat sama dengan nilai x maka kita
yakin harga y akan berbeda-beda. Jadi harga y i pada pasangan terurut (x i, y i) merupakan
harga dari sebuah peubah acak Yi. Untuk mudahnya akan ditulis YIx dan ini menyatakan
peubaha acak Y yang berkaitan dengan suatu nilai tetap x, dan nyatakan rataan dan
2
variansinya masing-masing dengan µYIX dan variansinya σ YIX . Jelas, bahwa bila x=x i
2
maka lambang YIxi menyatakan peubah acak Yi dengan rataan µYIX dan variansinya σ YIX .
Istilah Regresi Linear berarti, bahwa rataan µYIX berkaitan linear dengan x dalam
bentuk persamaan linear populasi.
µYIX ¿ α + βx.
Koefisien regresi α dan β merupakan dua parameter yang ditaksir dari data
sampel. Bila taksiran kedua parameter itu masing-masing dinyatakan dengan a dan b maka
µYIX dapat ditaksir dengan ^y dari bentuk garis regresi berdasarkan sampel atau garis
kecocokan regresi.
^y =a+b x
Dalam hal regresi linear sederhana, yaitu hanya terdapat peubah bebas x dan satu
peubah acak terikat Y, datanya dapat disajikan sebagai pasangan pengamatan
{ ( xi , yi ) ; i=1 , 2, .. , n }. Akan menolong bila digunakan gagasan dari pasal sebelumnya
untuk mendefinisikan setiap peubah acak Y i=Y I x i dengan suatu model statistika. Bila
dimisalkan bahwa semua rataan µY I x terletak pada suatu garis lurus, maka setiap Y idapat
i
Y i=Y I x i + Ei =α + β x i+ E i,
dengan galat acak Ei , galat model, haruslah mempunyai rataan nol. Setiap
pengamatan ( x i , y i) dalam sampel memenuhi hubungan y i=α + βx i+ ε i
dengan ε i nilai yang dicapai Ei bila Y i mendapat nilai y i. Persamaan di atas dapat
dipandang sebagai model untuk pengamatan tunggal y i. Demikian juga, dengan
menggunakan taksiran atau kecocokan garis regresi
^y =a+b x
Tiap pasangan pengamatan memenuhi
y i=a+bx i+ ei ,
e i= y i− ^y disebut galat sisa dan memberikan galat dalam kecocokan model pada
titik data ke i.
Akan dicari a dan b, taksiran α dan β, sehingga jumlah kuadrat sisa minimum.
Jumlah kuadrat sisa sering pula disebut jumlah kuadrat galat terhadap garis regresi
dan dinyatakan dengan JKG. Cara peminimuman untuk menaksir parameter
dinamakan metode kuadrat terkecil. Jika a dan b akan dicari sehingga akan
meminimumkan
n n n
JKG=∑ e 2i =∑ ( y i−^y i)2=¿ ∑ ( y i−a−b x i )2 ¿
i=1 i=1 i=1
n
∂ ( JKG )
=−2 ∑ (¿ y i−a−b x i )¿
∂a i=1
n
∂(JKG)
=−2 ∑ ( y i−a−b x i ) x i
∂b i=1
n
b=n ∑ x i y i−¿ ¿¿
i=1
n n
∑ y i−b ∑ x i
a= i=1 i=1
n
Contoh soal
1. Tariklah garis regresi untuk data pencemaran pada tabel di bawah ini !
Tabel 1
Jawab :
33 33
∑ x 1=1.104, ∑ yi =1.124,
i=1 i=1
33 33
∑ x i y i=41.355 , ∑ x 2=41.086
i=1 i=1
n
b=n ∑ x i y i−¿ ¿¿
i=1
n n
∑ y i−b ∑ x i
a= i=1 i=1
n
1.124−(0,903643)(1.104)
a= =3,829633
33
a. Uji Serentak
Statistik uji yang dipakai untuk melakukan uji serentak ini adalah uji F. Uji F
dikenal juga dengan uji Anova (Analysis Of Varians) yaitu uji untuk melihat
bagaimanakah pengaruh semua variabel prediktornya secara bersama-sama terhadap
variabel terikatnya atau untuk menguji apakah model regresi yang kita buat baik
(signifikan) atau tidak baik (non signifikan). Jika model signifikan maka model bisa
digunakan untuk peramalan, sebaliknya jika non signifikan maka model regresi tidak
bisa digunakan untuk peramalan. Uji serentak merupakan uji terhadap nilai-nilai
koefisien regresi secara bersama-sama dengan hipotesa.
1. H0 :
β 1=β 2 =. ..= β k=0
H1 :
β j 0, j = 1,2,…,k
2. Tentukan taraf nyata
5. Kesimpulan
fhitung ≤ fα(v1,v2), H0 gagal tolak
fhitung > fα(v1,v2), Ho ditolak
Tabel Analisis Ragam Regresi Linear
Sumber df SS MS F hitung
varians
i
2 2
Σ ( Y^ −Y ) Σ ( Y^ −Y )
2
2 Σ ( Y −Y^ )
Galat n-2 Σ ( Y −Y^ ) S 2e =
n−2
n n
Total n-1 ∑ Y i − 1n ( ∑ Y )2
2
i=1 i=1
Dimana:
( Y −Y ) = simpangan total
( Y^ −Y ) = simpangan regresi
b. Uji Parsial
Statistik uji yang dipakai untuk melakukan uji parsial ini adalah statistik uji T. Uji
T digunakan untuk menguji bagaimana pengaruh masing-masing variabel bebasnya
secara sendiri-sendiri terhadap variabel terikatnya. Jika hasil pada uji serentak
menunjukkan bahwa H0 ditolak, maka perlu dilakukan uji individu dengan hipotesa :
1. H0: β = 0
thitung =
se / √∑ ( X −X )2 thitung =
se
(√ +
n ∑ ( x i − x̄ )2 )
atau
a = taksiran bagi β0
b = taksiran bagi β1
t = nilai sebaran t
5. Keputusan:
a. H0 ditolak jika thitung > tα/2(n-2) atau thitung < - tα/2(n-2)untuk lawan alternatif
H1:β≠ 0
b. H0 ditolak jika thitung < - tα(n-2) untuk lawan alternatif H1: β < 0
c. H0 ditolak jika thitung > tα(n-2) untuk lawan alternatif H1: β > 0
3. Selang Kepercayaan
a Nilai dugaan bagi parameter yang sesungguhnya bagi α dan β yang didasarkan
pada n pengamatan yang diperoleh. Nilai-nilai dugaan lain bagi α dan β yang dapat
diperoleh melalui pengambilan contoh berukuran n beberapa kali dapat dipandang
sebagai nilai-nilai peubah acak. Selang kepercayaan sebesar (1-α)100% untuk
parameter β adalah
se se
b t b t
2
( X X )2 2
2
(X X )
Dapat ditulis juga dengan
t s t s
b 2 b 2
J xx J xx
Dimana:
b = taksiran bagi β1
t = nilai sebaran t
1 x2 1 x2
a t S a t s
n ( xi x ) n ( xi x )
2 e 2 e
2 2
n n
S xi S xi
2 2
t t
a a 2 i 1
2 i 1
nJ xx nJ xx
Dimana:
a = taksiran bagi
x̄ = nilai rata-rata x
Contoh soal :
2. Dengan menggunakan nilai taksiran b = 0,903643 pada contoh soal 1, ujilah hipotesis
bahwa = 1,0 pada taraf keberartian 0,05 lawan tandingan bahwa < 1,0
Jawab :
1. H0 : = 1,0
2. H1 : < 1,0
5. Hitungan
(b 1 ) (0,903643 1, 0)
1,92
se / J xx 3, 2295 / 4152,18
thitung = =
6. Keputusan : harga t berarti pada taraf 0,03, suatu petunjuk kuat bahwa < 1,0. H0
ditolak
b. Regresi Logistik
Regresi logistik adalah sebuah pendekatan untuk membuat model prediksi seperti
halnya regresi linear atau yang biasa disebut dengan istilah Ordinary Least Squares (OLS)
regression. Perbedaannya adalah pada regresi logistik, peneliti memprediksi variabel terikat
yang berskala dikotomi. Skala dikotomi yang dimaksud adalah skala data nominal dengan
dua kategori, misalnya: Ya dan Tidak, Baik dan Buruk atau Tinggi dan Rendah.
Apabila pada OLS mewajibkan syarat atau asumsi bahwa error varians (residual)
terdistribusi secara normal. Sebaliknya, pada regresi ini tidak dibutuhkan asumsi tersebut
sebab pada regresi jenis logistik ini mengikuti distribusi logistik.
Model persamaan aljabar layaknya OLS yang biasa kita gunakan adalah berikut: Y =
B0 + B1X + e. Dimana e adalah error varians atau residual. Dengan model regresi ini, tidak
menggunakan interpretasi yang sama seperti halnya persamaan regresi OLS. Model
Persamaan yang terbentuk berbeda dengan persamaan OLS. Berikut persamaannya:
Persamaan Regresi Logistik
Sedangkan P Aksen adalah probabilitas logistik yang didapat rumus sebagai berikut:
Di mana:
(Perlu diingat bahwa exponen merupakan kebalikan dari logaritma natural. Sedangkan
logaritma natural adalah bentuk logaritma namun dengan nilai konstanta 2,71828182845904
atau biasa dibulatkan menjadi 2,72).
Misalnya nilai Exp (B) pengaruh rokok terhadap terhadap kanker paru adalah sebesar
2,23, maka disimpulkan bahwa orang yang merokok lebih beresiko untuk mengalami kanker
paru dibadningkan dengan orang yang tidak merokok. Interprestasi ini diartikan apabila
pengkodean kategori pada tiap variabel sebagai berikut:
1. Variabel bebas adalah Rokok: Kode 0 untuk tidak merokok, kode 1 untuk merokok.
2. Variabel terikat adalah kanker Paru: Kode 0 untuk tidak mengalami kanker paru, kode
1 untuk mengalami kanker paru.
d. Pseudo R Square
Perbedaan lainnya yaitu pada regresi ini tidak ada nilai “R Square” untuk mengukur
besarnya pengaruh simultan beberapa variabel bebas terhadap variabel terikat. Dalam regresi
logistik dikenal istilah Pseudo R Square, yaitu nilai R Square Semu yang maksudnya sama
atau identik dengan R Square pada OLS.
Jika pada OLS menggunakan uji F Anova untuk mengukur tingkat signifikansi dan
seberapa baik model persamaan yang terbentuk, maka pada regresi ini menggunakan Nilai
Chi-Square. Perhitungan nilai Chi-Square ini berdasarkan perhitungan Maximum Likelihood.
DAFTAR PUSTAKA