Anda di halaman 1dari 26

II-26

BAB II
LANDASAN TEORI

Landasan teori adalah teori atau bahan-bahan dari berbagai sumber yang
dijadikan sebagai pedoman untuk pengolahan data pada masing-masing modul.
Masing-masing modul memiliki teori dan rumus yang berbeda-beda. Landasan
teori dari masing-masing modul adalah sebagai berikut:

2.1. Korelasi
Korelasi dalam kata lain korelasi adalah (corelation) yaitu salah satu
teknik statistik yang digunakan untuk mancari hubungan antara dua variabel atau
lebih yang bersifat kuantitatif. Hubungan (relationship) antara dua variabel dapat
hanya karena kebetulan saja (accidentil), dapat juga merupakan hubungan sebab
akibat. Dua variabel dikatakan berkorelasi jika perubahan pada variabel yang satu
akan diikuti perubahan variabel lain secara teratur, dengan arah yang sama atau
arah yang berlawanan (Djarwanto dan Subagyo,1981). Korelasi dapat dinyatakan
dengan koefisien (r) dan merentang dari -1 sampai +1. Koefisien dinyatakan –
atau + menunjukan korelasi sempurna antara dua peubah. Sebaliknya, koefisien
nol berarti tidak ada korelasi sama sekali. Keseragaman dalam derajat korelasi
dinyatakan oleh koefisien yang merentang dari 0 sampai 1 dan dari -1 sampai 0.
Koefisien korelasi ini dapat dinyatakan bahwa jika terdapat data diatas dua
atau lebih variabel, maka dapat digunakan suatu cara yang mana menyatakan
bagaimana variabel-variabel itu berhubungan (Sudjana,1986). Mencoba mengukur
kekuatan hubungan antara dua peubah melalui sebuah bilangan disebut dengan
koefisien korelasi. Disimpulkan bahwa koefisien korelasi adalah ukuran hubungan
linier antara dua peubah X dan Y diduga dengan koefisien korelasi.
II-26

n n n

∑ xiyi − (∑ xi )(∑ yi )
i =1 i =1 i =1
r= n n n n
[n∑ xi ² − (∑ χi)² ][ n ∑ yi ² − (∑γi)² ]
i =1 i =1 i =1 i =1

Koefisien korelasi linier sederhana (r) adalah akar dari koefisien


determinasi linier sederhana (r²) atau,
n ∑χγ − ∑χ∑γ
r = r² =
[n ∑χ² − (∑χ) ² ][ n ∑γ ² − (∑γ ) ² ]

karena nilai r² berkisar antara 0 sampai 1 maka nilai r terletak antara -1 dan +1
(r = 1 = ± 1). r = 1, ini berarti ada korelasi positif sempurna antara X dan Y. r =

-1, ini berarti ada korelasi negatif sempurna antara X dan Y. r = 0, ini berarti tidak
ada korelasi antara X dan Y. Koefisien korelasi linier sebagai ukuran hubungan
linier antara dua peubah acak X dan Y dan dilambangkan dengan r. jadi r
mengukur sejauh mana titik–titik menggerombol sekitar sebuah garis lurus. Di
bawah ini adalah diagram pengamatan pencar bagi nilai n.

Gambar
2.1 Diagram
Pengamat Pencar Nilai n
II-26

Gambar garis tarik lurus tersebut dapat disimpulkan, bila titik–titik


menggerombol mengikuti garis lurus dengan kemiringan positif, maka ada
korelasi positif yang tinggi antara kedua peubah, dan bila titik–titik
menggerombol mengikuti garis lurus dengan kemiringan negatif, maka antara
kedua peubah itu terdapat korelasi negatif yang tinggi. Korelasi antara kedua
peubah semakin menurun secara numerik dengan semakin memencarnya atau
menjauhnya titik-titik dari suatu garis lurus. Titik–titiknya mengikuti suatu pola
yang acak, dengan kata lain tidak ada pola seperti gambar. Disimpulkan korelasi
nol, dan disimpulkan tidak ada hubungan linier antara x dan y. Ukuran korelasi
linier antara peubah yang paling banyak digunakan disebut dengan koefisien
korelasi momen hasil kali pearson atau ringkasnya dapat disebut dengan koefisien
korelasi (Sudjana,1986).

2.1.1 Analisis korelasi


Analisis korelasi adalah metode statistik yang digunakan untuk
menentukan kuat tidaknya (derajat) hubungan linier antara dua variabel. Analisis
korelasi juga bertujuan menduga adanya persamaan regresi. Sementara dalam
analisis korelasi meliputi dua aspek yaitu mengukur kesesuaian garis regresi
terhadap data sampel atau disebut koefisien determinasi dan mengukur keeratan
hubungan antara variabel atau disebut dengan koefisien korelasi (Munir,2003).
Analisis korelasi sederhana adalah meneliti hubungan dan bagaimana eratnya
hubungan itu, tanpa melihat bentuk hubungan. Kenaikan di dalam suatu variabel
yang diikuti dengan kenaikan variabel yang lain dapat dikatakan bahwa kedua
variabel tersebut mempunyai korelasi yang positif. Kenaikan suatu variabel diikuti
dengan penurunan variabel lain, maka kedua variabel tersebut mempunyai
korelasi negatif. Suatu variabel dikatakan tidak mempunyai hubungan
(uncorrelated) apabila tidak ada perubahan terhadap suatu variabel tersebut
meskipun variabel lain mengalami perubahan. Pedoman untuk
menginterpretasikan koefisien korelasi (r), sebagai berikut.
II-26

Tabel 2.1 Interval Koefisien


Interval Tingkat
Koefisien Hubungan
0,00 - 0,199 Sangat rendah
0.20 - 0,399 Rendah
0,40 - 0,599 Sedang
0,60 - 0,799 Kuat
0,80 - 1,000 Sangat kuat
(Sumber: Munir,2003)

2.1.2 Pengujian Hipotesis dengan Asumsi ρ = 0


Signifikan ada atau tidak adanya hubungan antara variabel yang sedang
diselidiki dapat diketahui dengan menggunakan uji hipotesis terhadap koefisien
korelasi. Perumusan hipotesis dilakukan dengan menduga bahwa suatu variabel
mempunyai hubungan dengan variabel lain, penjelasannya sebagai berikut.
H0: ρ=0 (Tidak ada hubungan antara suatu variabel dengan variabel yang lain).
H1: ρ=0 (Terdapat hubungan yang signifikan antara suatu variabel dengan variabel
yang lain). Kesimpulan dibuat berdasarkan keputusan yang diambil. Keputusan
menerima H0 berarti tidak ada hubungan antara variabel yang satu dengan variabel
yang lain. Keputusan menolak H0 berarti terdapat korelasi yang signifikan antara
variabel yang satu dengan variabel yang lain. ρ=0 maka distribusi sampling r akan
simetris disekitar nol dengan varian. Distribusi samplingnya tergantung pada
besaran n (nilai ρ sudah ditetapkan) (Munir,2003).

Gambar 2.2 Grafik Distribusi Sampling


2.1.3 Koefisien Korelasi Parsial
II-26

Koefisien korelasi (r) mengukur keeratan hubungan linier antara dua


variabel. Dalam model regresi tiga variabel terhadap tiga koefisien korelasi: r 12
(korelasi antara X1 dan X2), r13 (korelasi antara X1 dan X3), r23 (korelasi antara X2
dan X3). Koefisien korelasi itu dinamakan koefisien korelasi sederhana atau
koefisien korelasi tingkat nol. Rumus perhitungan koefisien korelasi itu adalah:
n∑χ1 χ² −(∑χ1 )( ∑χ² )
r=
[ n∑χ1² − (∑χ1² )][ n∑χ2² − (∑χ3)² ]

n∑χ1 χ3 −(∑χ1 )( ∑χ3 )


r=
[ n∑χ1² − (∑χ1² )][ n∑χ3² − (∑χ3)² ]

n∑χ 2 χ3 − (∑χ 2 )( ∑χ3 )


r=
[ n∑χ2² − (∑χ2² )][ n∑χ3² − (∑χ3) ² ]

r12, tidak menunjukan keeratan hubungan yang sebenarnya antara X1 dan


X2 karena variabel ketiga yaitu X3 mungkin berhubungan dengan X1 dan X2. Suatu
koefisien korelasi antara X1 dan X2 yang bebas terhadap pengaruh dari X3.
Koefisien korelasi demikian dinamakan koefisien korelasi parsial. Pada dasarnya
koefisien korelasi parsial hampir sama dengan koefisien regresi parsial.

2.1.4 Koefisien Determinasi


Redius [∑e = ∑( γ − γ ) ] merupakan ukuran untuk mengetahui apakah
garis regresi sampel sesuai dengan data. Redius yang besar berarti garis regresi
kurang sesuai, jika redius kecil berarti garis regresi sangat sesuai dengan data.
Jika semua data observasi terletak pada garis regresi, akan memperoleh garis
regresi yang sesuai sempurna, namun jarang terjadi. Koefisien determinasi r²
(untuk regresi dua variabel) atau R² (untuk regresi berganda) adalah suatu ukuran
kesesuaian garis regresi sampel terhadap data. Ukuran menentukan besarnya
koefisien determinasi mulai dengan mendefinisikan total variasi y (bukan varians
y). Total variasi y dirumuskan ∑(γi −γ ) ².
II-26

Variasi y ini dapat dibedakan menjadi dua, pertama variasi yang dapat
diterangkan oleh persamaan regresi dan kedua variasi yang tak dapat diterangkan
oleh regresi atau variasi redius. r² adalah proporsi total variasi y yang dapat
diterangkan (bukan disebabkan) oleh persamaan regresi (variasi X). Menghitung
r² yang kelihatan lebih kompleks, tetapi memerlukan waktu perhitungan lebih
pendek adalah sebagai berikut.
[ n∑χγ − (∑χ)( ∑γ ) ² ]
r² =
[ n∑χ² − (∑χ) ² ][ n∑γ ² − (∑γ ) ² ]

2.2. Regresi
Regresi adalah peramalan, penaksiran, atau pendugaan (Iqbal
Hasan,2003). Menurut Walpole,1995 adalah persamaan matematika
memungkinkan peramalan nilai–nilai suatu peubah tak bebas (Dependent) dari
nilai–nilai suatu atau lebih peubah bebas (Independent). Persamaan regresi adalah
persamaan matematik yang memungkinkan peramalan nilai suatu peubah tak
bebas (dependent variable) dari nilai peubah bebas (independent variable).
Analisis regresi adalah sebuah teknik statistik yang digunakan untuk membuat
model atau fungsi dalam menyelidiki bentuk dua variabel atau lebih
(Mulyono,1990).
Analisis regresi bertujuan untuk mengestimasi suatu hubungan antara
variabel–variabel ekonomi, misalnya Y = f (X) dan untuk melakukan peramalan
atau prediksi nilai variabel dependen (Y), berdasarkan nilai variabel independen
(X). Regresi dibagi menjadi dua yaitu regresi liniear sederhana dan regresi liniear
berganda. Analisis regresi sederhana digunakan untuk mengetahui pengaruh dari
variabel bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui
seberapa jauh perubahan variabel bebas dalam mempengaruhi variabel terikat.
Analisis regresi sederhana bertujuan juga mempelajari hubungan linier antara dua
variabel.
Analisis regresi berbeda dengan analisis korelasi. Analisis korelasi
digunakan untuk melihat hubungan dua variabel, maka analisis regresi digunakan
untuk melihat pengaruh variabel bebas terhadap variabel tergantung serta
II-26

memprediksi nilai variabel tergantung dengan menggunakan variabel bebas.


Analisis regresi data harus berskala interval atau rasio. Hubungan dua variabel
bersifat dependensi. Menggunakan analisis regresi diperlukan beberapa
persyaratan yang harus dipenuhi. Regresi linier sederhana adalah regresi yang
digunakan untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan
peubah bebas (variabel X) yang telah diketahui nilainya. Maka di dapatkan rumus
dari regresi untuk nilai a dan nilai b adalah:
n n n
n∑ xiyi − (∑ xi )(∑ yi )
a =y -b x b= i =1
n
i =1
n
i =1

n∑ xi 2 − (∑ xi ) 2
i =1 i =1

Persamaan garis:
Yˆ = a + bx
Dimana:
Yˆ = variabel terikat (variabel yang diduga).
X = variabel bebas (variabel yang diketahui).
a,b = pendugaan parameter A dan B, koefisien regresi sampel.
a = menyatakan intersep atau perpotongan dengan sumbu tegak.
b = menyatakan slop (kemiringan garis regresi).
Analisis regresi sebagai kajian terhadap hubungan satu variabel yang
disebut sebagai variabel yang diterangkan (the explained variabel) dengan satu
atau dua variabel yang menerangkan (the explanatory). Variabel pertama disebut
juga sebagai variabel tergantung dan variabel kedua disebut juga sebagai variabel
bebas. Variabel bebas lebih dari satu, maka analisis regresi disebut regresi linear
berganda. Disebut berganda karena pengaruh beberapa variabel bebas akan
dikenakan kepada variabel tergantung. Regresi liniear berganda adalah digunakan
untuk meramalkan nilai peubah tak bebas (variabel Y) berdasarkan hasil
pengukuran pada beberapa peubah bebas (variabel x1 , x 2 … x r ).
Analisis regresi berganda juga bertujuan untuk mempelajari hubungan
linier lebih dari dua variabel. Banyak kasus yang menggunakan regresi berganda,
pada umumnya jumlah variabel independent berkisar dua sampai empat variabel,
II-26

walaupun secara teoritis dapat digunakan banyak variabel bebas, namun


penggunaan lebih dari tujuh variabel independent dianggap tidak efektif.
Persamaan regresi berganda menggunakan metode kuadrat terkecil. Rumus-rumus
yang digunakan dalam regresi berganda adalah sebagai berikut.

a = Y − b1 X 1 − b2 X 2

(∑ x 2 )(∑ x1 y ) − (∑ x1 x 2 )(∑ x 2 y )
2

b1 =
(∑ x1 )(∑ x 2 ) − (∑ x1 x 2 ) 2
2 2

(∑ 1 )(∑ x 2 y ) − (∑ x1 x 2 )(∑ x 2 y )
2

b2 =
(∑ x1 )(∑ x 2 ) − (∑ x1 x 2 ) 2
2 2

Y =(
∑Y )
n

X1 =
∑x 1

X2 =
∑x 2

n

X1 = ∑xY = ∑Y − nY 1
2 2 2

n X =
∑ ∑X − nX
2 2 2


1 1 1
x
X = ∑ X = ∑ X − nX
2 2 2 2
2 2 2 2
n
∑Y =∑∑XYY −= n∑
2
Y X Y −nX Y 1
2 2
1 1

∑X ∑ =∑ Y =−
X X ∑nXX Y − n X Y
2 2 2
1 2 1 12 2

∑X ∑ =∑ X =
X .X −∑
nX X 1. X − nX X2
2 2 2
2 1 22 2 2 1

∑X Y = ∑X Y − n X Y
1 1 1

∑X Y = ∑X Y − n X Y
2 2 2

∑X . X = ∑X 1. X − nX X
1 2 2 1 2

Dimana,
a,b1,b2 = koefisien regresi linier berganda
ŷ = nilai rata-rata variabel Y
X1 = nilai rata-rata variabel X1
II-26

X2 = nilai rata-rata variabel X2


ΣY2 = jumlah kuadrat variabel Y
ΣX12 = jumlah kuadrat variabel X1
ΣX22 = jumlah kuadrat variabel X2
ΣX1Y = jumlah variabel X1 dikali variabel Y
ΣX2Y = jumlah variabel X2 dikali variabel Y
ΣX1X2 = jumlah variabel X1 dikali variabel X2
Metode eliminasi dan subtitusi
yˆ = b0 +b 1 x1 + b2 x 2

n n n
nb 0 + b1 ∑ x1i + b2 ∑ x 2i = ∑ y i
i =1 i =1 i =1

n n n n
b0 ∑ x1i +b1 ∑ x 2 1i + b2 ∑ x1i x 2i = ∑ x1i y i
i =1 i =1 i =1 i =1

n n n n
b0 ∑ x 2i + b1 ∑ x1i x 2i + b2 ∑ x 2 2i = ∑ x 2 i y i
i =1 i =1 i =1 i =1

Telah disebutkan bahwa dalam analisis regresi tujuannya adalah menduga


fungsi regresi populasi berdasar fungsi regresi sampel setepat mungkin. Sampai
saat ini ada banyak metode untuk menyusun persaman regresi sampel, misalnya
metode free hand, least squares, dan maximum likelihood. Metode analisis regresi
yang paling banyak digunakan adalah metode least squares. Asumsi-asumsi
metode Least Squares adalah:
1. Error term u memiliki distribusi normal. Sebagai hasilnya, y dan distribusi
sampling koefisien regresi juga memiliki distribusi normal.
2. Rata–rata expected value dan error term untuk setiap nilai X sama dengan
nol , (ui Xi) = 0.
3. Varians error term adalah konstan pada setiap periode dan untuk semua
nilai Xi Var (ui Xi) =σ². Asumsi ini sering disebut homioscedasticity atau
equal variance.
4. Error term pada suatu observasi tidak berhubungan dengan error term
pada observasi yang lain.
II-26

5. Variabel bebas mempunyai nilai yang tetap dalam sampel yang berulang
atau variabel bebas merupakan variabel non-stokastis sehingga variabel
bebas tidak berhubungan dengan error term.

Analisis regresi mempunyai dua variabel yaitu variabel bebas (X) dan
variabel terikat (Y), berikut ini adalah perbedaan yang dimana analisis regresi
mempunyai dua variabel dalam satu metode. Perbedaan dari variabel terikat dan
variabel bebas adalah sebagai berikut.
Variabel bebas (X) variabel terikat
(independent variable) (dependent variable)

Variabel yang menjelaskan variabel yang dijelaskan


(ekplanatory variable) (ekplained variable)

Peramal yang diramal


(predictor) (predictend)

Yang meregresi yang diregresi


(regressor) (regressed)

Perangsangan / variabel kembali tanggapan


(stimulus or control variabel) (response)

2.3. Chi Square


Pengertian chi square atau khai kuadrat adalah sebuah uji hipotesis tentang
perbandingan antara frekuensi observasi dengan frekuensi harapan yang
didasarkan oleh hipotesis tertentu pada setiap kasus atau data (Diktat,2009). Khai
kuadrat adalah pengujian hipotesis tentang perbandingan antara frekuensi sampel
II-26

yang benar-benar terjadi (Subiyakto,1994). Khai kuadrat biasanya di dalam


frekuensi observasi berlambangkan dengan f0 frekuensi harapan yang
didasarkan atas hipotesis dilambangkan f e . Ekspresi matematis tentang

distribusi khai kuadrat hanya tergantung pada suatu parameter, yaitu derajat
kebebasan (d.f.). Khai kuadrat mempunyai masing-masing nilai derajat
kebebasan, yaitu distribusi z 2 (kuadrat standard normal) merupakan distribusi
khai kuadrat dengan d.f. = 1, dan nilai variabel x 2 tidak bernilai negative.
Kegunaan dari chi square untuk menguji seberapa baik kesesuaian diantara
frekuensi yang teramati dengan frekuensi harapan yang didasarkan pada sebaran
yang akan dihipotesiskan, atau juga menguji perbedaan antara dua kelompok pada
data dua kategorik untuk dapat menguji signifikansi asosiasi dua kelompok pada
data dua katagorik tersebut (Mulyono,1990).

2.3.1 Tujuan dari Chi Square


Chi Square bertujuan untuk menguji kebebasan (independensi) antar
faktor dari data dalam daftar kontigensi atau uji kebebasan. Menguji kesesuaian
antara data hasil pengamatan dengan model distribusi dari mana data itu
diperoleh. Menguji apakah frekuensi yang diamati (diobservasi) berbeda secara
signifikan dengan frekuensi teoritis atau frekuensi yang diharapkan. Menguji
apakah data sampel mempunyai distribusi yang mendekati distribusi teoritis atau
hipotesis atau populasi tertentu seperti distribusi binomial, poison, dan normal
(Mulyono,1990).

2.3.2 Uji Chi Square


Uji Chi Square adalah uji hipotesis tentang perbandingan antara frekuensi
observasi dengan frekuensi harapan yang didasarkan oleh hipotesis tertentu pada
setiap kasus atau data (Diktat,2009). Terdiri dari beberapa uji yaitu:
II-26

2.3.3 Uji Kecocokan


Uji Kecocokan atau disebut goodness of fit test, hipotesis nol merupakan
suatu ketentuan tentang pola yang diharapkan dari frekuensi-frekuensi dalam
barisan kategori-kategori. Pola yang diharapkan harus sama dengan asumsi atau
anggapan atas kemungkinan kejadian yang sama atu bersifat umum. Perbedaan
frekuensi observasi dengan yang diharapkan harus dapat dilambangkan dengan
variabilitas secara sampling pada tingkat signifikansi yang diinginkan, pada
penerimaan hipotesis nol. Chi square didasarkan perbedaanya dari masing-masing
kategori dalam distribusi frekuensi. Menurut Subiyakto,1994 nilai chi squar
untuk pengujian perbedaaan antara pola frekuensi observasi dan frekuensi harapan
adalah sebagai berikut.
( f0 − fe )2
χ2 = ∑
fe

Dimana,
f0 : frekuensi observasi.
fe : frekuensi harapan.
Menguji kecocokan derajat kebebasan (degree of freedom) sama dengan
jumlah kategori dikurangi jumlah estimator parameter yang didasarkan pada
sampel dan dikurang 1 dan bila dirumuskan menjadi.
d.f. = k – m – 1
Dimana,
k : Jumlah kategori data sampel.
M : Jumlah nilai–nilai parameter yang diestimasi.
Hipotesis nol menyatakan bahwa frekuensi-frekuensi observasi didistribusikan
sama dengan frekuensi harapan, tidak ada parameter estimator, sehingga nilai
m=0.

2.3.4 Uji Kebaikan Suai


Menurut Walpole,1995 uji kebaikan suai frekuensi yang teramati dengan
frekuensi harapan didasarkan pada besaran.
II-26

k
(oi − ei ) 2
χ2 = ∑
i =1 ei
χ2 merupakan sebuah nilai bagi peubah acak χ2 yang sebaran penarikan

contohnya sangat menghampiri sebaran chi square. Lambang oi dan ei masing-


masing, menyatakan frekuensi teramati dan frekuensi harapan bagi sel ke-i.
Frekuensi yang teramati sangat dekat dengan frekuensi harapannya, nilai χ2
akan kecil menunjukkan adanya kesuaian yang baik. Frekuensi yang teramati
berbeda cukup besar dari frekuensi harapannya, nilai χ2 akan besar sehingga
kesesuaian buruk. Kesesuaian yang baik akan membawa pada penerimaan H 0 ,
sedangkan kesuaian yang buruk akan membawa pada penolakan H 0 . Banyaknya
derajat bebas dalam uji kebaikan suai yang didasarkan pada sebaran chi square,
sama dengan banyaknya sel dikurangi dengan banyaknya besaran yang diperoleh
dari data pengamatan (contoh) yang digunakan dalam perhitungan frekuensi
harapanya, dengan kata lain uji kebaikan suai disebut juga sebagai uji kecocokan.
Menurut Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.
1. Menentukan formulasi hipotesis
Η0 : f 0 sesuai dengan f e
Η1 : f 0 tidak sesuai dengan f e
2. Menetukan nilai kritis
Derajat bebas (df/db/v) dan nilai tabel.
Df = k – 1

3. Menetukan kriteria pengujian


Η0 diterima apabila χ2 hitung ≤ χ2α; df

Η0 ditolak apabila χ2 hitung > χ2α; df

4. Menetukan nilai uji satistik ( χ2 hitung)


Frekuensi harapan = total observasi
banyaknya jenis observasi
5. Membuat kesimpulan
Menolak atau menerima Η0 berdasarkan kriteria pengujiannya.
II-26

2.3.5 Uji Tabel Kontigensi


Tabel Kontigensi memuat data yang diperoleh dari sampel random
sederhana dan diatur berdasarkan baris dan kolom. Nilai-nilai data tersebut
dinamakan frekuensi observasi ( f 0 ). Uji tabel kontigensi (contingency table test)
dapat menguji apakah kedua variabel saling independent. Gagasan ini didasarkan
atas anggapan bahwa nilai frekuensi observasi mendekati frekuensi harapan jika
kategori-kategori independent. Perbedaan-perbedaan yang besar akan mendukung
untuk menolak hipotesis independensi. Menurut Subiyakto,1994 apabila banyak
baris = r, banyak kolom = k, dan besar sampel n, nilai frekuensi harapan baris ke-i
dan kolom ke-j dapat diperoleh dengan rumus.
(∑ f 0 i )( Ef 0 j )
f eij =
n
Dengan derajat kebebasan:
d.f. = (r - 1)(k - 1)
sedangkan rumus untuk memperoleh nilai x 2 adalah
( f0 − fe )2
χ2 = ∑
fe

Arti lain uji kebebasan disebut juga sebagai uji tabel kontigensi. Menurut
Diktat,2009 langkah–langkah pengujian hipotesis, yaitu.
1. Menetukan formulasi hipotesis
Η0 : kategori yang satu bebas dari kategori lainnya.
Η1 : kategori yang satu tidak bebas dari kategori lainnya.
2. Menetukan nilai kritis
derajat bebas (df/db/v) dan nilai tabel.
Df = (r - 1)(c - 1)
3. Menetukan kriteria pengujian
Η0 diterima apabila χ2 hitung ≤ χ2α; df

Η0 ditolak apabila χ2 hitung > χ2α; df

4. Menentukan nilai uji statistik ( χ2 hitung)


II-26

Frekuensi harapan = total baris × total kolom


total observasi
5. Membuat kesimpilan
Menolak atau menerima Η0 berdasarkan kreiteria pengujiannya.
Rumus umum untuk mendapatkan frekuensi harapan bagi sebaran sel adalah
(Walpole,1995).
Frekuensi harapan = total baris × total kolom
total pengamatan
Menurut Walpole,1995 uji kebebasan untuk menghitung tabel kontigesi r x c
menggunakan rumus.
(oi − ei ) 2
χ2 = ∑
i ei

Penjumlahan dilakukan terhadap semua rc sel. χ > χα dengan v = (r - 1)(c - 1)


2 2

derajat bebas, tolak hipotesis nol bahwa kedua penggolongan itu bebas pada taraf
nyata, bila selainnya diterima hipotesisnya nilai nol. Statistik yang digunakan
sebagai dasar untuk mengambil keputusan hanya dilampiri oleh sebaran chi
square. Nilai-nilai χ2 hitung bergantung pada frekuensi sel, dan berarti peluang
diskret yang sebaranya chi square yang kontinu yang menghampiri sebaran
penarikan bagi χ2 dengan sangat baik asalkan banyaknya derajat bebas lebih dari
pada 1. Tabel kontinu 2 x 2, yang hanya mempunyai 1 derajat bebas yang
biasanya diterapkan dengan (koreksi yate) bagi kekontinuan. Menurut
Walpole,1995 rumus yang telah dikoreksi adalah sebagai berikut.
( oi − ei − 0,5) 2
χ (corrected ) = ∑
2

i ei

Frekuensi harapannya besar, nilai yang terkoreksi maupun yang tidak


terkoreksi hampir sama dengan (koreksi yate) yang diharapkan. Harus digunakan
uji pasti (Fister-Irwin) yang dimana digunakan dalam (basic concepts of
probability and statistic), maka dari itu uji pasti ini harus menggunakan data atau
sampel yang ukurannya lebih besar.

2.4. Anova Satu Arah


II-26

Analisa varian (analysis of variance anova) digunakan untuk menguji


rata–rata dari tiga atau lebih populasi. Rata–rata populasi tersebut sama atau tidak
sama. Konsep dasar anova ditemukan oleh R.A.Fisher (Subiyakto,1994). Analisis
tersebut biasanya sering kali disebut dengan analisis ragam. Analisis ragam adalah
suatu metode untuk menguraikan keragaman total data menjadi komponen-
komponen yang mengukur sebagian sumber keragaman (Walpole,1995). Anova
digunakan untuk menguji perilaku antara dua variabel atau lebih. Menurut
Diktat,2009 cara untuk menguji anova adalah.
1. Menetukan formulasi hipotesis
2. Menetukan tararf nyata (X) dan f – tabel
3. Menetukan kriteria
Jika f – hitungan > f – tabel menjadi Η0 : diterima
Jika f – hitungan ≤ f – tabel menjadi Η0 : ditolak
4. Menetukan nilai statistik uji
5. Kesimpulan
Menurut Subiyakto,1994 konsep dasarnya adalah sebagai berikut.
1. Menghitung rata-rata masing-masing grup sampel dan menjelaskan
kesalahan baku rata-rata ( s x ) yang sama hanya didasarkan pada beberapa
rata-rata sampel.

2. Dengan formula
s
sx =
n
Didapat
s = sx n

Kemudian kesalahan baku dari rata-rata yang dihitung diatas dapat digunakan
untuk mengestimasi varian popilasi dari mana sampel diambil. Estimasi varian
populasi ini disebut kuadrat rata-rata diantara kelompok–kelompok (mean
square between groups: MSB).
II-26

3. Menghitung varian secara terpisah di dalam masing-masing kelompok


sampel dan berkaitan dengan masing-masing rata-rata kelompok. Kemudian
menyatukan nilai-nilai varian yang tertimbang dengan (n - 1) untuk masing-
masing sampel. Prosedur terimbang untuk varian ini adalah perluasan dari
prosedur untuk mengkombinasi dan menimbangkan dua varian sampel. Hasil
estimasi varian populasi disebut kuadrat rata–rata di dalam kelompok-
kelompok (mean square within groups: MSW).
4. Jika hipotesis nol: µ1 = µ2 = µ3 = ...... = µk benar, kuadrat rata-rata MSB
dan MSW merupakan estimator yang tak bias dan independent dari varian
populasi σ 2 yang sama (identik). Akan tetapi, jika hipotesis nol salah, nilai
harapan MSB lebih besar dari MSW. Sedikit saja ada perbedaan antara rata-
rata populasi akan membesarkan MSB walaupun tidak berpengaruh pada
MSW.
5. Berdasarkan pada pengamatan konsep 4 distribusi F dapat digunakan untuk
menguji perbedaan dua varian. Suatu pengujian satu sisi diperlukan distribusi
F. Menurut Subiyakto,1994 untuk menetukan nilai F digunakan rumus.
ΜSΒ
Fα; df 1:df 2 =
ΜSW

2.4.1 Analisa Varian Satu Arah


Menurut Subiyakto,1994 model anova satu arah atau nama lainnya (one-
way analysis of variance), digunakan untuk pengujian perbedaan antara K rata-
rata sampel apabila subyek–subyek ditentukan secara random pada setiap
beberapa grup atau kelompok perlakuan. Maka dalam model tersebut didapatkan
metode untuk menguji satu arah yaitu, rumusnya adalah sebagai berikut.
χ a = µ + α k + eik

Dengan:
µ : rata-rata keseluruhan dari semua k populasi klasifikasi.
αk : efek klasifikasi dalam k kelompok
eik : kesalahan random yang tergabung dalam proses sampling.
II-26

Hipotesis nol dan hipotesis alternatif untuk anova satu arah adalah
Η 0 : α k = 0Η a : α k ≠ 0 .

µ1 = µ2 = µ3 = ...... = µk .

Perhitungan anova satu arah yaitu dengan mencari MSB (mean square
between the A treatment groups) atau biasa disebut JKT(jumlah kuadrat total),
sedangkan MSW (mean square error) atau biasa disebut JKG (jumlah kuadrat
galat). N melambangkan total sampel (data) secara keseluruhan. n k merupakan
besarnya sampel pada kelompok k. Anova pada satuan simbolnya dapat dilihat
dalam tabel berikut.
Tabel 2.2 Rumus-Rumus Anova 1 Arah
Sumber Jumlah Derajat Kuadrat
F hitung
Keragaman Kuadrat Bebas Tengah
Nilai tengah JKK
JKK k–1 s12 =
kolom k −1 2
Galat s12 = s1
2
(Error)
s2
JKG k (n-1) JKG
k ( n −1)
Total JKT nk – 1
(Sumber :Walpole,1995)

Dimana:
2
k n
T 2 ..
JKT = ∑ ∑xij −
i =1 j =1 nk
k 2

∑T i
T ..2
JKK = i =1

n nk
JKG = JKT – JKK

2.4.2 Klasifikasi Satu Arah


Kalsifikasi satu arah mempunyai k populasi. Masing–masing populasi
yang berukuran n. Menyatakan k populasi itu bebas dan menyebar normal dengan
nilai tengah.
II-26

Η0 : µ1 = µ2 = µ3 = ...... = µk ,

Η1 : seekurang – kurangnya dua nilai tengah tidak sama.

Menurut Subiyakto,1994 setiap pengamatan dapat dituliskan dalam bentuk rumus,


yaitu.
χij = µi + ∈ij

Hal ini simpangan pengamatan dari nilai tengah populasi dalam bentuk
lain didapat persamaan dengan mensubstitusikan µi = µ + α i , sedangkan nilai
tengahnya adalah.
k

∑µ i
µ= i =1

k
χij = µi + α i + ∈ij
k k

∑ α = ∑ (µ
i =1
i
i =1
i − µ ) = 0.

Hipotesis nol berarti bahwa semua nilai tengah populasi itu sama lawan
alternatifnya bahwa sekurang–kurangnya dua nilai tengah tidak sama juga dapat
dinyatakan oleh hipotesis berikut, yaitu.

Didasarkan pada perbandingan dua nilai dugaan yang bebas bagi ragam populasi
. Nilai dugaan itu dapat diperoleh dengan cara meguraikan keragaman total
menjadi dua komponen. Menurut Walpole,1995 ragam semua pengamatan bila
semua pengamatan itu tidak dikelompokan maka diberikan rumus.

Penjumlahan ganda itu berarti bahwa harus menjumlahkan semua


kemungkinan suku, dan ini akan diperoleh dengan mengambil i dari 1 sampai k
untuk setiap nilai j dari 1 sampai n. Menurut Walpole,1995 pembilang itu, yang
II-26

disebut jumlah kuadrat total, mengukur keragaman total. Total ini dapat diuraikan
melalui identitas, yaitu.
Identitas Jumah–Kuadrat klasifikasi satu–arah:

Akan lebih memudahkan bagi uraian selanjutnya bila suku–suku jumlah kuadrat
itu diberi notasi berikut.
JKT = = jumlah kuadrat total

JKK = = jumlah kuadrat untuk nilai tengah kolom

JKG = = jumlah kuadrat galat


Dengan ini, identitas jumlah kuadrat itu dapat dilambangkan melalui persamaan
JKT = JKK + JKG

Salah satu nilai dugaan bagi yang didasarkan pada ke-1 derajat bebas, adalah.

Bila merupakan pendugaan tak bias bagi . Akan tetapi,


bila benar, JKK cendrung menghasilkan nilai besar, artinya menduga lebih
(overestimate) Nilai dugaan bagi yang lain, didasarkan pada k (n - 1)
derajat bebas adalah berikut ini.

Nilai dugaan ini bersifat tak bias, baik hipotesis nol benar atau salah.
Ragam seluruh data tanpa memperhatikan pengelompokkannya yang mempunyai
(nk–1) derajat bebas adalah sebagai berikut..
II-26

Nilai dugaan tak bias bagi bila benar. Identitas jumah kuadrat tersebut
tidak hanya mengurangkan jumlah kuadrat total, tetapi juga jumlah total derajat
bebasnya adalah.
nk – 1 = k – 1 + k (n – 1)
maka bila benar rasionya adalah sebagai berikut.

2.5. Anova Dua Arah


One way anova dapat diperluas menjadi analisis dua arah atau (two way
anova). Perlakuan dalam two way anova sebanyak dua macam. Hipotesis yang
akan diuji adalah klasifikasi dua arah tanpa interaksi dan pengujian klasifikasi dua
arah dengan interaksi, menyatakan bahwa tidak ada perbedaan k mean (k>2) pada
perlakuan pertama, tidak ada perbedaan k mean (k>2) pada perlakuan kedua, dan
tidak ada efek interaksi antara perlakuan pertama dan kedua.
Menurut H, Umar (1999) mekanisme perhitungan dilakukan dijelaskan
dengan berdasarkan data di bawah ini.
Tabel 2.3 Mekanisme Perhitungan
Perlakuan 2 Perlakuan 1
P1 P2 ..... PK Jumlah
Q1 a111 a121 a1K1 T1.

a11n a12n a1Kn


Q2 a211 a221 a2K1 T2.

a21n a22n a2Kn


QJ aJ11 aJ21 aJK1 TJ.

aJ1n aJ2n aJKn


Jumlah T.1 T.2 T.K T..

(Sumber: H, Umar, 1999)

2.5.1 Uji Hipotesis Dua Varians


II-26

Mengetahui apakah variansi dua populasi sama atau tidak sama diperlukan
pengujian dengan melibatkan sampel dari keduanya. Pengujian didasarkan pada

pemikiran bentuk distribusi sampling dari perbandingan antara S12 yang

merupakan variansi sampel dari populasi pertama dengan n1 titik sampel serta S 22
yang merupakan variansi sampel dari populasi kedua dengan n2 titik sampel.

S12
Menurut Djarwanto dan Subagyo (2000) perbandingan ini berdistribusi F atau
S22

berdistribusi F. Sehingga dapat disusun langkah-langkah pengujian sebagai


berikut .
1. Menentukan Hipotesis dan alternatifnya.
H 0 : σ 12 = σ 22
a).
H1 : σ 12 ≠ σ 22

H 0 : σ 12 ≥ σ 22
b).
H1 : σ 12 < σ 22

H 0 : σ 12 ≤ σ 22
c).
H1 : σ 12 > σ 22

2. Dipilih level of significance


3. Dibuat kriteria pengujian dengan dasar level of significance yang sudah
ditentukan.
a. Untuk hipotesis yang pertama
Jika S12 > S 22

H0 diterima jika F ≤ Fα 2;n1 −1;n2 −1

H0 ditolak jika F > Fα 2;n1 −1;n2 −1

Jika S 2 < S 2
1 2

H0 diterima jika F ≤ Fα 2;n2 −1;n1−1

H0 ditolak jika F > Fα 2;n2 −1; n1 −1

b. Untuk hipotesis yang kedua


II-26

H0 diterima jika F ≤ Fα ;n1 −1;n2 −1

H0 ditolak jika F > Fα ;n1 −1;n2 −1


c. Untuk hipotesis yang ketiga
H0 diterima jika F ≤ Fα ;n2 −1;n1 −1

H0 ditolak jika F > Fα ;n2 −1;n1 −1


4. Perhitungan nilai F:
a. Untuk hipotesis yang pertama

F = Varian yang besar


Varian yang kecil

b. Untuk hipotesis kedua

S12
F= 2
S2
c. Untuk hipotesis ketiga

S 22
F= 2
S1
5. Kesimpulan diambil dengan membandingkan langkah 3 dan 4.
2.5.2 Anova Dua Arah Tanpa Interaksi
Menurut Walpole,1995 rancangan percobaan dengan anova jenis ini,
setiap kategori mempunyai banyak blok yang sama, sehingga jika, banyak kolom
= k dan banyak baris atau blok = r, maka banyak data N= r x c.
Tabel 2.4 Anova 2 Arah Tanpa Interaksi
Sumber Jumlah Derajat Kuadrat fhitung ftabel
Keragaman Kuadrat bebas Tengah
(SK) (JK) (db) (KT)
Rata-rata JKB db S 2 B = KTB = fhitung α=
Baris numerator1 JKB = db
= r −1 KTB numer1=
r-1 KTG db
denum=
f tabel =
II-26

Rata –rata JKK Db S 2 K = KTK =Fhitung α=


Kolom denumerato JKK KTK db
=
r2= k-1 k −1 KTG numer2=
db
denum=
f tabel =
Galat JKG Db S 2G = KTG =
denum= JKG
(r-1)(k-1) ( r −1)( k −1)

Total JKT r.k-1


(Sumber :Walpole,1995)
r k
T*2*
JKT = ∑∑xij2 −
i =1 j =1 rk
r Ti *2 T*2*
JKB = ∑ i =1 k

rk
k T*2j T*2*
JKK = ∑r
i =1

rk
JKG = JKT –JKB-JK
Dimana:
k : banyaknya kolom
r : banyaknya baris/blok
Xij: data pada baris ke-I, kolom ke-j
Ti * : total (jumlah) baris ke-i

T* j : total (jumlah) kolom ke-j


T** : total (jumlah) seluruh pengamatan

2.5.3 Anova Dua Arah dengan Interaksi


Menurut Walpole,1995 efek interaksi diperoleh setelah setiap kolom
[perlakuan] dan blok [baris] diulang. Interaksi dinyatakan sebagai perkalian Baris
x Kolom [BK].
Tabel 2.5 Anova 2 Arah dengan Interaksi
Sumber Jumlah Derajat Kuadrat fhitung ftabel
Keragaman Kuadrat bebas Tengah
(SK) (JK) (db) (KT)
II-26

Nilai tengah JKB db S 2 B = KTB = F hitung α=


Baris numer1 JKB db =
= r −1 numer1=
KTB
r-1 db KTG
denum=
f tabel =
Nilai tengah JKK db S K = KTK = F hitung α =
2

Kolom numer2 JKK KTK db


=
= k −1 KTG numer2=
k-1 db
denum=
f tabel
Interaksi JK[BK] db S 2K = F hitung α =
[BK] numer3 KT [ BK ] = = db
= JK [ BK ] KT [ BK ] numer3=
[r-1][k- [ r −1][ k −1] KTG db
1] denum=
f tabel=
Galat JKG db S 2G = KTG =
denumer JKG
= r.k .[ n −1]
r.k.[n-1]
Total JKT [r.k.n]-1
(Sumber :Walpole,1995)

r k n
T*2**
JKT = ∑∑∑xijm −
2

i =1 j =1 m =1 rkn
r

JKB = ∑T 2
i **
T*2**
i =1

kn rkn
k

JKK =
∑T j =1
2
* j*
T*2**

rn rkn
r k r k

JK[BK] =
∑ ∑T
i =1 j = 1
2
ij * ∑T i
2
** ∑T
j =1
2
* j*
T*2**
− i =1
− +
n kn rn rkn
JKG = JKT – JKB – JKK- JK[BK]
II-26

Dimana:
r : banyak baris i = 1,2,3,…r
k: banyak kolom j = 1,2,3,…k
n: banyak ulangan m = 1,2,3,…n
X ijm : data pada baris ke-I, kolom ke-j dan ulangan ke-m
Ti ** : Total baris ke-i

T* j * : Total kolom ke-j


Tij * : Total Sel di baris ke-I dan kolom ke-j

T*** : Total keseluruhan pengamatan