Anda di halaman 1dari 25

BAB II

LANDASAN TEORI

2.1. Korelasi
Menurut Usman (2006), korelasi adalah istilah statistik yang menyatakan
derajat hubungan linier antara dua variabel atau lebih, yang ditemukan oleh Karl
Pearson pada awal 1900 oleh sebab itu terkenal dengan sebutan Korelasi Pearson
Product Moment (PPM). Korelasi adalah salah satu teknik analisis statistik yang
paling banyak digunakan oleh banyak peneliti karena peneliti pada umumnya
terhadap peristiwa-peristiwa yang terjadi dan mencoba untuk menghubungkannya.
Variabel pada korelasi terdiri dari dua jenis yaitu, variabel bebas dan
variabel terikat. Variabel bebas (independent variable) adalah variabel yang nilai-
nilainya tidak bergantung pada variabel lainnya, biasanya disimbolkan dengan X.
Variabel itu digunakan untuk meramalkan atau menerangkan nilai variabel yang
lain. Variabel terikat (dependent variable) adalah variabel yang nilai-nilainya
bergantung pada variabel lainnya, biasanya disimbolkan dengan Y. Variabel itu
merupakan variabel yang diramalkan atau diterangkan nilainya (Hasan, 2001).

2.1.1 Scatter Diagram


Scatter diagram adalah grafik yang menunjukkan titik-titik perpaduan nilai
observasi dari dua variabel (X dan Y), pada umumnya dalam grafik, variabel
independent (X) diletakkan pada garis horizontal sedangkan variabel dependent
(Y) pada garis vertikal, dari scatter diagram dapat diperoleh informasi tentang
bentuk hubungan antara dua variabel X dan Y dengan melihat macam pola yang
terbentuk (Supramono, 1993).
Diagram pencar adalah suatu alat berupa diagram untuk menunjukkan ada
atau tidaknya korelasi (hubungan) antara dua variabel (X dan Y) yang berupa
penggambaran nilai-nilai dari variabel-variabel tersebut (Hasan, 2001).

II-1
II-2

2.1.2 Koefisien Korelasi (KK)


Menurut Hasan (1999), koefisien korelasi merupakan indeks atau bilangan
yang digunakan untuk mengukur keeratan (kuat, lemah, atau tidak ada) hubungan
antar variabel, koefisien korelasi ini memiliki nilai-nilai antara -1 dan +1 (-1 ≤ KK
≤ +1).
1. Jika KK bernilai positif, maka variabel-variabel kolerasi positif. Semakin
dekat nilai KK ini ke +1 maka semakin kuat korelasinya, demikian pula
sebaliknya.
2. Jika KK bernilai negatif, maka variabel-variabel kolerasi negatif. Sehingga
dekat nilai KK ini ke -1 semakin kuat korelasinya, demikian pula sebaliknya.
3. Jika KK bernilai 0, maka variabel-variabel tidak menunjukkan korelasi.
4. Jika KK bernilai +1 atau -1, maka variabel menunjukkan korelasi positif atau
negatif yang sempurna.

2.1.3 Kegunaan Koefisien Korelasi


Menurut Hasan (2001), terdapat beberapa kegunaan dari Koefisien
korelasi. Berikut ini adalah kegunaan dari Koefisien korelasi yaitu:
1. Menentukan arah atau bentuk dan kekuatan hubungan.
2. Menentukan kovariasi, yaitu bagaimana dua variabel random (X dan Y)
bercampur. Kovariasi dirumuskan:

Kovarian : SX SY KK 


Keterangan:
SX = Simpangan baku (standar deviasi) variabel X.
SY = Simpangan baku (standar deviasi) variabel Y.
KK = koefisien korelasi.

2.1.4 Jenis–jenis Koefisien Korelasi


Menurut Hasan (1999), jenis-jenis koefisien korelasi yang sering
digunakan adalah koefisien korelasi pearson, koefisien korelasi rank spearman,
II-3

koefisien korelasi kontingensi, koefisien penentu (KP), koefisien korelasi rank


kendall. Berikut ini adalah penjelasan jenis-jenis korelasi tersebut.
1. Koefisien Korelasi Pearson
Koefisien korelasi ini digunakan untuk mengukur keeratan hubungan antara
dua variabel yang datanya berbentuk data interval atau rasio. Disimbolkan
dengan ( r ) dan dirumuskan:

n X 1Y   X 1 . Y
r Y .1  (n X 1  ( X 1 ) 2 )( n Y 2  ( Y ) 2 )
2

2. Koefisien Korelasi Rank Spearman


Koefisien korelasi ini digunakan untuk mengukur keeratan hubungan antara
dua variabel yang datanya berbentuk data ordinal (data bertingkat).
Disimbolkan dengan rs dan dirumuskan dengan:

6 d 2
r 1
S
n3  n
Keterangan:
rs = koefisien korelasi rank Sperman
d = selisih ranking X dan Y
n = banyaknya pasangan data
3. Koefisien Korelasi Rank Kendall
Koefisien korelasi rank kendall merupakan pengembangan dari koefisien
korelasi rank spearman, disimbolkan dengan “  ” (tau). Koefisien korelasi
ini digunakan pada pasangan variabel atau data X dan Y dalam hal
ketidaksesuaian rank, yaitu untuk mengukur ketidakteraturan. Koefisien
korelasi rank kendall dirumuskan:
S CD
  
1 1
  N  N  1   N  N  1
2 2
II-4

Keterangan:
S = Statistik untuk jumlah konkordansi dan diskordansi
C = Banyaknya pasangan konkordansi
D = Banyaknya pasangan diskordansi
N = jumlah pasangan X dan Y
4. Koefisien Korelasi Kontingensi
Koefisien korelasi ini digunakan untuk mengukur keeratan hubungan antara
dua variabel yang datanya berbentuk data nominal (data kualitatif).
Disimbolkan dengan C dan dirumuskan:

x2
C 
x2  n
Keterangan:
x2 = kai kuadrat
n = jumlah semua frekuensi
5. Koefisien Determinasi (R)
Apabila koefisien korelasi dikuadratkan akan menjadi koefisien determinasi,
yang artinya penyebab perubahan pada variabel Y yang datang dari variabel
X, sebesar kuadrat koefisien korelasinya. Koefisien ini menjelaskan besarnya
pengaruh nilai suatu variabel (variabel X) terhadap naik/turunya (variasi) nilai
variabel lainnya (variabel Y) dirumuskan:

KP  R  KK  .100%
2

Nilai koefisien ini terletak antara 0 + 1 (0 ≤ KP ≤ + 1). Jika koefisien


korelasinya adalah koefisien korelasi Pearson (r), maka koefisien penentunya
adalah:

KP  R  r 2 .100%

2.1.5 Korelasi Pearson Product Moment (PPM)


Menurut Usman (2006), korelasi pearson product moment merupakan
salah satu teknik korelasi yang paling banyak digunakan dalam penelitian sosial.
II-5

Besarnya angka korelasi disebut koefisien korelasi dinyatakan dalam r, fungsi dari
korelasi PPM adalah:
1. Menyatakan ada atau tidaknya hubungan yang signifikan antara variabel satu
dengan yang lainnya.
2. Menyatakan besarnya sumbangan variabel satu terhadap yang lainnya yang
dinyatakan dalam persen.

2.1.6 Korelasi Linier Berganda


Menurut Hasan (1999), korelasi linier berganda merupakan alat ukur
mengenai hubungan yang terjadi antara variabel terikat (variabel Y) dan dua atau
lebih variabel bebas. Analisis korelasinya menggunakan tiga koefisien korelasi,
yaitu koefisien determinasi berganda, koefisien korelasi berganda, dan koefisien
korelasi parsial. Koefisien korelasi berganda dengan dua variabel bebas terdiri
dari 3 jenis yaitu:
1. Koefisien Penentu Berganda
Koefisien penentu berganda ini dapat disimbolkan dengan KPBy.12 atau R2
merupakan kesesuaian garis regresi linier berganda terhadap suatu data. Nilai
koefisien penentu berganda terletak antara 0 dan 1, dapat dirumuskan dengan:
 r y .2  2. r y .1 . r y .2 . r1.2
2 2

KPBy .1.2 
r y .1

1  r1.2
2

2. Koefisien Korelasi Berganda


Koefisien korelasi berganda, disimbolkan RY.12’ merupakan ukuran keeratan
hubungan antara variabel terikat dan semua variabel bebas secara bersama-
sama. Koefisien korelasi berganda dapat dirumuskan:
 r y .2  2. r y .1 . r y .2 . r1.2
2 2


r y .1
R y .1.2
1  r1.2
2

3. Koefisien Korelasi Parsial


Koefisien korelasi parsial merupakan koefisien korelasi antara dua variabel
jika variabel lainnya konstan, pada hubungan yang melibatkan lebih dari dua
II-6

variabel, ada tiga koefisien korelasi parsial untuk hubungan yang melibatkan
tiga variabel yaitu:
a. Koefisien korelasi parsial antara Y dan X1, apabila X2 konstan
r  r y .2 . r1.2

y .1
R y1.2
1  r y .2 1  r1.2
2 2

b. Koefisien korelasi parsial antara Y dan X2 apabila X1 konstan

r  r y .1 . r 2.1

y .2
R y 2.1
1  r y .1 1  r 2.1
2 2

c. Koefisien korelasi parsial antara X1 dan X2 , apabila Y konstan


r  r1. y . r 2. y

1.2
R 12. y
1  r1. y 1  r 2. y
2 2

2.1.7 Korelasi Sempurna


Korelasi sempurna adalah korelasi dari dua variabel yaitu apabila kenaikan
atau penurunan variabel yang satu (variabel X) berbanding dengan kenaikan atau
penurunan variabel lainnya (variabel Y). Analisis korelasi yang akan dipelajari di
sini adalah analisis korelasi sederhana, yaitu analisis korelasi yang hanya
melibatkan dua variabel (variabel X dan Y) saja (Hasan, 1999).

2.2. Regresi
Menurut Walpole (1995), persamaan regresi adalah persamaan matematik
yang memungkinkan kita meramalkan nilai-nilai suatu peubah tak bebas dari
nilai-nilai satu atau lebih peubah bebas.
Menurut Hasan (1999), regresi merupakan peramalan, penaksiran, atau
pendugaan mengenai besar nilai dari uji statistik, dalam kehidupan ini setiap
manusia berhadapan dengan berbagai gejala yang meliputi berbagai variabel.
Sebagai contoh berat badan dalam taraf tertentu tergantung pada tinggi badannya,
produktivitas kerja pada taraf tertentu tergantung pada efisiensi dan efektivitas
kerjanya, produksi padi dalam taraf tertentu tergantung pada kesuburan tanah,
teknologi yang dipakai, banyak curah hujan, dan sebagainya.
II-7

Berdasarkan contoh-contoh di atas, maka tampak dimana variabel bebas


(yang mempengaruhi) dan mana variabel terikat atau tergantung (yang
dipengaruhi). Variabel yang mempengaruhi ini dalam analisis regresi disebut
sebagai variabel prediktor, dengan lambang (X) sedangkan variabel yang
dipengaruhi disebut variabel kriterium dengan lambang Y (Usman, 2006).
Analisis regresi berguna untuk mendapatkan hubungan fungsional antara
dua variabel atau lebih atau mendapatkan pengaruh antara variabel prediktor
terhadap variabel kriteriumnya atau meramalkan pengaruh variabel prediktor
terhadap variabel kriteriumnya (Usman, 2006).

2.2.1 Asumsi-Asumsi Dasar Regresi


Menurut Usman (2006), dalam penggunaan regresi, terdapat beberapa
asumsi dasar yang dapat menghasilkan estimator linier tidak bias yang terbaik dari
model regresi yang diperoleh dari metode kuadrat terkecil biasa, dengan
terpenuhinya asumsi tersebut maka hasil yang diperoleh dapat lebih akurat dan
mendekati atau sama dengan kenyataan. Asumsi-asumsi dasar itu dikenal sebagai
asumsi klasik, yaitu sebagai berikut:
1. Homoskedastisitas, berarti varians dari variabel bebas adalah sama atau
konstan untuk setiap nilai tertentu dari variabel bebas lainnya atau variasi
residu sama untuk semua pengamatan.
2. Nonautokorelasi, berarti tidak ada pengaruh dari variabel dalam modelnya
melalui selang waktu atau tidak terjadi korelasi di antara galat randomnya,
3. Nonmultikolinearitas, berarti antara variabel bebas yang satu dengan variabel
bebas yang lain dalam model regresi tidak terjadi hubungan yang mendekati
sempurna ataupun hubungan yang sempurna.
4. Distribusi kesalahan (error) adalah normal.
5. Nilai rata-rata kesalahan (error) populasi pada model stokastiknya sama
dengan nol.
6. Variabel bebasnya mempunyai nilai yang konstan pada setiap kali percobaan
yang dilakukan ssecara berulang-ulang (variabel nonstokastik)
II-8

2.2.2 Persamaan Analisis Regresi


Menurut Walpole (1995), persamaan regresi linier adalah persamaan
matematik yang memungkinkan untuk meramalkan nilai-nilai suatu peubah tak
bebas dari nilai-nilai satu atau lebih peubah bebas. Istilah ini berasal dari telaah
kebakaan yang dilakukan oleh Sir Francis Galton (1822-1911) yang
membandingkan tinggi badan anak laki-laki dengan tinggi badan ayahnya.
Persamaan analisis regresinya adalah:
Y  a  bX
Keterangan:
Y : variabel kriterium
X : variabel prediktor
a : bilangan konstan
b : koefisien arah regresi linier
Bentuk persamaan regresi tersebut sering dibaca sebagai regresi X atas Y,
artinya regresi X sebagai variabel prediktornya dengan Y sebagai variabel
kriteriumnya. Sebaliknya ada juga persamaan regresi yang dibaca sebagai regresi
Y atas X. Koefisien arah regresi linier dinyatakan dengan huruf b yang juga
menyatakan perubahan rata-rata variabel Y untuk setiap variabel X sebesar satu
bagian. Maksudnya ialah bila harga b positif, maka variabel Y akan mengalami
kenaikan atau pertambahan. Sebaliknya bila b negatif, maka variabel Y akan
mengalami penurunan (Usman, 2006).

2.2.3 Langkah-langkah Menghitung Persamaan Regresi


Persamaan regresi dapat dihitung secara manual dengan bantuan tabel
penolong, kalkulator, dan komputer. Berikut ini merupakan langkah-langkah
perhitungan analisis regresi secara manual:
1. Menulis Ha dan H0 dalam bentuk kalimat.
Ha : Terdapat hubungan fungsional linier dan signifikan antara variabel X
dengan Y.
H0 : Tidak terdapat hubungan fungsional yang linier dan signifikan antara
variabel X dengan Y.
II-9

2. Menulis Ha dan H0 dalam bentuk statistik.


Ha : r  0
H0 : r = 0
3. Membuat tabel penolong seperti tabel di bawah ini.
No. Xi Yi XiYi Xi2 Yi2
1
2
.
.
N

∑ Xi ∑ Yi ∑ XiYi ∑ Xi2 ∑ Yi 2

4. Menghitung nilai intercept dengan rumus:

Y  X   X  X Y 


2

a
i i i i i

n X   X 
2 2
i i

5. Menghitung nilai slope dengan rumus:


n X i Yi   X i  Yi 
b
n X i   X i 
2 2

Jika slope sudah dihitung lebih dahulu, maka intercept dihitung dengan
rumus:
a  Y  bX
6. Memasukkan nilai intercept dan slope ke dalam persamaan regresi:
Y  a  bX
7. Menguji signifikansi dan linieritas persamaan regresi tersebut dengan
menggunakan tabel penolong yang disebut tabel Analisys of Varians (Anova).
8. Mengisi rumus-rumus berdasarkan hasil perhitungan.
9. Menentukan kriteria untuk pengujian H0 yaitu:
H0 : signifikan
Ha : tidak signifikan
II-10

10. Jika Fsign hitung ≤ Fsign tabel, maka H0 diterima.


Jika Fline hitung ≤ Fline tabel, maka H0 diterima.
11. Mencari Fsign tabel dengan rumus:
Fsign tabel = F(1 – α)(dkreg), dkres dan dengan melihat tabel F didapat nilai Fsign tabel.
12. Mencari Fline tabel dengan rumus:
Fline tabel = F(1 - α), dk(TC), dk(E) dan dengan melihat tabel F didapat nilai Fline tabel.
13. Membandingkan hasil langkah 8, dengan langkah 12.
14. Membuat kesimpulannya.

2.2.4 Selisih Taksir Standar


Menurut Hasan (2001), selisih taksir standar atau kesalahan baku adalah
angka atau indeks yang digunakan untuk mengukur ketepatan suatu penduga atau
mengukur jumlah variasi titik-titik observasi di sekitar garis regresi, apabila
semua titik observasi berada tepat pada garis regresi, selisih taksir standar sama
dengan nol, dengan demikian selisih taksir standar secara langsung menunjukkan
tingkat pencaran data. Selisih taksir standar dapat dinyatakan dengan rumus
berikut:

  
(Y  Y ') 2

S y/ x S y.x S e n2

Atau

  
( X  Y ' ) 2

S x/ y S x. y S e n2

Keterangan:
Sy/x = Sx/y = selisih taksir standar
Y =X = nilai variabel sebenarnya
Y’ = X’ = nilai variabel yang diperkirakan
n = jumlah frekuensi

2.2.5 Regresi Berganda


Menurut Usman (2006), regresi berganda berguna untuk mendapatkan
pengaruh dua variabel kriteriumnya, atau untuk mencari hubungan fungsional dua
II-11

variabel prediktor atau lebih dengan variabel kriteriumnya, atau untuk


meramalkan dua variabel prediktor atau lebih terhadap variabel kriteriumnya.
Bentuk persamaan garis regresi ganda adalah seperti berikut ini:

Untuk 2 prediktor : Y = a + b1X1 + b2X2


Untuk 3 prediktor : Y = a + b1X1 + b2X2 + b3X3
Untuk n prediktor : Y = a + b1X1 + b2X2 + b3X3 + … + bnXn

2.2.6 Penyimpangan Asumsi Dasar


Menurut Usman (2006), penyimpangan terhadap asumsi-asumsi dasar
tersebut dalam regresi akan menimbulkan beberapa masalah, seperti standar
kesalahan untuk masing-masing koefisien yang di duga akan sangat besar.
Pengaruh masing-masing variabel bebas tidak dapat dideteksi, atau variasi dari
koefisiennya tidak minim lagi. Akibatnya estimasi koefisiennya menjadi kurang
akurat lagi yang pada akhirnya dapat menimbulkan interpretasi dan kesimpulan
yang salah. Penyimpangan asumsi dasar itu terdiri atas:
1. Heterokedastisitas, yang berarti (varians) variabel tidak sama untuk semua
pengamatan.
2. Autokorelasi, berarti terdapatnya korelasi antar anggota sampel atau data
pengamatan yang diurutkan berdasarkan waktu, sehingga munculnya suatu
datum dipengaruhi oleh datum sebelumnya. Misalkan persamaan regresi
menggunakan data berkala seperti berikut:

Y  a  b1 X t  b2 X t 1  et
Keterangan:

Y = konsumsi X = pendapatan
3. Multikolinearitas, yang berarti antara variabel bebas yang satu dengan
variabel bebas yang lain dalam model regresi saling berkolerasi linier.
II-12

2.3. Pengertian Chi-Square


Uji chi kuadrat atau chi-square merupakan pengujian hipotesis tentang
perbandingan antara frekuensi sampel yang benar-benar terjadi (selanjutnya
disebut dengan frekuensi observasi, dilambangkan dengan fo) dengan frekuensi
harapan yang didasarkan atas hipotesis tertentu pada setiap kasus atau data
(selanjutnya disebut dengan frekuensi harapan, dilambangkan dengan fe). Exspresi
matematis tentang distribusi chi-square hanya tergantung pada satu parameter,
yaitu derajat kebebasan (d.f), ada distribusi chi-square tertentu untuk masing-
masing nilai derajat kebebasan (Subiyakto, 1994).

2.3.1 Fungsi Chi-Square


Menurut Usman (2006), terdapat beberapa kegunaan-kegunaan dari chi-
square, Berikut ini adalah kegunaan-kegunaan dari chi-square yaitu:
1. Mendapatkan adanya hubungan atau pengaruh dua buah variabel nominal (uji
independent antara dua variabel).
2. Kuatnya (derajat) hubungan antara variabel yang satu dengan variabel
nominal lainnya yang dinyatakan dengan lambang C singkatan dari coefisien
of contingency atau koefisien kontingensi.
3. Menaksir simpangan baku.
4. Menguji proporsi untuk data multinom.
5. Menguji kesesuaian antara data hasil pengamatan dengan model distribusi
dari mana data itu diduga diambil, dan menguji homogenitas.
6. Menguji model distribusi normal berdasarkan data hasil pengamatan.

2.3.2 Tujuan Chi-Square


Menurut Boediono (2001), chi-square memiliki beberapa tujuan-tujuan
dalam pengujian hipotesis. Berikut adalah tujuan-tujuan dari chi-square:
1. Menguji kebebasan dalam daftar kontingensi.
2. Menguji kesesuaian data hasil pengamatan dengan dari mana data diperoleh.
3. Menguji frekuensi yang diamati apakah berbeda secara significant dengan
frekuensi yang diharapkan.
II-13

2.3.3 Pengertian Uji Kecocokan


Menurut Subiyakto (1994), uji kecocokan goodness of fit test, hipotesis
nol merupakan suatu ketentuan tentang pola yang diharapkan dari frekuensi-
frekuensi dalam barisan kategori-kategori. Pola yang diharapkan harus sesuai
dengan asumsi atau tanggapan atas kemungkinan kejadian yang sama dan bersifat
umum. Selanjutnya untuk penerimaan hipotesis nol, perbedaan antara frekuensi
observasi dengan yang diharapkan harus dapat dilambangkan dengan variabilitas
secara sampling pada tingkat signifikan yang diinginkan. Nilai chi-square untuk
pengujian perbedaan antara pola frekuensi observasi dan frekuensi harapan adalah

 2 f0  fe 
2

fe
Keterangan:
f0 : Frekuensi observasi
fe : Frekuensi harapan
Uji kecocokan derajat kebebasan (degree of freedom, d.f.) sama dengan
jumlah kategori dikurangi jumlah estimator parameter yang didasarkan pada
sampel dan dikurang 1, jika dirumuskan menjadi:
d. f .  k  m 1

Keterangan:
k : jumlah kategori data sampel
m : jumlah nilai-nilai parameter yang diestimasi
Jika Hipotesis nol menyatakan bahwa frekuensi-frekuensi observasi di
distribusikan sama dengan frekuensi harapan, tidak ada parameter estimator
sehingga nilai m = 0.

2.3.4 Langkah-langkah Penyelesaian Uji Kebaikan Suai


Menurut Hasan (2001), terdapat langkah-langkah dalam penyelesaian uji
kebaikan suai. Berikut adalah langkah-langkah penyelesaian uji kebaikan suai:
1. Menentukan formulasi hipotesis
Ho : P1 = P2 = P3 = …(= P)
II-14

H1 : P1 ≠ P2 ≠ P3 ≠ …(≠ P)
2. Menentukan taraf nyata (α) dan  2 tabel

Taraf nyata (α) dan χ 2 tabel di tentukan dengan derajat bebas (db) = K – 1


2

 ( k 1)

3. Menentukan kriteria pengujian


Ho diterima apabila χ 02 ≤ χ 2 α (k – 1)

Ho ditolak apabila χ 02 > χ 2 α (k – 1)


4. Menentukan nilai uji statistik

 2
2
 
k n ij  eij 
2

0
i 1 j 1 eij
Keterangan:
nij : Frekuensi pengamatan (observasi)
eij : Frekuensi harapan (teoritis)
i : 1,2
j : 1,2,3,4,5 …
5. Membuat kesimpulan
Menyimpulkan Ho diterima atau ditolak, dengan membandingkan nilai dari
uji statistiknya (langkah ke-4) dengan kriteria pengujiannya (langkah ke-3).

2.3.5 Pengujian Hipotesis Beda Tiga Proporsi atau Lebih


Menurut Hasan (2001), pengujian hipotesis beda tiga proporsi atau lebih
dapat dibedakan atas dua jenis, yaitu pengujian hipotesis dengan dua kategori dan
pengujian hipotesis lebih dari dua kategori.
1. Pengujian hipotesis dengan dua kategori (ukuran)
Pada pengujian hipotesis dengan dua kategori, peristiwa yang terlihat hanya
terdiri atas dua kategori, seperti sukses dan gagal, baik dan buruk, kepala dan
ekor.
2. Pengujian hipotesis lebih dari dua kategori
Peristiwa atau keadaan yang terlibat adalah lebih dari dua kategori, seperti
II-15

sangat baik, sedang, dan buruk atau setuju, tidak setuju, dan blanko atau
sangat sulit, sulit, sedang, dan mudah, pada dasarnya, langkah-langkah
pengujian hipotesis lebih dari dua kategori sama dengan pengujian hipotesis
dua kategori.

2.3.6 Chi-Square Sebagai Uji Independensi


Menurut Usman (2006), uji independensi adalah suatu uji yang
dipergunakan untuk melihat apakah perbedaan yang diamati dari beberapa
proporsi sampel signifikan (by chance). Pengujian seperti ini pada dasarnya
membandingkan frekuensi observasi dengan frekuensi yang diharapkan
(expected), jika hipotesis nol adalah benar. Kemudahan dalam menghitung
frekuensi observasi bisa didapatkan dengan mempergunakan tabel kontingensi.
Tabel itu berisikan hasil observasi terhadap beberapa proporsi tertentu
berdasarkan atribut yang ingin diamati perubahannya dan pengaruhnya, apabila
hipotesis nol adalah benar, maka frekuensi yang diharapkan dapat pula dihitung
berdasarkan jumlah proporsi masing-masing atribut (tidak diterapkan atau
terapkan), dibagi dengan jumlah total sampel.
Menurut Usman (2006), untuk menguji hipotesis nol, maka frekuensi
observasi harus dibandingkan dengan frekuensi yang diharapkan. Jika nilai
observasi dan yang diharapkan adalah serupa, maka secara intuitif hipotesis nol
diterima. Jika terdapat perbedaan yang besar antara frekuensi tersebut, maka
hipotesis nol ditolak dan dapat disimpulkan, bahwa terdapat perbedaaan yang
signifikan pada keempat proporsi terhadap penerapan metode baru tersebut.
1. Fungsi : Menguji apakah ada perbedaan antara frekuensi yang diamati
dengan frekuensi harapan.
2. Ho : Tidak ada perbedaan antara frekuensi harapan dengan frekuensi
observasi.
H1 : Ada perbedaan antara frekuensi harapan dengan frekuensi
observasi.
II-16

3. Statistik:

 2
 1
O1  E1 2 ;  1...K
E1
Keterangan:
O1 : frekuensi observasi kategori i
E1 : frekuensi harapan kategori i
4. Jika frekuensi observasi dan frekuensi harapan tidak jauh berbeda, maka O1 -
E1 kecil sehingga χ 2 juga kecil dan sebaliknya, sehingga semakin besar χ 2
makin besar pula kemungkinan kedua frekuensi berbeda sehingga Ho ditolak.
5. Metode:
a. Hitung frekuensi harapan kategori I sesuai dengan Ho.
b. Untuk setiap kategori, kurangkan frekuensi observasi dengan frekuensi
harapan dan kuadratkan hasilnya, kemudian bagi dengan frekuensi
harapan.
c. Jumlahnya untuk setiap kategori untuk mendapatkan nilai χ 2 .
6. Keputusan:
Distribusi sampling χ 2 berdistribusi chi-square dengan derajat bebas db = k -

1 (tabel C). Jika kemungkinan yang berkaitan dengan munculnya χ 2 dibawah


Ho ≤ α, maka Ho ditolak jika tidak H0 diterima.

2.3.7 Chi-Square Sebagai Uji Goodnes of Fit


Menurut Usman (2006), uji chi-square juga dapat dipergunakan untuk
memutuskan apakah distribusi probabilitas tertentu, seperti binomial, poisson,
atau normal adalah distribusi yang cocok untuk dipergunakan pada persoalan
tertentu. Kemampuan ini menjadi penting karena dalam mengambil keputusan
berdasarkan data statistik haruslah ditentukan suatu distribusi probabilitas yang
paling mewakili distribusi data yang sedang ditinjau.
Melalui uji chi-square data diketahui seberapa jauh asumsi yang
dipergunakan dalam suatu distribusi dapat dipergunakan, dengan kata lain uji chi-
square memungkinkan untuk menentukan apakah terdapat perbedaan yang
II-17

signifikan antara ditribusi frekuensi observasi dengan distribusi frekuensi


teoritisnya, pada kasus ini ketepatan (goodness of fit) dari suatu distribusi teoritis
terhadap distribusi observasi dapat ditentukan (Usman, 2006).

2.4. Analisa Varian (Anova)


Analisis ragam atau analisa varian adalah suatu metode untuk
menguraikan keragaman total data menjadi komponen-komponen yang mengukur
berbagai sumber keragaman. Percobaan di atas memperoleh dua komponen, yang
pertama mengukur keragaman yang disebabkan oleh galat percobaan dan yang
kedua mengukur keragaman yang disebabkan oleh percobaan dengan plus
keragaman yang disebabkan oleh perbedaan varitas (Walpole, 1995).
Analisis ragam atau analisa varian (analysis of variance, anova) digunakan
untuk menguji rata-rata dari tiga atau lebih populasi. Rata-rata populasi tersebut
sama atau tidak sama. Konsep dasar anova dikemukakan oleh R.A. Fisher, adapun
konsep tersebut adalah sebagai berikut (Subiyakto, 1994):
1. Menghitung rata-rata masing-masing grup sampel dan menjelaskan kesalahan
baku rata-rata ( S x ) yang hanya didasarkan pada beberapa rata-rata sampel.

2. Dengan formula:
s
Sx 
n

Didapat:
s  sx n
Kemudian, kesalahan baku dari rata-rata yang dihitung di atas dapat
digunakan untuk mengestimasi varian populasi dari mana sampel diambil.
Estimasi varian populasi ini disebut kuadrat rata-rata diantara kelompok-
kelompok (mean square between groups: MSB).
3. Menghitung varian secara terpisah di dalam masing-masing kelompok sampel
dan berkaitan dengan masing-masing rata-rata kelompok. Kemudian
menyatukan nilai-nilai varian yang tertimbang (n-1) untuk masing-masing
sampel. Prosedur tertimbang untuk varian ini adalah perluasan dari prosedur
untuk mengkombinasi dan menimbang dua varian sampel. Hasil estimasi
II-18

varian populasi disebut kuadrat rata-rata di dalam kelompok-kelompok (mean


square within groups: MSW).
4. Jika hipotesis nol: μ1  μ 2  μ 3  ...  μ k benar, kuadrat rata-rata MSB dan
MSW merupakan estimator yang tak bias dan independent dari varian
populasi σ 2 yang sama (identik). Akan tetapi jika hipotesis nol salah, nilai
harapan MSB lebih besar dari MSW. Sedikit saja ada perbedaan di antara
rata-rata populasi akan membesarkan MSB walaupun tidak berpengaruh pada
MSW.
5. Berdasarkan pada pengamatan konsep 4 distribusi F dapat digunakan untuk
menguji perbedaan dua varian. Suatu pengujian satu sisi diperlukan distribusi
F. untuk menemukan nilai F dapat digunakan rumus:

MSB
Fα;df1 ;df2 
MSW

Apabila rasio F berada di daerah penolakan untuk tingkat signifikan tertentu,


hipotesis tentang kesamaan beberapa rata-rata sampel berasal dari populasi
ditolak.

2.4.1 Jenis-jenis Analisa Varian


Menurut Usman (2006), analisa varian dibedakan menjadi dua jenis
berdasarkan banyaknya faktor yang mempengaruhi variabel terikat. Berikut
adalah jenis-jenis analisa varian:
1. Analisa varian satu jalur (anova tunggal, anova satu arah atau one way anova)
2. Analisa varian dua jalur (anova ganda, anova dua arah atau two way anova)

2.4.2 Analisa Varian Satu Arah


Menurut Subiyakto (1994), analisis ragam satu arah (one-way analysis of
variance) digunakan untuk pengujian perbedaan antara (k) rata-rata sampel
apabila subyek-subyek ditentukan secara random pada setiap beberapa grup atau
kelompok perlakuan. Anova satu jalur ialah anova yang mempelajari perbedaan
antara satu variabel bebas dengan satu variabel terikat.
II-19

Analisis varians satu arah digunakan untuk pengujian perbedaan antara k


rata-rata sampel apabila subyek-subyek ditentukan secara random pada setiap
beberapa grup atau kelompok perlakuan. Persamaan linier yang menggambarkan
model uji satu arah adalah (Subiyakto, 1994).

Xik  μ  α k  eik

Keterangan:
μ = rata-rata keseluruhan dari semua k populasi klasifikasi.

α = efek klasifikasi dalam k kelompok, khusus darimana nilai dijadikan sampel.


k
e
ik = kesalahan random yang tergabung dalam proses sampling.
Hipotesis nol dan hipotesis alternatif untuk anova satu arah adalah
H 0 :  k  0H a :  k ≠ 0

Jika hipotesis nol benar, berarti: μ1  μ 2  μ 3  ...  μ


k
Menurut Walpole (1995), model anova satu arah (one way analysis of
variance) biasa digunakan untuk pengujian pebedaan antara k rata-rata sampel
apabila subjek-subjek ditentukan secara random pada setiap beberapa grup atau
kelompok dan dengan demikian, identitas jumlah kuadrat biasa dilambangkan
dengan persamaan sebagai berikut:
JKT  JKK  JKG
Atau salah satu nilai dugaan bagi  2 didasarkan pada k – 1 derajat bebas ialah:
JKK
S 12 
k 1
Selanjutnya apabila H0 benar S1, merupakan penduga tak biasa bagi  2 tetapi bila
H1 benar maka JKK cendrung menghasilkan nilai yang lebih besar. Nilai dugaan
bagi  2 yang lain, yang didasarkan pada k (n – 1) derajat bebas ialah sebagai
berikut:
JKG
S 22 
k ( n 1)
II-20

Nilai dugaan ini bersifat tak biasa, baik hipotesis nol benar atau salah, melihat
bahwa ragam seluruh data tanpa memperhatikan pengelompokannya yang
mempunyai tabel sebagai berikut:
Tabel 2.1 Ringkasan Analisa Varian
Sumber Derajat Kuadrat rata-
Jumlah derajat fhit
keragaman kebebasan rata
Nilai tengah JKK k–1 JKK
S 12 
kolom k 1 S 12
f
S 22
Galat/Error JKE k (n – 1) JKK
S 22 
k (n  1)
Total JKT (k–1) + K (n–1)

Selain menggunakan tabel anova, analisis varian dapat juga dilakukan secara
langsung dengan menggunakan langkah-langkah berikut.
1. Menentukan rata-rata sampel (rata-rata kolom).
2. Menentukan varians sampel.
3. Menentukan rata-rata varians sampel.
4. Menentukan varians rata-rata sampel.
n ( varian rata  data sampel )
Fo 
rata  rata varian sampel

2.4.3 Pengujian Klasifikasi Analisa Varians Satu Arah


Menurut Hasan (2001), pengujian klasifikasi satu arah merupakan
pengujian hipotesis beda tiga rata-rata atau lebih dengan satu faktor yang
berpengaruh. Langkah-langkah pengujian klasifikasi satu arah ialah sebagai
berikut.
1. Menentukan formulasi hipotesis.
H o : μ1  μ 2  μ 3  ...  μ
k
H1 : μ1  μ 2  μ 3  ...  μ
k
II-21

2. Menentukan taraf nyata α  beserta F tabel.

Taraf nyata α  ditentukan dengan derajat pembilang V1  dan derajat

penyebut V2  , v1  k  1 dan – 1 dan v2 = k(n – 1). Fα(v = ...


1;v2 )

3. Menentukan kriteria pengujian


H0 diterima apabila F0 Fα(v
1;v2 )

H1 ditolak apabila F0 > Fα(v ;v )


1 2

4. Membuat analisis variansnya


k
T 2 ..
n
JKT =  x  2
ij
i 1 j 1 nk
k

T i
2

T 2 ..
JKK = i 1
 Untuk ukuran sampel yang sama banyak
n nk
JKE = JKT – JKK
k = kolom, n = baris
k
T 2 ..
n
JKT =  x  2
ij
i 1 j 1 N
k

T i
2

T 2 ..
JKK = i 1
 Untuk ukuran sampel yang tidak sama
ni N
JKE = JKT – JKK banyak
Derajat bebas error = N-k
N = jumlah sampel
5. Membuat kesimpulan.

2.5. Pengujian Hipotesis


Menurut Hassan (2001), istilah hipotesis berasal dari bahasa Yunani, yaitu
hupo dan thesis. Hupo berarti lemah, kurang, atau di bawah sedangkan thesis
berarti teori, proporsi, atau pernyataan yang disajikan sebagai bukti, jadi hipotesis
dapat diartikan sebagai suatu pernyataan yang masih lemah kebenarannya dan
II-22

perlu dibuktikan atau dugaan yang sifatnya masih sementara. Hipotesis statistik
adalah pernyataan atau dugaan mengenai keadaan populasi yang sifatnya masih
sementara atau lemah kebenarannya. Hipotesis statistik dapat berbentuk suatu
variabel, seperti binomial, poisson, dan normal atau nilai dari suatu parameter,
seperti rata-rata, varians, simpangan baku, dan proporsi.
Pengujian hipotesis adalah suatu prosedur yang akan menghasilkan suatu
keputusan, yaitu keputusan menerima atau menolak hipotesis itu, dalam pengujian
hipotesis keputusan yang dibuat mengandung ketidakpastian artinya keputusan
bisa benar atau salah, sehingga menimbulkan resiko, besar kecilnya resiko
dinyatakan dalam bentuk probabilitas (Hasan, 2001).

2.5.1 Prosedur Pengujian Hipotesis


Menurut Hasan (2001), prosedur pengujian hipotesis adalah langkah-
langkah yang dipergunakan dalam menyelesaikan pengujian hipotesis tersebut.
Langkah-langkah pengujian statistik adalah sebagai berikut.
1. Menentukan formulasi hipotesis
Formulasi atau perumusan hipotesis statistik dapat dibedakan atas dua jenis
yaitu:
a. Hipotesis nol atau hipotesis nihil.
Hipotesis nol disimbolkan H0 adalah hipotesis yang dirumuskan sebagai
suatu pernyataan yang akan diuji.
b. Hipotesis alternatif atau hipotesis tandingan.
Hipotesis alternatif disimbolkan H1 atau Ha adalah hipotesis yang
dirumuskan sebagai lawan atau tandingan dari hipotesis nol.
2. Menentukan taraf nyata (Significant Level)
Taraf nyata adalah besarnya batas toleransi dalam menerima kesalahan hasil
hipotesis terhadap nilai parameter populasinya, taraf nyata dilambangkan
dengan α (alpha). Semakin tinggi taraf nyata yang dipergunakan, semakin
tinggi pula penolakan hipotesis nol atau hipotesis yang diuji, sehingga
hipotesis nol benar.
II-23

3. Menentukan kriteria pengujian


Menentukan pengujian adalah bentuk pembuatan keputusan dalam menerima
atau menolak hipotesis nol (H0) dengan cara membandingkan nilai α tabel
distribusinya (nilai kritis) dengan uji statistiknya, sesuai dengan bentuk
pengujiannya.
4. Menentukan nilai uji statistik
Uji statistik merupakan rumus-rumus yang berhubungan dengan distribusi
tertentu dalam pengujian hipotesis.
5. Membuat kesimpulan
Pembuatan kesimpulan merupakan penetapan keputusan dalam hal
penerimaan atau penolakan hipotesis nol (H0), sesuai dengan kriteria
pengujiannya.

2.5.2 Analisa Varian Dua Jalur


Menurut Usman (2006), apabila pada anova satu jalur peneliti dapat
mengetahui ada atau tidaknya perbedaan beberapa variabel bebas dengan sebuah
variabel terikat dan masing-masing variabel tidak mempunyai jenjang, maka
dalam anova dua jalur peneliti ingin mengetahui ada atau tidak adanya perbedaan
beberapa variabel bebas dengan sebuah variabel terikatnya dan masing-masing
variabel mempunyai dua jenjang atau lebih. Banyaknya jenjang yang dimiliki
variabel bebas dan variabel terikat ini menentukan nama dari anovanya. Analisa
varian dua jalur merupakan pengembangan dari anova satu jalur, oleh sebab itu
persyaratan dalam anova satu jalur pada umumnya berlaku pula untuk analisa
varian dua jalur, hanya perbedaannya terletak pada rumus-rumusya.

2.5.3 Analisa Varian Dua Jalur Tanpa Interaksi


Model anova dua arah (two-way anova) yang di dalamnya hanya ada satu
observasi setiap ruang lingkup sering diartikan sebagai randomized block design,
karena adanya tipe khusus dalam penggunaan model ini, dalam anova,
penggabungan kelompok-kelompok disebut blocks, dan arena kejadian individual
II-24

atau tunggal ditentukan secara random yang didasarkan atas identifikasi


keanggotaan block, bentuknya dikaitkan dengan randomized block design.
Sesuatu dimensi blocks sedemikian itu bukan merupakan suatu dimensi
perlakuan atau klasifikasi (treatment). Sifat objektif penggunaan bentuk ini tidak
hanya khusus untuk tujuan pengujian suatu efek atau pengaruh blocks, akan tetapi
ada kemungkinan untuk menentukan suatu variabilitas di antara subyek-subyek
terhadap prestasi prior, misalnya, MSE dapat direduksi dan pengujian yang
dihasilkan dari efek A adalah lebih sensitif (Subiyakto, 1994).
Persamaan linier untuk model two-way analisa varian tanpa replikasi atau
interaksi adalah:
Xjk = µ + βj + αk + ejk
Dengan:
µ = Rata-rata keseluruhan tanpa memperhatikan banyaknya perlakuan.
βj = Efek perlakuan block j dalam dimensi B
αk = Efek perlakuan k dalam dimensi kalsifikasi A
ejk = Kesalahan random yang dihubungkan dengan proses sampling

2.5.4 Analisa Varian Dua Jalur Dengan Interaksi


Menurut Subiyakto (1994), tiga hipotesis nol yang berbeda dapat diuji
dengan analisa varian dua arah dengan interaksi (two-way analysis of variance
with interaction, n observations per cell), yaitu: tidak ada efek kolom (perbedaan
rata-rata kolom tidak signifikan), tidak ada efek baris (perbedaan rata-rata baris
tidak signifikan), dan tidak ada interaksi di antara dua faktor baris dan kolom (dua
faktor independent). Suatu efek interaksi yang signifikan menunjukkan bahwa
efek klasifikasi bagi suatu faktor berubah-ubah sesuai dengan tingkat-tingkat
faktor yang lain, dalam suatu kasus demikian keberadaan kolom dan baris
mengakibatkan kemungkinan tidak berartinya hasil-hasil riset.
Persamaan linier untuk model two-way anova dengan replikasi atau interaksi
adalah:
Xjk = µ + βj + αk + ιjk+ ejk
II-25

Dengan:
µ = Rata-rata keseluruhan tanpa memperhatikan banyaknya klasifikasi
βj = Efek klasifikasi j dalam dimensi B (baris)
αk = Efek klasifikasi k dalam dimensi A (kolom)
ejk = Kesalahan random sehubungan dengan proses sampling
ιjk = Efek interaksi diantara klasifikasi j (dari faktor B) dan klasifikasi k (dari
faktor A).

2.5.5 Perbandingan Anova Satu Arah dengan Anova Dua Arah


Menurut Usman (2006), sebenarnya analisa varian satu arah dapat dipakai
untuk menghadapi kasus variabel bebas lebih dari satu, hanya saja analisisnya
dilakukan satu per satu, sehingga akan menghadapi banyak kasus (N semakin
banyak). Selanjutnya dengan melakukan analisa varian dua arah akan dihindari
pula terjadinya noise (suatu kemungkinan yang menyatakan terdapat suatu efek
karena bercampurnya suatu analisis data). Noise ini dapat dihindari pada anova
dua arah karena analisis disini melibatkan kontrol terhadap perbedaan
(katagorikal) variabel bebas. Interaksi suatu kebersamaan antar faktor dalam
mempengaruhi variabel bebas, dengan sendirinya pengaruh faktor-faktor secara
mandiri telah dihilangkan.
Apabila terdapat interaksi berarti efek faktor satu terhadap variabel terikat
akan mempunyai garis yang tidak sejajar dengan efek faktor lain terhadap variabel
terikat sejajar (saling berpotongan), maka antara faktor tidak mempunyai
interaksi. Analisa varian dua arah digunakan peneliti untuk mengatasi perbedaan
nilai variabel terikat yang dikategorikan berdasarkan variasi bebas yang banyak
dan masing-masing variabel terdiri dari beberapa kelompok. Analisa varian dua
arah merupakan penyempurnaan dari anova satu arah. Analisa varian dua arah
lebih efisien daripada analisa varian satu arah, karena kasus yang dihadapi lebih
sedikit yaitu sejumlah sampel noise dapat dihilangkan.dapat diketahui unsur
kebersamaan variabel bebas dalam mempengaruhi variabel terikat (Usman, 2006).

Anda mungkin juga menyukai