Anda di halaman 1dari 16

BAB 2

LANDASAN TEORI

2.1 Variabel

Variabel ialah sesuatu yang nilainya berubah-ubah menurut waktu atau


berbeda menurut elemen/tempat. Umumnya nilai karakteristik merupakan variabel
dan diberi simbol huruf X.

Variabel berasal dari kata vary yang berarti ”berubah” dan able yang berarti
”dapat”, maka setiap variabel dapat diberi nilai dan nilai itu dapat berubah-ubah. Nilai
tersebut dapat berupa nilai kualitatitif atau kuantitatif. Variabel penelitian pada
hakikatnya adalah segala sesuatu yang berbentuk apa saja yang ditetapkan oleh peneliti
untuk dipelajari sehingga diperoleh informasi tentang hal tersebut, kemudian ditarik
kesimpulannya, (Sugiyono, 2007).

Menurut hubungan antara suatu variabel dengan variabel lainnya, variabel


terbagi atas beberapa yaitu:
a) Variabel independen (independent variable) atau variabel bebas yaitu yang
menjadi sebab terjadinya (terpengaruhnya) variabel dependent (variabel tak
bebas).
b) Variabel dependen (dependent variable) atau variabel tak bebas yaitu variabel
yang nilainya dipengaruhi oleh variabel independen.
c) Variabel moderator yaitu variabel yang memperkuat atau memperlemah
hubungan antara suatu variabel dependent dengan independent.
d) Variabel intervening, seperti variabel moderator, tetapi nilainya tidak dapat
diukur.

Universitas Sumatera Utara


e) Variabel kontrol, yaitu variabel yang dapat dikendalikan oleh peneliti.

2.2 Data

Data merupakan kumpulan keterangan atau fakta yang diperoleh dari satu populasi
atau lebih. Data yang baik, benar dan sesuai dengan model menentukan kualitas
kebijakan/ keputusan yang akan diambil terhadap suatu masalah dari populasi yang
akan dikaji. Menurut Kamus Besar Bahasa Indonesia, pengertian data adalah
keterangan yang benar dan nyata. Tujuan dari pengumpulan data adalah :
1. Untuk memperoleh gambaran suatu keadaan.
2. Sebagai dasar pengambilan suatu keputusan.

Menurut Richard Lungan (2006), dalam berbagai aplikasi, data dapat


dibedakan sebagai berikut:

2.2.1 Menurut sifatnya


Menurut sifatnya data dibedakan atas:
a. Data Kualitatif, disajikan bukan dalam bentuk bilangan-bilangan (non-
numerik), Misalnya jenis kelamin mahasiswa suatu fakultas pada Perguruan
Tinggi Negeri.
b. Data Kuantitatif, disajikan dalam bentuk bilangan-bilangan, Misalnya jumlah
mahasiswa menurut jurusan pada fakultas suatu Perguruan Tinggi Negeri.

2.2.1 Menurut cara memperolehnya


Menurut cara memperolehnya data dibedakan atas:
a) Data Primer, merupakan data yang langsung diperoleh dari lapangan melalui
percobaan, survei dan observasi. Misalnya seorang peneliti ingin mengetahui
hubungan antara besarnya biaya hidup yang dikeluarkan mahasiswa untuk
ongkos dan tempat tinggal terhadap biaya hidup. Ongkos dan tempat tinggal
tersebut merupakan data primer bagi peneliti bersangkutan.
b) Data Sekunder, diperoleh dari data primer, biasanya dalam publikasi berupa
tabel-tabel, seperti data mahasiswa, data besar ongkos dan data biaya tempat

Universitas Sumatera Utara


tinggal. Data yang dipublikasikan oleh Biro Pusat Statistik selalu berupa data
sekunder.

2.2.2 Menurut waktunya


Menurut waktu dapat dibedakan atas:
a) Data Silang, merupakan data yang dikumpulkan dalam waktu yang sifatnya
temporer. Misalnya data hasil penelitian lamanya pendidikan mahasiswa pada
suatu Perguruan Tinggi Negeri di tahun 2009.
b) Data Berkala, merupakan data yang dikumpulkan setiap periode tertentu.
Misalnya jumlah mahasiswa matematika di FMIPA selama tahun 2000-2010.

2.2.3 Menurut sumbernya


Menurut sumbernya data dibedakan atas:
a) Data Internal, merupakan data yang dikumpulkan oleh unit kerja tertentu
dalam lingkungannya untuk keperluannya sendiri. Misalnya data mahasiswa,
dosen, pegawai, keuangan dan peralatan Perguruan Tinggi XYZ. Data ini
merupakan data internal bagi perguruan tinggi tersebut.
b) Data Eksternal, merupakan data yang diambil dari unit lain. Misalnya data
Perguruan Tinggi XYZ seperti yang disebut di atas kemudian digunakan oleh
BPS, maka data tersebut merupakan data eksternal bagi BPS.

2.3 Analisis Korelasi

Analisis korelasi adalah metode yang digunakan untuk mengukur kekuatan atau derajat
hubungan antara dua variabel atau lebih. Perhitungan derajat didasarkan pada
persamaan regresi. Dalam ilmu statistika, istilah korelasi diartikan sebagai hubungan
linier antara dua variabel atau lebih. Hubungan antara dua variabel dikenal dengan
istilah bivariate correlation, sedangkan hubungan antar lebih dari dua variabel disebut
multivariate correlation.
Tujuan dilakukan analisis korelasi antara lain adalah:
a) Untuk mencari bukti terdapat tidaknya hubungan (korelasi) antarvariabel.

Universitas Sumatera Utara


b) Bila sudah ada hubungan, maka dapat digunakan untuk melihat tingkat
keeratan hubungan antarvariabel.
c) Dan untuk memperoleh kejelasan dan kepastian apakah hubungan tersebut
berari (meyakinkan/signifikan) atau tidak berarti.

Tinggi-rendah, kuat-lemah atau besar-kecilnya suatu korelasi dapat diketahui


dengan melihat besar kecilnya suatu angka (koefisien) yang disebut angka indeks
korelasi atau coefficient of correlation, yang disimbolkan dengan ρ atau r. Koefisien
korelasi untuk data populasi disimbolkan dengan ρ, sedangkan korelasi untuk data
sampel disimbolkan dengan r. Angka korelasi berkisar antara 0<r<1. Perhatikan tanda
plus minus (±) pada angka indeks korelasi. Tanda plus minus pada angka indeks
korelasi ini fungsinya hanya untuk menunjukkan arah korelasi jadi bukan sebagai tanda
aljabar. Apabila angka indeks korelasi bertanda plus (+) maka korelasi tersebut positif
dan arah korelasi satu arah dan apabila angka indeks korelasi bertanda minus (-), maka
korelasi tersebut negatif berlawanan arah, serta apabila angka indeks korelasi sama
dengan 0, maka hal ini menunjukkan tidak ada korelasi. Dengan demikian, arah
korelasi dapat dibedakan menjadi dua, yaitu yang bersifat satu arah dan yang sifatnya
berlawanan arah.

Apabila terdapat dua buah variabel yaitu X dan Y yang keduanya memiliki
tingkat pengukuran ordinal maka koefisien korelasi yang dapat dipergunakan adalah
koefisien korelasi Spearman atau Spearman`s coefficient of (rank) correlation dan
angka indeks korelasi Spearman dapat dihitung dengan menggunakan rumus berikut:

Keterangan:
= Koefisien korelasi Spearman
n = Banyaknya ukuran sampel

D i
2
= Jumlah kuadrat dari selisih rank variabel x

dengan rank variabel y

Universitas Sumatera Utara


2.4 Analisis Diskriminan (Analisis Fungsi Pembeda)

Analisis Diskriminan merupakan suatu analisis multivariat yang digunakan untuk


mengelompokkan suatu individu atau objek ke dalam suatu kelompok yang telah
ditentukan sebelumnya berdasarkan variabel-variabel tertentu. Analisis diskriminan
dapat digunakan jika variabel dependen terdiri dari dua kelompok atau lebih
kelompok. Pengelompokkan pada analisis bersifat apriori, artinya seorang peneliti
sudah mengetahui sebelumnya individu atau objek mana saja yang masuk ke dalam
kelompok 1, 2, dan 3. Analisis diskriminan memiliki kemiripan dengan regresi linier
berganda (multivariable regression). Perbedaannya adalah analisis diskriminan
dipakai jika variabel dependennya kategori (menggunakan skala ordinal ataupun
nominal) dan variabel independennya menggunakan skala metrik (interval dan rasio).
Sedangkan dalam regresi berganda variabel dependennnya harus metrik dan
variabelnya independen dapat berupa metrik maupun nonmetrik. Sama halnya dengan
regresi berganda, dalam analisis diskriminan pun variabel dependen hanya satu
sedangkan variabel independen banyak (multiple). Ada dua hal dalam analisis
diskriminan, yaitu pengelompokan dan identifikasi sifat khas suatu kelompok yang
dapat dilakukan sekaligus dengan analisis tersebut, dimana kelompok dikenal sebagai
group dan sifat khas dikenal sebagai variabel pembeda (discriminating variables).
Antara kelompok dan variabel pembeda tersebut kemudian dibuat suatu hubungan
fungsional yang disebut dengan fungsi diskriminan.

2.4.1 Hal-hal pokok tentang analisis diskriminan

Bentuk multivariat dari analisis diskriminan adalah dependen sehingga variabel


dependen adalah variabel yang menjadi dasar pada analisis diskriminan. Variabel
dependen bisa berupa kode grup 1 atau grup 2 atau lainnya.

Tujuan diskriminan secara umum adalah:


1. Ingin mengetahui apakah ada perbedaan yang jelas antar-grup pada variabel
dependen? Atau bisa dikatakan apakah ada perbedaan antara anggota kelompok
1 dengan anggota kelompok 2?

Universitas Sumatera Utara


2. Jika ada perbedaan, variabel independen manakah pada fungsi diskriminan
yang membuat perbedaan tersebut?
3. Membuat fungsi atau model diskriminan, yang pada dasarnya mirip dengan
persamaan regresi.
4. Melakukan klasifikasi terhadap objek (dalam terminology SPSS disebut baris),
Apakah suatu objek (bisa nama orang, nama tumbuhan, benda atau lainnya)
termasuk pada kelompok 1 atau kelompok lainnya.

Proses dasar dari analisis diskriminan ialah:


a. Memisah variabel-variabel menjadi variabel dependen dan variabel independen.
b. Menentukan metode untuk membuat Fungsi Diskriminan. Pada prinsipnya ada
dua metode dasar untuk itu, yakni :
 Simultaneous Estimation, dimana semua variabel dimasukkan secara
bersama-sama kemudian dilakukan proses analisis diskriminan.
 Step-Wise Estimation, dimana variabel dimasukkan satu persatu kedalam
model diskriminan. Pada proses ini, tentu ada variabel yang tetap ada pada
model dan ada kemungkinan satu atau lebih variabel independen yang
„dibuang‟ dari model.
c. Menguji signifikansi dari fungsi diskriminan yang telah terbentuk,
menggunakanWilk‟s lambda, F test dan lainnya.
d. Menguji ketepatan klasifikasi dari fungsi diskriminan, termasuk mengetahui
ketepatan klasifikasi secara individual dengan Casewise Diagnostics.
e. Melakukan interpretasi terhadap fungsi diskriminan tersebut.
f. Melakukan uji validitas fungsi diskriminan.

Berikut ini beberapa asumsi yang harus dipenuhi agar model diskriminan dapat
digunakan:
1. Multivariate Normality, atau variabel independen seharusnya berdistribusi
normal, hal ini akan menyebabkan masalah pada ketepatan fungsi (model)
diskriminan. Regresi logistik (Logistic Regression ) bisa dijadikan alternatif
metode jika memang data tidak berdistribusi normal. Tujuan uji normal adalah
ingin mengetahui apakah distribusi data dengan bentuk lonceng (bell shaped).
Data yang „baik‟ adalah data yang mempunyai pola seperti distribusi normal,

Universitas Sumatera Utara


yakni distribusi data tersebut tidak menceng ke kiri atau menceng ke kanan. Uji
normalitas pada statistika multivariat sebenarnya sangat kompleks, karena harus
dilakukan pada seluruh variabel secara bersama-sama. Namun, uji ini bisa juga
dilakukan pada setiap variabel dengan logika bahwa jika secara individual
masing-masing variabel memenuhi asumsi normalitas, maka secara bersama
sama (multivariat) variable-variabel tersebut juga bisa dianggap memenuhi
asumsi normalitas. Hipotesis pengujiannya adalah sebagai berikut:
H0: Data berdistribusi normal.
H1: Data tidak berdistribusi normal
Titik keputusan:
Bila P>0,05 maka H0 diterima yang berarti data berdistribusi normal.
Bila P≤0,05 maka H0 ditolak yang berarti data tidak berdistribusi normal.

Jika sebuah variabel mempunyai sebaran data yang tidak normal, maka
perlakuan yang dimungkinkan agar menjadi normal, (Santoso, 2010):
a. Menambah jumlah data. Seperti pada kasus, bisa dicari 20 atau 30 atau
sejumlah data baru untuk menambah ke-75 data berat badan konsumen yang
sudah ada. Kemudian dengan jumlah data yang baru, dilakukan pengujian
sekali lagi.
b. Menghilangkan data yang dianggap penyebab tidak normalnya data. Seperti
pada variabel berat, jika dua data yang outlier dibuang, yakni berat 100 dan
120, kemudian diulang proses pengujian, mungkin data bisa menjadi normal.
Jika belum normal, ulangi pengurangan data yang dianggap penyebab
ketidaknormalan data. Namun demikian, pengurangan data harus
dipertimbangkan apakah tidak mengaburkan tujuan penelitian karena hilangnya
data-data yang seharusnya ada.
c. Dilakukan transformasi data, misal mengubah data ke logaritma atau kebentuk
natural (ln) atau bentuk lainnya, kemudian dilakukan pengujian ulang.
d. Data diterima apa adanya, memang dianggap tidak normal dan tidak perlu
dilakukan berbagai treatment. Untuk itu, alat analisis yang dipilih harus
diperhatikan, seperti untuk multivariate mungkin faktor analisis tidak begitu
mementingkan asumsi kenormalan. Atau pada kasus statistik univariat, bias
dilakukan alat analisis nonparametrik, (Santoso, 2010).

Universitas Sumatera Utara


2. Matriks varians-kovarians variabel penjelas berukuran PxP pada kedua
kelompok harus sama.

2.4.2 Algoritma dan model matematis

Secara ringkas, langkah-langkah dalam analisis diskriminan adalah sebagai berikut:


1. Pengecekan adanya kemungkinan hubungan linier antara variabel penjelas. Untuk
point ini, dilakukan dengan bantuan matriks korelasi (pembentukan matriks
korelasi sudah difasilitasi pada analisis diskriminan). Pada output SPSS, matriks
korelasi bisa dilihat pada pooled Within-Groups Matrices.

2. Uji vektor rata-rata kedua kelompok


Pengujian terhadap vektor nilai rataan antar kelompok dilakukan dengan hipotesa:
H0 : 0 = 1 = 2 = ...= k
H1 : Sedikitnya ada dua kelompok yang berbeda

Statistik uji yang digunakan dalam pengujian hipotesis tersebut adalah statistik
V-Bartlett yang menyebar mengikuti sebaran Chi-kuadrat (2) dengan derajat bebas
p(k - 1), apabila H0 diterima. Statistik V-Bartlett diperoleh melalui:

V  (n  1)  ( p  k ) 2ln()

dimana:
n = banyaknya pengamatan
p = banyaknya peubah dalam fungsi diskriminan
k = banyaknya kelompok
W
  Wilk’s lambda
W B

dalam hal ini:

W = matrik jumlah kuadrat dan hasil kali data dalam kelompok


k ni
=  ( X
i 1 j 1
ij  X i )( X ij  X i )'

Universitas Sumatera Utara


B = matrik jumlah kuadrat dan hasil kali data antar kelompok.
k
= n (X
i 1
i i  X )( X i  X )'

Xij = pengamatan ke-j kelompok ke-i


Xi = vektor rataan kelompok ke-i
ni = jumlah pengamatan pada kelompok ke-i,
X = vektor rataan total

Titik Keputusan:
H0: Ada perbedaan vektor nilai rataan antarkelompok.
H1: Tidak ada perbedaan vektor nilai rataan antarkelompok

Jika V   2p ( k 1), (1 ) maka H0 diterima.

Jika V >  2p ( k 1), (1 ) maka H0 ditolak.

Bila dari hasil pengujian ada perbedaan vektor nilai rataan, maka fungsi
diskriminan layak disusun untuk mengkaji hubungan antar kelompok serta berguna
untuk mengelompokkan suatu objek ke salah satu kelompok tersebut. Diharapkan
dalam uji ini adalah hipotesis nol ditolak, sehingga kita mempunyai informasi awal
bahwa variabel yang sedang diteliti memang membedakan kedua kelompok. Pada
SPSS, uji ini dilakukan secara univariate (jadi yang diuji bukan berupa vektor),
dengan bantuan table Tests of Equality of Group Means.

3. Dilanjutkan pemeriksaan asumsi homoskedastisitas dengan uji Box‟s M. Untuk


menguji kesamaan matriks peragam () antar kelompok digunakan hipotesis:
H0 : 0 = 1 = 2 = ....k = .
H1 : Sedikitnya ada dua kelompok yang berbeda.

Statistik uji yang digunakan adalah statistik Box’s M, yaitu:

-2ln* = n  k  ln W (n  k )   n j  1ln S j
k

j 1

Universitas Sumatera Utara


k
( n j 1) / 2
S
j 1
j

* = ( nk ) / 2
W /( n  k )

dimana:
k = banyaknya kelompok.
W / (n-k) = matrik ragam-peragam dalam kelompok gabungan.
Sj = matrik ragam-peragam kelompok ke-j.

Bila H0 diterima, maka (-2ln*)/b akan mengikuti sebaran F dengan derajat


bebas v1 dan v2 pada taraf signifikansi , dimana:
v1 = (1/2)(k –1)p(p + 1)
v2 = (v1+ 2) / (a2 – a12)
b = v1 / (1 – a1 - v1/ v2)

2 p3  3 p 1  k 1 1 
a1 =   
6(k  1)( p  1)  j 1 (n j  1) (n  k ) 

( p  1)( p  2)  k 1 1 
a2 =   
6(k  1)  j 1 (n j  1) 2 (n  k ) 2 

p = jumlah peubah pembeda dalam fungsi diskriminan.

Asumsikan dalam uji ini hipotesis nol tidak ditolak H 0 :  1   2 . Hipotesis:

H0 : matriks kovarians grup adalah sama


H1 : matriks kovarians grup adalah berbeda secara nyata

Jika (-2ln*)/b > Fv1,v2, berarti H0 diterima


Jika (-2ln*)/b  Fv1,v2,berarti H1 ditolak

Sama tidaknya grup kovarians matriks juga bisa dilihat dari tabel output Log
Determinant. Jika dalam pengujian ini H0 ditolak maka proses lanjutan seharusnya
tidak bisa dilakukan.

Universitas Sumatera Utara


4. Pembentukan model diskriminan
a. Fungsi Diskriminan
Fungsi diskriminan merupakan fungsi atau kombinasi linier peubah-peubah asal yang
akan menghasilkan cara terbaik dalam pemisahan kelompok-kelompok. Fungsi ini
akan memberikan nilai-nilai yang sedekat mungkin dalam kelompok dan sejauh
mungkin antar kelompo. Banyaknya fungsi diskriminan yang terbentuk secara umum
tergantung dari min(p,k-1), dengan p adalah banyaknya peubah pembeda dan k adalah
banyaknya kelompok yang telah ditetapkan. Fungsi diskriminan ini diartikan sebagai
keragaman peubah yang terpilih sebagai kekuatan pembeda. Apabila fungsi
diskriminan yang terbentuk sebanyak lebih dari satu fungsi, maka dapat dikatakan
bahwa fungsi diskriminan pertama akan menjadi kekuatan pembeda yang paling
besar, demikian berturut-turut untuk fungsi berikutnya. Fungsi diskriminan yang
terbentuk mempunyai bentuk umum berupa persamaan linier (Fisher’s Sample Linear
Discriminant Function) yaitu:
y1  ˆ 11x1  ˆ 12 x2    ˆ 1 j x j    ˆ 1 p x p

y 2  ˆ 21x1  ˆ 22 x2    ˆ 2 j x j    ˆ 2 p x p

…………………………………………….
yi  ˆ i1 x1  ˆ i 2 x2    ˆ ij x j    ˆ ip x p

……………………………………………
y q  ˆ q1 x1  ˆ q 2 x2    ˆ qj x j    ˆ qp x p

dengan i=1,2,…,q (min p,k-1); j=1,2,…,p atau dapat ditulis sebagai:


y  ̂' x

dimana: ̂ = a = Vektor koefisien pembobot fungsi diskriminan.


y = skor diskriminan.
X = Vektor variabel acak yang dimasukkan ke dalam fungsi
diskriminan.
= Vektor nilai rata-rata variabel acak dari kelompok pertama.

Universitas Sumatera Utara


= Vektor nilai rata-rata variabel acak dari kelompok kedua.

= Invers matriks gabungan.

Sehingga,

Nilai ̂ dipilih sedemikian sehingga fungsi diskriminan berbeda sebesar mungkin


antara kelompok, atau sehingga rasio antara jumlah kuadrat antar kelompok dengan
jumlah kuadrat dalam kelompok maksimum.

b. Pembentukan Fungsi Linier (dengan bantuan SPSS)


Pada output SPSS, koefisien untuk tiap variabel yang masuk dalam model dapat
dilihat pada tabel Canonical Discriminant Function Coefficient. Tabel ini akan
dihasilkan pada output apabila pilihan Function Coefficient bagian Unstandardized
diaktifkan.

c. Menghitung discriminant score


Setelah dibentuk fungsi liniernya, maka dapat dihitung skor diskriminan untuk tiap
observasi dengan memasukkan nilai-nilai variabel penjelasnya.

d. Menghitung Cutting Score


Untuk memprediksi responden mana masuk golongan mana, kita dapat menggunakan
optimum cutting score. Memang dari computer informasi ini sudah diperoleh.
Sedangkan cara mengerjakan secara manual Cutting Score (m) dapat dihitung dengan
rumus sebagai berikut dengan ketentuan untuk dua grup yang mempunyai ukuran
yang sama cutting score dinyatakan dengan rumus (Simamora, 2005):

Universitas Sumatera Utara


Z A  ZB
Z ce 
2
dengan :
Zce = cutting score untuk grup yang sama ukuran
ZA = centroid grup A
ZB = Centroid grup B

Apabila dua grup berbeda ukuran, rumus cutting score yang digunakan adalah:
N A Z B  NB Z A
ZCU 
N A  NB
dengan :
ZCU = Cutting score untuk grup tak sama ukuran
NA = Jumlah anggota grup A
NB = Jumlah anggota grup B
ZA = Centroid grup A
ZB = Centroid grup B

Kemudian nilai-nilai discriminant score tiap obsservasi akan dibandingkan


dengan cutting score, sehingga dapat diklasifikasikan suatu obsevasi akan termasuk
kedalam kelompok yang mana.

e. Penggolongan objek atau individu


Suatu observasi dengan karakteristik x akan diklasifikasikan sebagai anggota suatu
kelompok, misalnya kelompok 1 atau kelompok 2. Untuk penggolongan tersebut ada
dua macam cara yang dapat dilakukan yaitu:
1. Menggunakan titik tengah m
Titik tengah m dari diantara dua rata-rata contoh (kelompok 1 dan kelompok
2) ditentukan melalui:

Dengan aturan penggolongan sebagai berikut:


a. Jika y0 > m atau y0 – m > 0 maka masukkan objek ke dalam kelompok 1.

Universitas Sumatera Utara


b. Jika y0 ≤ m atau y0 – m ≤ 0 maka masukkan objek ke dalam kelompok 2.
Keterangan :
y0 = skor diskriminan dari objek tersebut.

2. Menggunakan statistika Wald-Anderson (W)


Statistik Wald-Anderson (W) dapat dirumuskan sebagai berikut:

Kriteria penggolongan berdasarkan statistik W adalah:


a. Jika W > 0 maka masukkan objek ke dalam kelompok 1.
b. Jika W < 0 maka masukkan objek ke dalam kelompok 2.

f. Perhitungan Hit Ratio


Setelah semua observasi diprediksi keanggotaannya, dapat dihitung hit ratio, yaitu
rasio antara observasi yang tepat pengklasifikasiannya dengan total seluruh observasi.
Misalkan ada sebanyak n observasi, akan dibentuk fungsi linier dengan observasi
sebanyak n-1. Observasi yang tidak disertakan dalam pembentukan fungsi linier ini
akan diprediksi keanggotaannya dengan fungsi yang sudah dibentuk tadi. Proses ini
akan diulang dengan kombinasi observasi yang berbeda-beda, sehingga fungsi linier
yang dibentuk ada sebanyak n. Inilah yang disebut dengan metode Leave One Out.
k

n ic
Hit Ratio  i 1
k
 100%
n
i 1
i

Keterangan: ni = jumlah observasi dari i yang tepat dikelompokkan pada i


nij = jumlah observasi dari i yang salah dikelompokkan pada ij
dengan i =1,2,…,k dan j =1,2,…,k

g. Kriteria posterior probability


Aturan pengklasifikasian yang ekivalen dengan model linier Fisher adalah
berdasarkan nilai peluang suatu observasi dengan karakteristik tertentu (x) berasal dari
suatu kelompok. Nilai peluang ini disebut posterior probability dan bisa ditampilkan

Universitas Sumatera Utara


pada sheet SPSS dengan mengaktifkan option probabilities of group membership pada
bagian Save di kotak dialog utama.
pk f k  x 
p k x 
 pk f k  x 
k

dimana :
pk = prior probability kelompok ke-k dan
1
fi  x   f  x   exp 1 / 2  x  k   1  x  k 
 2  
p/ z 1/2

Suatu observasi dengan karakteristik x akan diklasifikasikan sebagai anggota


kelompok 0 jika p  k  0 x   p  k  1 x  . Nilai-nilai posterior probability inilah

yang mengisi kolom di 1_1 dan kolom di 1_2 pada sheet SPSS.

h. Akurasi statisik, dapat di uji secara statistik apakah klasifikasi yang dilakukan (dengan
menggunakan fungsi diskriminan) akurat atau tidak. Uji statistik tersebut adalah
prees-Q Statistik. Ukuran sederhana ini membandingkan jumlah kasus yang
diklasifikasi secara tepat dengan ukuran sampel dan jumlah grup. Nilai yang diperoleh
dari perhitunngan kemudian dibandingkan dengan nilai kritis (critical velue) yang
diambil dari tabel Chi-Square dan tingkat keyakinan sesuai yang diinginkan. Statistik
Q ditulis dengan rumus:

 N   nK  
2

Pr ees  Q  
N  k  1

dengan :
N = ukuran total sampel
n = jumlah kasus yang diklasifikasi secara tepat
K = jumlah grup

2.5 Pengujian Hipotesis

Intepretasi hasil analisis diskriminan tidak berguna jika fungsinya tidak signifikan.
Hipotesis yang akan diuji adalah H0 yang menyatakan bahwa rata-rata semua variable

Universitas Sumatera Utara


dalam semua grup adalah sama. Dalam SPSS, uji dilakukan dengan menggunakan
Wilks‟λ. Jika dilakukan pengujian sekaligus beberapa fungsi sebagaimana dilakukan
pada analisis diskriminan, statistik Wilks‟ λ adalah hasil λ univariat untuk setiap
fungsi. Kemudian, tingkat signifikansi diestimasi berdasarkan chi-square yang telah
ditransformasi secara statistik. Setelah hasil analisis diketahui, kemudian dilihat
apakah Wilks‟ λ berasosiasi dengan fungsi diskriminan. Selanjutnya, angka ini
ditransformasi menjadi chi-quare dengan derajat kebebasan (df) yang akan digunakan
dalam pengambilan kesimpulan dengan uji kriteria hipotesis berikut:

H0: Tidak ada perbedaan antara perusahaan yang tidak sehat dan sehat
H1: Ada perbedaan antara perusahaan yang tidak sehat dan sehat
Dengan titik keputusan sebagai berikut:
Jika F hitung > F tabel maka H0 ditolak
Jika F hitung _ F tabel maka H1 diterima

Selanjutnya dengan menggunakan nilai F, dapat di ambil keputusan untuk


menerima atau menolak H0. Jika H0 diterima, akan memberikan kesimpulan bahwa
tidak ada perbedaan antara perusahaan yang bangkrut dengan perusahaan yang sehat.
Sebaliknya jika H0 ditolak maka terdapat perbedaan antara perusahaan yang bangkrut
dengan perusahaan yang sehat sehingga proses analisis diskriminan dapat digunakan.

Universitas Sumatera Utara

Anda mungkin juga menyukai