Anda di halaman 1dari 39

STATISTIKA MULTIVARIAT

ANALISIS DISKRIMINAN

OLEH:

NURUL AZIZAH MUZAKIR (1611140003)

ZAENAL (1611140006)

JURUSAN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS NEGERI MAKASSAR

2018

1
KATA PENGANTAR

Assalamu’alaikum wr.wb

Segala puji dan syukur atas kehadirat Allah SWT atas segala nikmat dan
karunia-Nya sehingga kami dapat menyelesaikan makalah ini dan disusun sebagai
salah satu syarat untuk memperoleh nilai pada mata kuliah Statistika Multivariat.

Di dalam makalah yang berjudul “Analisis Diskriminan” mungkin masih


terdapat banyak kekurangan. Kami menyadari bahwa karya tulis ini masih jauh
dari sempurna. Oleh karena itu, kami sangat membutuhkan kritik dan saran yang
sifatnya membangun dari para pembaca guna perbaikan dan kesempurnaan
makalah ini di masa yang akan datang.

Wassalamu’alaikum wr.wb

Makassar, 26 September 2018

Penyusun

2
DAFTAR ISI

HALAMAN JUDUL i

KATA PENGANTAR ii

DAFTAR ISI iii

BAB I PENDAHULUAN 1

A. Latar Belakang 1

B. Rumusan Masalah 2

C. Tujuan Penulisan 2

BAB II PEMBAHASAN 3

1. Definisi Analisis Diskriminan3

2. Tujuan Analisis Diskriminan 4

3. Asumsi Analisis Diskriminan 4

4. Langkah-Langkah Analisis Diskriminan 7

5. Contoh Kasus Analisis Diskriminan 13

6. Contoh Numerik Analisis Diskriminan Linear 31

DAFTAR PUSTAKA 36

3
BAB I

PENDAHULUAN

A. Latar Belakang

Analisis statistika bisa dikelompokkan berdasarkan jumlah variabel yang


dianalisis. Berdasarkan pengelompokkan jumlah variabel ini maka statistika
dibagi menjadi analisis univariat (univariate), bivariat (bivariate) dan
multivariat (multivariate). Analisis univariat berasal dari kata uni dan variate
yaitu analisis satu variabel. Misalnya pengukuran rata-rata (mean) sebagai
ukuran pusat dari sekelompok data. Analisis bivariat berasal dari akar kata bi
dan variate yang merupakan analisis statistika yang berkaitan dengan dua
variabel. Misalnya analisis korelasi yang mencari hubungan antara dua
variabel. Sedangkan analisis multivariat dilihat dari akar katanya merupakan
pengembangan lanjutan dari analisis univariat maupun bivariat. Analisis
multivariat merujuk kepada teknik statistika tertentu yang menganalisis
banyak variabel secara simultan.

Analisis multivariat terdiri dari beberapa jenis, yaitu teknik dependen


(dependent technique), teknik interdependen (interdependent technique), dan
model struktural (stuctural model).

Analisis multivariat yang termasuk ke dalam teknik dependen yaitu


analisis regresi, analisis regresi logistik, analisis diskriminan, analisis konjoin,
analisis kanonikal, dan analisis manova.

Analisis diskriminan adalah metode teknik dependen dimana variabel


dependennya bersifat non metrik. Analisis diskriminan merupakan kombinasi
linear dari dua atau lebih variabel independen yang akan membedakan atau
mendiskriminasikan dua objek atau lebih di dalam sebuah kelompok atau
grup. Metode diskriminan bisa dikelompokkan ke dalam dua jenis yaitu
metode diskriminan dengan dua kategori (Two-Group Discriminant Analysis)

1
dan metode diskriminan dengan lebih dari dua kategori (Multiple
Discriminant Analysis).

B. Rumusan Masalah
Berdasarkan latar belakang, diperoleh rumusan masalah yaitu:
1. Apa yang dimaksud dengan analisis diskriminan?
2. Apa tujuan analisis diskriminan?
3. Apa asumsi yang harus dipenuhi di dalam analisis diskriminan?
4. Bagaimana langkah-langkah dalam melakukan analisis diskriminan?

C. Tujuan Penulisan
Berdasarkan rumusan masalah yang diperoleh, tujuan penulisan yaitu:
1. Untuk mengetahui definisi analisis diskriminan.
2. Untuk mengetahui tujuan analisis diskriminan.
3. Untuk mengetahui asumsi yang harus dipenuhi di dalam analisis
diskriminan.
4. Untuk mengetahui langkah-langkah analisis diskriminan.

BAB II

PEMBAHASAN

2
1. Definisi Analisis Diskriminan

Analisis diskriminan adalah metode teknik dependen dimana variabel


dependennya bersifat non metrik. Analisis diskriminan merupakan kombinasi
linear dari dua atau lebih variabel independen yang akan membedakan atau
mendiskriminasikan dua objek atau lebih di dalam sebuah kelompok atau
grup. Metode diskriminan bisa dikelompokkan ke dalam dua jenis yaitu
metode diskriminan dengan dua kategori (Two-Group Discriminant Analysis)
dan metode diskriminan dengan lebih dari dua kategori (Multiple
Discriminant Analysis).

Ide dasar dari analisis diskriminan sama dengan analisis regresi logistik.
Pada awalnya analisis diskriminan dikembangkan untuk menganalisis variabel
dependen yang bersifat non metrik atau non numerik dengan dua atau lebih
kategori.

Sebagai moteode untuk membedakan objek menjadi dua atau lebih grup,
maka analisis diskriminan dapat dihitung dengan memberi timbangan kepada
setiap variabel independen agar bisa memaksimalkan perbedaan antara grup
yang ada. Formula persamaan analisis diskriminan ini seperti halnya regresi
dapat ditulis dalam bentuk fungsi diskriminan sebagai berikut:

D = a + b1X1 + b2X2 + ... + bnXn

Dimana :

D = Nilai diskriminan

a = intersep

b1...n = koefisien diskriminan atau bobot

X1...n = variabel independen

Analisis diskriminan ini merupakan teknik untuk menguji hipotesis apakah


rata-rata grup dari beberapa variabel independen untuk dua atau lebih grup

3
adalah sama atau tidak. Rata-rata grup yang diperoleh dari menghitung rata-
rata skor diskriminan disebut centroid atau rata-rata skor diskriminan.
Centroid menunjukkan pusat lokasi dari setiap anggota grup. Sedangkan
perbandingan group centroid menunjukkan seberapa jauh grup di dalam fungsi
diskriminan.

2. Tujuan Analisis Diskriminan

Oleh karena bentuk multivariate dari analisis diskriminan adalah


dependence, maka variabel dependen adalah variabel yang menjadi dasar
analisis diskriminan. Variabel dependen bisa berupa kode grup 1 atau grup 2
atau lainnya, dengan tujuan diskriminan secara umum adalah :
a) Untuk mengetahui apakah ada perbedaan yang jelas antar grup pada
variabel dependen. Jika ada perbedaan, variabel independen mana pada
fungsi diskriminan yang membuat perbedaan tersebut.
b) Membuat fungsi atau model diskriminan yang pada dasarnya mirip
persamaan regresi.
c) Melakukan klasifikasi terhadap objek, apakah suatu objek (bisa nama
orang, tumbuhan, benda, dan lainnya) termasuk pada grup 1 atau grup 2
atau lainnya.

3. Asumsi Analisis Diskriminan

Sebelum fungsi diskriminan dibentuk perlu dilakukan pengujian terhadap


perbedaan nilai rataan dari kelompok-kelompok tersebut. Dalam pengujian
tersebut, asumsi analisis diskriminan yang harus dipenuhi adalah :
a) Variabel independen seharusnya berdistribusi normal multivariat
(Multivariate Normality), jika data tidak berdistribusi normal, akan
menyebabkan masalah pada ketepatan fungsi (model) diskriminan.
b) Matriks varians kovarians grup dari semua variabel independen
seharusnya sama.

4
c) Tidak ada data yang sangat ekstrim (outlier) pada variabel independen,
jika ada data ekstrim yang tetap diproses, hal ini bisa berakibat
berkurangnya ketepatan klasifikasi dari fungsi diskriminan.
d) Tidak ada korelasi yang kuat antar-variabel independen, jika dua variabel
independen mempunyai korelasi yang kuat, dikatakan terjadi
multikolinieritas. Untuk mengetahui adanya multikolinieritas dapat
dilakukan dengan melihat korelasi antar variabel independen (r) yaitu jika
nilai r > 0.6 menunjukkan adanya multikolinieritas.

3.1. Uji Kenormalan Peubah Ganda (Multivariate Normality)

Menurut Johnson dan Wichern, untuk menguji kenormalan ganda


(Multivariate Normality) adalah dengan mencari nilai jarak kuadrat untuk
setiap pengamatan yaitu:

di2 = (Xi - X́ )’S-1 (Xi - X́ )

dimana :

di2 adalah dengan mencari nilai jarak kuadrat untuk setiap pengamatan ke-i

Xi adalah pengamatan yang ke-i, dengan i = 1,2,3,...,n

X́ adalah rata-rata variabel bebas X

S-1 adalah invers matriks varians kovarians S

Kemudian di2 diurutkan dari yang paling kecil ke yang paling besar,
selanjutnya dibuat plot di2 dimana i = urutan = 1, 2, ..., n . Bila hasil plot
dapat didekati dengan garis lurus, maka dapat disimpulkan bahwa peubah
ganda menyebar normal.

3.2. Uji Kesamaan Matriks Varians Kovarians

Untuk menguji kesamaan matriks varians kovarians kelompok I


berhasil (S1) dan kelompok II gagal (S2) digunakan hipotesa :

5
H0 : ∑1 = ∑2 =...=∑k = ∑, matriks varians kovarians kelompok adalah
relatif sama.

H1 : minimal ada satu ∑i ≠ ∑j , matriks varians kovarians kelompok


adalah berbeda secara nyata.

Terima H0 yang berarti matriks varians kovarians sama jika :

1
X2hit ≤ X2α; 2 (k-1)p (p+1)

dengan :

[ ]
k k
1 1
X 2
hit = -2(1-C1) ∑
2 i=1
V i ln |Si|− ln |S|∑ V i
2 i=1

k = banyaknya kelompok ( grup )

P = jumlah peubah pembeda (Y) dalam fungsi diskriminan = 1

S = matriks varians kovarians dalam kelompok gabungan.

Si = matriks varians kovarians kelompok ke-i.

i = 1,2, ... , k

ni = jumlah responden pada kelompok ke- i

dengan

V i = ni – 1

∑ V iS i
i=1
S= k

∑ Vi
i=1

[ ] [ ]
k 2

C1 =
∑ V1 − k
1 2 p + 3 p−1
6( p+ 1)( k−1)
i=1 i
∑ Vi
i=1

6
4. Langkah-langkah Analisis Diskriminan

Langkah-langkah dalam analisis diskriminan adalah sebagai berikut:

1. Pengecekan adanya kemungkinan hubungan linear antara variabel


penjelas. Untuk point ini, dilakukan dengan bantuan matriks korelasi
(pembentukan matriks korelasi sudah difasilitasi pada analisis
diskriminan). Pada output SPSS, matriks korelasi bisa dilihat pada
Pooled Within-Groups Matrices.
2. Uji Vektor Rata-Rata Antar Kelompok
Pengujian terhadap vektor nilai rataan antar kelompok dilakukan
dengan hipotesa:
H0 : μ0=μ1 =μ 2=…=μk
H1 : paling tidak ada dua kelompok yang berbeda
Statistik uji yang digunkan dalam pengujian hipotesis tersebut adalah
statistik V-Barlettt yang menyebar mengikuti sebaran Chi-Square (X 2)
dengan derajat bebas p(k-1), apabila H0 diterima. Statistik V-Barlett
diperoleh melalui:
V =−[ ( n−1 )−( p+k ) /2 ] ln ∆
Dimana:
n = banyaknya pengamatan
p = banyaknya peubah dalam fungsi diskriminan
k = banyaknya kelompok
|W |
∆= = Wilks’ Lambda
|W + B|
Dalam hal ini
W = matriks jumlah kuadrat dan hasil kali data dalam kelompok
k ¿
∑ ∑ ( X ij− X́ i )( X ij− X́ i ) ’
i=1 j=1
B = matriks jumlah kuadrat dan hasil kali data antar kelompok
k

∑ n i ( X ij− X́ )( X ij− X́ ) '


i=1
X ij = pengamatan ke-j kelompok ke-i
X́ i = vektor rataan kelompok ke-i
ni = jumlah pengamatan pada kelompok ke-i
X́ = vektor rata-rata total
Titik keputusan:
H0 = tidak ada perbedaan vektor nilai rataan antar kelompok
H1 = ada perbedaan vektor nilai rataan antar kelompok
2
Jika V ≤ X p (k−1)(1−α ) maka H0 diterima

7
2
Jika V > X p (k−1)(1−α ) maka H0 ditolak
Bila dari hasil pengujian ada perbedaan vektor nilai rataan, maka
fungsi diskriminan layak disusun untuk mengkaji hubungan antar
kelompok serta berguna untuk mengelompokkan suatu objek ke salah
satu kelompok tersebut. Diharapkan dalam uji ini adalah hipotesis nol
ditolak, sehingga kita mempunyai informasi awal bahwa variabel yang
sedang diteliti memang membedakan kedua kelompok.

3. Uji Kesamaan Matriks Varians Kovarians


Dilanjutkan pemeriksaan asumsi homoskedastisitas dengan uji
Box’s M. Untuk menguji kesamaan matriks peragam (∑) antar
kelompok digunakan hipotesis:
H 0 : ∑0 =∑1=∑ 2=…=∑k =∑
H 1 : sedikitnya ada dua kelompok yang berbeda
Statistik uji yang digunakan adalah statistik Box’s M, yaitu:
k
−2 ln λ ¿= ( n−k ) ln
k
| |
W
−∑ ( n j−1 ) ln |S j|
( n−k ) j=1

∏ |S j|( n −1 )/ 2
j

¿ j=1
λ= (n−k)/2
|W /(n−k)|
Dimana:
k = banyaknya kelompok
W/(n-k) = matriks ragam-peragam dalam kelompok gabungan
Sj = matriks ragam-peragam kelompok ke-j
¿
−2 ln λ
Bila H 0 diterima, maka ( ) akan mengikuti sebaran F
b
denganderajat bebas V1 dan V2 pada taraf signifikan α, dimana:
1
v 1= ()
2
( k−1 ) p ( p+ 1 )

v 2= ( v 1 +2 ) ( a 2−a21 )
v1
b=v 1 /(1−a1− )
v2

[∑ ]
k
2 p 3+ 3 p−1 1 1
a1= −
6 (k−1)( p+1) j=1 (n j −1) (n−k )

8
n
1
1
(¿¿ j−1)2 −
(n−k )2
k

∑¿
j=1
( p−1)( p+2)
a 2= ¿
6 (k +1)
p = jumlah peubah pembeda dalam fungsi diskriminan

Asumsikan dalam uji ini hipotesis nol tidak ditolak H 0 : ∑0 =∑1

Hipotesis :
H 0 : matriks kovarians grup adalah sama
H 1 : matriks kovarins grup adalah berbeda secara nyata
¿
−2 ln λ
Jika ( ) ¿ F v 1, v 2, α berarti H 0 diterima
b
¿
−2 ln λ
Jika ( ) ≤ F v 1, v 2, α berarti H 1 diterima
b
Sama tidaknya grup kovarians matriks juga bisa dilihat dari tabel
output Log Determinant pada software SPSS. Jika dalam pengujian ini
H 0 ditolak maka proses lanjutan seharusnya tidak bisa dilakukan.

4. Menentukan Signifikansi Fungsi Diskriminan

H0 : μ0=μ1 =μ 2=…=μk

H1 : μi ≠ μ j i , j=1,2, … , k sedikitnya ada dua kelompok yang


berbeda

Jika kelompok sejumlah k maka fungsi diskriminan dapat dibentuk


sebanyak k-1. Untuk mengetahui apakah k-1 fungsi diskriminan tersebut
signifikan untuk membedakan k kelompok sehingga layak untuk
digunakan untuk analisis selanjutnya, suatu uji dilakukan yaitu
menggunakan statistik Barlett

V j ={ N−1 −1/2( p+k ) } ln ⁡( 1+ej) dengan N = ∑ NI akan mengikuti


distribusi Chi Kuadrat dengan derajat bebas p(k-1) jika H0 benar.

9
Dimana :

λi = 1/(1+ej)

ej = akar karakteristik (eigen value) ke-j dari BW-1

B = variasi / jumlah kuadrat antar kelompok (between groups sum of


squares)

W = variasi / jumlah kuadrat dalam kelompok (within groups sum of


squares)

5. Pembentukan model diskriminan


a. Kriteria Fungsi Linier Fisher
 Pembentukan Fungsi Linier (teoritis)

Fisher mengelompokkan suatu observasi berdasarkan nilai skor


yang dihitung dari suatu fungsi linier Y = λ'X dimana λ' menyatakan
vektor yang berisi koefisien-koefisien variabel independen yang
membentuk persamaan linier terhadap variabel dependen, λ' =
[ λ1 , λ 2 , … , λ p ] .

X= [ ]
X1
X2

Xk menyatakan matriks data pada kelompok ke-k

[ ]
X 11k ⋯ X 1 pk
Xk = ⋮ ⋱ ⋮
Xn1k ⋯ X npk

i = 1,2,...,n

j = 1,2,...,p

k = 1,2

Xijk menyatakan observasi ke-i variabel ke-j pada kelompok ke-k.

10
Di bawah asumsi Xk ~ N( μk , ∑k )

μ=
[ ] []
E(X 1 )
E(X 2 )
=
μ1
μ2
dan ∑k = E( X k −μk ) ( X k −μ k ) ' ; ∑1 = ∑2

=...= ∑

[]
μ1k
μk = ⋮ ; μk adalah vektor rata-rata tiap variabel X pada
μ pk

kelompok ke-k.

[ ]
σ 11 σ 12 ⋯ σ 1 p
∑= ⋮ σ 22 ⋯ σ 2 p
⋮ ⋮ ⋯ ⋮
… ⋯ ⋯ σ pp

Diagonal utama dari matriks menyatakan varians, dan selain diagonal


utama menyatakan kovarians.
Fisher mentransformasikan observasi-observasi x yang multivariate
menjadi observasi y yang univariate. Dari persamaan Y = λ'X
diperoleh
μky=E ( Y k ) = E ( λ ' X ) =λ ' μk ;
2
σ Y =var ( l' X )=l ' ∑l
μky adalah rata-rata Y yang diperoleh dari X yang termasuk ke

dalam kelompok ke-k, σ 2Y adalah varians Y yang diasumsikan sama


untuk kedua kelompok.
Kombinasi linear yang terbaik menurut Fisher adalah yang dapat
memaksimumkan rasio antara jarak kuadrat rata-rata Y yang diperoleh
dari x dari kelompok 1 dan 2 dengan varians Y, atau dirumuskan
sebagai berikut:
( μ1 Y −μ2 Y ¿2 ) λ ' ( μ1 −μ 2 )( μ 1−μ2 ) ' λ
=
σ 2
Y
λ'∑λ

11
( λ ' δ )2
Jika ( μ1−μ2 ) =δ , maka persamaan di atas menjadi .
λ' ∑ λ
Karena ∑ adalah matriks definit positif, maka menurut teori

( λ ' δ )2
pertidaksamaan Cauchy-Schwartz, rasio dapat
λ' ∑ λ
dimaksimumkan jika
−1 −1
λ =c ∑ δ = c ∑ ( μ1 −μ 2 )
'

❑ ❑

Dengan memilih c = 1, menghasilkan kombinasi linear yang disebut


kombinasi linear Fisher sebagai berikut:
−1
Y =λ ' X =¿ ( μ1−μ2 ) ∑ X

 Pembentukan Fungsi Linier (dengan bantuan SPSS)


Pada output SPSS, koefisien untuk tiap variabel yang masuk dalam
model dapat dilihat pada tabel Canonical Discriminant Function
Coefficient. Tabel ini akan dihasilkan pada output apabila pilihan
Function Coefficient bagian Unstandardized diaktifkan.

 Menghitung discriminant score


Setelah dibentuk fungsi liniernya, maka dapat dihitung skor
diskriminan untuk tiap observasi dengan memasukkan nilai-nilai variabel
independen.

 Menghitung cutting score

Cutting score (m) dapat dihitung dengan rumus sebagai berikut:

n1 μ 1Y +n2 μ2 Y
m=
n1 +n2

Dimana nk adalah jumlah sampel pada kelompok ke-k, k=1,2

12
Kemudian nilai-nilai discriminant score tiap observasi akan
dibandingkan dengan cutting score, sehingga dapat diklasifikasikan
suatu observasi akan termasuk ke dalam kelompok yang mana. Suatu
observasi dengan karakteristik x akan diklasifikasikan sebagai anggota

−1
kelompok kode 1 jika y=( μ 1−μ2 ) ' ∑ X ≥ m , selain itu

dimasukkan ke dalam kelompok 2 (kode nol). Penghitungan m


dilakukan secara manual, karena SPSS tidak mengeluarkan output m.
Namun, kita dapat menghitung m dengan bantuan tabel Function at
Group Centroids dari output SPSS.

 Penghitungan Hit Ratio (dalam model regresi logistik disebut


percentage correct)

Setelah semua observasi diprediksi keanggotaannya, dapat


dihitung hit ratio, yaitu rasio antara observasi yang tepat
pengklasifikasiannya dengan total seluruh observasi.

b. Kriteria Posterior Probability

Aturan pengklasifikasian yang ekivalen dengan model linier


Fisher adalah berdasarkan nilai peluang suatu observasi dengan
karakteristik tertentu (x) berasal dari suatu kelompok. Nilai peluang ini
disebut posterior probability dan bisa ditampilkan pada sheet SPSS
dengan mengaktifkan option probabilities of group membership pada
bagian Save di kotak dialog utama.

5. Contoh Kasus Menggunakan SPSS


Sebuah perusahaan bergerak dalam penjualan air mineral mengumpulkan
data sekelompok konsumen air mineral dengan variabel berikut:
 Tipe konsumen dari banyak tipe air mineral yang minum dengan
kode 0 untuk konsumen yang termasuk tipe sedikit minum air
mineral dan kode 1 untuk konsumen yang termasuk tipe banyak
minum air mineral

13
 Usia konsumen (tahun)
 Berat badan konsumen (kilogram)
 Tinggi badan konsumen (sentimeter)
 Pendapatan konsumen (rupiah/bulan)
 Jam kerja konsumen dalam sehari (jam)
 Kegiatan olahraga konsumen dalam sehari (jam)

Untuk melakukan analisis diskriminan dengan bantuan SPSS, ikuti


langkah-langkah berikut:

1. Masukkan data yang akan diolah.

Pada bagian variable view masukkan variable Y (variabel dependen)


dengan values 0 untuk sedikit dan 1 untuk banyak, serta masukkan
variabel independennya yaitu X1 (usia), X2 (berat badan), X3 (tinggi) ,
X4 (pendapatan), X5 (jam kerja), X6 (olahraga) seperti gambar di atas.

14
Kemudian masukkan data-data setiap variable pada data view seperti
gambar di atas.
2. Uji asumsi
a) Uji normalitas multivariat variabel independen
Uji normalitas multivariat dengan SPSS dilakukan dengan
menentukan jarak mahalanobis dari data yang kita miliki
kemudian menghitung nilai Chi squarenya. Setelah itu kita
buat scatter-plot antara keduanya.
Klik menu Analyze lalu pilih Regression lalu klik Linear.
Langkah ini dilakukan untuk menentukan jarak mahalanobis
dari data yang kita miliki.

15
Pada kotak dialog yang muncul isikan variabel X1, X2, X3, X4,
X5, X6 di kolom Independent(s), lalu masukkan juga variabel Y di
kolom Dependent. Selanjutnya silahkan klik Save.

16
Jika langkah anda benar maka akan muncul kotak dialog sebagai
berikut:

Centang “Mahalanobis” pada Distance lalu klik Continue. Jika


langkah anda benar, maka akan muncul variabel baru di data anda
yaitu MAH_1 yang merupakan jarak mahalanobis dari data yang
kita miliki tersebut.

17
setelah diperoleh jarak mahalanobis yang tersaji pada variabel
MAH_1 kita perlu mengurutkan data jarak mahalanobis tersebut.
Untuk mengurutkan data jarak mahalanobis, klik
menu Data kemudian pilih Sort Cases seperti ditunjukkan pada
gambar.

Akan muncul jendela Short Cases. Isikan variable Mahalanobis


Distance pada bagian Short by, pilih mode Ascending pada bagian
Sort Order untuk mengurutkan data dari kecil ke besar.

18
Data pada variabel MAH_1 sekarang sudah terurut dari kecil ke
besar. Selanjutnya, buatlah variabel baru bernama “J” kemudian
isikan data berupa angka urut dari 1, 2, 3, dan seterusnya hingga
sejumlah data.

Kemudian kita perlu menentukan nilai probabilitas dari masing-


masing nilai J tersebut. Langkah yang kita lakukan adalah dengan
komputasi variabel probabilitas value melalui menu
Transform kemudian pilih Compute Variable. Jika langkah anda
benar maka akan muncul jendela Compute Variable.
Tuliskan Prob_value pada kolom Target Variable. Kemudian
pada Numeric Expression isikan nilai probabilitas sesuai teori
yang kita ketahui, yaitu (J-0,5)/n dalam hal ini (J-0,5)/20 (Johnson
& Wichern, 2007). J pada isian tersebut diisikan dengan
memindahkan variabel J, sedangkan nilai 0,5 dan 20 serta tanda
baca lainnya diisi dengan tombol keyboard yang tersedia pada
jendela tersebut. Lalu klik OK.

19
Jika langkah anda benar maka akan muncul data nilai probabilitas
pada variabel prob_value yang berada di sebelah kanan variabel J.

Selanjutnya kita hitung nilai chi square untuk masing-masing nilai


probabilitas tersebut dengan cara klik menu Transform kemudian
pilih Compute Variable. Isikan “qi” pada kolom Target

20
Variable yang merupakan simbol dari nilai chi square. Pada kolom
Numeric Expression isikan fungsi IDF.CHISQ diikuti variabel
Prob_value dan df atau derajat kebebasan, dalam hal ini 6 karena
ada 6 variabel bebas yang kita uji.

Kemudian untuk membuat scatter-plot, klik menu graphs


kemudian legacy dialogs dan pilih scatter/dot. akan muncul

21
jendela pilihan type scatter-nya, pilih simple scatter. Selanjutnya
klik Define maka akan muncul jendela Simple Scatterplot.
Masukkan variabel Mahalanobis Distance (MAH_1) ke Y Axis dan
variabel qi ke X Axis. Kemudian klik OK

Hasil :

Pada tampilan output di atas, dapat dikatakan bahwa data


berdistibusi normal multivariat karena sebaran data cenderung
membentuk garis lurus. Dengan demikian asumsi normal
multivariat variabel independen terpenuhi.

b) Uji kesamaan matriks varians kovarians


Hipotesis:
H0 : ∑ 1 = ∑ 2
H1 : ∑1 ≠ ∑2
Pada SPSS, klik menu Analyze, lalu pilih submenu Classify,
lalu pilih Discriminant. Kemudian akan muncul kotak dialog
seperti pada gambar di bawah

22
Setelah itu, masukkan variable Y ke dalam Grouping Variable,
lalu klik define range. Bagian minimum diisi kode terkecil,
dalam kasus ini adalah 0 dan maksimum diisi kode terbesar
yaitu 1. Pindahkan juga variable X1, X2, X3, X4, X5. X6 ke
dalam kotak Independents, lalu pilih use stepwise method.
Selanjutnya klik Statistics, pada Desciptive centang Box’s M

23
Hasil :

Pada kasus ini, kita menguji asumsi kesamaan matriks ragam-


peragam antara kelompok sedikit minum air mineral dan
banyak minum air mineral mengguanakan statistic uji Box’s
M. Dengan tingkat kepercayaan 95%, kelompok-1 dan
kelompok-2 memiliki matriks ragam-peragam yang sama
dilihat nilai sig 0.399 yang lebih besar dari 0.05(alpha) ( H0

24
diterima). Dengan demikian, asumsi matriks varians kovarians
grup sama terpenuhi.

c) Tidak ada korelasi yang kuat antar variabel independen (tidak


terjadi multikolinieritas)
Pada SPSS, klik menu Analyze, lalu pilih submenu Classify,
lalu pilih Discriminant. Setelah itu akan muncul kotak dialog
Discriminant Analysis, klik Statistics lalu pada bagian Matrices
centang Within-groups correlation lalu klik continue

Hasil :

Nilai akar ciri (eigen value) menunjukkan ada atau tidaknya


multikolinearitas antar peubah bebas. Multikolinearitas akan

25
terjadi bila nilai akar ciri (eigen value) mendekati 0 (nol).
Berdasarkan hasil pengolahan data didapatkan nilai akar ciri
yang menjauhi nol, yaitu sebesar 0,511. Dapat dilihat bahwa
variabel pendapatan (X4) dengan usia (X1) memiliki korelasi
sebesar 0,895. Hal ini menunjukkan bahwa antara variabel
pendapatan dengan usia memiliki korelasi tetapi tidak kuat.
Pada tabel Eigen Value terdapat pula nilai canonical
correlation. Canonical correlation digunakan untuk mengukur
derajat hubungan antara besarnya variabilitas yang mampu
diterangkan oleh variabel independen terhadap variabel
dependen. Dari tabel di atas, diperoleh nilai canonical
correlation sebesar 0,581, bila dikuadratkan menjadi (0,581 x
0,581) =0,3375; artinya 33,75% varians dari variabel dependen
dapat dijelaskan dari model diskriminan yang terbentuk.

3. Hasil analisis diskriminan


Setelah semua asumsi dalam analisis diskriminan terpenuhi, maka
kita berlanjut pada tahap menginterpretasi hasil analisis diskriminan.
Pada SPSS, klik menu Analyze lalu pilih submenu Classify lalu
pilih Discriminant. Pada kotak dialog yang muncul klik Statistics.
Pada kotak kecil, centangkan kotak Means, Univariate Anovas, Box’s
M serta Unstandardized, lalu klik continue.

26
Kembali ke kotak dialog Discriminant Analysis, lalu
pada Classification, lalu diberi tanda cek di All group equal, Casewise
result, Summary table, dan Within-groups. Lalu klik Continue.

Hasil :
1) Uji Kesamaan matriks varians kovarians antar kelompok
(sudah dijelaskan pada bagian uji asumsi)
2) Pengecekan multikolinieritas (sudah dijelaskan pada bagian uji
asumsi)
3) Uji vektor rata-rata antar kelompok

Untuk uji vektor rata-rata antar kelompok menggunakan uji


Wilk’s Lambda. Dengan melihat nilai signifikansi yaitu 0.007
yang lebih kecil dari alpha (0.05), sehingga dapat dikatakan
bahwa terdapat perbedaan rata-rata antara kelompok 1 dan
kelompok 2 dengan asumsi perbedaan rata-rata antar kelompok
terpenuhi.

27
Pada table Test of Equality of Group Means dapat dilihat bahwa
variabel usia, tinggi, jam kerja, dan olahraga memiliki
signifikansi yang besar dari alpha (p-value > 0,05), dan hanya
ada satu variabel yang nilai signifikansi lebih kecil dari alpha
(p-value < 0.05). Meskipun variabel pendapatan nilai
signifikansinya yaitu 0.036 kecil dari alpha, tetapi variabel
pendapatan memiliki korelasi dengan variabel usia sehingga
variabel pendapatan akan dikeluarkan dari daftar variabel yang
akan disertakan pada analisis diskriminan. Hal ini
menunjukkan bahwa hanya ada satu variabel yang membuat
dua kelompok berbeda secara signifikan. Lima variabel yang
tidak signifikan akan dikeluarkan dari daftar variabel yang akan
disertakan pada analisis diskriminan.
4) Stepwise statistics

Berdasarkan hasil dari stepwise method didapatkan satu peubah


yang secara nyata membedakan kelompok yang kurang minum

28
air mineral dengan kelompok yang sering minum air mineral
karena nilai signifikansi yang kecil dari 0,05.

5) Pembentukan fungsi linear

Tabel Canonical Discriminant Function Coefficients


menerangkan model diskriminan yang terbentuk, yaitu:
Y = -6,506 + 0,119(berat badan)

6) Perhitungan cutting score

Grup centroid merupakan rata-rata nilai diskriminan dari tiap


observasi di dalam masing-masing kelompok.
10 ( 0,678 )+10 (−0,678 )
=0
20

7) Hasil klasifikasi

29
Tabel menggambarkan crosstabulasi antara model awal dengan
pengklasifikasian model diskriminan. Terlihat ada 5 responden
yang salah klasifikasi, yaitu 4 responden yang awalnya ada
pada kelompok sedikit minunm air mineral kemudian
diprediksi masuk dalam kelompok banyak minum air mineral
dan 1 responden yang awalnya ada pada kelompok banyak
minum air mineral kemudian diprediksi masuk dalam
kelompok seikit minum air mineral. Secara keseluruhan model
diskriminan yang terbentuk mempunyai tingkat validasi 75%.

6. Contoh Numerik Analisis Diskriminan Linear

Pabrik A memproduksi cincin yang berkualitas tinggi dimana


kualitasnya diukur berdasarkan lengkungan (curvature) dan diameter
(diameter). Berikut diberikan hasil pengukuran lengkungan dan diameter
beberapa cincin

Y Lengkungan Diamete
r
1 2,95 6,63
1 2,53 7,79
1 3,57 5,65
1 3,16 5,47
2 2,58 4,46
2 2,16 6,22
2 3,27 3,52

30
Sebagai konsultan untuk pabrik, Anda mendapat tugas untuk mengatur
kriteria untuk mutu kendali otomatis. Kemudian Anda juga ditugaskan
untuk menguji kriteria yang telah diatur pada jenis cincin yang baru.
Terdapat cincin baru yang memiliki kelengkungan 2,81 dan diameter 5,46.
Masuk di kelompok manakah cincin baru tersebut?

Variabel independen yang digunakan:

X1 = lengkungan

X2 = diameter

Variabel dependen yang digunakan:

Y dengan 2 kategori / kelompok.

Kode 1 untuk yang lulus

Kode 2 untuk yang tidak lulus

Solusi:

Ketika kita memplot semua variabel independennya, kita dapat melihat


bahwa data dapat dipisahkan secara linear. Kita dapat menarik garis untuk
memisahkan kedua kelompok. Masalahnya adalah menemukan garis dan
memutar variabel sedemikian rupa untuk memaksimalkan jarak antar
kelompok dan menminimalkan jarak dalam grup.

31
X = variabel independen dari semua data

Y = grup objek (variabel dependen) dari semua data

Xk = data baris ke k , misal X3 = [ 3,57 5,65 ]


g = jumlah grup/ kelompok dalam variabel dependen. Dalam kasus
ini g adalah 2
Xi = data untuk grup ke i, X dipisahkan menjadi dua kelompok
berdasarkan kelompok di Y

32
µi = rata-rata Xi
µ = vektor rata-rata dari seluruh kumpulan data, dalam kasus ini
μ=[ 2,88 5,676 ]

0
xi = data yang dikoreksi, yaitu fitur data untuk kelompok ke i.
Cara memperolehnya dengan mengurangkan xi dengan µ

T
( x 0i ) x 0i
= matriks kovarian kelompok ke i
c i=
ni

g
1
C ( r , s )= ∑ n c (r , s)
n i =1 i i

C( r , s) diperoleh dalam matriks kovarian kelompok. Ini dihitung


untuk setiap entri (r,s) dalam matriks.

Dalam kasus ini:

4 3
( 0,66 ) + ( 0,259 ) =0,206
7 7

4 3
(−0,192 )+ (−0,286 )=−0,233
7 7

33
4 3
( 1,349 ) + ( 2,142 )=1,689
7 7

Sehingga diperoleh

Dan invers dari C adalah

p = vektor probabilitas sebelumnya (setiap baris mewakili


kemungkinan sebelumnya dari grup i). Jika tidak diketahui
probabilitas sebelumnya, anggap itu sama dengan total sampel dari

ni
setiap kelompok dibagi dengan total sampel, yaitu Pi =
N

Fungsi Diskriminan

Hasil perhitungan diberikan dalam Ms Excel pada gambar di bawah

34
Pada hasil di atas, jika kita memasukkan cincin baru yang memiliki
kelengkungan 2,81 dan diameter 5,46 maka akan masuk ke dalam
kelompok 2 yaitu kelompok yang tidak lulus atau tidak memenuhi
standar yang telah ditetapkan oleh pabrik.

DAFTAR PUSTAKA

Mintu, Shinta. 2012. Analisis Diskriminan untuk Mengkaji Misklasifikasi


Pemilihan Jurusan. Skripsi. Fakultas Matematika dan Ilmu Pengetahuan Alam.
Universitas Negeri Makassar: Makassar.

35
Teknomo, Kardi. “Linear Discriminant Analysis Numerical Example”. Diakses 7
Oktober2018.https://people.revoledu.com/kardi/tutorial/LDA/Numerical
%20Example.html

Widarjono, Agus. 2010. Analisis Statistika Multivariat Terapan. UPP STIM


YKPN. Yogyakarta.

36

Anda mungkin juga menyukai