Anda di halaman 1dari 32

BAB I

PENDAHULUAN

1.1. Latar Belakang


Analisis Diskriminan adalah salah satu teknik statistika yang bisa
digunakan pada hubungan dependensi (hubungan antarvariabel
dimana sudah bisa dibedakan mana variabel respon dan mana
variabel penjelas). Lebih spesifik lagi, Analisis Diskriminan
digunakan pada kasus dimana variabel respon berupa data kualitatif
dan variabel penjelas berupa data kuantitatif.
Analisis Diskriminan bertujuan untuk mengklasifikasikan suatu
individu atau observasi ke dalam kelompok yang saling bebas
(mutually exclusive/disjoint) dan menyeluruh (exhaustive)
berdasarkan sejumlah variabel penjelas. (Johnson dan Wichern,
1982:470), tujuan dari analisis diskriminan adalah untuk
menggambarkan ciri-ciri suatu pengamatan dari bermacam-macam
populasi yang diketahui, baik secara grafis maupun aljabar dengan
membentuk fungsi diskriminan.
Jika dianalogikan dengan regresi linear, maka analisis
diskriminan merupakan kebalikannya. Pada regresi linear, variabel
respon yang harus mengikuti distribusi normal dan homoskedastis,
sedangkan variabel penjelas diasumsikan fixed, artinya variabel
penjelas tidak disyaratkan mengikuti sebaran tertentu. Untuk analisis
diskriminan, variabel penjelasnya seperti sudah disebutkan diatas
mengikuti distribusi normal dan homoskedastis, sedangkan variabel
responnya fixed.

1.2. Tujuan Praktikum


- Mencari tahu apakah ada perbedaan yang jelas antar grup
variabel dependen, jika ada perbedaan manakah variabel
independen yang membuat pebedaan pada fungsi linear
diskriminan.
- Mampu menunjukkan asumsi-asumsi Analisis Diskriminan
terpenuhi

1
- Mampu menyelesaikan kasus yang ada dengan menggunakan
SPSS.
- Mampu membuat fungsi linear dari kasus yang ada dengan hasil
menggunakan SPSS.

1.3. Manfaat praktikum


- Melatih mahasiswa untuk bisa menggunakan software SPSS dan
Minitab dalam aplikasi statistika
- Mengetahui langkah-langkah (alogaritma) dalam pengujian
asumsi Analisis Diskriminan.
- Mengetahui variabel independen mana yang menyebabkan
perbedaan pada group variabel dependen pada fungsi linear
diskriminan.

2
BAB II
TINJAUAN UMUM DAN PERMASALAHAN

1.1. Tinjauan Statistika.


1.1.1. Definisi
Model Analisis Diskriminan ditandai dengan ciri khusus
yaitu data variabel dependen yang harus berupa data kategori,
sedanfkan data independen justru berupa non kategori. Hal ini
dapat dimodelkan sebagai berikut:
Y 1=X 1+ X 2+ X 3 +…+ X n

Non-Metrik Metrik
Dimana:
- Variabel Independen (X1 dan seterusnya) adalah data
metrik, yaitu berskala interval atau ratio.
- Variabel dependen (Y1) adalah data kategorikal atau
nominal. Jika data kategorikal tersebut hanya terdiri dari
2 kode saja disebut “Two-Groups Discriminant
Analysis”. Namun apabila lebih dari 2 kategori disebut
“Multiple Discriminant Analysis”.
1.1.2. Asumsi-asumsi Analisis Diskriminan
a. Multivariate normality, atau variabel independen
seharusnya berdistribusi normal. Jika tidak
berdistribusi normal, hal ini akan menyebabkan
masalah pada ketepatan fungsi (model) diskriminan.
Regresi Logistik bisa dijadikan alternative metode
jika memang data tidak berdistribusi normal.
b. Matriks kovarians dari semua variabel independen
relatif sama.

3
c. Tidak ada korelasi antar variabel independen. Jika
dua variabel independen mempunyai korelasi yang
kuat, maka dikatakan terjadi multikolinearitas.
d. Tidak ada data yang sangat ekstrim (outlier) pada
variabel independen. Jika ada data outlier yang tetap
diproses, hal ini bisa berakibat berkurangnya
ketepatan klasifikasi dari fungsi diskriminan.
1.1.3. Proses Analisis Diskriminan
Beberapa langkah yang merupakan proses dasar dalam
Analisis Diskriminan antara lain:
- Memilah variabel-variabel menjadi Variabel terkait
(Dependent) dan variabel bebas (Independent).
- Menentukan metode membuat fungsi diskriminan, yaitu:
1. Simultanoes Estimation; semua variabel dimasukkan
secara bersama-sama lalu dilakukan proses Diskriminan.
2. Step-wise Estimation; variabel dimasukkan satu per satu
ke dalam model diskriminan.
- Menguji signifikansi Fungsi Diskriminan yang terbentuk,
dengan menggunakan Wilk’s Lambda, Pilai, F test, dan
lainnya.
- Menguji ketepatan klasifikasi dari fungsi diskriminan (secara
individual dengan Casewise Diagnostic).
- Melakukan interpretasi Fungsi Diskriminan.
- Melakukan uji validasi fungsi diskriminan.

2.2. Tinjauan non Statistika


Sebuah penelitian dilakukan untuk mengetahui apakah ada
hubungan antara variabel dependen dan independen. Maka
digunakan lah Analisis Diskriminan guna menghasil kan fungsi
untuk menduga variabel Y (dependen). Variabel Y nya adalah
frekuensi liburan keluarga, dimana variabel Y terdiri dari 3
kategori ,yaitu Y=1 untuk frekuensi liburan rendah, Y=2 untuk
frekuensi liburan sedang, Y=3 untuk frekuensi liburan tinggi.
Variabel-variabel yang menjadi penduga bagi variabel Y antara lain
pendapatan keluarga perbulan (dalam juta), sikap terhadap perjalanan

4
(skala 1-7 dari negatif ke positif ), tingkat kepentingan liburan
keluaraga (skala 1-7 dari tidak penting ke sangat penting), jumlah
anggota keluarga, umur kepala keluarga.
Dari sini kita bisa melihat berbagai sudut pandang untuk
menentukan sebuah keluarga itu memiliki frekuensi liburan yang
rendah, sedang atau tinggi. Yang nantinya bisa menjadi sebuah
informasi bagi agensi perjalanan/tour and travel untuk bisa
memasarkan jasanya kepada sasaran yang tepat. Dengan cara awal
adalah melakukan sebuah survey singkat kepada keluarga dalam
suatu populasi yang di pilih secara acak. Sehingga menghasilkan
kesimpulan yang valid.

2.3. Permasalahan
Yang jadi permasalahan adalah apakah sikap terhadap
perjalanan dan tingkat kepentingan liburan salang berkorelasi?
Karena Analisis Diskriminan memiliki asumsi bahwa tidak terdapat
korelasi antar variabel independennya. Mari kita buktikan dengan
meilhat nilai VIF-nya apabila niali VIF melebih 10 maka sudah bisa
dikatakan terdapat korelasi antar variabel independen didalamnya.
Jadi harus dipastikan bahwa nilai VIF kurang dari 10 sudah cukup
membuktikan bahwa tidak ada multikolinearitas antar variabel
independen.

5
BAB III
METODE PENELITIAN

6
3.1. Sumber Data
Data yang digunakan dalam hal ini adalah data-data dengan
variabel dependen yaitu frekuensi liburan keluarga (1=rendah,
2=sedang, 3=tinggi), dengan variabel independennya X1(Pendapatan
keluarga perbulan), X2 (Sikap Terhadap Perjalanan), X3 (Tingkat
Kepentingan Liburan Keluarga), X4 (Jumlah Anggota Keluarga), X5
(Umur Kepala Keluarga).
3.2. Langkah-langkah
3.1.1. Input Data
1. Ketikkan data yang akan dianalisis pada “Data View”
2. Beri nama pada masing-masing variabel, sesuaikan
dengan banyak koma yang diperlukan dan tentukan
skala data pada masing-masing variabel. Pada variabel
dependent pilih “Nominal”, dan pada variabel
independent pilih “Scale”
3. Pada variabel dependent. Pada Values beri keterangan
masing-masing grup. 1=Nakal Menengah Keatas,
2=Nakal Ringan
3.1.2. Pengujian Asumsi
1. Pilih Analyze → Regression →Linear
2. Masukkan “Tingkat_kenakalan” pada kolom
Dependent dan “I-Q”,”E_Q”,dan “S_Q” pada
Independent(s). Lalu piih Statistics
3. Centang “Estimates”, “Model Fit”, dan “Collinearity
diagnostics”. “Collinearity diagnostics” untuk
mengetahui asumsi multikolinearitas
4. Pilih Save dan centang “Unstandardize” pada
Residuals.
5. Uji Normalitas dilakukan dengan pilih Analyze →
Nonparametric Tests → Legacy Dialogs → 1-Sample
K-S
6. Pada kolom Test Variable List isikan dengan
“Unstandardized Residuals”.
7. Selanjutnya menguji ada tidaknya outlier, pilih Graphs
→ Legacy Dialogs → Boxplot
8. Pilih “Simple” dan “Summaries of separate variables”.
Lalu pilih Define

7
9. Pada kolom Boxes Represent isikan dengan variabel
prediktor, dalam hal ini adalah “I_Q”, “E_Q”,”S_Q”.
10. Uji matriks varians kovarians dengan pilih Analyze →
Classify → Discriminant
11. Pada Grouping Variable isikan dengan
“Tingkat_kenakalan”, pada Independents isikan dengan
“I_Q”,”E_Q”, dan “S_Q”. Lalu pilih Statistics
12. Centang “Box’s M”.

3.1.3. Analisis Diskriminan


1. Pilih Analyze → Classify → Discriminant
2. Pada Grouping Variable isikan dengan
“Tingkat_kenakalan”, pada Independents isikan dengan
“I_Q”,”E_Q”, dan “S_Q”. Lalu pilih Statistics
3. Centang “Means”, “Univariate ANOVAs”,
“Fisher’s”,dan “Unstandardized”. Lalu pilih continue
4. Pilih Classify
5. Pilih “All groups equal” dan centang pada “Summary
table”. Lalu pilih continue
6. Klik Define Range
7. Isikan 1 pada Minimum dan 2 pada Maximum.

8
3.2. Diagram Alir

Mulai

Data

Pengujian Asumsi

Terpenuhi asumsi

Tidak
Ya

Analisis Diskriminan

Selesai

Gambar 3.3.1. Diagram Alir

9
10
BAB IV
HASIL DAN PEMBAHASAN

4.1. Pengujian Asumsi


4.1.1. Non Multikolinearitas
Tabel 4.1.1.1 Coefficientsa
Model Unstandardized Standardized t Sig. Collinearity Statistics
Coefficients Coefficients

B Std. Error Beta Tolerance VIF

(Constant) .975 .233 4.188 .000

X_1 .028 .011 .174 2.527 .019 .234 4.274

X_2 .104 .033 .275 3.122 .005 .143 7.012

X_3 .171 .037 .460 4.577 .000 .110 9.093

X_4 -.042 .025 -.125 -1.689 .104 .203 4.927

X_5 -.001 .003 -.014 -.423 .676 .968 1.033

a. Dependent Variable: Y
a. Dependent Variable: Tingkat_kenakalan
Hipotesis
H 0 : tidak terdapat multikolinieritas
H 1 : paling sedikit terdapat multikolinieritas dalam peubah X

Nilai VIF yang didapatkan bernilai < 10 sehingga Terima


H0 , maka dapat disimpulkan bahwa asumsi non
multikolinearitas terpenuhi

11
4.1.2. Normal Multivariat
Tabel 4.1.2.1. One-Sample Kolmogorov-Smirnov Test
Unstandardized
Predicted Value

N 30
Mean 2.0000000
Normal Parametersa,b
Std. Deviation .81933442
Absolute .180
Most Extreme Differences Positive .157
Negative -.180
Kolmogorov-Smirnov Z .986
Asymp. Sig. (2-tailed) .285

a. Test distribution is Normal.


b. Calculated from data.
Hipotesis uji
H 0 : galat berdistribusi normal
H 1 : galat tidak berdistribusi normal

Perbandingan antara p-value dengan α


p−value=0,842
α =0,05

Keputusan : Terima H0
Kesimpulan : Dengan taraf nyata 5% sudah cukup bukti
untuk menyatakan bahwa asumsi galat berdistribusi normal terpenuhi

12
4.1.3. No Outlier
Tabel 4.1.3.1 Boxplot

Dari boxplot diatas menunjukkan hasil bahwa tidak ada


data yang keluar dari batas atau tidak ada pencilan, sehingga asumsi
no outlier terpenuhi
4.1.4. Matriks kovarian dari semua variabel prediktor relatif
sama
Tabel 4.1.4.1. Test Results
Box's M 61.365
F Approx. 1.480

df1 30
13
df2 2309.985

Sig. .045
Tests null hypothesis of equal
population covariance matrices.
H 0 : Matriks kovarian dari semua variabel prediktor relatif sam
H 1 : Matriks kovarian dari semua variabel prediktor berbeda

Nilai p-value = 0,045 α =0,05

Keputusan : Tolak H0 maka dapat disimpulkan bahwa


matriks kovarian dari semua variabel prediktor berbeda, sehingga
asumsi bahwa matriks kovarian dari semua variabel prediktor sama
tidak terpenuhi, namun kembali ke batasan masalah yang
menjelaskan bahwa diasumsikan semua asumsi terpenuhi.
4.2. Analisis Diskriminan
Tabel 4.2.1. Tests of Equality of Group Means
Wilks' Lambda F df1 df2 Sig.

X_1 .130 90.203 2 27 .000


X_2 .106 114.081 2 27 .000
X_3 .060 212.337 2 27 .000
X_4 .178 62.349 2 27 .000
X_5 .975 .342 2 27 .714
Dari Tabel diatas didapatkan hasil bahwa variabel X_1, X_2,
X_3, dan X_4 yang signifikan sehingga disumpulkan bahwa
variabel X_1, X_2, X_3, dan X_4 berpengaruh terhadap
frekuensi liburan keluarga rendah, sedang, atau tinggi.
Tabel 4.2.2. Eigen values
Function Eigenvalue % of Variance Cumulative % Canonical
Correlation

1 37.559a 98.4 98.4 .987


a
2 .606 1.6 100.0 .614

14
a. First 2 canonical discriminant functions were used in the analysis.

Terdapat 2 fungsi karena min ( q−1, p )=(3−1,5) =2 sehingga


sesuai jika fungsi yang ada adalah dua

15
Pada table Eigen Values terdapat nilai canonical correlation. Nilai
canonical correlation digunakan untuk mengukur derajat hubungan
antara hasil diskriminan atau besarnya variabilitas yang mampu
diterangkan oleh variabel independent terhadap variabel dependent.
Nilai korelasi kanonikal menunjukan hubungan antara nilai
diskriminan dengan kelompok. Nilai fungsi 1 sama dengan 0.987 berarti
hubungannya sangat tinggi dibandingkan nilai fungsi 2 yang sama
dengan 0.614 yang artinya fungsi 1 lebih tinggi keeratan hubungan
antara nilai diskriminan dengan kelompok.
Tabel 4.2.3. Wilks' Lambda
Test of Function(s) Wilks' Lambda Chi-square df Sig.

1 through 2 .016 103.151 10 .000


2 .623 11.846 4 .019
H 0 : Fungsi tidak signifikan
H 1 : Fungsi signifikan(layak)

Nilai p-value = 0,000 α=0,05

Keputusan : Tolak H0 maka dapat disimpulkan bahwa


fungsi sudah layak dan sudah dapat digunakan untuk menggambarkan
tingkat frekuensi liburan keluarga.

4.3. Model Diskriminan


4.3.1. Canonical Discriminant function coefficient

Function

1 2

X_1 .256 .471


X_2 .760 -.014
X_3 1.200 -.517
X_4 -.260 .446
X_5 -.012 -.032
(Constant) -7.681 -1.811
16
BAB V
PENUTUP
5.1. Kesimpulan
Dari kasus untuk mengetahui pengaruh apakah benar variabel
X_1, X_2, X_3, X_4, dan X_5 sudah tepat digunakan untuk
17
mengelompokkan tingkat frekuensi liburan keluarga menjadi 3
kelompok yaitu rendah, sedang, dan tinggi. Sebelum dilakukan
analisis, dilakukan pengujian asum-asumsi yang ada dan dipapatkan
hasil bahwa asumsi normal multivariate, non-multikolinearitas, tidak
ada pencilan (outlier) terpenuhi namun asumsi homogenitas matriks
kovarian dari semua variabel dependen tidak terpenuhi.
Pada analisis diskriminan didapatkan hasil bahwa seluruh
variabel berpengaruh terhadap pengelompokan tingkat frekuensi
liburan keluarga kecuali variabel X_5 yaitu Umur Kepala Keluarga.
Dan didapatkan model diskriminan sebagai berikut :
D=−7,681+0,256 X 1 +0,760 X 2 +1,200 X 3 −0,260 X 4 −0,012 X 5

5.2. Saran
5.2.1. Perhatikan dengan cermat skala data yang akan
dianalisis, ketika akan melakukan analisis
diskriminan.
5.2.2. Sebelum menguji asumsi, sebaiknya sudah
mengetahui secara jelas bagaimana prosedur
melakukan uji asumsi dan membaca output.

18
DAFTAR PUSTAKA

https://masbied.files.wordpress.com/2011/05/modul-matematika-
analisis-diskriminan.pdf

https://www.google.com/url?
sa=t&rct=j&q=&esrc=s&source=web&cd=8&cad=rja&uact=8&v
ed=0ahUKEwip37uBhrDMAhVJHI4KHePkDdQQFghLMAc&ur
l=http%3A%2F%2Ffile.upi.edu%2FDirektori%2FFPIPS
%2FLAINNYA%2FMEITRI_HENING%2FModul

19
%2FModul_Diskriminan.pdf&usg=AFQjCNFH029DESuRXU_u
sxZiVnKEWENFVg&sig2=ZrWP1ngurrUjqfarLaEg3Q

https://www.google.com/url?
sa=t&rct=j&q=&esrc=s&source=web&cd=5&cad=rja&uact=8&v
ed=0ahUKEwip37uBhrDMAhVJHI4KHePkDdQQFgg5MAQ&u
rl=http%3A%2F%2Fdaps.bps.go.id%2Ffile_artikel
%2F65%2FANALISIS
%2520DISKRIMINAN.pdf&usg=AFQjCNGhA3aYObUWGj78o
MgvZWFywxWWAA&sig2=tSQBYkgNJKRWr_lkMPAAIA

https://pengetahuanuntukanda.wordpress.com/2012/04/22/analisis-
korelasi-kanonikal/

20
LAMPIRAN

Lampiran 1. Data
No Y X1 X2 X3 X4 X5
1 1 1.5 1 1 6 25
2 1 2 1 1 7 30
3 1 1.17 1 1 8 55
4 1 3.5 2 1 9 60
5 1 1.25 2 1 5 30
21
6 2 5.3 3 3 3 32
7 2 6.5 3 4 4 31
8 2 4.7 4 4 4 45
9 2 4.65 4 3 5 42
10 2 3.75 5 4 5 41
11 3 10 7 7 2 43
12 3 15 6 7 1 45
13 3 13 7 6 3 29
14 3 14 6 6 2 28
15 3 8 7 6 2 26
16 1 1.5 1 1 10 23
17 1 2.3 2 1 7 24
18 1 3.1 1 2 8 32
19 1 1.4 1 2 9 34
20 1 0.75 2 2 6 47
21 2 3.2 3 4 4 49
22 2 4.5 4 4 5 50
23 2 6.1 6 4 4 36
24 2 4.3 4 5 5 31
25 2 3.8 4 5 5 39
Lampiran 1. Data (lanjutan)
26 3 11 7 7 2 35
27 3 12 5 7 3 42
28 3 12.5 7 6 2 43
29 3 13.7 6 6 3 44
30 3 19 6 7 1 45

Lampiran 2. Output SPSS


Variables Entered/Removeda

22
Model Variables Variables Method
Entered Removed

X_5, X_4, X_1,


1 . Enter
X_2, X_3b

a. Dependent Variable: Y
b. All requested variables entered.
Model Summaryb

Model R R Square Adjusted R Std. Error of the


Square Estimate

1 .987a .973 .968 .14889

a. Predictors: (Constant), X_5, X_4, X_1, X_2, X_3


b. Dependent Variable: Y

ANOVAa
Model Sum of df Mean F Sig.
Squares Square
Regression 19.468 5 3.894 175.637
1 Residual .532 24 .022
Total 20.000 29
a. Dependent Variable: Y
b. Predictors: (Constant), X_5, X_4, X_1, X_2, X_3

23
Coefficientsa
Model Unstandardized Standardized t Sig. C
Coefficients Coefficients
S
B Std. Error Beta T
(Constant) .975 .233 4.188 .000
X_1 .028 .011 .174 2.527 .019
X_2 .104 .033 .275 3.122 .005
1
X_3 .171 .037 .460 4.577 .000
X_4 -.042 .025 -.125 -1.689 .104
X_5 -.001 .003 -.014 -.423 .676
a
Coefficients
Model Collinearity Statistics
VIF

(Constant)
X_1 4.274
X_2 7.012
1
X_3 9.093
X_4 4.927
X_5 1.033
a
Collinearity Diagnostics
Mod Dimensi Eigenval Condition Variance Proportions
el on ue Index (Consta X_1 X_2 X_3
nt)
1 5.111 1.000 .00 .00 .00 .00
2 .753 2.605 .00 .02 .00 .00
3 .062 9.094 .00 .86 .12 .03
1
4 .046 10.538 .01 .01 .08 .01
5 .018 16.800 .00 .10 .66 .88
6 .010 22.571 .99 .00 .14 .08
a
Collinearity Diagnostics

24
Model Dimension Variance Proportions
X_4 X_5

1 .00 .00
2 .03 .00
3 .05 .03
1
4 .12 .87
5 .00 .02
6 .80 .07
Residuals Statisticsa
Minimum Maximu Mean Std. N
m Deviation
Predicted Value .8470 3.2422 2.0000 .81933 30
Residual -.24672 .22327 .00000 .13545 30
Std. Predicted
-1.407 1.516 .000 1.000 30
Value
Std. Residual -1.657 1.500 .000 .910 30

One-Sample Kolmogorov-Smirnov Test


Unstandardized Predicted Value
N 30
a,b Mean 2.0000000
Normal Parameters
Std. Deviation .81933442
Absolute .180
Most Extreme Differences Positive .157
Negative -.180
Kolmogorov-Smirnov Z .986
Asymp. Sig. (2-tailed) .285
a. Test distribution is Normal.
b. Calculated from data.
Case Processing Summary

Cases

Valid Missing Total

25
N Percent N Percent N Percent

X_1 30 100.0% 0 0.0% 30 100.0%

X_2 30 100.0% 0 0.0% 30 100.0%

X_3 30 100.0% 0 0.0% 30 100.0%

X_4 30 100.0% 0 0.0% 30 100.0%

X_5 30 100.0% 0 0.0% 30 100.0%

Analysis Case Processing Summary


Unweighted Cases N Percent
Valid 30 100.0
Excluded Missing or out-of-range 0 .0
group codes

26
At least one missing
0 .0
discriminating variable
Both missing or out-of-range
group codes and at least one
0 .0
missing discriminating
variable
Total 0 .0
Total 30 100.0
Group Statistics
Y Valid N (listwise)
Unweighted Weighted
X_1 10 10.000
X_2 10 10.000
rendah X_3 10 10.000
X_4 10 10.000
X_5 10 10.000
X_1 10 10.000
X_2 10 10.000
sedang X_3 10 10.000
X_4 10 10.000
X_5 10 10.000
X_1 10 10.000
X_2 10 10.000
tinggi X_3 10 10.000
X_4 10 10.000
X_5 10 10.000
X_1 30 30.000
X_2 30 30.000
Total X_3 30 30.000
X_4 30 30.000
X_5 30 30.000

Log Determinants
Y Rank Log Determinant
Rendah 5 2.422
Sedang 5 1.020
Tinggi 5 2.133
Pooled within-groups 5 4.131
The ranks and natural logarithms of determinants printed
are those of the group covariance matrices.

Test Results

27
Box's M 61.365
Approx. 1.480
df1 30
F
df2 2309.985
Sig. .045

Tests null hypothesis of equal population covariance matrices.

Eigenvalues
Function Eigenvalue % of Variance Cumulative % Canonical
Correlation
1 37.559a 98.4 98.4 .987
2 .606a 1.6 100.0 .614

a. First 2 canonical discriminant functions were used in the analysis.

Wilks' Lambda
Test of Function(s) Wilks' Lambda Chi-square df Sig.
1 through 2 .016 103.151 10 .000
2 .623 11.846 4 .019

Standardized Canonical
Discriminant Function
Coefficients
Function
1 2
X_1 .486 .894
X_2 .563 -.010
X_3 .677 -.292
X_4 -.282 .484
X_5 -.121 -.315

Structure Matrix
Function
1 2
X_3 .646* -.283
X_2 .474* -.211
X_4 -.348* .327
X_1 .410 .785*
X_5 .014 -.174*

28
Pooled within-groups correlations
between discriminating variables
and standardized canonical
discriminant functions
Variables ordered by absolute
size of correlation within function.
*. Largest absolute correlation
between each variable and any
discriminant function

Functions at Group Centroids


Y Function
1 2
rendah -6.979 .552
sedang -.275 -1.044
tinggi 7.254 .492

Unstandardized canonical discriminant functions evaluated at group means

Group Statistics
Y Mean Std. Valid N (listwise)
Deviation Unweighte Weighted
d
X_1 1.8470 .88127 10 10.000
X_2 1.4000 .51640 10 10.000
rendah X_3 1.3000 .48305 10 10.000
X_4 7.5000 1.58114 10 10.000
X_5 36.0000 13.26650 10 10.000
X_1 4.6800 1.03928 10 10.000
X_2 4.0000 .94281 10 10.000
sedang X_3 4.0000 .66667 10 10.000
X_4 4.4000 .69921 10 10.000
X_5 39.6000 7.08990 10 10.000
tinggi X_1 12.8200 2.98917 10 10.000
X_2 6.4000 .69921 10 10.000
X_3 6.5000 .52705 10 10.000
X_4 2.1000 .73786 10 10.000

29
X_5 38.0000 7.70281 10 10.000
X_1 6.4490 5.07224 30 30.000
X_2 3.9333 2.19613 30 30.000
Total X_3 3.9333 2.22731 30 30.000
X_4 4.6667 2.48212 30 30.000
X_5 37.8667 9.53300 30 30.000
Tests of Equality of Group Means

Wilks' Lambda F df1 df2 Sig.

X_1 .130 90.203 2 27 .000

X_2 .106 114.081 2 27 .000

X_3 .060 212.337 2 27 .000

X_4 .178 62.349 2 27 .000

X_5 .975 .342 2 27 .714

Eigenvalues
Function Eigenvalue % of Variance Cumulative % Canonical
Correlation
1 37.559a 98.4 98.4 .987
2 .606a 1.6 100.0 .614
a. First 2 canonical discriminant functions were used in the analysis.
Wilks' Lambda
Test of Function(s) Wilks' Lambda Chi-square df Sig.
1 through 2 .016 103.151 10 .000
2 .623 11.846 4 .019
Standardized Canonical Discriminant Function Coefficients
Function
1 2
X_1 .486 .894
X_2 .563 -.010
X_3 .677 -.292
X_4 -.282 .484
X_5 -.121 -.315
Structure Matrix
Function

30
1 2
X_3 .646* -.283
X_2 .474* -.211
X_4 -.348* .327
X_1 .410 .785*
X_5 .014 -.174*
Pooled within-groups correlations between discriminating variables and
standardized canonical discriminant functions
Variables ordered by absolute size of correlation within function.
*. Largest absolute correlation between each variable and any discriminant function
Canonical Discriminant Function Coefficients
Function
1 2
X_1 .256 .471
X_2 .760 -.014
X_3 1.200 -.517
X_4 -.260 .446
X_5 -.012 -.032
(Constant) -7.681 -1.811
Unstandardized coefficients
Functions at Group Centroids
Y Function
1 2
rendah -6.979 .552
sedang -.275 -1.044
tinggi 7.254 .492
Unstandardized canonical discriminant functions evaluated at group means

Classification Processing Summary


Processed 30
Missing or out-of-range group
0
codes
Excluded
At least one missing
0
discriminating variable
Used in Output 30
Prior Probabilities for Groups
Y Prior Cases Used in Analysis
31
Unweighted Weighted
rendah .333 10 10.000
sedang .333 10 10.000
Tinggi .333 10 10.000
Total 1.000 30 30.000
Classification Function Coefficients
Y
rendah sedang tinggi
X_1 1.024 1.990 4.644
X_2 3.710 8.826 14.525
X_3 2.726 11.599 19.843
X_4 6.410 3.955 2.683
X_5 .248 .217 .074
(Constant) -34.920 -59.596 -146.057

Fisher's linear discriminant functions


Classification Resultsa
Y Predicted Group Membership Total
rendah sedang tinggi
rendah 10 0 0 10
Count sedang 0 10 0 10
tinggi 0 0 10 10
Original
rendah 100.0 .0 .0 100.0
% sedang .0 100.0 .0 100.0
tinggi .0 .0 100.0 100.0

a. 100.0% of original grouped cases correctly classified.

32

Anda mungkin juga menyukai