Anda di halaman 1dari 32

UJI KANONIK

catatan: contoh uji menggunakan data dengan 6 variabel X dan 6 variabel Y


Asumsi :
- linearitas
- normalitas
- multikolinieritas

1) Uji Asumsi Normalitas
langkah-langkahnya:
gunakan Herodes klik Analyze Kenormalan
Pilih semua variabel (baik X maupun Y) pada Pemeriksaaan
Kenormalan pilih Simultan pada Pengujian Kenormalan pilih Simultan
lalu centang Skewness And Kurtosis Test klik OK
















Interpretasi Output:


interpretasi grafik: jika ttik merah semakin mendekati yg biru berarti
semakin normal
Pengujian Secara Simultan

Tahap 1 Uji Skewness (x) => H0: data normal
H1: data menceng
Keputusan : signifikansi Skewness = 0.246 > 0.05 => terima H0 , atau
data normal
Tahap 2 uji Kurtosis (sigma) => H0: data normal
H1: data runcing
Keputusan : signifikansi Kurtosis = 0.083 > 0.05 => terima H0 atau
data normal
Penting: di kedua tahap keputusannya harus TERIMA H0 , jika salah
satu tolak H0 berarti data tidak normal => harus ditransformasi terlebih
dahulu
jika H0 ditolak di tahap 1 (Skewness) maka gunakan box cox,
transformasi logaritma
jika tolak H0 di tahap 2 (Kurtosis) gunakan transformasi varians di
heterokedastisitas
2) Uji Linearitas
Scatter Plot untuk 6 variabel X dan 6 variabel Y => dipasangkan satu-satu
x1 - y1 . . . x6 - y1
x1 - y2 x6 - y2
x1 y3 .
x1 y4 .
x1 y5 .
x1 - y6 x6 - y6


Langkah-langkahnya:
Gunakan SPSS - graphs - legacy dialogs - scatter/dot







pilih Simple Scatterplot masukan satu persatu misalkan variabel
X1 (Belanja Pegawai/BP) ke jendela X Axis dengan variabel Y1
(Pertumbuhan Ekonomi/PE) ke jendela Y Axis OK

ulangi kembali langkah di atas untuk masing-masing kombinasi X
dan Y


Output

Interpretasi : bersifat subjektif => dari gambar di atas bisa dilihat
linear namun lemah

3) Uji Asumsi Non Multikolinieritas
Secara agregat bisa dilihat dari matriks korelasi
Langkah-Langkahnya:
gunakan spss
uji nya dibagi menjadi dua bagian, X dan Y diuji secara terpisah
Misalkan diuji untuk X terlebih dahulu: analyze- correlate - bivariate -
masukan semua variabel X OK


Interpretasi:

catatan: yang ada tanda ** berarti siginifikan => tolak H0=>
artinya ada korelasi antar variabel X => variabel tsb harus
dibuang

H0:
H1:
Dari matriks Korelasi hanya bisa melihat ada multikolinieritas atau
tidaknya saja
untuk mengetahui mana yg harus dibuang caranya : analyzse-
regression - linear - masukan ke enam variabel X ke box Independen
dan masukan satu variabel Y (misalkan variabel Pertumbuhan
Ekonomi) ke box Dependen

Lalu klik statistics: centang collinearity diagnostics


output:
lihat di Tabel 'cofficients'

- buang yang memilki nilai VIF > 10
kesimpulan: variabel Belanja Pegawai, Transportasi, Pendidikan,
Kesehatan dan Kesejahteraan memiliki multikolinieritas
seharusnya variabel di atas dibuang namun karena ada teori yang kuat
maka untuk di latihan uji kanonik variabel di atas tetap digunakan, tapi
kalau di soal UAS tidak diberitahu tentang teori yang mendasari
variabel maka harus dibuang.

Setelah semua pengujian asumsi dilakukan, sekarang ke uji kanonik, langkah-
langkahnya:
Gunakan SPSS
file-open-syntax



catatan: baris pertama saja yang diubah=> Y dulu baru X
Y: PE TO TP
X: BP TO KK
artinya dari variabel PE (Pembangunan EKonomi) To variabel TP (Tingkat
Pertumbuhan); dst. Nama variabel disesuaikan dengan variabel yg ingin diuji.
lalu klik run- all
Interpretasi Output:
1) lihat Multivariate test of significance
gunanya: menguji semua gugus X dan gugus Y


H0: semua gugus peubah kanonik secara simultan tidak bisa menjelaskan
hubungan set variabel X dengan set variabel Y
H1: semua gugus peubah kanonik secara simultan bisa menjelaskan
hubungan set variabel X dengan set variabel Y

catatan: Uji pada Multivariate test of significance ada pillais, hotelling, wilks
dan roys, jika salah satu saja signifikan berarti semua gugus
peubah kanonik secara simultan bisa menjelaskan hubungan set
variabel X dengan set variabel Y=> dapat lanjut ke analisis
berikutnya
Kesimpulan : meskipun hanya satu uji saja yang signifikan yaitu uji Wilks (
0.029 < 0.05) maka semua gugus peubah kanonik secara simultan
bisa menjelaskan hubungan set variabel X dengan set variabel Y.


2) Lihat Tabel EigenValues and Canonical Correlation

'root no.1' artinya pasangan no 1 (V1W1 dimana V=X, W=Y)
lihat kolom ke-5: Canon Cor. nilainya sebesar 0.996 artinya hubungan
antara V1 dengan W1 sangat kuat dan positif (interpretasi sama seperti
korelasi biasa)
lihat kolom ke -6: Sq.Cor nilainya sebesar 0.992 (0.996
2
= 0.992) artinya
V1 bisa menjelaskan proporsi varian W1 sebesar 0.992.
3) Lihat Dimension Reduction Analysis

roots : 1 TO 6 artinya V
1
W
1
; 2 TO 6 artinya V
2
W
2
; dst
lihat nilai Sig.of F cari mana yg signifikan berarti itu yg digunakan dalam
analisis selanjutnya.
Kesimpulan yang signifikan adalah root 1 to 6: V
1
W
1
(Sig.of F = 0.029 <
0.05)





4) Lihat 'Standardized canonical coefficients for DEPENDENT variables'

karena pada tabel sebelumnya (Dimension Reduction Analysis ) hanya
root 1 TO 6 atau V1W1 yang signifikan maka untuk modelnya hanya
menggunakan nilai dari kolom 1:
ZW
1
: -0.070 Z
PE
- 0.154 Z
ABT
+ 0.240 Z
APS
+ 0.397 Z
AMH
+ 0.272 Z
TPT

interpretasi: ketika Z
PE
meningkat 1 satuan maka nilai ZW
1
akan
menurun sebesar -0.070, dst.
5) Lihat 'correlation between DEPENDENT and cannonical


interpretasi:
- hubungan PE dengan kanonikal variabel W1 sebesar 0.224 dan negatif,
- hubungan ABT dengan kanonikal variabel W1 sebesar 0.667 dan
negatif
- hubungan APS dengan kanonikal variabel W1 sebesar 0.786 dan
positif; dst.
lihat angkanya dr kolom 1 saja (W1) karena dari uji sebelumnya hanya V1W1
yang siginifikan (ingat yaah)
kemudian lihat juga variabel mana yang memilki korelasi paling besar ( )
kesimpulan: indikator kesejahteraan (keseluruhan var X) dapat diwakili oleh
variabel AMH ( = 0.868)
catatan: jika ada lebih dari 1 variabel yang nilainya > 0.8 maka sejumlah variabel
tersebutlah yang mewakili keseluruhan variabel.
6) lihat 'variance in independent variabel explained by canonical variabel'

interpretasi:
- (lihat dr kolom ke-3) variasi dalam set variabel DEPENDEN dapat
dijelaskan oleh variabel kanonik pertama (W
1
) yang terbentuk sebesar
42.871 %
- (lihat dr kolom ke-5) koef. Redudansi variasi dalam set variabel
INDEPENDEN dapat dijelaskan oleh variabel kanonik pertama (V1) yg
terbentuk sebesar 42.532 %
(karena yg td signifikan cuma yg pertama jd dilihat cm baris pertama, kalau yg
signifikan ada 2 berarti lihat yg baris 2 saja, baris 1 ga usah, dst)
7) Lihat yg standardizes canonical coef for COVARIATE '(COVARIATE= VAR
INDEPENDEN)

Penting : COVARIATE= VAR INDEPENDEN (X) => sekarang sudah masuk ke
analisis untuk variabel X
Interpretasi:
ZV
1
: -1.782 Z
BP
-0.59 ZT
K
-2.544 Z
Transpor
+ 0.042 Z
PD
0.099 Z
Pddkn
-
0.52 Z
KK
8) Lihat Correlations between COVARIATES and canonical variables

Interpretasi: variabel yang dapat mewakili ( ) adalah variabel Transpor,
Pddkn, dan KK (tidak melihat tanda positif atau negatif).
9) Lihat Variance in Covariates explained by canonical variables

interpretasi:
- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel
kanonik V1 sebesar 61.379% (kol.5)
- variasi dalam set variabel INDEPENDEN yg dpt dijelaskan oleh variabel
kanonik W1 sebesar 60.894% (redundansi) (kol.3)

-analisis uji kanonik selesai- fiuuuhhhh
Catatan tambahan:
'Standardized canonical.. = PENIMBANG
'correlation between .= FAKTOR LOADING
Poin Penting:
KANONIK HANYA MEMPELAJARI HUBUNGAN => KALAU DUA GUGUS PASTI
PAKAI KANONIK, X DAN Y HARUS BERUPA MATRIK, MINIMAL ADA 1 GUGUS
YANG X ATAU Y NYA LEBIH DARI 1
DISKRIMINAN: KASUS KHUSUS DARI KANONIK => Y NYA HANYA 1 (BISA
KATEGORIK) DAN X NYA HARUS BERUPA MATRIK
PADA' DIMENSION REDUCTION ANALYSIS' LIHAT DI SIG.F NYA BISA
DILAKUKAN UJI FORMAL UNTUK LINEARITAS => JIKA SIGNIFIKAN BERARTI
LINEAR
H0:
H1: ada korelasi berarti linear
Perbedaaan Analisis Faktor dengan Cluster:
faktor mereduksi variabel, sedangkan cluster mereduksi amatan


Eda ngaden awak bisa, depang anake ngadanin (pepatah kuno Bali )
SEMANGAT UAS, NGOMPRE , NYEKRIP, WISUDAAA








ANALISIS FAKTOR
Pada Analisis Faktor belum dibedakan antara variabel X dengan Y
asumsinya:
normal
multikolinieritas
Tahapan pengujian
1. uji asumsi normalitas
2. lalu uji analisis:
analyze data reduction factor - masukan semua variabel descriptif :centang KMO & anti
images extraction jika satuannya beda pilih correlation, jika sama pilih covariance, pada
display centang unrotated factor solution dan scree plot- lalu klik continue- lanjut ke
rotation pilih varimax - klik continue pada score jika disuruh menampilkan variabel
barunya maka pada scores centang yg save as continue- ok
3. interpretasi:

Bartlets test: (mendeteksi ada multikolinieritas atau tidak)
H0: matriks identitas
H1: matrik identitas => multikolinieritas
ingin ditolak H0, kalau tolak berarti ada multikolinieritas

KMO Test
KMO yang bagus >0,8
KMO yang cukup >0,5 => bisa melanjutkan analisis
MSA dilihat dari Anti images correlation -> lihat tabel anti-images matriks -> fokus di
diagonal utama, syaratnya lebih dari 0,5. Jika kurang maka dibuang satu persatu di run ulang

communalities: proporsi yang mampu dijelaskan oleh faktor

Communalities

Initial Extraction
TP
1.000 .967
MSY
1.000 .808
TE
1.000 .978
HSE
1.000 .841
MVH
1.000 .726




lalu pada
Total Variance Explained

Component
Initial Eigenvalues Extraction Sums of Squared Loadings Rotation Sums of Squared Loadings
Total % of Variance Cumulative % Total % of Variance Cumulative % Total % of Variance Cumulative %
1
3.029 60.578 60.578 3.029 60.578 60.578 3.021 60.430 60.430
2
1.291 25.823 86.401 1.291 25.823 86.401 1.299 25.971 86.401
3
.572 11.449 97.850
4
.095 1.908 99.758
5
.012 .242 100.000

component: faktor yang terbentuk
lihat dari kumulatif persentase
pada komponen 1 bisa menjelaskan 60,578% (masih kurang karena < 80%) sehingga ditambah dengan
komponen ke-2, sehingga totalnya menjadi 86,401%.
pada kolom Initial Eigen value di Total, pilih yang eigen valuenya > 1 , jadi Cuma komponen 1 dan 2
kenapa harus >1 ? karena ketika eigen value kurang dari 1 maka vektor ciri juga kecil. kalau eigen vektor kecil
maka sumbangsih untuk menjelaskan variabel asal juga kecil.

pada scree plot, subjektif, untuk melihat berapa komponen/faktor yang kita pakai
Component Matrix(a)


Component
1 2
TP
.972 .149
MSY
.545 .715
TE
.989 .005
HSE
.847 -.352
MVH
-.303 .797
Extraction Method: Principal Component Analysis.
a 2 components extracted.

komponen matrik untuk menentukan faktor pertama dan faktor kedua itu terdiri dari apa saja
komponen matrik disebut juga faktor loading, dimana kuadrat loading pertama + kuadrat loading
kedua = nilai extraction di comunalities
nah berdasarkan output, lihat di faktor mana ia paling besar
Faktor 1: TP, TE, HSE
Faktor 2: MSY, MVH

jika perbedaan antara kedua komponen itu tidak terlalu jauh berbeda maka perlu dirotasi->Varimax
Teori:
perbedaan antara AKU dengan A. Faktor:
AKU bisa menghasilkan antara komponen 1 dengan komponen 2 masih berkorelasi (tidak
mutually exclusive) sedangkan pada Analisis Faktor sudah mutually exclusive
PCA menghasilkan komponen, A.Faktor menghasilkan faktor.
Faktor menyusun variabel, komponen disusun dari variabel.

AKU=> komponen 1 = 0.972 TP + 0.545 MSY +0.989 TE + 0.847 HSE - 0.303 MVH
komponen 2= 0.149TP + 0.715MSY + 0.005 TE 0.352 HSE + 0.797 MVH
Analisis faktor:
Faktor 1: TP, TE, HSE
Faktor 2: MSY, MVH

ANALISIS DISKRIMINAN
Asumsi diskriminan:
1. Normalitas
2. rata2 populasi berbeda
3. ragam sama
4. non multikolinieritas
1.uji normalitas
harus data yg kuantitaif, yg dinormalkan variabel X, Y di diskriminan
uji dengan normalitas, interpretasi output:



sig. skewness dan sig.kurtosis =0 -> artinya data tidak berdistribusi normal (H0: data berdistribusi
normal)
sedangkan dari gambar:

bisa dilihat ada oulier sehingga perlu dikeluarkan data yg outlier tersebut. Untuk mengetahui mana
yang outlier gunakan Box Plot (dgn SPSS)
langkah-langkahnya: SPSS-graphs-Legacy Dialogs-Box Plot Simple- klik yg separate variable
masukan var minum (variabel independennya) ke Y Axis, masukan yg semua variabel X ke X Axis
output

bisa dilihat ada 4 outlier, yg tingginya antara 170-180 => harus dihilangkan dari data supaya normal



caranya:
data-select cases-klik if condisition is satisfied
Tinggi
180
170
160
150
140
sedikit
banyak
banyak
banyak
sedikit
banyak
banyak

pada window if ketik : tinggi <170 continu

setelah kembali ke window select cases klik Delete unselected cases

maka semua data yang tingginya >170 akan hilang sehingga data menjadi normal.
2. Asumsi Rata-rata berbeda
caranya : SPSS - analyze classify discriminant statistic: centang univariate Anova
(masukan semua var X) - OK
output:
Tests of Equality of Group Means


Wilks'
Lambda F df1 df2 Sig.
Tinggi
.946 4.186 1 73 .044
Income
.894 8.656 1 73 .004
Usia
.945 4.247 1 73 .043
Berat
.934 5.173 1 73 .026
Jam kerja
1.000 .000 1 73 .994
Olahraga
.946 4.183 1 73 .044

interpret:
H0:


H1:


harus tolak H0 agar memenuhi asumsi rata-rata grup berbeda
kesimpulan: semua signifikan berbeda kecuali variabel Jam kerja => lihat dari nilai sig. nya
ket:

rata-rata per variabel untuk grup 1;

= rata-rata per variabel untuk grup 2.





Uji analisis Diskriminan:
gunakan SPSS
analyze-classify-discriminant


masukan varminum (variabel Y) ke grouping variables


lalu masukan semua var (kecuali var No) ke Independents - pilih stepwise method




di statistics: pilih means, box m, fisher-continu

di method pilih wilks lambda (bisa juga mahalanobis) - centang use probability of
continue

di classify : all group equals . casewise results , summary table -continu

OK
output
Analysis Case Processing Summary

Unweighted Cases N Percent
Valid
75 100.0
Excluded Missing or out-of-range
group codes
0 .0
At least one missing
discriminating variable
0 .0
Both missing or out-of-
range group codes and at
least one missing
discriminating variable
0 .0
Total
0 .0
Total
75 100.0

menunjukan proses: berapa yg dianalisis





Group Statistics

Minum
Mean Std. Deviation Valid N (listwise)
Unweighted Weighted Unweighted Weighted
sedikit Usia
31.8684 6.12558 38 38.000
Berat
57.2105 11.76609 38 38.000
Tinggi
158.4474 5.66496 38 38.000
Income
659.4737 106.79476 38 38.000
Jam kerja
5.2684 .11100 38 38.000
Olahraga
3.1974 .55385 38 38.000
banyak Usia
28.9459 6.15515 37 37.000
Berat
51.8108 8.48475 37 37.000
Tinggi
161.5676 7.44439 37 37.000
Income
578.9189 129.52442 37 37.000
Jam kerja
5.2686 .15667 37 37.000
Olahraga
2.9054 .67780 37 37.000
Total Usia
30.4267 6.27344 75 75.000
Berat
54.5467 10.56549 75 75.000
Tinggi
159.9867 6.74335 75 75.000
Income
619.7333 124.53127 75 75.000
Jam kerja
5.2685 .13454 75 75.000
Olahraga
3.0533 .63124 75 75.000

interpret: rata-rata usia yang minumnya sedikit ialah 31 tahun dengan SIMPANGAN 6,12 ; dst.
Test Results

Box's M
18.006
F Approx.
2.867
df1
6
df2
38532.597
Sig.
.009
Tests null hypothesis of equal population covariance matrices.


H0: varians sama
H1: varians tidak sama
hasilnya nilai sig = 0.009 maka tolak H0 artinya varians tidak sama => data tidak bisa dilanjutkan
catatan: untuk uji normal jika tolak H0 => data tidak normal harus ditransformasi agar jadi normal
jika uji keragaman hasilnya tidak ragam-> tidak perlu lanjut uji
agar bisa lanjut uji maka variabel Tinggi dan Income dikeluarkan sehingga hasilnya:



Test Results

Box's M
7.255
F Approx.
2.347
df1
3
df2 982330.77
2
Sig.
.071
Tests null hypothesis of equal population covariance matrices.


sig = 0.071 => terima H0 = ragam sama , maka uji bisa dilanjutkan


Variables Entered/Removed(a,b,c,d)

Step
Entered Wilks' Lambda
Statistic df2 df3 Exact F Statistic df1
Statistic df2 Sig. Statistic df1 df2 Sig. Statistic df1
1
Berat .934 1 1 73.000 5.173 1 73.000 .026
2
Olahraga .879 2 1 73.000 4.947 2 72.000 .010
At each step, the variable that minimizes the overall Wilks' Lambda is entered.
a Maximum number of steps is 8.
b Maximum significance of F to enter is .05.
c Minimum significance of F to remove is .10.
d F level, tolerance, or VIN insufficient for further computation.

di stepwise hanya ada variabel Berat dan Olahraga , artinya dalam Diskriminan function yang masuk
hanya variabel Berat dan Olahraga
Variables in the Analysis

Step Tolerance
Sig. of F to
Remove
Wilks'
Lambda
1 Berat 1.000 .026
2 Berat
.995 .022 .946
Olahraga .995 .038 .934

artinya variabel yang akan dianalisis
Tolerance: utk mendeteksi multikolinieritas, ketika nilainya lebih dari 5 => ada multikolinieritas.








Variables Not in the Analysis

Step Tolerance
Min.
Tolerance
Sig. of F to
Enter
Wilks'
Lambda
0 Usia 1.000 1.000 .043 .945
Berat
1.000 1.000 .026 .934
Jam kerja
1.000 1.000 .994 1.000
Olahraga
1.000 1.000 .044 .946
1 Usia
1.000 1.000 .051 .886
Jam kerja .996 .996 .879 .934
Olahraga
.995 .995 .038 .879
2 Usia .761 .758 .299 .866
Jam kerja
.996 .991 .876 .879

di step 0: yg paling kecil nilai signifikasinya dan signifikan adalah variabel Berat => maka variabel
Berat masuk ke Tabel Variabel in the analysis
Step
Sig. of F to
Enter
0 Usia .043
Berat
.026
Jam kerja
.994
Olahraga
.044

step 1: yg paling kecil nilai signifikasinya dan signifikan adalah variabel olahraga => maka variabel
Olahraga masuk ke Tabel Variabel in the analysis
Step
Sig. of F to
Enter
1 Usia
.051
Jam kerja .879
Olahraga
.038

step 2: tidak ada yg signifikan => maka tidak masuk ke fungsi
di tabel Variables in the Analysis

Step Tolerance
Sig. of F to
Remove
Wilks'
Lambda
1 Berat 1.000 .026
2 Berat
.995 .022 .946
Olahraga .995 .038 .934

bisa dilihat sig. of F to remove nya tidak signifikan sehingga kedua variabel tidak perlu dihilangkan


Eigenvalues

Function Eigenvalue % of Variance Cumulative %
Canonical
Correlation
1
.137(a) 100.0 100.0 .348
a First 1 canonical discriminant functions were used in the analysis.

interpretasi: keeratan hubungan antara skore diskriminan dengan grup adalah sebesar
0.348 (Canonical Correlation)
ketika Canonical Correlation dikuadratkan maka akan sama dengan R
2
(koef. determinasi)

Interpret R
2
(koef. determinasi): besarnya pengaruh var bebas untuk membedakan grupnya
(masuk ek minum sedikit atau minum banyak) sebesar (0.121)

Tabel Wilks Lambda
Wilks' Lambda

Test of Function(s)
Wilks'
Lambda Chi-square df Sig.
1
.879 9.271 2 .010

Wilks' Lambda =0.879 : artinya varian total dalam diskriminan scores yang tidak bisa
dijelaskan oleh perbedaan antar grup 87.9%
diskriminan scores: untuk membedakan seseorang itu akan masuk ke grup mana
nilai 87.9% termasuk besar sehingga data bisa dikatakan tidak baik
H0: fungsi diskriminan tidak dapat menjelaskan perbedaan antar kedua grup
H1: fungsi diskriminan dapat menjelaskan perbedaan antar kedua grup
nilai sig. sebesar .010 artinya tolak H0 => fungsi diskriminan dapat membedakan
perbedaan antar kedua grup dengan jelas
catatan: nilai wilks lambda hanya menjelaskan besarnya saja (tidak pasti) untuk lebih pasti
lihat nilai sig.nya
df= 2 : karena ada 2 variabel yg masuk)

Standardized Canonical Discriminant Function Coefficients


Function
1
Berat
.765
Olahraga
.698

interpret: Z
minimum
= 0.765 Z
berat
+ 0,698 Z
olahraga

jika hanya ada 2 kategori ,maka hanya buat 1 Z (kayak dummy)


Structure Matrix


Function
1
Berat
.718
Olahraga
.646
Usia(a)
.339
Jam
kerja(a)
.051
Pooled within-groups correlations between discriminating variables and standardized canonical discriminant
functions
Variables ordered by absolute size of correlation within function.
a This variable not used in the analysis.

structure matrix : menjelaskan korelasi dari semua variabel bebas terhadap fungsi
diskriminan. Jika ada tanda a berarti tidak masuk dalam fungsi, nilai korelasinya kecil

Functions at Group Centroids

Minum
Function
1
sedikit
.361
banyak
-.371
Unstandardized canonical discriminant functions evaluated at group means

CV (Cut of Value) = Z1n2 + Z2n1 / (n1 + n2)
maka CV = 0.361*37 + (-0.371*38) / (75) = -0.03208
Centroid Z1 (minum sedikit) > Centroid Z2 (minum banyak) , maka jika nilai dari Z
minimum
=
0.765 Z
berat
+ 0,698 Z
olahraga
kurang dari -0.03208 maka akan masuk ke Centroid Z2 (minum
ba,nyak); jika nilai Z
minimum
> -0.03208 maka masuk ke Centroid Z1 (minum sedikit) .
nilai Z
berat
, Z
olahraga
didapat dari transformasi (

)

Centroid Grup ini menunjukan nilai tengah dari masing2 grup / dari masing2 Z score nya

Classification Results(a)



Classification Results

Minum
Predicted Group
Membership Total
sedikit banyak sedikit
Original Count sedikit
24 14 38
banyak
12 25 37
% sedikit
63.2 36.8 100.0
banyak
32.4 67.6 100.0
a 65.3% of original grouped cases correctly classified.

ket: angka yg berwarna merah: yang benar

interpretasi nilai 65,3 % => tingkat keakuratan fungsi diskriminan dapat membedakan
perbedaan grup adalah sebesar : (24 + 25) / 75 * 100% = 65,3 %
-selesai-
Tambahan Teori:
Ciri-ciri Diskriminan
ada 1 variabel dependen yang kategorik
ada var independen nya berupa matrik
ingin menentukan amatan masuk ke grup mana
bedanya dengan cluster => cluster menggunakan informasi variabel untuk
membentuk gerombol, sedangkan diskriminan membedakan dulu baru ada variabel-
variabelnya


UJI CLUSTER
variabel belum dibedakan antara X dan Y
Cluster Non Hierarki: sudah ada kepentingan dari peneliti (biaya, ada teori, dll)
Cluster Hierarki: membebaskan SPSS untuk membuat pengklusteran
Asumsi:
Normal
Multikolinieritas
Independen antar observasi
sampelnya acak
syarat utama: data harus berupa matrik
catatan jika normal maka sudah pasti independen, dan acak
tahapan:
1. uji kenormalan
2. Uji analisisnya: analyze Descriptives statististik descriptive masukan semua
variabel centang save standardized values as variables ok
3. analyze classify- hierarchical cluster- masukan semua variabel Z score ke kolom
variable(s) pada Statistic centang agglomeration dan proximity, pada cluster
membership=> none itu membebaskan spss, single dibatasi oleh user, range
solution=> memerintahkan mau minimum bro max brp pada plot pilih: dendogram,
pada method pilih Wards method-continue pada Label Cases masukan var provinsi
(yg akan dibuat cluster) OK
4. output
Agglomeration schedule : proses pembentukan cluster => ada . step


untuk yang non hierarki cluster:
analyze classify K means cluster masukan var Z score- select case by :
provinsi- number of cluster misalnya ingin buat jadi 3 cluster save: centang cluster
membership dan distance from cluster- di options : centang ANOVA- iterasi: tidak
ada yg diubah OK

output:
iteration history: melakukan iterasi brp kali untuk mendapatkan cluster terbaik
final cluster centers: jika nilai Z scorepositif berartinilai tsb berada di atas rata2 total,
jika negatif berarti rata2nya berada di bawah rata2 total
dengan kata lain jika + => di atas rata2 nasional, - di bawah rata2 nasional





Final Cluster Centers


Cluster
1 2 3
Zscore(PE)
.02972 -.04791 -.19605
Zscore(PDRB_per_kapita)
-.23288 -.22111 1.68545
Zscore(Share)
-.36608 3.02753 1.80569
Zscore(PAD)
-.27798 4.84684 .73412
Zscore(PMDN)
-.29842 .82484 1.88275
Zscore(PMA)
-.26154 5.06503 .56451
Zscore(J.Penduduk)
-.31256 .23384 2.12945
Zscore(IPM)
-.12337 1.93049 .38094
Zscore(TPAK)
.15775 -1.83674 -.64503
Zscore(PersenMiskin)
.02559 -1.02641 .07750

jadi rata2 yg tertinggi ada di cluster pertama .02972, kedua di cluster ke-2 -.04791, terendah
di cluster ke 3 -.19605


ANOVA


Cluster Error F Sig.
Mean Square Df Mean Square Df Mean Square df
Zscore(PE)
.090 2 1.061 30 .085 .919
Zscore(PDRB_per_kapita)
6.465 2 .636 30 10.171 .000
Zscore(Share)
12.980 2 .201 30 64.476 .000
Zscore(PAD)
13.906 2 .140 30 99.592 .000
Zscore(PMDN)
8.677 2 .488 30 17.771 .000
Zscore(PMA)
14.422 2 .105 30 137.111 .000
Zscore(J.Penduduk)
10.464 2 .369 30 28.354 .000
Zscore(IPM)
2.367 2 .909 30 2.604 .091
Zscore(TPAK)
2.867 2 .876 30 3.275 .052
Zscore(PersenMiskin)
.548 2 1.030 30 .532 .593
The F tests should be used only for descriptive purposes because the clusters have been chosen to maximize
the differences among cases in different clusters. The observed significance levels are not corrected for this and
thus cannot be interpreted as tests of the hypothesis that the cluster means are equal.


dilihat yang signifikan berbeda: share, PAD, PMDN, PMA, J Penduduk.=> variabel ini
bisa digunakan untuk mengelompokan cluster.
QCL1: melihat observasi masuk ke cluster mana
QCL 2: jarak antara observasi ke pusat cluster . contoh jarak rata2 aceh dengan
rata2 cluster tempat kemana aceh masuk.

Anda mungkin juga menyukai