Anda di halaman 1dari 5

(hal 41) no 1 (i)

Setelah ketemu dosen APG, jawaban ini yakni analisis klaster. Analisis klaster pada kasus ini digunakan
untuk melihat struktur data sereal makan pagi. Nanti, setelah terbentuk klaster (misal ada dua klaster),
lakukan statistika deksriptif bisa semisal melihat nilai rata-rata dan standar deviasi dari setiap peubah
dari klaster yang terbentuk. Dari tinjauan statistika deskriptif itulah kita bisa menamakan klasternya itu
dengan label apa.

Disamping itu, jawaban analisis faktor / komponen utama ini tidak salah namun nilai yang diberikan
lebih rendah dibandingkan yang jika menjawab analisis klaster. Sejatinya, yang tepat itu analisis faktor
yang dilanjutkan analisis klaster. Analisis klaster untuk melihat struktur datanya sementara analisis
faktor untuk melihat struktur cirinya (variabelnya). Penggunaan analisis faktor dapat mereduksi
dimensi data sehingga analisis akan lebih mudah. Katakanlah ada 2 faktor yang terbentuk maka akan
ada 2 skor faktor yang terbentuk. Jadi, skor analisis faktor ini nanti diplotkan berdasarkan hasil analisis
klaster itu .

*Juga, kata dosen APG, analisis biplot pun dapat menjadi jawaban pada kasus ini. Biplot merupakan
teknik multivariate yang memplotkan skor faktor dan loading dalam satu bidang.

(hal 44) no 2

Eigenvalue adalah varians dari setiap komponen utama yang terbentuk. Jadi kalau ada output PCA yang
masih berupa standar deviasi komponen utama, maka perlu dikuadratkan dulu. Hasil penghitungan dgn
basis matriks kovarian, yakni :
Layan_ <- princomp(layan, cor=FALSE)
summray(layana, loadings = TRUE)
Importance of components:
Comp.1 Comp.2
Standard deviation 6.3103696 2.9354277
Proportion of Variance 0.8221061 0.1778939
Cumulative Proportion 0.8221061 1.0000000

Loadings:
Comp.1 Comp.2
pelayanan1 -0.746 0.666
pelayanan2 -0.666 -0.746

jadi eigenvalue, untuk setiap KU yang terbentuk di atas, lebih besar dr satu. Ini artinya, semua KU
terpilih. Padahal, AKU kan dipakai untuk mereduksi data agar mempermudah interpretasi. Oleh
karenanya dipakai kriteria yang kedua dari kumulatif proporsinya. Dari kumulatif proporsi terlihat ada
satu KU yang bisa mencirikan semua variabel.

Selain itu, loadings (korelasi antara variabel dgn KU) menunjukkan magnitude yang besar pada variabel
pelayanan 1 (kenyamanan) dibanding pelayanan 2 (keramahan). Artinya, perusahaan bisa menerapkan
kedua jenis pelayanan tersebut dengan tetap memprioritaskan kepada aspek pelayanannya.
(Hal 45)

Terlihat ada rumus matriks varian kovarian gabungan (pooled). Di situ, penyebutnya tertulis n1 + n2 p.
perlu ditekankan bahwa p itu adalah banyaknya kelompok.

Pada soal, kita disuruh untuk mencari peluang kesalahan salah klasifikasi. Jd karena hasil klasifikasi
menunjukkan mobilnya termasuk mobil Jepang, sebenarnya berapa sih peluang bahwa mobil itu bukan
termasuk mobil Jepang. Setelah bertanya dgn dosen APG, disebutnya bahwa untuk menghitung
posterior probability-nya. rumus posterior ini dapat dilihat di buku multivariate analysis karya Johnson
dan Wichern edisi ke enam di halaman 608-609 (seperi yang tertera di modul)

=============================================================================
Di bawah ini ada revisi dan tambahan dari soal SK. Ada bbrp persamaan soal APG SK dan soal
APG SE tahun lalu (sebagai informasi saja, semoga bermanfaat)
============================================================================

Revisi dan tambahan : PEMBAHASAN UAS APG SK

UAS GANJIL 2013/2014


3. b. Proximity matrix ditentukan dengan euclidean distance, seperti yang diminta oleh soal (bukan
mahalanobis). Untuk rumus menghitung manual Euclidean distance sama seperti Mahalanobis hanya
saja tanpa matriks invers dari varians kovarians.

Langkah SPSS: Input Data > Analyze > Classify > Hierarchical Cluster > masukkan kedua variabel yang
ingin dilihat jaraknya > Statistics > centang proximity matrix > Continue > Method > Interval pada bagian
Measure dipilih Euclidean Distance > Continue > lalu OK.

Maka akan keluar output proximity matrix sebagai berikut.


Catatan !!!!
Karena hanya ingin
mendapatkan proximity
matrix saja, kita tidak perlu
mencentang dendogram di
bagian plot ataupun
memilih metode cluster
(complete, single, average,
ataupun wards)
UAS GANJIL 2015/2016
1. a. Dalam menentukan berapa banyak KU yang dibentuk, dapat digunakan Kayser Rule, Kumulatif
Proporsi Varians, ataupun Scree plot. Akan tetapi, Karena ouput analisis sudah disediakan, kita dapat
menenetukan banyak KU yang dibentuk dengan menggunakan kumulatif proporsi, yaitu dibentuk 3
KU (kumulatif sudah lebih dari 75%). (Morino, 1990)
b. TAMBAHAN:
untuk interpretasi pada PCA (analisis komponen utama), kita dapat menggunakan 2 interpretasi:
1. proporsi total variansi yang dapat dijelaskan oleh komponen utama (untuk soal ini, nilainya sudah
tersedia pada output)
2. seberapa besar kontribusi variabel asal terhadap suatu komponen utama tertentu. (rumus ada di
hal 2. modul angkatan -> korelasi variabel asal X dengan komponen utama Y)
0.72491,5119
mis: (1 ,1 ) = = 0.8913 , artinya kontribusi variabel 1 terhadap komponen
1
utama 1 sebesar 89.13% (tanda negatif hanya sebagai arah dan bisa saja terjadi
perbedaan arah ketika menggunakan software berbeda, misal eigen KS dan R.
Berdasarkan pendapat saya pribadi, arah tidak terlalu dipermasalahkan karena seingat
saya arah tidak diikutkan dalam interpretasi.)
untuk (2 ,1 ), (3,1 ) dan lainnya mengikuti seperti yang di atas.

3. ii. TAMBAHAN: [Selain interpretasi yang ada di modul, interpretasi output2 spss berikut dapat
ditambahkan karena pada soal ini tidak ada perbedaan rata2 antar kelompok. AKAN TETAPI, jika soal
ternyata memenuhi asumsi (normal dan kesamaan ragam) dan ada perbedaan rata2 antar kelompok,
maka SANGAT DIANJURKAN untuk melakukan interpretasi output sampai akhir (tabel misklasifikasi)]
Dari tabel ini, kita dapat melihat secara deskriptif bagaimana perbedaan rata-rata antar kelompok. =>
terlihat tidak terlalu terlihat perbedaan antara grup 0 dan grup 1 (sehingga sebenarnya tidak cocok
digunakan uji diskriminan)

Std deviasi juga dapat digunakan sebagai indikator apakah variabel tsb berperan baik sebagai
diskriminator (jika nilai std deviasi grup lebih rendah daripada std deviasi total maka variabel berperan
baik) => dari tabel, grup 0 itu memiliki std deviasi yang lebih tinggi dari std total, sehingga variabel
pada grup itu kurang baik digunakan sebagai diskriminator

Fungsi diskriminan yang baik memiliki nilai eigen value besar => eigen value nya kecil

Canonical korelasi menunjukkan keeratan hub antara skor diskriminan dengan kelompok (koefisien
determinasi). Rentang nilai dari 0-1 => dari tabel terlihat korelasinya kecil hanya 0.38

1 Wilks lambda = variasi skor diskriminan yang dapat dijelaskan oleh perbedaan kelompok (sama
dengan R square pada regresi linier) => variasi skor yang dapat dijelaskan karena perbedaan kelompok
hanya 15%
P< .05 maka model cocok dengan data => model tidak cocok dengan data

Digunakan untuk mencari cutting score:

0 = -.318

1 = .476

Cutting score = (0 + 1 ) = 0.079

Sehingga nilai skor yang kurang dari 0.079 masuk kedalam grup 0
sedangkan yang lebih dari 0.079 masuk kedalam grup 1

Dapat digunakan untuk menghitung APER dan HR (rumus dapat dilihat dari modul angkatan hal 17)

Anda mungkin juga menyukai