Anda di halaman 1dari 20

MODUL 3

ANALISIS FAKTOR DAN ANALISIS KOMPONEN UTAMA

a. Tujuan Praktikum
Setelah praktikum pada modul 3 ini diharapkan mahasiswa mempunyai
kompetensi sebagai berikut:
1) Dapat melakukan prosedur analisis faktor dan menginterpretasikannya
2) Dapat melakukan prosedur analisis komponen utama (PCA) dan
menginterpretasikannya

b. Materi
1) Analisis Faktor
Analisis faktor pertama kali diperkenalkan dan dikembangkan oleh Karl
Pearson dan Charles Spearman (1904), Thurstone (1947), Thomson (1951),
dan Lawley (1940, 1941) terutama dalam bidang psikologi (sehingga disebut
psikometri) dan belakangan menjadi salah satu alat analisis multivariat yang
paling bermanfaaat dalam berbagai bidang ilmu. Tujuan utama dari analisis
ini adalah untuk menjelaskan, jika ada, hubungan kovarian di antara variabel
dalam kaitannya dengan beberapa nilai acak yang tidak dapat diukur atau
diobservasi yang disebut dengan faktor. Ide dasarnya ialah adanya
kecenderungan semua variabel di dalam grup tertentu memiliki korelasi yang
tinggi satu sama lain, tetapi berkorelasi rendah dengan variabel lain pada grup
yang berbeda. Misalnya, adanya korelasi dari grup ujian sastra, bahasa
Perancis, bahasa Inggris, matematika, dan musik dikumpulkan di bawah
faktor yang dinamakan oleh Spearman sebagai faktor “intelligence” atau
kecerdasan. Grup kedua menampilkan nilai-nilai untuk segala jenis ujian
ketahanan fisik dan kesehatan jasmani yang mungkin saja berada di bawah
faktor lainnya. Struktur seperti inilah yang diselidiki dalam analisis faktor.

Dalam prosedurnya, analisis faktor bisa dikatakan sebagai kelanjutan dari


analisis komponen utama tetapi dengan metode dan tujuan yang lebih luas.
Model Faktor
Masih dengan X sebagai variabel random yang terdiri atas p variabel dengan
vektor rata-rata μ dan matriks kovarian  . Model faktor menggambarkan
hubungan antara linier independen antara X dengan beberapa variabel random
yang tidak dapat diamati (unobservable) yaitu F1 , F2 ,..., Fm atau disebut juga
dengan faktor bersama (common factors) serta dengan p error atau faktor
spesifik. Model faktor tersebut adalah sebagai berikut:
X 1  1  l11 F1  l12 F2  ...  l1m Fm  1
X 2   2  l21 F1  l22 F2  ...  l2 m Fm  2

X p   p  l p1 F1  l p 2 F2  ...  l pm Fm   p

atau bisa ditulis


X μ L F ε
( p1) ( p1) ( p m ) ( m1) ( m1)

Koefisien lij , unsur ke-(i,j) dari matrik L, adalah loading factors untuk
common factors Fj terhadap X1 , di mana i = 1, 2, …, p dan j = 1, 2, …, m.
Model faktor tersebut memiliki asumsi:
i) E(F) = 0( m1)
T
ii) cov(F )  E(FF )  I( m1)

iii) E() = 0( p1)

1 0 0
0  2
0
iv) cov(ε )  E(εε T )  ψ    , dengan  0
( m1)   i
 

 0 0 p

 
T T
v) cov(ε, F )  E(εF )  0( pm)

Dengan demikian maka cov( X)  dapat diturunkan menjadi


T
cov( X)  LL  ψ
Perlu diperhatikan bahwa cov(X, F)  L atau cov( X i , F j )  lij , sehingga jelas
l
bahwa corr( X , F ) 
i j
ij l ij


ii
Jika var( Xi )  ii 1 yaitu ketika matriks kovarian  merupakan matriks
korelasi. Pada keadaan demikian maka, matriks loading faktor tidak lain
merupakan matriks koefisien korelasi antara variabel asal dengan common
factors.
Besarnya porsi varians yang diberikan oleh m common factors terhadap p
variabel asal disebut dengan communality. Kontribusi terhadap varians dari
faktor spesifik disebut dengan varians spesifik. Apabila comummanlity ke-i
disimbolkan dengan h12 , maka selanjutnya dapat dijabarkan sebagai berikut:
  l 2  l 2  ...  l 2  
ii i1 i2 im I
varXi  communality varians spesifik

atau
hi2 i21 li22  ...  lim2
dan
2
 ii  hi i , dengan i = 1, 2, …, p.

Aspek yang paling krusial dalam analisis faktor adalah menduga loading faktor
dan varians spesifik. Misalkan X 1 , X 2 ,..., X n adalah sampel random dari p

berdistribusi multivariate dengan E(X)  μ( p1) dan cov(X) ( p) , maka
analisis faktor memiliki dua bagian penting yaitu:
i) mengidentifikasi struktur
ii) menduga parameter
Mengidentifikasi struktur yang lebih sederhana adalah dengan menentukaan m
(< p) yang tepat sehingga model faktor terpenuhi. Penentuan banyaknya m ini
umumnya dilakukan secara subjektif. Namun demikian tidak menutup
kemungkinan untuk dilakukan prosedur secara sistematik untuk menentukan
banyaknya faktor (m) dengan metode MLE. Mengadaptasi ide penentuan
banyaknya komponen utama pada analisis komponen utama juga dapat
digunakan untuk menentukan banyaknya common factors (m) (dapat dibaca
lebih lanjut pada Johnson and Wichern ed. 6).
Jika model faktor telah teridentifikasi dan parameter-parameter telah ditaksir,
berikutnya adalah memberikan makna yang tepat serta menfinterpretasikan
loading faktor hasil taksiran. Loading faktor pada akhirnya umumnya dirotasi
(ditransformasi menggunakan transformasi orthogonal) untuk membantu dalam
hal interpretasi (hal ini terkait dengan ketidakunikan solusi yang dihasilkan,
penjelasannya ditinggalkan sebagai latihan).

Rotasi Faktor
Semua loading factors yang diperoleh dari loading inisial dengan transformasi
orthogonal memiliki kemampuan untuk kembali membentuk matriks kovarian
(atau korelasi). Dari aljabar matriks, kita mengetahui bahwa transformasi
orthogonal korespon terhadap rotasi (atau refleksi) yang rumit. Oleh karena itu,
transformasi orthogonal dari loading factors disebut rotasi faktor.
Secara umum rotasi faktor dilakukan sedemkian rupa sehingga faktor yang
sudah dirotasi memiliki sedikit saja vaariabel dengan nilai mutlak loading yang
besar, sedangkan sisanya kecil sekali atau nol. Pola seperti ini akan
memudahkan pengguna untuk menginterpretasikan faktor yang terbentuk.
Misalkan pada hasil analisis faktor didapatkan bahwa hanya tiga variabel
pertama saja yang memiliki nilai loading factors tinggi pada common factor
pertama, maka common factor pertama tersebut dapat diinterpretasikan sebagai
kombinasi linier dari tiga variabel asal tersebut. Dalam beberapa literature juga
disebutkan teknik transformasi linier tak orthogonal yang biasa disebut oblique
rotation. Beberapa metode untuk merotasi matriks loading factors sehingga
orthogonal adalah: rotasi quartimax dan rotasi varimax yang dikembangkan
oleh Kaiser (1958) dan paling populer.

Menaksir Skor Faktor


Menduga nilai common factors yang berpadanan dengan niali variabel asal
disebut dengan fkor faktor. Nilai-nilai ini biasanya digunakan untuk tujuan
diagnosis ataupun juga untuk kepentingan analisis lanjutan. Skor faktor tidak
ditaksir dari nilai parameter-parameter yang tidak diketahui nilainya,
meliankan dari vektor variabel random Fj yang tidak terobservasi di mana j = 1,
2, …, n. Untuk kepentingan ini perlu diingat bahwa kita menggunakan nilai-
nilai loading factors yang telah dirotasi. Terdapat dua pendekatan untuk
memperoleh skor faktor yaitu: pendeketan analisis regresi terboboti (weighted
least square) dan metode regresi (lebih lanjut mengenai kedua prosedur ini
dapat dibaca pada Johnson dan Wichern ed. 6 hal. 513 – 518).

2) Analisis Komponen Utama


Mereduksi dimensi suatu set data multivariat merupakan tantangan tersendiri
dalam analisis multivariat. Pereduksian dimensi tersebut seringkali dilakukan
sehingga menghasilkan suatu gugus data baru yang berdimensi lebih kecil.
Dimensi yang dimaksud di sini adalah ukuran data dilihat dari banyak
variabelnya. Gugus data baru hasil reduksi terdiri atas variabel-variabel yang
tidak lain merupakan fungsi dari variabel asal atau variabel asal itu sendiri
yang memiliki proporsi informasi yang signifikan mengenai gugus dataa
tersebut. Analisis komponen utama tidak bisa dikatakan sebagai analisis final,
umumnya prosedur ini dilakukan dan hasilnya masih harus melalui tahapan
analisis lain, misalnya analisis regresi, analisis klaster, analisis faktor dan
lain-lain.
Analisis komponen utama amerupakan teknik eksplorasi data yang pertama
kali diperkenalkan oleh Pearson (1901). Komponen utama (principal
components) mampu mempertahankan sebgaian besar informasi yang diukur
menggunakan variabilitas total hanya dengan beberapa komponen utama saja.
Analisis komponen utama dapat pula dipandang sebagai prosedur dimana
data diproyeksikan dari dimensi besar ke dimensi yang lebih rendah.
Pemilihan proyeksi ini dilakukan dengan cara optimasi.

Diberikan  sebagai matriks kovarian dari p variabel X1, X2, …, Xp.Total


variabilitas dari variabel-variabel tersebut didefinisikan sebagai tr(), yaitu
penjumlahan dari unsur diagonal matriks . Komponen utama ke-i dari
T
vektor berukuran p  1, di mana i = 1, 2, … p dan X  X , X ,..., X 
1 2 p
merupakan kombinasi linier
Yi  ai T X  ai1 X 1  ai 2 X 2  ...  aip X p

di mana a  a , a ,..., a T dan a T a 1 .


i  i1 i2 ip  i i
Berdasarkan definisi tersebut maka varians dari komponen utama pertama tersebut adalah:

Yi  ai p a 
i
p
aki a ji kj .

2 T

k 1 j 1

Komponen utama adalah kombinasi linier Y , Y ,...,Y P yang memiliki  2 12 Y


i

maksimum. Komponen utama pertama ( a1 )adalah kombinasi linier dengan


varians maksimum, yaitu yang memaksimumkan 2aTa dengan
Y1 1 1

kendala a1T a1 1. Dengan demikian dapat didefinisikan sebagai berikut:

Komponen utama pertama = Kombinasi linier yang memaksimumkan



 2 dengan kendala a T a 1
Yi 1 1

Komponen utama kedua = Kombinasi linier yang memaksimumkan



 2 dengan kendala a T a 1dan
Y2 2 2

cov( Y1 ,Y2 )=0

Komponen utama ke-i = Kombinasi linier yang memaksimumkan



 2 dengan kendala a T a 1 dan
Yi i i

cov( Yi ,Yk ) = 0 untuk k < i

Misalkan 1  2  ...  p  0 adalah eigen value yang berpadanan dengan

eigen vector a1 , a 2 ,..., a p dari matriks kovarian  (Latihan: Perlihatkan!) di

mana panjang setiap eigen vektor adalah satu atau a i T ai 1 untuk i = 1, 2, …


p. Maka
Y1  a1T X  a11 X 1  a12 X 2  ...  a1 p X p
T
Y2  a 2 X  a21 X 1  a22 X 2  ...  a2 p X p
tr  , maka total variabilitas

T
Y p  a p X  a p1 X 1  a p 2 X 2  ...  a pp X p

Masing-masing adalah komponen pertama, kedua dan seterusnya sampai


komponen ke-p dari X. Lebih lanjut lagi bahwa var(Y1 )  1 , var(Y2 )  2 , …,
var(Yp )  p . Perlu dicatat bahwa masing-masing komponen utama tidak
memiliki korelasi satu sama lain dan memiliki varian yang sama dengan

eigen value dari .


Oleh karena total variabilitas ditunjukkan oleh

ini sama dengan jumlah seluruh eigen value dari matriks  , yaitu ipi i .
Dengan kata lain, kontribusi dari setiap komponen utama ke-j terhadap total
variabilitas X adalah

i .

ipi i

ˆ
Perlu dicatat bahwa pada data sample matriks  dapat diduga oleh   S .
Penentuan eigen value dapat diperoleh dari matriks kovarian atau matriks
korelasi. Perbedaan satuan pada variabel yang ada umumnya menjadi dasar
pemilihan matriks korelasi untuk perhitungan eigen value.

Menentukan banyaknya komponen utama


Terdapat tiga metode yang umum digunakan untuk menentukan banyaknya
komponen utama. Metode pertama (1) didasarkan pada kumulatif proporsi
variabilitas total yang mempu dijelaskan. Metode ini merupakan metode yang
paling populer dan bisa diterapkan pada penggunakaan matriks korelasi
maupun kovarian. Penentuan banyaknya komponen utamanya didasarkan
batas kumulatif proporsi variabilitas total, oleh karena itu dibutuhkaan
sebuaah nilai yang menjaadi batasan minimum kumulatif proporsi variabilitas
total tersebut. Tidak ada patokan yang pasti untuk nilai ini, yang umum
digunakan adalah 70%, 80% bahkan 90%.
Metode kedua (2) berikut hanyaa dapat digunakan untuk matriks korelasi.
Untuk menjalankan metode ini, variabel asal harus ditransformasi menjadi
variabel yang memiliki varians sama, yaitu satu (dapat diperoleh dengan
mentransformasi data menjadi normal baku). Pemilihan komponen utama
didasarkan pada variabilitas komponen utama yang tidak lain adalah eigen
value. Dengan demikian komponen utama yang berpadanan dengan eigen
value kurang dari satu tidak digunakan. Dengan pendekatan serupa, Jollife
(1972) merekomendasikan cut off yang lebih baik yaitu sebesar 0.7.

Metode ketiga (3) adalah dengan memanfaatkan scree plot. Cara ini bisa
digunakan baik untuk matriks korelasi maupun kovarian. Scree plot
merupakan plot eigen value i terhadap i, di mana i = 1, 2, .. p. Menggunakan
metode ini, banyaknya komponen utama yang dipilih, yaitu i, adalah jika
pada titik ke-i tersebut plotnya curam di kiri tapi tidak curam ke kanan. Ide
dari prosedur ini adalah banyaknya komponen utama yang dipilih sedemikian
rupa sehingga selisih antara eigen value sudah tidak terlalu berarti.
Kelemahan dari metode ini adalah faktor kesubjektifan yang tinggi dalam
menginterpretasikan scree plot.

Gambar 1. Scree plot dari eigen value


terhadap nomor variabelnya. Nilai eigen
value tampak curam terakhir kali dari

ke . Dengan demikian eigen value

setelah relatif kecil dan nilainya sama.


Oleh karena itu dapat dipilih komponen
utama sebanyak 3.

c. Alat dan Bahan


Komputer dan software SPSS dan R
d. Kegiatan Praktikum
Data yang digunakan dalam praktikum ini dapat diperoleh dari link berikut:
dengan nama file olympia.xlsx. Data merupakan data untuk latihan (exercise)
dari buku Johnson dan Wichern ed. 6 pada Exercise 8.4, berupa hasil
pencatatan para atlet lari dari 54 negara dari 8 nomor lari.
Selanjutnya adalah menentukan apakah kita akan mulai bekerja dengan matriks
korelasi atau matriks kovarian. Perlu diperhatikan bahwa kedelapan variabel
yang diukur dalam data ini diambil berdasarkan satuan yang berbeda (sebagian
dalam satuan detik dan sebagian lainnya dalam satuan menit) selain itu
penggunaan matriks varians akan menyebabkan dominasi dari variabel yang
memiliki varians paling tinggi, yaitu nomor marathon, oleh karena itu
penggunaan matriks korelasi sebagai dasar perhitungan eigen value tampaknya
merupakan keputusan yang lebih baik. Berikut adalah matriks korelasi dari
data Olympia:

100m 200m 400m 800m 1500m 5000m 10000m marathon


1.000 0.915 0.804 0.712 0.764 0.740 0.715 0.676
0.915 1.000 0.845 0.797 0.806 0.761 0.748 0.721
0.804 0.845 1.000 0.768 0.757 0.780 0.766 0.713
R = 0.712 0.797 0.768 1.000 0.885 0.861 0.843 0.807
0.764 0.806 0.757 0.885 1.000 0.904 0.891 0.867
0.740 0.761 0.780 0.861 0.904 1.000 0.988 0.944
0.715 0.748 0.766 0.843 0.891 0.988 1.000 0.954
0.676 0.721 0.713 0.807 0.867 0.944 0.954 1.000

Jelas bahwa, berdasarkan nilai-nilai yang diberi kotak bergaris merah, terdapat
pola sistematis dalam korelasi antar variabel dalam data Olympia. Nomor
marathon tampak “lebih dekat” terhadap nomor-nomor lari jarak jauh, begitu
pula untuk nomor 100 m yang “lebih dekat” dengan nomor 200 m dan 400m,
sehingga kita dapat mengharapkan tampak terdapat hubungan linier di antara
variabel yang dapat dijelaskan oleh paling tidak satu atau dua common factor.
Selanjutnya kita akan mengidentifikasi sampai dengan menginterpretasikan
faktor-faktor yang dapat dibentuk oleh data Olympia menggunakan SPSS dan
R. Pastikan dataa tersebut sudah disiapkan pada Data editor SPSS atau siap
dipanggil dalam R console.

1) Analisis faktor menggunakan SPSS


Untuk melakukan prosedur analisis faktor dengan SPSS, berikut langkah-
langkahnya:
Klik menu Analyze > Dimension reduction > Factor…

Masukkan kedelapan variabel multivariat ke dalam dialog box berikut

Opsi Descriptives pilih seperti pada gambar berikut:


Opsi Extraction menunjukkan dialog box di mana Anda dapat memilih
metode estimasi untuk loading factors:

Perhatikan bahwa terdapat beberapa macam metode untuk mengestimasi


loading factors, untuk kepentingan praktikum ini gunakan metode komponen
utama (principal components). Masih pada dialog box Factor analysis:
Extraction, pada menu Analyze pilih dengan matriks apa kita akan mulai
bekerja, pada praktikum ini gunakan matriks korelasi, maka beri tanda pada
Correlation matrix.
Pada menu Display, beri tanda centang pada Unrotated factor solution dan
Scree plot.
Pada menu Extract, pilih bagaimana identifikasi struktur analisis faktor yakni
dengan menetapkan bahwa common factor yang akan digunakan adalah
sebanyak dua.
Klok Continue. Pilih opsi Rotation, pilih Varimax.

Klik Continue, pada dialog box Factor Analysis, pilih opsi Score, beri
centang pada Save as variables dan pilih metode regresi untuk menentukan
skor faktor.

Klik Continue, klik OK.


Berikut pembahasan mengenai output SPSS satu per satu.

Identifikasi kecukupan data


Diidentifikasi melalui nilai Measure of Sampling Adequacy (MSA) dan Kaiser-
Meyer-Olkin (KMO).
Data dikatakan memenuhi asumsi kecukupan data adalah jika nilai MSA atau
KMO lebih besar daripada 0.5.

Communality
Nilai pada kolom Extraction merupakan
communality ( hi2 ) untuk setiap variabel.
Tingginya nilai communality untuk setiap
variabel ini mengindikasikan bahwa
komponen yang diekstrak sudah cukup
untuk menjelaskan variabel-variabel asal.
Apabila dalam suatu kasus terdapat nilai
communality yang sangat kecil untuk
variabel tertentu, maka perlu ditambahkan banyaknya faktor yang harus
diekstrak Dari nilai communality Extraction diperoeh semua nilai >50%
maka semua variabel dapat menjelaskan faktor.

Varians yang dijelaskan oleh komponen-komponen utama (eigen value)


Nilai-nilai dalam kolom Total pada tabel Initial Eigenvalues merupakan
nilai-nilai eigen value dari matriks korelasi, oleh karena sebelumnya telah
diidentifikasi bahwa faktor yang diekstraksi pada data ini ada sebanyak dua,
maka varians yang diekstraksi juga berasal dari dua komponen. Berdasarkan
kedua komponen utama diperoleh kumulatif proporsi varians sebesar 91.6%.
Hasil rotasi loading factors menghasilkan kumulatif proposri varians yang
sama dengan tanpa rotasi, hanya saja nilainya secara individu lebih tersebar
merata, terlihat dari bagaimana komponen pertama memiliki varians sebesar
hamper setengah dari varians total. Hal ini merupakan salah satu keunggulan
penggunaan parameter yang telah dirotasi yakni hasilnya mudah
diinterpretasikan.

Scree plot
Berdasarkan scree plot berikut, tampak bahwa nilai eigen value turun curam
dari 1 ke 2 , sehingga dapat dikatakan dua komponen mungkin sudah cukup
untuk menjelaskan variabel-variabel asal. Hal ini cukup masuk akal setelah
melihat communality meskipun varians sudah cukup tinggi pada komponen
pertama.

Komponen-komponen ini hanya sedikit


kontribusinya terhadap solusi faktor

Matriks loading factors


Keluaran di atas merupakan matriks loading factors, tabel sebelah kiri
merupakan nilai-nilai loading yang tidak dirotasi, sedangkan tabel sebelah
kanan merupakan matriks loading factors yang telah dirotasi berdasarkan
metode Varimax (normalisasi Kaiser). Dari keluaran Component Matrix
diperoleh nilai-nilai loading untuk common factor pertama yang tinggi untuk
setiap variabel, sedangkan pada common factor kedua terdapat beberapa
variabel yang memiliki loading factor bernilai negatif. Kita dapat menduga
bahwa kemungkinan faktor kedua merupakan faktor yang berhubungan dengan
nomor lari jari pendek melawan nomor lari jarak jauh. Pemaknaan terhaadap
kedua faktor menjadi lebih jelas setelah kita memeriksa keluaran pada tabel
Rotated Component Matrix. Faktor pertama yang member loading factors
tinggi pada variabel 800 m, 1500 m, 5000 m, 10000 m dan marathon jelas
merupakan faktor yang berkaitan dengan nomor lari jarak jauh, sedangkan
faktor kedua merupakan faktor yang menjelaskan nomor lari jarak pendek.
Diskusi Apa kegunaan dari statistik Kaiser-Meyer-Olkin (KMO) dan uji Bartlett dalam
analisis faktor?

2) Analisis faktor menggunakan R


Berikut adalah script untuk analisis komponen utama:

#===============================================#
# Analisis Komponen Utama, shfandari@gmail.com #
#===============================================#
aku <- function(data,cor = TRUE){
##Menentukan matriks korelasi atau kovarian berdasarkan masukan
# user
if (cor == TRUE){
mat = cor(data)}
else mat = cov(data)
Untuk menjalankan script di atas, dapat menggunakan perintah berikut:
# Memanggil data, pastikan direktorinya sudah tepat >
olympia <- read.csv("olympia.csv", header=T)

# Menjalankan fungsi aku


> aku(olympia[,2:9],cor=T)

Perhatikan keluaran-keluaran yang ditampilkan pada R, salah satunya adalah


scree plot berikut:

Apa yang bisa Anda peroleh dari scree-plot tersebut?


Script untuk analisis komponen utama pada R dalam praktikum ini sengaja
dipisahkan dengan analisis faktor agar pengguna dapat memanfaatkan hasilnya
sebagai referensi untuk menentukan banyaknya common factors, atau paling
tidak dapat digunakan sebagai satu kesatuan analisis komponen utama untuk
analisis lanjutan lainnya (tidak hanya analisis faktor), misalnya analisis regresi
komponen utama yang populer digunakan dalam kasus regresi di mana
variabel-variabel bebasnya memiliki korelasi yang tinggi satu sama lain.
Sedangkan script untuk analisis faktor sendiri adalah sebagai berikut:
#=================================================#
# Analisis Faktor shfandari@gmail.com #
#=================================================#
anafak <- function (data, factors=NULL, cor=TRUE){

##Menentukan matriks korelasi atau kovarian berdasarkan masukan


# user
if (cor == TRUE){mat = cor(data)}
else mat = cov(data)
##Menghitung akar dari eigenvalues dan
eigenvectors stdev <- sqrt(eigen(mat)$values)
eigenvec <- eigen(mat)$vectors
##Menentukan faktor apabila user tidak memberi inisiasi
if (is.null(factors)) factors <- sum(eigen(mat)$values >= 1)
##Menghitung nilai-nilai pada matriks loading factors
loadings <- eigenvec[,1:factors] %*% diag(stdev[1:factors])
##Melakukan rotasi orthogonal terhadap loading factors, silakan
# gunakan metode rotasi lainnya, R menyediakan beberapa fungsi
# untuk kepentingan tersebut
rotated.loadings <- varimax(loadings)
##Menghitung nilai communality
communality <- as.matrix(apply(loadings,1,function(x)sum(x^2)))
##Menampilkan output
result <-list(Communality = communality, Rotated_loadings =
rotated.loadings, Original_loadings_factor = loadings)
return(result)
}

Penggunaan script tersebut adalah sebagai berikut, beserta dengan outputnya.

> anafak(olympia[,2:9],factors=2,cor=T)
#Apabila banyaknya faktor tidak ditentukan, analisis faktor akan
#dijalankan berdasarkan banyaknya komponen yang memiliki
#eigenvalue lebih dari atau sama dengan satu

$Communality
[,1]
[1,] 0.9191166
[2,] 0.9450548
[3,] 0.8450827
[4,] 0.8393255
[5,] 0.8985508
[6,] 0.9717606
[7,] 0.9692232
[8,] 0.9373583
(lanjutan)
$Rotated_loadings
$Rotated_loadings$loadings

Loadings:
[,1] [,2]
[1,] -0.380 -0.880
[2,] -0.441 -0.867
[3,] -0.486 -0.780
[4,] -0.740 -0.540
[5,] -0.786 -0.529
[6,] -0.881 -0.442
[7,] -0.894 -0.411
[8,] -0.899 -0.360

[,1] [,2]
SS loadings 4.126 3.200
Proportion Var 0.516 0.400
Cumulative Var 0.516 0.916

$Rotated_loadings$rotmat
[,1] [,2]
[1,] 0.7592512 0.6507976
[2,] -0.6507976 0.7592512

$Original_loadings_factor
[,1] [,2]
[1,] -0.8613386 -0.42096614
[2,] -0.8985301 -0.37107733
[3,] -0.8768521 -0.27606720
[4,] -0.9133046 0.07211241
[5,] -0.9415451 0.10974400
[6,] -0.9566323 0.23793939
[7,] -0.9468493 0.26962857
[8,] -0.9165121 0.31203183

Secara umum, keluaran dari R tidak berbeda dari keluaran SPSS, perbedaan
tanda negatif pada loading factor dan hasil rotasinya dapat diabaikan.

e. Tugas
1. Carilah data multivariat yang variabel-variabelnya memiliki indikasi untuk
dapat diekstraksi dengan analisis faktor (gunakan bantuan uji KMO dan
Bartlett), diharapkan tidak mengabaikan tahap data preprocessing. Data bisa
diperoleh dari data Tugas akhir atau data dari internet yang salah satunya bisa
dari UCI Machine Learning Repository (archive.ics.uci.edu/ml)
2. Membuat laporan praktikum mengikuti format yang telah diberikan.
3. Tugas dilakukan berkelompok sesuai kesepakatan dan dikumpulkan paling
lambat seminggu setelah praktikum Modul 3 berakhir.

Anda mungkin juga menyukai