Anda di halaman 1dari 8

Jurnal ILMU DASAR Vol. 11 No.

1, Januari 2010 : 31 – 38 31

Visualisasi Data Iris Menggunakan Analisis Komponen Utama


dan Analisis Komponen Utama Kernel

Visualization of Iris Data Using Principal Component Analysis and Kernel


Principal Component Analysis
1
Ismail Djakaria, 2Suryo Guritno, 2Sri Haryatmi Kartiko
1
Mathematics Department, Gorontalo State University, Gorontalo
2
Mathematics Department, Gadjah Mada University, Yogyakarta

ABSTRACT

Principal component analysis (PCA) is a method used to reduce dimentionality of the dataset. However, the use
of PCA failed to carry out the problem of non-linear and non-separable data. To overcome this problem such
data is more appropriate to use PCA method with the kernel function, which is known as the kernel PCA
(KPCA). In this paper, Iris dataset visualized with PCA and KPCA, that contains are the length and the width of
sepal and petal.

Keywords : KPCA, non-linear, non-separable, Iris flower dataset

PENDAHULUAN yang sangat berarti. PCA berasumsi bahwa


transformasi dapat dilakukan secara linier. Di
Untuk menghindari adanya permasalahan, sisi lain, PCA merupakan suatu transfomasi
seperti kemungkinan hilangnya beberapa ortogonal dari sistem koordinat dimana data
informasi hubungan antar variabel terikat dan diuraikan. Nilai koordinat baru yang
gagalnya pengawasan terhadap beberapa merepresentasikan data disebut principal c
hipotesis yang melibatkan beberapa variabel omponent (Schölkopf et al. 1996). Sedang
yang diperlukan, maka analisis multivariat menurut Xuejie (2006) dan Min (2006), PCA
dianggap sangat berperan (Darlington 1997; adalah suatu metode non-parametrik yang
Johnson & Dean 2002). Salah satu metode menggunakan aljabar linier untuk mengekstrak
yang ada dalam analisis multivariat adalah informasi atau pola yang relevan dari sebuah
principal component analysis (PCA), di dataset dengan atribut multivariat.
samping metode lain seperti analisis Aplikasi PCA banyak ditemukan di
diskriminan, analisis faktor, multidimensional sejumlah bidang, di antaranya, Raychaudhuri,
scaling, dan lain-lain. et al (2000) menyelidiki penerapan PCA dalam
Principal component analysis (PCA) telah meringkas eksperimen microarray, dengan
dipelajari sejak awal abad 20, Pearson tahun melihat runtun waktu sporulasi. Contoh lain
1901 dan Hotteling tahun 1935 telah penggunaan PCA pada data berdimensi lebih
mempelajarinya melalui metode komputasi tinggi, khususnya data microarray, dapat
praktis (Tipping & Bishop 1999). PCA dilihat dalam Alter et al. (2000).
merupakan suatu metode yang banyak Tujuan utama PCA (Härdle & Simar 2003)
digunakan untuk mereduksi sejumlah dimensi, adalah mereduksi dimensi observasi, dengan
misalkan p, dari sebuah dataset (variabel), mengambil sebuah elemen vektor terobservasi
menjadi k variabel baru, dengan k ≤ p. Setiap k dan membuang yang lainnya. PCA, juga
variabel baru hasil reduksi merupakan dikatakan transfomasi Karhunen-Loève atau
kombinasi linier dari p variabel asal, dengan transfomasi Hotelling, merupakan sebuah
variansi yang dimiliki oleh p variabel asal, teknik untuk menyederhanakan suatu dataset,
sebagian besar dapat diterangkan/dimiliki oleh dengan mereduksi dimensi dataset menjadi
k variabel baru. PCA akan cukup efektif jika dimensi yang lebih kecil untuk analisis dengan
antar variabel asal memiliki korelasi yang tetap mempertahankan sebanyak mungkin
cukup tinggi. Tujuan PCA adalah mendapatkan tampilan variasi dalam dataset asal (Lin 2006).
vektor yang menyatakan kembali dataset noisy Misalkan, vektor random X′ = [X1, …, Xp]
32 Visualisasi Data Iris .....(Ismail Djakaria dkk)

berdistribusi normal multivariat dengan mean μ Meskipun PCA merupakan suatu metode
dan matriks kovariansi Σ, serta akar yang sangat baik untuk mereduksi sejumlah
karakteristik λ1 ≥ … ≥ λp ≥ 0. Principal dimensi variabel dan sangat baik pula untuk
component (PC) adalah kombinasi linier dari p menemukan feature, namun ada beberapa
variabel yang diobservasi, atau dapat ditulis keterbatasan-keterbatasan, antara lain:
Y = AX, a) Berdasarkan asumsi bahwa PCA hanya
dengan Y′ = (Y1, …, Yp), A = dapat mengatasi masalah hubungan antara
setiap data yang linier, sedangkan
⎡ a11 a12 K a1 p ⎤ kenyataannya dalam dalam setiap situasi
⎢ ⎥ hubungan data ada yang non-linear dan
⎢ a21 a22 K a2 p ⎥ , dan X′ = (X1, …, Xp). non-separable.
⎢M ⎥ b) PCA hanya memperhatikan mean dan
⎢ ⎥ variansi data, hal ini berarti bahwa PCA
⎢⎣ a p1 a p 2 K a pp ⎥⎦ tidak memandang data berdistribusi
Sehingga masing-masing PC dapat ditulis probabilitas eksponensial (misalnya
sebagai Gaussian).
Y1 = a11X1 + a21X2 +… + ap1Xp = a1′X c) Principal component tidak diurutkan dari
variansi besar ke variansi yang lebih kecil,
Y2 = a12X1 + a22X2 +… + ap2Xp = a′2 X tetapi variansi yang paling besar tidak

merepresentasikan hal yang penting untuk


Yp = a1pX1 + a2pX2 +… + appXp = a ′p X klaster data.
Keterbatasan yang lebih menonjol adalah
dengan Var(Yi) = a′i Sa i dan Cov(Yi, Yk) = PCA tidak dapat digunakan untuk data non-
a′i Sa k . linear dan non-separable, sehingga perlu
dilakukan transformasi terhadap semua input
Vektor koefisien dari PC1 dipilih data ke ruang feature.
sedemikian rupa sehingga Var(Y1) maksimum Misalkan xi ∈ n, i = 1, 2, …, m merupakan
di antara vektor koefisien yang lain. input data. Matriks kovariansi untuk input data
Selanjutnya, PC2 adalah kombinasi linier dari tersebut di ruang n adalah
variabel terobservasi yang bersifat ortogonal
1 m
terhadap PC1 dan memiliki variansi yang
minimum dari variansi sebelumnya dan
A= ∑ xi x′i .
m i =1
maksimum dalam PC2. Jadi, PCA juga Berdasarkan prinsip kerja dari PCA, untuk
merupakan metode untuk mendapatkan menyelesaikan masalah klasifikasi pola sama
koefisien-koefisien dari himpunan kombinasi artinya dengan menyelesaikan masalah eigen-
linier yang memenuhi: value Aν = λν, untuk eigen value λ ≥ 0 dan
a. ada tepat p PC, yaitu sebanyak variabel eigen vector v ∈ n \ {0}. Matriks kovariansi
yang diobservasi, dan setiap PC merupakan umumnya tidak diketahui, untuk
kombinasi linier variabel-variabel tersebut;s mendapatkannya, digunakan estimasi
b. setiap PC saling ortogonal, saling bebas, berdasarkan input data. Hal ini dapat dilakukan
yang berarti bahwa koefisien-koefisiennya jika input data terdiri dari data linier.
bersifat ortogonal, dan skor komponennya Sedangkan untuk data non-linear dan non-
tidak berkorelasi; separable, PCA tidak dapat digunakan. Salah
c. PC diekstrak dengan urutan yang semakin satu cara agar PCA dapat digunakan adalah
kecil. dengan melakukan transformasi semua input
Salah satu cara mendapatkan koefisien data ke ruang feature. Maka untuk mengatasi
seluruh PC secara simultan adalah dengan masalah ini muncul metode kernel PCA
melakukan dekomposisi akar karakteristik- (KPCA). Kernel PCA merupakan PCA yang
vektor karakteristik terhadap matriks korelasi diaplikasikan pada input data yang telah
antara variabel yang diobservasi. Cara yang ditransformasikan ke ruang feature. Misalkan
lain adalah melakukan dekomposisi nilai Φ : n → F fungsi yang memetakan semua
singular (SVD) terhadap matriks data yang input data xi ∈ n, berlaku Φ(xi) ∈ F.
berukuran n x p. Akar karakteristik adalah Berdasarkan transformasi ini, terlihat bahwa
variansi, sedangkan vektor karakteristik adalah ruang feature dibangun oleh vektor-vektor
koefisien-koefisien PC. {Φ(x1), Φ(x2), …, Φ(xm)}. Sehingga semua
Jurnal ILMU DASAR Vol. 11 No. 1, Januari 2010 : 31 – 38 33

vektor di ruang feature dapat dinyatakan m


λ ∑ α i Φ(xi )Φ(xk ) ' =
1 ⎡ m α Φ ( x ) ⎤ ⎡ m Φ ( x )Φ ( x )′ ⎤ Φ ( x )′
∑ i i ⎥⎦ ⎢∑ j j ⎥ k
m ⎢⎣ i =1
sebagai kombinasi linier dari vektor- i =1 ⎣ j =1 ⎦
vektor{Φ(x1), Φ(x2),…, Φ(xm)}. Dengan ∀k = 1, 2, …, m (5)
demikian, matriks kovariansi di ruang feature Misalkan
untuk vektor {Φ(x1), Φ(x2), …, Φ(xm)} dapat k(xi, xj) = kij = Φ(xi)Φ(xj)′ (6)
dituliskan sebagai dan K = [kij] matriks ukuran m × m. Jika
1 m Persamaan (5) dilakukan pergantian semua
C=
m j =1

Φ ( x j )Φ ( x j ) ′ (1) suku dalam bentuk Φ(xi)Φ(xj)′ dengan bentuk
kij, maka dapat dibuktikan bahwa Persamaan
(5) akan menjadi
λmKα = K2α (7)
di mana α adalah vektor kolom dengan entri
α1, α2, …, αm.
Solusi dari Persamaan (7), dapat dihitung
dengan cara menyelesaikan
λmα = Kα (8)
Misalkan αk adalah eigen-vector ke-k dari
masalah eigen-value pada Persamaan (7). Jika
semua vektor ν ∈ F dilakukan normalisasi,
yaitu harus memenuhi ν′ν = 1, maka dengan
menggunakan Persamaan (4), (6), dan (8) akan
dihasilkan
m

ν′ν = ∑α α k
i
k
j
〈Φ( x i ), Φ ( x j )〉
i , j =1

m
Gambar 1. Ide Dasar KPCA (Schölkopf et al.
1996).
= ∑ α α Φ ( x )Φ ( x )′ =
k
i
k
j i j
(αk)′Kαk
i , j =1

= λk(αk)′αk = 1 (9)
dan masalah eigen-value di ruang feature F
Untuk mengekstraksi PC, maka semua peta
dapat dinyatakan sebagai:
dari input vektor z, yaitu Φ(z), harus
λν = Cν (2)
diproyeksikan ke vektor ν yang telah
di mana ν eigen vector dari C dalam ruang F.
dinormalisasi. Untuk menghitung proyeksi
Jadi, dengan argumen yang sama, Persamaan
tersebut digunakan
(2) ekivalen dengan, m
λ〈Φ(xk), ν〉 = 〈Φ(xk), Cν〉, ∀k = 1, 2, …, m ν′Φ(z)= ∑ α i k ( x, z ) (3)
(10)
k

Karena semua vektor di ruang feature F dapat i =1


dinyatakan sebagai kombinasi linier dari Ada beberapa kernel yang sudah dikenal
vektor-vektor {Φ(x1), Φ(x2), …, Φ(xm)}, maka untuk dipilih namun masih harus dikonstuksi
eigen-vector, yang merupakan solusi dari satu demi satu, antara lain:
masalah eigen-value λν = Cν, juga dapat • Kernel linier: k(X, Z) = X′Z
dinyatakan sebagai kombinasi linier dari • Kernel polinomial: k(X, Z) = (〈X, Z〉) +b)p,
kombinasi linier vektor-vektor {Φ(x1), Φ(x2), di mana p orde maksimal dari monomial dan
…, Φ(xm)}. Hal ini berarti, ada konstanta- b adalah bias menuju orde monomial
konstanta αi di mana i = 1, 2, …, m, terkecil.
sedemikian sehingga • Kernel Gaussian: k(X, Z) =
⎛ − || X − Z ||2 ⎞
m
ν= ∑α Φ(x )
i =1
i i
(4)
exp ⎜ ⎟ , di mana σ > 0.
⎝ 2σ ⎠
2

Dengan mensubstitusi Persamaan (1) dan (4)


ke Persamaan (3) dihasilkan: • Kernel sigmoid: k(X, Z) = tanh(α〈X, Z〉 + β)
1 m m
di mana α > 0 dan β < 0.
λ Φ ( x k ), ∑ α Φ ( x i ) = Φ ( x k ), ∑ Φ( x )Φ(x ) ' ∑ α Φ ( x
m

)
i =1
i

m j =1
j j
j =1
i k
Kernel PCA (Seng 2006) digunakan untuk
m

λ ∑ α i Φ ( x k ), Φ ( x i ) =
1 m m
memvisualisasi data diabetes Pima-Indian.
∑α Φ ( x ), ∑ Φ ( x ) 〈Φ ( x ), Φ ( x )〉
i =1 m i =1
i k

j =1
j j i

Dalam artikelnya, Seng menyimpulkan bahwa


PCA dan KPCA dapat digunakan sebagai alat
34 Visualisasi Data Iris .....(Ismail Djakaria dkk)

untuk memvisualisasi data dengan dimensi menunjukkan hubungan yang sangat tinggi,
yang berbeda dari atribut eksplanatorinya. dan species virginica lebih besar (dari segi
Meskipun tidak untuk memisahkan dua kelas ukuran, panjang daun dan lebar daun)
data secara total, akan tetapi dapat dibandingkan dengan species lainnya.
memvisualisasi data berdasarkan seluruh PCA dilaksanakan pada dataset setelah
atribut eksplanatori distandarisasi data yang menggunakan
algoritma PCA baku. Setiap eigen-value
METODE diperoleh melalui software, dihubungkan
dengan PC dan tingkat pengenalan masing-
Visualisasi data didahului dengan melakukan masing (Tabel 2).
penelaahan referensi yang terkait, melalui Gambar 3 menunjukkan kontribusi
perpustakaan. Selanjutnya, dilakukan searching kumulatif PC dari uraian data. Gambar ini
data melalui internet. Data yang digunakan adalah memperlihatkan bahwa hingga tiga PC pertama
data sekunder, yaitu Iris Data Set yang
disumbangkan oleh Marshall (1988). Untuk
diperlukan untuk menjelaskan sekitar 97%
membedakan metode PCA dan KPCA dalam data data, dan dua PC pertama bisa menjelaskan
ini, dianalisis menggunakan beberapa software sekitar 90% data.
program, antara lain, R, Minitab 13, SPSS 12.0 for Proyeksi data Iris berturut-turut untuk dua
Windows, dan S-Plus 2000. dan tiga PC ditunjukkan pada Gambar 4. Dapat
dilihat pada Gambar 4 bahwa terdapat klaster
HASIL DAN PEMBAHASAN data menurut kelasnya (species Setosa,
Versicolour dan Virginica), namun ketiga
Data Iris yang divisualisasikan di sini meliputi species itu tidak linier separable. Oleh karena
150 contoh, terdiri atas tiga kelas masing- klasifikasi data non-linear dan non-separable,
masing 50 contoh. Data ini dibagi atas 5 maka digunakan KPCA untuk meninjau atau
atribut, yang terdiri dari 4 atribut prediktif mengenal pola terbaik. Fungsi kernel yang
(numerik), sepal length, sepal width, petal digunakan adalah radial basis function (RBF),
length, petal width, yang semuanya diukur atau dikenal pula dengan kernel Gaussian.
dalam cm, dan satu atribut kelas yang terbagi Beberapa nilai argumen (σ) digunakan untuk
atas tiga jenis, Iris Setosa, Iris Versicolour, dan melihat salah satu yang menghasilkan pola
Iris Virginica. Deskripsi data ini dapat dilihat terbaik. Hasil visualisasi dari beberapa kondisi
pada Tabel 1. ini disajikan pada Gambar 5. Dari beberapa
nilai argumen, ada kecenderungan berhimpitan
Tabel 1. Deskripsi data iris. satu jenis data dengan jenis data lainnya.
Kondisi ini tidak lebih baik digunakan untuk
Korelasi
Variabel Min Max Mean SD
Kelas
visualisasi separasi kelas-kelas yang berbeda.
Sepal Nilai argumen (σ) yang dipikirkan
4,30 7,90 5,8433 0,82807 0,7826
Length (diperhatikan) lebih baik adalah σ = 0,001,
Sepal karena nilai argumen ini memberikan separasi
2,00 4,40 3,0573 0,43587 -0,4194
Width
Petal
antar jenis data dengan baik. Hal ini tampak
1,00 6,90 3,7580 1,76530 0,9490 jelas pada Gambar 5, dimana untuk argumen
Length
Petal yang diperhatikan, memberikan separasi linier
0,10 2,50 1,1993 0,76224 0,9565
Width secara sempurna.
Untuk memvisualisasikan separasi secara
Dari Tabel 1 tampak bahwa petal length lebih rinci, dipilih scatterplot dua PC pertama
(panjang daun) dan petal width (lebar daun) menggunakan KPCA dengan kernel RBF, σ =
memiliki korelasi yang sangat tinggi. 0,001, seperti ditunjukkan di dalam Gambar
Sedangankan, Scatterplot masing-masing 6(a), dan scatterplot 3-D untuk tiga PC pertama
variabel dapat dilihat pada Gambar 2. menggunakan KPCA dengan kernel RBF, σ =
Gambar 2 menunjukkan bahwa setiap 0,001, yang ditunjukkan di dalam Gambar 6(b).
variabel tidak dapat dipisah garis linier secara Dengan membandingkan Gambar 4(a) dan 4(b)
sempurna, terutama antara species versicolour dengan Gambar 6(a) dan 6(b) berturut-turut,
dengan species virginica. Di samping itu, tampak bahwa KPCA memberikan separasi
antara petal length dengan petal width yang yang lebih baik daripada PCA linier.
Jurnal ILMU DASAR Vol. 11 No. 1, Januari 2010 : 31 – 38 35

4.50 Species 7.00 Species


Setosa Setosa
Versicolour Versicolour
Virginica 6.00
4.00 Virginica

5.00
Sepal.Width

Petal.Length
3.50

4.00

3.00
3.00

2.50
2.00

2.00 1.00
4.00 5.00 6.00 7.00 8.00 4.00 5.00 6.00 7.00 8.00
Sepal.Length Sepal.Length

2.50 Species 2.50 Species


Setosa Setosa
Versicolour Versicolour
2.00 Virginica 2.00 Virginica

Petal.Width
Petal.Width

1.50 1.50

1.00 1.00

0.50 0.50

0.00
0.00

4.00 5.00 6.00 7.00 8.00 1.00 2.00 3.00 4.00 5.00 6.00 7.00
Sepal.Length Petal.Length

7.00 2.50

6.00
2.00

5.00
Petal.Length

Petal.Width

Species 1.50 Species


Setosa Setosa
4.00 Versicolour Versicolour
Virginica 1.00 Virginica
3.00

0.50
2.00

1.00 0.00

2.00 2.50 3.00 3.50 4.00 4.50 2.00 2.50 3.00 3.50 4.00 4.50

Sepal.Width Sepal.Width

Gambar 2. Scatterplots antar variabel.

Tabel 2. Eigen-value setiap PCA.

PC Eigen-value Tingkat Pengenalan


1 2.9185 73.0%
2 0.9140 22.8%
3 0.1468 3.7%
4 0.0207 0.5%
36 Visualisasi Data Iris .....(Ismail Djakaria dkk)

100 100%

90

80 80%

70

60%
Proportion
60

Percent
50

40 40%

30

20 20%

10

0 0%
1 2 3 4
Principal Component

Gambar 3. Diagram pareto untuk kontribusi PC.

3
Species
2 Setosa
2nd Principal Component

Versicolour 2

1 Virginica1
PC2

0 0

-1
-2
-2
-1
-3 0
0
-3 31
-2 0 2
PC 1 PC3
1st Principal Component
(a) (b)

Gambar 4. Data Iris dalam (a) dua PC pertama dan (b) tiga PC pertama.
Jurnal ILMU DASAR Vol. 11 No. 1, Januari 2010 : 31 – 38 37

Species
Setosa Versicolour Virginica

8.0
0.4
6.0

4.0 0.2

2.0

PC2
PC2

0.0
0.0

-2.0 -0.2

-4.0
-0.4
-6.0
-1.0 0.0 1.0 2.0 -0.2 -0.1 0.0 0.1
PC1 PC1

0.4 0.4

0.2 0.2
PC2

PC2

0.0 0.0

-0.2 -0.2

-0.4 -0.4
-0.2 -0.1 0.0 0.1 -0.2 -0.1 0.0 0.1
PC1 PC1

1.0

0.0
0.5

0.0 -1.0
PC2
PC2

-0.5

-2.0
-1.0

-1.5 -3.0
0.0 0.5 1.0 -0.5 0.0 0.5 1.0 1.5 2.0 2.5
PC1 PC1

Gambar 5. Scatterplot KPCA menggunakan kernel RBF dengan beberapa nilai σ. Gambar 5.
Scatterplot KPCA menggunakan kernel RBF dengan beberapa nilai σ.
38 Visualisasi Data Iris .....(Ismail Djakaria dkk)

8.0 Species
Setosa 8
6.0
Versicolour
4.0 Virginica1
4
2.0
PC2

PC2
0.0
0
-2.0

-4.0 -4

-6.0 -10
0
-1.0 0.0 1.0 2.0 -1 0 1 2 10
PC1 3
PC1 PC
(a) (b)

Gambar 6.Data Iris dalam (a) Dua PC pertama dan (b) Tiga PC pertama menggunakan KPCA
dengan σ = 0,001.

KESIMPULAN Härdle W & Simar L. 2003. Applied Multivariate


Statistical Analysis. Berlin: Method and Data
Principal component analysis (PCA) dan Technologies.
kernel principal component analysis (KPCA) Johnson, Richard A & Wicheren DW. 2002. Applied
adalah dua metode yang digunakan sebagai alat Multivariate Statistical Analysis, 5ed. New
Jersey: Prentice-Hall, Inc.
untuk memvisualisasi data dari dimensi-
Lin W. 2006. Visualization of PCA and FDA on
dimensi berbeda dalam atribut bersifat Waveform Data. Computational Intelligence:
pengenalan. Namun, tidak secara total dapat Methods and Applications.
memisahkan dua kelas data, yang dapat Marshall Michael. 1988. Iris Dataset. UCI, Machine
memvisualisasikan data secara bersamaan Learning Respository.
dengan mempertimbangkan semua atribut. http://archive.ics.uci.edu/ml/
Min W. 2006. PCA, Kernel PCA and MDS to
Kegagalan dalam memisahkan data seperti ini
Visualize the Zoo Data. Computational
tidak dapat dihubungkan dengan kelemahan- Intelligence: Methods and Applications,
kelemahan metode itu sendiri. Nanyang Technological University.
Mengingat data adalah bagian yang sangat Raychaudhuri, Soumya, Stuart JM & Altman RB.
penting di dalam visualisasi, sehingga hal 2000. Principal Component Analysis to
inipun dapat menjadi bahan pertimbangan Summarize Microarray Experiments:
dalam menerapkan metode yang sesuai. Application to Sporulation Time Series. Pacific
Symposium on Biocomputing, vol. 5: 452-463.
Pengambilan data yang tidak mempunyai pola Schölkopf B, Alexander S & Klaus-RM. 1996.
yang baik maka mengakibatkan hasil dalam Nonlinear Component Analysis as a Kernel
ruang feature yang tidak bisa diekstrak secara Eigenvalue Problem. Technical Report No. 44,
sempurna. Fasilitas yang mendukung Nanyang Technological University.
visualisasi juga akan sangat membantu dalam Seng CY. 2006. Visualization of Pima-Indian-
mengkonfirmasi signifikansi pengenalan pola Diabetes Data Using Principal Component
Analysis and Kernel Principal Component
dataset. Analysis. Nanyang Technological University:
Computational Intelligence: Methods and
DAFTAR PUSTAKA Applications.
Tipping ME & Christopher MB. 1999. Probabilistic
Alter O, Brown PO & Botstein D. 2000. Singular Principal Component Analysis. Journal of the
value decomposition for genome-wide Royal Statistical Society, Series B, 61, Part 3,
expression data processing and modeling. Proc 611-622.
Natl Acad Sci USA, 97: 10101-10106. Xuejie Z. 2006. PCA and Kernel PCA in
Darlington RB. 1997. Multivariate Analysis. Visualizations of Glass Identification Data.
http://www.psych.cornell.edu/ darlington/ Computational Intelligence: Methods and
manova.htm. Applications. Nanyang Technological
University.

Anda mungkin juga menyukai