Anda di halaman 1dari 1

Analisis Komponen Utama (PCA)

PCA merupakan suatu teknik untuk mengurangi jumlah peubah dalam suatu matrik data.
Prinsip PCA adalah mencari komponen utama yang merupakan kombinasi linear dari peubah asli.
Komponen-komponen utama ini dipilih sedemikian rupa, sehingga komponen utama pertama
memiliki variasi terbesar dalam set data, sedangkan komponen utama kedua tegak lurus terhadap
komponen utama pertama dan memiliki variasi terbesar berikutnya (Miller & Miller 1984). Kedua
komponen utama pertama ini pada umumnya digunakan sebagai bidang proyeksi untuk
pemeriksaan visual data multivariat. Jika jumlah varians dari komponen utama satu (PC1) dan dua
(PC2) lebih besar dari 70%, maka score plot memperlihatkan visualisasi dua dimensi yang baik
(Varmuza 2000).
Gambar 5 menunjukkan komponen utama dari peubah X1, X2, dan X3.





Kuadrat Terkecil Parsial (PLS)
Kuadrat terkecil parsial digunakan untuk memperkirakan serangkaian peubah tidak bebas (respons)
dari peubah bebas (prediktor) yang jumlahnya sangat banyak, memiliki struktur sistematik linear
atau nonlinear, dengan atau tanpa data yang hilang, dan memiliki kolinearitas yang tinggi (Herv
2003). Metode ini membentuk model dari peubah-peubah yang ada untuk membentuk serangkaian
respons dengan menggunakan regresi kuadrat terkecil dalam bentuk matriks (Lindblom 2004).
Bila jumlah prediktor X jauh lebih besar dibandingkan dengan jumlah pengamatan Y, pendekatan
regresi akan sulit diterapkan karena adanya multikolinearitas pada data. Permasalahan ini diatasi
dengan menentukan komponen utama dari matriks X, yang selanjutnya digunakan sebagai regresor
pada Y. Peubah-peubah X yang emiliki korelasi yang tinggi dengan peubah respons diberi bobot
lebih karena akan lebih efektif dalam perkiraan (Miller & Miller 1984). Parameter-parameter dalam
PLS sebagai metode kalibrasi adalah factors, loadings, dan scores. Model PLS berdasar pada
komponen utama dari data independen X dan data dependen Y. Inti dari PLS dalah untuk
menghitung nilai (scores) dari matriks X dan Y 6 dan untuk membuat model regresi antara nilai-
nilai tersebut (Dieterle 2004). Gambar 6 menunjukkan bahwa matriks X diuraikan menjadi matriks
T (matriks scores), matriks P (matriks loading) dan matriks error E, sedangkan matriks Y diuraikan
menjadi U dan Q dan error F. Kedua persamaan ini disebut hubungan luar. Hasil dari T dan P
mendekati data spektrum, sedangkan hasil U dan Q mendekati konsentrasi sebenarnya. Tujuan dari
algoritma PLS adalah untuk meminimumkan F dengan terus menjaga korelasi antara X dan Y dalam
hubungan dalam U=BT (Lohninger 2004).










Gambar 6 Prinsip PLS (Lohninger 2004).

Anda mungkin juga menyukai