Anda di halaman 1dari 23

MAKALAH MULTIVARIAT

ANALISIS KOMPONEN UTAMA NON LINIER

OLEH :
SITI NURMARDIA ABDUSSAMAD
1660 9050 0111 002

PROGRAM PASCASARJANA
FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM
UNIVERSITAS BRAWIJAYA
2016
BAB I
PENDAHULUAN

1.1 Latar Belakang

Salah satu masalah yang sering terjadi dalam suatu machine learning adalah “Curse of
Dimensionality problem”, di mana mesin kesulitan dalam menangani sejumlah masukan
data dengan dimensi yang sangat tinggi. Salah satu cara yang paling umum digunakan
untuk menangani proses ini adalah dengan mengurangi dimensi dari data masukan
dengan tetap menjaga informasi yang terkandung didalamnya. Salah satu cara yang
paling sering digunakan adalah PCA (Principal Component Analysis), karena PCA dapat
mereduksi dimensi seminimal mungkin dengan tetap mempertahankan informasi yang
terkandung di dalamnya.

Menurut Johnson dan Wichem (2002) analisis peubah ganda yang bertujuan untuk
mentransformasi p peubah asal menjadi k peubah baru dimana vector antara peubah baru
yang terbentuk adalah saling bebas. Masing-masing nilai k peubah baru yang terbentuk
merupakan kombinasi linier dari p peubah lama. Pada awalnya Analisis Komponen
Utama (AKU) digunakan untuk kasus dengan data berskala interval dan rasio.
Sedangkan untuk data berskala nominal dan ordinal menurut Gifi (1983) suatu analisis
yang digunakan merupakan pengembangan Analisis Komponen Utama (AKU) yang
disebut Analisi Komponen Utama Nonlinier.
Analisis Komponen Utama Non Linier sama halnya dengan analisis komponen utama
yakni melakukan reduksi dimensi seminimal mungkin dengan tetap mempertahankan
informasi yang terkandung di dalam dimensi tersebut. Pada kenyataannya banyak
penelitian yang dilakukan dengan menggunakan berbagai macam jenis data. Data
diperoleh melalui data sekunder maupun data primer. Dalam studi kasus untuk paper ini
menggunakan penelitian dengan skala campuran atau data kategorik. Oleh karena itu
metode yang digunakan yakni menggunakan metode analisis komponen utama non
linear.
Adapun paper ini membahas mengenai analisis komponen utama non linier dan
penerapannya dalam studi kasus Analisis Pendapatan Usaha Tani dan Efisiensi
Pemasaran Bawang Merah (Allium Ascalonicum) di Desa Mranggon Lawang
Kecamatan Dringu Kabupaten Probolinggo.

Page | 1
1.2 Rumusan Masalah
Adapun rumusan masalah yang akan dibahas dalam makalah Multivariat ini adalah
sebagai berikut :
1. Bagaimana penerapan analisis komponen utama non linier pada studi kasus
Analisis Pendapatan Usaha Tani dan Efisiensi Pemasaran Bawang Merah
(Allium Ascalonicum) di Desa Mranggon Lawang Kecamatan Dringu
Kabupaten Probolinggo?
2. Komponen apa saja yang terbentuk pada studi kasus ini sehingga dapat
mereduksi variabel yang banyak menjadi beberapa komponen saja untuk
digunakan pada penelitian selanjutnya?

1.3 Tujuan
Berdasarkan latar belakang dan rumusan masalah yang ada, maka tujuan dari penulisan
makalah ini adalah sebagai berikut :
1. Mengetahui penerapan analisis komponen utama non linier pada studi kasus
Analisis Pendapatan Usaha Tani dan Efisiensi Pemasaran Bawang Merah
(Allium Ascalonicum) di Desa Mranggon Lawang Kecamatan Dringu
Kabupaten Probolinggo.
2. Mengetahui Komponen apa saja yang terbentuk pada studi kasus ini sehingga
dapat mereduksi variabel yang banyak menjadi beberapa komponen saja untuk
digunakan pada penelitian selanjutnya.

Page | 2
BAB II
LANDASAN TEORI

2.1 Principal Component Analysis


PCA adalah teknik statistik yang sudah digunakan secara luas baik dalam hal
pengolahan data, pembelajaran mesin, maupun pengolahan citra atau pemrosesan signal.
Metode Principal Component Analysis (PCA) dibuat pertama kali oleh para ahli statistik
dan ditemukan oleh Karl Pearson pada tahun 1901 yang memakainya pada bidang
biologi. Pada tahun 1947 teori ini ditemukan kembali oleh Karhunen, dan kemudian
dikembangkan oleh Loeve pada tahun l963, sehingga teori ini juga dinamakan Karhunen-
Loeve transform pada bidang ilmu telekomunikasi.
PCA adalah sebuah transformasi linier yang biasa digunakan pada kompresi data.
PCA juga merupakan teknik yang umum digunakan untuk menarik fitur-fitur dari data
pada sebuah skala berdimensi tinggi. PCA memproyeksikan data ke dalam subspace.
PCA adalah transformasi linear untuk menentukan sistem koordinat yang baru dari data.
Teknik PCA dapat mengurangi dimensi dari data tanpa menghilangkan informasi penting
dari data tersebut.

Salah satu masalah yang sering terjadi dalam suatu machine learning adalah “Curse of
Dimensionality problem”, di mana mesin kesulitan dalam menangani sejumlah masukan
data dengan dimesi yang sangat tinggi. Salah satu cara yang paling umum digunakan
untuk menangani proses ini adalah dengan mengurangi dimensi dari data masukan
dengan tetap menjaga informasi yang terkandung didalamnya. Salah satu cara yang
paling sering digunakan adalah PCA (Principal Component Analysis), karena PCA dapat
mereduksi dimensi seminimal mungkin dengan tetap mempertahankan informasi yang
terkandung di dalamnya.

Contoh proses Dimensionality Reduction dari suatu data secara sederhana. Terdapat
sekumpulan data dengan penyebaran sebagai berikut (untuk kasus 2 dimensi):

1. Untuk proyeksi terhadap sumbu X, didapat sebaran data antara -2.8 sampai +2.7

2. Untuk proyeksi terhadap sumbu Y, didapat sebaran data antara -9.6 sampai +9.5

Dapat dilihat bahwa varians yang dihasilkan proyeksi data terhadap sumbu Y lebih
besar daripada proyeksi tehadap sumbu X, maka apabila ingin mereduksi data tersebut
menjadi 1 dimensi saja maka proyeksi sumbu Y yang akan digunakan sebagai principal

Page | 3
component data tersebut. Untuk data dengan dimensi lebih banyak, kita dapat
menyimpan lebih dari 1 principal componet (urutan principal component yang dipilih
untuk membentuk dimensi yang diinginkan berdasarkan banyaknya varians yang
dihasilkan oleh principal component tersebut), hal ini dilakukan agar varians yang
hasilkan lebih banyak sehingga informasi yang dihasilkan dapat lebih terjaga(sesuai).

Hal yang perlu diperhatikan juga adalah sumbu dari setiap principal component harus
saling tegak lurus satu sama lain (Orthogonal Vectors).

Komponen utama tergantung kepada matriks ragam peragam Σ dan matriks korelasi
ρ dari x1, x2, x3,..., xp, dimana pada analisisnya tidak memerlukan asumsi populasi
harus berdistibusi normal peubah ganda. Melalui matriks ragam peragam bisa diturunkan
akar ciri-akar ciri (eigen values) yaitu λ1 ≥ λ2 ≥ ...≥ λp ≥ 0 dan vektorvektor cirinya
yaitu α1, α2, ..., αp.

Misalkan X’ = (X1,X2,.., Xp) merupakan vektor p peubah asal yang diamati, memiliki
sebaran normal peubah ganda dengan vektor rataan  dan matriks peragam .
Komponen Utama merupakan kombinasi linier dari p peubah asal, atau dapat ditulis:

 Y1  a11 a12 ... a1p   X1 


Y  a  X 
 21 a 22 ... a 2p 
Y=   X=  
2 2
Y = AX A=
 .   . . . .   . 
     
 Yp  a p1 a p 2 ... a pp   X p 

A’ = [a1, a2, …, ap] adalah matriks ortogonal, yang merupakan matriks skor
komponen. ai’ = [ai1, ai2, …, aip]

 Komponen utama pertama (Y1) dapat ditulis:

Y1 = a11X1 + a12X2 + … + a1pXp

Y1 = a1X

Yang memiliki ragam sebesar:

p p
Y1 =  a i1a j1  ij = a1’a1
i1 j1

Pemilihan vektor koefisien a1 komponen utama Y1 adalah sedemikian rupa sehingga


ragam Y1 maksimum, yaitu a1’a1 menggunakan pengganda Lagrange diperoleh
kendala a1’a1 = 1

Page | 4
 Komponen utama kedua (Y2) dapat ditulis:

Y2 = a21X1 + a22X2 + … + a2pXp

Y2 = a2X

Yang memiliki ragam sebesar:

p p
Y1 =  a i2 a j2  ij = a2’a2
i1 j1

Pemilihan vektor koefisien a2 komponen utama Y2 adalah sedemikian rupa sehingga


ragam Y2 maksimum, yaitu a2’a2 dengan kendala a2’a2 = 1, dan tidak ada korelasi
antara Y1 dan Y2 (peragam Y1 dan Y2, yaitu a1a2 = 0), yang berarti a1’a2 = 0.
Pemilihan vektor koefisien a3 pada komponen utama ketiga (Y3) dengan kendala a3’a3
= 1, a1’a3 = 0 dan a2’a3 = 0. Demikian seterusnya untuk komponen utama ke-4 sampai
yang ke-p. Dengan menggunakan pengganda Lagrange, diperoleh a1, a2, …, ap sebagai
vektor ciri yang berpadanan dengan akar ciri 1  2  …  p dari matriks peragam
.Komponen utama pertama akan memberikan keragaman terbesar (1). Komponen
utama kedua akan memberikan keragaman nomor dua terbesar (2), dan seterusnya.
Principal Components dapat ditemukan dengan cara melakukan Eigen value
Decomposition dari Covariance Matrix (atau correlation matrix) dari suatu data atau
menggunakan metode Singular Value Decomposition (SVD).

Analisis Komponen Utama biasanya digunakan untuk identifikasi peubah baru yang
mendasari data peubah ganda, mereduksi jumlah himpunan peubah yang biasanya
terdiri atas peubah yang banyak dan saling berkorelasi menjadi peubah-peubah baru
yang tidak berkorelasi dengan mempertahankan sebanyak mungkin keragaman dalam
himpunan tersebut, menghilangkan peubah-peubah asal yang mempunyai sumbangan
informasi yang relatif kecil (Johnson dan Wichern, 2002)

Contoh Menentukan Mencari Principal Component dari Suatu Data

1. Transformasi Mean-Centering

Proses memindahkan semua data kebagian tengah, guna mendapatkan data yang lebih
stabil.

Berikut langkah-langkah mean-centering:

A. Cari mean data

Page | 5
B. Pindahkan setiap posisi data kebagian tengah, dengan cara mengurangi nilai setiap
data dengan nilai mean data

Berikut contoh proses mean-centering pada suatu data:

2. Menghitung Covariance-Matrix

Covariance-Matrix berisi seluruh pasangan covariance dari semua himpunan varians


data yang ada.

3. Mencari Eigen value dan Eigen vector dari Covariance-Matrix (Principal


Component) Eigen vector dari suatu matriks A (berukuran n x n) adalah suatu vektor
v, yang jika dikalikan dengan matriks A menghasilkan kelipatan dari vektor v
tersebut. Nilai kelipatan tersebut merupakan Eigen value.

4. Urutkan principal components tersebut secara menurun

5. Transformasi Data ke Sumbu Principal Components

Untuk mentransformasi data ke sumbu principal components yang ada, cukup


mengalikan data tersebut dengan invers dari principal components yang telah didapat
sebelumnya.

Metode PCA bertujuan untuk menyederhanakan variabel yang diamati dengan


cara mereduksi dimensinya. Hal ini dilakukan dengan cara menghilangkan korelasi
diantara variabel bebas melalui transformasi variabel bebas asal ke variabel baru yang
tidak berkorelasi sama sekali. Setelah beberapa komponen hasil PCA yang bebas
multikolinearitas diperoleh, maka komponen-komponen tersebut menjadi variabel
bebas baru yang akan diregresikan atau dianalisis pengaruhnya terhadap variabel tak
bebas (Y) dengan menggunakan analisis regresi. Keunggulan metode PCA
diantaranya adalah dapat menghilangkan korelasi secara bersih tanpa harus
mengurangi jumlah variabel asal.

Langkah-langkah penggunaan PCA adalah sebagai berikut:


a) Kaiser-Meyer-Olkin (KMO) dan Barlett Test

Mengenai layak atau tidaknya analisis faktor, maka perlu dilakukan uji Kaiser
Meyer-Olkin (KMO) dan Barlett Test. Apabila nilai KMO berkisar antara 0,5
sampai dengan 1 maka analisis faktor layak digunakan. Namun, jika nilai KMO

Page | 6
kurang dari 0,5 maka analisis faktor tidak layak dilakukan. Sedangkan Barlett Test
digunakan untuk menguji apakah benar variabel-variabel yang dilibatkan berkorelasi.
Hipotesis:
H0: tidak ada korelasi antarvariabel bebas
H1: ada korelasi antarvariabel bebas
Kriteria uji dengan melihat p-value (signifikan): terima H0 jika sig. > 0,05 atau tolak
H0 jika sig.< 0,05.

b) Anti Image Matriks

Bagian Anti Image Correlation, khususnya pada angka korelasi yang bertanda a
(arah diagonal dari kiri atas ke kanan bawah). Angka MSA (Measure of Sampling
Adequay) berkisar dari 0 sampai 1, dengan kriteria sebagai berikut:
• MSA = 1, variabel tersebut dapat diprediksi tanpa kesalahan oleh variabel lain.
• MSA > 0,5, variabel masih bisa diprediksi dan bisa dianalisis lebih lanjut.
• MSA < 0,5, variabel tidak bisa diprediksi dan tidak bisa dianalisis lebih lanjut, atau
dikeluarkan dari variabel lainnya.
b) Communalities
Communalities menunjukkan berapa varians yang dapat dijelaskan oleh faktor
yang terbentuk.
c) Total Variance Explained
Dalam analisis faktor terdapat beberapa komponen yang merupakan variabel.
Setiap faktor mewakili variabel yang dianalisis. Kemampuan setiap faktor
mewakili variabel yang dianalisis ditunjukkan oleh besarnya varians yang
dijelaskan, yang disebut dengan eigenvalue. Eigen value menunjukkan
kepentingan relatif masing-masing faktor dalam menghitung varians ketiga
variabel yang dianalisis. Susunan eigen value selalu diurutkan dari yang terbesar
sampai yang terkecil, dengan kriteria bahwa angka eigenvalue di bawah 1 tidak
digunakan dalam menghitung jumlah faktor yang terbentuk.
d) Componen Matriks
Componen Matriks merupakan tabel yang berisikan factor loading (nilai korelasi)
antara variabel-variabel analisis dengan faktor yang terbentuk.

Page | 7
e) Component Score Coefficient Matriks
Setelah didapatkan faktor yang terbentuk melalui proses reduksi, maka perlu
dicari persamaan sehingga dapat dihitung skor setiap faktor secara manual.
Persamaan yang dibuat mirip dengan regresi linear berganda, hanya dalam
persamaan faktornya tidak terdapat konstanta. Setelah komponen hasil PCA yang
bebas multikolinearitas diperoleh maka komponen-komponen tersebut
diregresikan atau dianalisa pengaruhnya terhadap variabel tak bebas (Y) dengan
menggunakan analisis regresi linear.
Analisis komponen utama pada umumnya digunakan untuk menjelaskan
struktur matriks varians-kovarians dari suatu himpunan variabel melalui kombinasi
linier dari variabel-variabel tersebut. Secara umum komponen utama dapat berguna
untuk mereduksi dan menginterpretasi variabel-variabel asal. Misalkan saja terdapat
p buah variabel yang terdiri atas n buah objek. Misalkan pula dari p buah variabel
tersebut dibuat sebanyak k buah komponen utama dengan k ≤ p yang merupakan
kombinasi linier atas p buah variabel tersebut. Komponen utama tersebut diharapkan
dapat menggantikan ‫ ݌‬buah variabel yang membentuknya tanpa kehilangan banyak
informasi mengenai keseluruhan variabel (Kusnandar, 2013).

2.2 Non Linier PCA


Untuk data berskala nominal dan ordinal, Gifi (1983) menyatakan bahwa analisis
yang digunakan untuk data dengan skala nominal dan ordinal bukan Analisis Komponen
Utama melainkan Analisis Komponen Utama Nonlinier karena analisis komponen utama
digunakan untuk data dengan skala rasio dan interval. Analisis Komponen Utama
Nonlinier merupakan pengembangan dari Analisis Komponen Utama dan biasa disebut
dengan PRINCALS (Prinsipal Component Analysis by Alternating Least Squares) atau
Analisis Komponen Utama dengan menggunakan pendugaan Alternating Least Squares.
Langkah analisis yang dilakukan terlebih dahulu adalah menentukan peubah
kategori. Setelah menentukan jumlah peubah kategori dalam kelas, selang kelas
ditentukan dengan rumus sebagai berikut (Yitnosumarto, 1994):
𝑅
𝐼= 𝑘

𝑅 = 𝑋𝑡 − 𝑋𝑟
𝑘 = 1 + 3.22 log 𝑛
di mana :

Page | 8
𝐼 = selang dalam kelas
𝑅 = kisaran atau range
𝑋𝑡 = nilai maksimal/pengamatan tertinggi
𝑋𝑟 = nilai minimal/pengamatan terendah
k = banyaknya kategori peubah
n = banyaknya pengamatan
Apabila terdapat suatu data yang di bentuk ke dalam matriks H yang berukuran nxm,
maka untuk memudahkan perhitungan Analisis Komponen Utama Nonlinier dipakai notasi
(Gifi, 1990):
n = banyak pengamatan (objek); i = 1, 2, 3, ….., n
m = banyak peubah ; j = 1, 2, ….., m
kj = banyak kategori pada peubah ke-j
hj = vektor kolom ke-j dari matriks H berukuran n x 1
Gj = matriks indikator dari hj berukuran n x kj
di mana :
1, jika objek ke-i berada dalam kategori ke-r dari peubah j
G(j)ir =
0, jika objek ke-i tidak berada dalam kategori ke-r dari peubah j
i = 1, 2,….., n; r = 1, 2, ….., kj
G = (G1, G2, ….., Gj, ….., Gm) berukuran 𝑛 𝑥 ∑𝑚
𝑗=1 𝑘𝑗

Gj dikatakan lengkap apabila setiap baris pada Gj hanya mempunyai satu unsur bernilai
satu dan yang lainnya bernilai nol. Dari matrik Gj akan diperoleh frekuensi tiap kategori pada
setiap peubah. Persamaan berikut akan berlaku jika mempunyai data lengkap.
𝐺𝑗 𝑢 = 𝑀𝑗 𝑢
𝐷𝑗 = 𝐺𝑗′ 𝐺𝑗
𝑀∗ = ∑𝑚
𝑗=1 𝑀𝑗 = 𝑚𝐼, karena Mj = I

Isis diagonal utama matriks Mj adalah :


1, jika objek ke-i berada dalam selang [1, kj]
m(j)ii =
0, jika objek ke-i berada diluar selang [1, kj]
di mana :
𝑢 = vektor kolom yang semua elemennya adalah 1
𝑀𝑗 = matriks bujur sangkar yang berupa matriks I

Page | 9
𝐷𝑗 = matriks diagonal yang merupakan jumlah kolom dari 𝐺𝑗
Analisis Komponen Utama Nonlinier didasarkan pada teori meet loss yang bertujuan
untuk meminimumkan fungsi homogeneity loss (σM). Fungsi homogeneity loss adalah sebagai
berikut :
𝜎𝑀 (𝑋, 𝑀) = 𝑚−1 ∑𝑚 ′
𝑗=1(𝑋 − 𝐺𝑗 𝑌𝑗 ) (𝑋 − 𝐺𝑗 𝑌𝑗 )

Dengan normalisasi AVE(Xs) = 0 untuk dimensi s = 1, 2, ….., p dan 𝑋 ′ 𝑋 = 1.


Fungsi σM diminimumkan menggunakan metode alternating least square untuk
mendapatkan pendugaan nilai bobot peubah 𝑎. Algoritma untuk menghitung p dimensi
pertama secara simultan meminimumkan σM dengan menggunakan alternating least square
adalah (Gifi, 1990) :
𝑌𝑗 = 𝐷𝑗−1 𝐺𝑗′ 𝑋
𝑚

𝑍 = ∑ 𝐺𝑗′ 𝑋
𝑗=1

𝑋 = 𝐺𝑅𝐴𝑀(𝑍)
di mana :
X = matriks skor komponen objek (objek scores) berukuran n x p di mana p adalah
banyaknya dimensi (p ≤ m)
Yj = matriks multiple category quantification berukuran kj x p
yj = single category quantification untuk peubah hj
AVE(xs) = vektor yang merupakan rata-rata kolom dari elemen matriks Xs
GRAM(Z) = matriks orthogonal dari ortogonalisasi Gram-Schmidt dari matriks Z
𝑎𝑗 = bobot peubah (variable loadings)
Sasaran dari metode ini adalah untuk mencari skor komponen objek X dan kategori
kuantifikasi Yj sedemikian hingga nilai σM dapat minimal. Berikut adalah langkah-langkahnya
(Gifi, 1983) :
1. Inisialisasi
 X diberi inisial (permulaan) dengan bilangan random yang dinormalkan sehingga
̃
𝑢′ 𝑴∗ 𝑿 = 0 dan 𝑿′ 𝑴∗ 𝑿 = 𝑚𝑛 𝐼, kemudian didapatkan 𝑿
 𝒀
̃𝑗 dilakukan permulaan nilai dengan persamaan :
̃𝑗 = 𝑫𝑗−1 𝑮𝑗′ 𝑿
𝒀 ̃

 𝒚
̃𝑗 dilakukan permulaan yang digambarkan sebagai kj bilangan bulat yang berurutan

dan dinormalkan sehingga :

Page | 10
𝑢′ 𝑫𝑗 𝒚 ̃𝑗 ′ 𝑫𝑗 𝒚
̃𝑗 = 0 dan 𝒚 ̃𝑗 = 𝑛

 Bobot peubah juga dilakukan permulaan dengan persamaan :


̃ ′ 𝑮𝑗 𝒚
𝑎̃𝑗𝑝 = 𝑿 ̃𝑗

2. Update Skor Komponen Objek X


Nilai X baru (update object scores) dengan nilai Y yang sudah diketahui dapat dihitung
dengan langkah-langkah sebagai berikut :
𝒁 = ∑𝑚
𝑗=1 𝑴𝑗 𝑮𝑗 𝒀𝑗

̃ = {𝑴∗ − (𝑴∗𝑢′ 𝑢 𝑴∗)} 𝑍
𝒁
𝑢 𝑴∗ 𝑢

3. Ortonormalisasi
Ortonormalisasi dilakukan untuk mencari 𝑴∗ , yang ortonormal terhadap X+ dan terdekat
̃ . Hal tersebut dilakukan dengan menentukan X+ melalui persamaan:
dengan 𝒁
−1/2 −1/2 ̃
𝑋 = 𝑚1/2 𝑴∗ 𝐺𝑅𝐴𝑀(𝑴∗ 𝒁)
4. Update Kategori Kuantifikasi
Setelah diperoleh nilai X+ maka langkah berikutnya adalah memperbaharui nilai kategori
kuantifikasi dengan persamaan sebagai berikut:
̃𝐽 = 𝑫𝑗−1 𝑮𝑗′ 𝑿
𝒀

̃𝑗 𝑫𝑗 𝒚
𝒂𝒋𝒑 = (𝒀 ̃𝑗 ′ 𝑫𝑗 𝒚
̃𝑗 ) / (𝒚 ̃𝑗 )
̃𝑗 𝒂𝒋𝒑 /𝒂′𝒋𝒑 𝒂𝒋𝒑
̃𝑗 = 𝒀
𝒚

𝒀𝒋 = 𝒚𝒋 𝒂𝒋𝒑

5. Uji Konvergensi
Keragaman maksimum diperoleh dengan melakukan proses iterasi untuk mencapai
kriteria konvergensi. Kriteria konvergensi ditentukan dengan selisih Total Fit atau
peubahan iterasi mendekati ε (bilangan positif yang kecil), sehingga Total Fit yang
terakhir diperoleh merupakan keragaman kumulatif yang mampu menerangkan total
keragaman.
𝑇𝐹𝐼𝑇 = 𝑝 − 𝜎𝑀 (𝑋, 𝑌)
di mana p adalah banyak dimensi yang terbentuk. Pada tahap iterasi langkah kedua
sampai keempat akan diulang sampai didapatkan nilai yang konvergen.
Jika data peubah ganda tanpa ada data hilang (missing data), Gifi (1989) menyatakan
bahwa akar ciri dapat dicari dari 𝑚−1 𝑅(𝑄). 𝑅(𝑄) adalah matriks korelasi antara skala
peubah yang optimal pada semua himpunan matriks Q, dimana 𝑄𝑗 = 𝑮𝑗 𝒀𝑗 .

Page | 11
Banyak dimensi maksimum yang mungkin terbentuk adalah sama dengan m, di mana m
adalah banyak peubah. Untuk menentukan berapa banyak dimensi yang digunakan
dalam melakukan PRINCALS, maka terlebih dahulu hatus mencari akar ciri dari
masing-masing dimensi. Misalkan banyak peubah adalah 14, maka banyak dimensi yang
maksimum yang mungkin terbentuk adalah 14. Selanjutnya, dari ke-14 dimensi tersebut,
dicari akar ciri dari masing-masing dimensi. Setelah didapatkan akar ciri dari masing-
masing dimensi, maka dapat ditentukan berapa banyak dimensi yang digunakan. Gifi
(1983) menyatakan bahwa dalam PRINCALS banyak dimensi yang akan digunakan
ditetapkan dengan kriteria akar ciri yang lebih besar dari 1/m, di mana m adalah banyak
peubah. Misalkan pada dimensi pertama sampai kelima memiliki akar ciri yang lebih
besar dari 1/m, maka banyak dimensi yang akan digunakan dalam melakukan
PRINCALS adalah 5. Banyak dimensi yang terbentuk menunjukkan banyak komponen
utama yang terbentuk. Secara umum, dengan melihat hubungan dari hasil yang
diperoleh, maka komponen utama ke-p dapat dituliskan sebagai berikut :
2 2 2
𝐾𝑈1 = (𝑎11 𝑦1 + 𝑎21 𝑦2 + ⋯ + 𝑎𝑗1 𝑦𝑗 )/(𝑎11 + 𝑎21 + ⋯ + 𝑎𝑗1 )

= (𝑎𝑗1 ′ 𝑦𝑗 )/(𝑎𝑗1 2 )′
𝑎 ′
= (𝑎 𝑗12 )′ 𝑦𝑗
𝑗1


2 2 2
𝐾𝑈𝑝 = (𝑎1𝑝 𝑦1 + 𝑎2𝑝 𝑦2 + ⋯ + 𝑎𝑗𝑝 𝑦𝑗 )/(𝑎1𝑝 + 𝑎2𝑝 + ⋯ + 𝑎𝑗𝑝 )

= (𝑎𝑗𝑝 ′ 𝑦𝑗 )/(𝑎𝑗𝑝 2 )′
𝑎 ′
= (𝑎 𝑗𝑝2 )′ 𝑦𝑗
𝑗𝑝

Page | 12
BAB III
METODE PENELITIAN

3.1. Data
Data yang digunakan penelitian ini merupakan data sekunder, dimana data
diambil dari skripsi yang berjudul “Analisis Pendapatan Usaha Tani dan Efisiensi
Pemasaran Bawang Merah (Allium ascalonicum L.) di Desa Mranggon Lawang,
Kecamatan Dringu, Kabupaten Probolinggo” (Ocvanny, 2013). Data diambil dari 35
pengamatan dengan variabel-variabel yang digunakan sebagai berikut:
Tabel 3.1.1 Variabel
X1 = Umur (Tahun) Rasio
X2 = Pendidikan (SD: 1; SMP:2; SMA:3) Ordinal
X3 = Jumlah Tanggungan keluarga (Orang) Rasio
X4 = Pengalaman Bertani (Tahun) Rasio
Menjual Kepada (Tengkulak: 1; Tengkulak Ordinal
X5 = Pengecer:2; Pengepul:3)
X6 = Luas Lahan (Ha) Rasio
X7 = Penyusutan Peralatan (Rp/Ha) Rasio
X8 = Pajak Lahan (Rp/Ha) Rasio

Tabel 3.1.1 Data


No Nama Petani X1 X2 X3 X4 X5 X6 X7 X8
1 Sunarji 30 SMP 4 16 Tengkulak 0.0175 2942900 68600

2 Supa Muhtar 48 SD 4 33 Tengkulak 0.0397 1481100 55500

3 Saren 43 SD 4 25 Tengkulak 0.0988 595200 66800

4 Sari Sampurno 59 SMP 6 40 Tengkulak 0.1073 548000 60600

5 Suryadi 58 SD 3 38 Tengkulak 0.1104 532600 69800

6 Sumiati 42 SD 4 17 Tengkulak 0.1153 510000 55500

7 B. Dulah Buna 54 SD 3 33 Tengkulak 0.1179 498800 60200

8 Niwati Firman 42 SMA 3 21 Tengkulak 0.1397 421000 66600

9 Sunandri 52 SD 6 33 Tengkulak 0.1519 387100 65900

10 Rofia Mahrusi 30 SD 5 11 Tengkulak 0.158 380400 60800

11 Sutik Sunyoto 44 SD 3 25 Tengkulak 0.1585 379200 59400

12 Wagina Sito R 50 SD 3 32 Tengkulak 0.1595 376800 66000

13 Wartini 47 SD 4 27 Tengkulak 0.1655 197000 64700

Page | 13
No Nama Petani X1 X2 X3 X4 X5 X6 X7 X8
14 Rofi'i 43 SD 4 24 Tengkulak 0.17 353500 69400

15 Bunakri 46 SD 3 28 Tengkulak 0.1717 350000 65200

16 Tolu 43 SD 4 21 Tengkulak 0.175 343400 57150

17 Narih 60 SD 3 40 Tengkulak 0.175 170900 58300

18 Elminah 35 SMP 4 10 Tengkulak 0.1785 336700 66700

19 Pami Mulyadi 52 SD 3 32 Tengkulak 0.1788 336100 70500

20 Suwardi Adi 49 SD 4 28 Tengkulak 0.1907 156800 67650


Tengkulak,
21
Abd.Rasat 50 SMP 4 26 Pengecer 0.2005 149100 99800

22 Nanik 41 SD 5 16 Tengkulak 0.2106 148150 60800

23 Buleng 43 SD 4 24 Tengkulak 0.2173 137600 60800

24 Sunik Asam 37 SD 4 18 Tengkulak 0.2192 153750 70700

25 Sahri 48 SD 4 28 Tengkulak 0.228 261850 59200

26 Misten Prayit 41 SMA 4 21 Tengkulak 0.2282 261600 60500

27 Yusup Munir 47 SD 5 29 Pengepul 0.2475 120800 65500

28 Sucip 47 SD 4 22 Tengkulak 0.33 180900 72700

29 Susman 64 SD 8 43 Tengkulak 0.33 173000 101200

30 Mila Sugi 49 SD 3 23 Tengkulak 0.3412 167650 56600

31 Sugiani 49 SD 3 29 Tengkulak 0.4472 133500 60600

32 Buni K.R 45 SD 4 29 Tengkulak 0.6467 88550 66800

33 Wagiman 44 SMA 4 23 Tengkulak 1 85700 70000

34 Sumayar 50 SD 4 31 Tengkulak 1.0928 54650 70000


Tengkulak,
35
Fadhillah 44 SD 4 27 Pengecer 1.8 62100 66700

3.2. Metode Analisis Data


Adapun metode yang digunakan untuk melakukan analisis ini yakni dengan
menggunakan PCA non linier, guna mereduksi beberapa variabel sehingga didapatkan
kelompok variabel yang sejenis dan mudah diinterpretasikan. Sebelumnya, data ini
digunakan menggunakan metode analisis deskriptif dan analisis kuantitatif seperti
mencari total biaya produksi bawang merah, dan lainnya. Aplikasi yang digunakan
dalam menganalisis data ini adalah aplikasi SPSS. Adapun langkah-langkah analisis
yakni dengan mengkategorikan data dengan bantuan selang kelas untuk data kontinyu
Page | 14
diubah menjadi data kategori, melakukan transformasi dengan menggunakan principal
component analysis dengan mentransformasikan data dengan skala nominal dan
ordinal untuk bisa mendapatkan skor komponen.
Dalam melakukan principal component analysis non linier digunakan syntak dalam
spss sebagai berikut :

PRINCALS VARIABLES = X1(5) X2(3) X3(6) X4(6) X5(3) X6(6) X7(6) X8(6)
/ANALYSIS= X1 X3 X4 X6 X7 X8 (NUME)
X2 X5 (ORDI)
/DIMENSION=8
/MAXITER=100
/CONVERGENCE=.00001
/PRINT=FREQ EIGEN LOADINGS QUANT HISTORY OBJECT
/PRINT=EIGEN LOADINGS HISTORY OBJECT
/PLOT=NONE
/SAVE=DIM(8)

Page | 15
BAB IV
HASIL DAN PEMBAHASAN

4.1 Analisis Data

Proses analisis dilakukan dengan menggunakan aplikasi SPSS. Variabel yang


dianalisis adalah sebanyak 8 variabel. Analisis data menggunakan metode principal
component analysis non linear dikarenakan data yang digunakan memiliki skala
campuran sehingga dilakukan proses transformasi terlebih dahulu untuk mendapatkan
data skor komponen objek dengan skala rasio. Proses transformasi dilakukan dengan
principal component analysis non linear.
Tabel 4.1 Hasil Pengkategorian dengan Skala Metrik
No. X1 X2 X3 X4 X5 X6 X7 X8
1 1 2 2 2 1 1 6 2

2 3 1 2 5 1 1 4 1

3 2 1 2 3 1 1 2 2

4 5 2 4 6 1 1 2 1

5 5 1 1 6 1 1 2 2

6 2 1 2 2 1 1 1 1

7 4 1 1 5 1 1 1 1

8 2 3 1 3 1 1 1 2

9 4 1 4 5 1 1 1 2

10 1 1 3 1 1 1 1 1

11 3 1 1 3 1 1 1 1

12 3 1 1 5 1 1 1 2

13 3 1 2 4 1 1 1 2

14 2 1 2 3 1 1 1 2

15 3 1 1 4 1 1 1 2

16 2 1 2 3 1 1 1 1

17 5 1 1 6 1 1 1 1

18 1 2 2 1 1 1 1 2

19 4 1 1 5 1 1 1 3

20 3 1 2 4 1 1 1 2

21 3 2 2 3 2 1 1 5

Page | 16
22 2 1 3 2 1 1 1 1

23 2 1 2 3 1 1 1 1

24 2 1 2 2 1 1 1 3

25 3 1 2 4 1 1 1 1

26 2 3 2 3 1 1 1 1

27 3 1 3 4 3 1 1 2

28 3 1 2 3 1 2 1 3

29 5 1 6 6 1 2 1 6

30 3 1 1 3 1 2 1 1

31 3 1 1 4 1 2 1 1

32 3 1 2 4 1 3 1 2

33 3 3 2 3 1 4 1 2

34 3 1 2 4 1 4 1 2

35 3 1 2 4 2 6 1 2

Hasil pengkategorian dengan skala metrik seperti pada tabel 4.1 di dasarkan
dengan urutan selang kelas untuk peubah numerik. Nilai dikategorikan dengan skala
metric karena apabila nilai mengandung nilai nol dan nilai lebih dari 1000 tidak dapat
digunakan untuk analisis. Dengan melakukan running syntak pada bab III maka
didapatkan hasil output sebagai berikut.

Dari analisis dengan studi kasus di atas dapat dilihat dari nilai eigen value
bahwa komponen yang terbentuk hanya sampai pada komponen ke lima.

Page | 17
Maksimum dimensi yang mungkin terbentuk yakni sebanyak nilai m, dimana
m merupakan banyaknya peubah atau variabel. Dalam studi kasus ini banyak peubah
yakni sebanyak 8, maka dimensi maksimum yang mungkin terbentuk sebanyak 8
dimensi. Kemudian , untuk menentukan berapa banyak dimensi yang akan digunakan
dengan menggunakan analisis PCA non linear ini harus dicari terlebih dahulu akar
dari masing-masing dimensi. Banyak dimensi yang akan digunakan menggunakan
kriteria akar ciri yang lebih besar dari 1/m atau 1/8 = 0.8. Dari hasil analisis dapat
dilihat bahwa dimensi pertama sampai dimensi ke empat memiliki akar ciri yang lebih
besar dari 0,8 maka banyak komponen utama yang terbentuk yakni sebanyak 4
komponen. Maka di bawah ini dijelaskan mengenai komponen utama yang terbentuk
seperti berikut.
(PCR1) = 0.910 X1 + 0.393 X3 + 0.863 X4 + 0.220 X6 – 0.224 X7 + 0.48 X8 –
0.328 X2 + 0.228 X5
(PCR2) = -0.299 X1 + 0.509 X3 - 0.383 X4 + 0.390 X6 – 0.091 X7 + 0.598 X8 –
0.366 X2 + 0.567 X5
(PCR3) = 0.037 X1 + 0.438 X3 - 0.112 X4 - 0.502 X6 + 0.697 X7 + 0.253 X8 –
0.282 X2 - 0.290 X5
(PCR4) = 0.177 X1 - 0.321 X3 + 0.227 X4 + 0.523 X6 + 0.318 X7 - 0.135 X8 +
0.619 X2 - 0.031 X5

Selanjutnya dari nilai loading tersebut didapatkan variabel yang bisa digunakan untuk
penelitian selanjutnya, yaitu dengan melihat nilai tertinggi dari variabel bebas dari masing –
masing PCR tanpa memperhatikan tanda negatifnya. Pada PCR1, variabel yang mempunyai

Page | 18
nilai paling besar adalah umur (X1) dan pengalaman bertani (X4) sehingga PCR1 dapat
dikatakan sebagai variabel komposit tentang jangka waktu.

Pada PCR2 variabel yang mempunyai pengaruh yang besar adalah jumlah tanggungan (X3),
pajak lahan (X8), dan menjual kepada (X5) sehingga PCR2 dapat dikatakan sebagai variabel
komposit tentang aktivitas petani.

Pada PCR3 variabel yang mempunyai pengaruh yang besar adalah penyusutan peralatan (X7)
dan luas lahan (X6) sehingga PCR3 dapat dikatakan sebagai variabel komposit tentang lahan.

Pada PCR4 variabel yang mempunyai pengaruh yang besar adalah pendidikan petani (X2)
sehingga PCR4 dapat dikatakan sebagai variabel komposit tentang pendidikan petani.

Page | 19
BAB V
KESIMPULAN

Adapun yang dapat disimpulkan dari bab sebelumnya yakni analisis komponen utama
non linier dapat digunakan pada data kategorik. Untuk studi kasus dalam makalah ini
menggunakan analisis komponen utama non linier dengan banyak peubah sebanyak 8 dan di
dapatkan banyak dimensi maksimum yang mungkin terbentuk adalah sebanyak 8 dengan
komponen yang digunakan dari hasil analisis adalah sebanyak 4 dimensi (4 variabel
komposit). Komponen utama yang terbentuk yakni untuk PCR1 adalah sebagai variabel
komposit jangka waktu, untuk PCR2 adalah sebagai variabel komposit aktivitas petani, PCR3
adalah sebagai variabel komposit lahan, dan PCR4 adalah sebagai variabel komposit
pendidikan petani.

Page | 20
DAFTAR PUSTAKA

Ocvanny, Nur. (2011). Analisis Pendapatan Usaha Tani dan Efisiensi Pemasaran Bawang
Merah (Allium Ascalonicum) di Desa Mranggon Lawang Kecamatan Dringu
Kabupaten Probolinggo. Skripsi. Universitas Brawijaya, Malang, Indonesia.

Gifi, A., (1983), PRINCALS User’s Guide, Departement of Datatheory, Faculty of Social
Sciences, University of Leiden, the Netherlands.

Gifi, A., (1989), Algorithm Descriptions for ANACOR, HOMALS, PRINCALS, and
OVERALS.

Gifi, A., (1990), Nonlinier Multivariate Analysis, John Wiley dan Sons Inc., New York.

Hair, J. F., Black, W. C., Babin, B. J., dan Anderson, R. E., (2010). Multivariate Data
Analysis, Pearson Education, Inc., Upper Saddle River, New Jersey.Johnson, R.A
dan D.W. Wichern. 1982. Applied Multivariate Statistical Analysis Second Edition.
Prentice Hall International, Inc. London.

Johnson, R.A dan D.W. Wichern. 1982. Applied Multivariate Statistical Analysis Second
Edition. Prentice Hall International, Inc. London.

Konig, R., (2002), On The Rotation of NonLinier Principal Components Analysis


(PRINCALS) Solutions: Description of a Procedure,
http://rkonig.ruhosting.nl/texts/rotation_princals/in-dex.html, diakses tanggal 5 Juni
2015.

Kroonenberg, P.M., Harch, B.D., Basford K.E., and Cruickshank, A. (2000),Combined


Analysis of Categorical and Numerical Descriptors of Australian Groundnut
Accessions Using Nonlinear Principal Component Analysis, Journal of Agricultural,
Biological, and Environmental Statistics, Vol.2, No.3, 294-312.

Razak, abdul. 2015. Cara Interpretasi Output Analisis Faktor. http://razak-berbagi-


sesama.blogspot.com/2015/01/interpretasi-hasil-contoh-analisis.html, diakses
tanggal 5 Juni 2015

Page | 21
Setyawan, Nasrul. 2013. Teori Analisis Fakor (factor analysis.
http://statistikceria.blogspot.com/2013/03/teori-analisis-faktor-factor-analysis.html,
diakses tanggal 5 Juni 2015.

Page | 22