RISET PEMASARAN
Makalah Tentang
UJI STATISTIK REGRESI LINEAR, OLS REGRESI, ANOVA, ANALISIS FAKTOR, ANALISIS KONJOIN,
ANALISIS CLUSTER, ANALISIS DISKRIMINAN, ANALISIS MDS
Oleh :
I Kadek Karya Yoga Utama
1.16.1.10893
Om Swastiastu,
Segala puji bagi Sang Hyang Widhi Wasa yang telah memberikan saya kemudahan
sehingga dapat menyelesaikan makalah ini dengan tepat waktu.
Tanpa pertolongan-Nya tentunya saya tidak akan sanggup untuk menyelesaikan makalah
ini dengan baik. Saya tentu menyadari bahwa makalah ini masih jauh dari kata sempurna
dan masih banyak terdapat kesalahan serta kekurangan di dalamnya. Untuk itu, saya
mengharapkan kritik serta saran dari pembaca untuk makalah ini, supaya makalah ini
nantinya dapat menjadi makalah yang lebih baik lagi.
Kemudian apabila terdapat banyak kesalahan pada makalah ini penulis mohon maaf yang
sebesar-besarnya.Saya juga mengucapkan terima kasih kepada semua pihak khususnya
kepada Dosen Riset Pemasaran kami yang telah membimbing dalam menulis makalah ini.
Penulis
BAB 1
PENDAHULUAN
LATAR BELAKANG
Riset Pemasaran adalah adalah kegiatan penelitian di bidang pemasaran yang dilakukan
secara sistematis mulai dari perumusan masalah, perumusan tujuan penelitian,
pengumpulan data, pengumpulan data, pengolahan data dan interpretasi hasil
penelitian. Dalam Riset Pemasaran terdapat beberapa bagian yang terdiri dari ; UJI
STATISTIK REGRESI LINEAR, OLS REGRESI, ANOVA, ANALISIS FAKTOR, ANALISIS KONJOIN,
ANALISIS CLUSTER, ANALISIS DISKRIMINAN dan ANALISIS MDS.
Maka dari itu di makalah ini saya ingin mejelaskan bagian tersebut serta mengetahui apa
fungsi dan kegunaannya bagi pemasaran.
RUMUSAN MASALAH
Berdasarkan uraian latar belakang di atas maka dapat ditentukan rumusan masalah dalam
makalah ini seperti:
Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh
antara satu atau beberapa variabel terhadap satu buah variabel. Variabel yang
mempengaruhi sering disebut variabel bebas, variabel independen atau variabel
penjelas. Variabel yang dipengaruhi sering disebut dengan variabel terikat atau
variabel dependen. Regresi linear hanya dapat digunakan pada skala interval dan
ratio.
Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana yaitu
dengan satu buah variabel bebas dan satu buah variabel terikat; dan regresi linear
berganda dengan beberapa variabel bebas dan satu buah variabel terikat. Analisis
regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam
penelitian-penelitian sosial, terutama penelitian ekonomi. Program komputer yang
paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions).
Y=a+bX
Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien a adalah
konstanta (intercept) yang merupakan titik potong antara garis regresi dengan
sumbu Y pada koordinat kartesius.
1. Koefisien determinasi
Koefisien determinasi mencerminkan seberapa besar kemampuan variabel
bebas dalam menjelaskan varians variabel terikatnya. Mempunyai nilai antara 0
– 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel
bebas dalam menjelaskan varians variabel terikatnya.
3. Persamaan Regresi
Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas
(dalam juta rupiah) dan hasil analisisnya Y = 1,2 + 0,55 X. Berarti interpretasinya:
a. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah, maka
profitabilitas meningkat sebesar 0,55 juta rupiah.
b. Jika biaya promosi bernilai nol, maka profitabilitas akan bernilai 1,2 juta
rupiah.
Interpretasi terhadap nilai intercept (dalam contoh ini 1,2 juta) harus hati-hati
dan sesuai dengan rancangan penelitian. Jika penelitian menggunakan angket
dengan skala likert antara 1 sampai 5, maka interpretasi di atas tidak boleh
dilakukan karena variabel X tidak mungkin bernilai nol.
Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear
sederhana, hanya variabel bebasnya lebih dari satu buah. Persamaan umumnya
adalah:
Y = a + b1 X1 + b2 X2 + …. + bn Xn
Interpretasi terhadap konstanta (0,235) juga harus dilakukan secara hati-hati. Jika
pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5
maka tidak boleh diinterpretasikan bahwa jika variabel motivasi, kompensasi dan
kepemimpinan bernilai nol, karena ketiga variabel tersebut tidak mungkin bernilai
nol karena Skala Likert terendah yang digunakan adalah 1.
Penggunaan metode analisis regresi linear berganda memerlukan uji asumsi klasik
yang secara statistik harus dipenuhi. Asumsi klasik yang sering digunakan adalah
asumsi normalitas, multikolinearitas, autokorelasi, heteroskedastisitas dan asumsi
linearitas.
Bentuk-bentuk regresi yang juga sering digunakan dalam penelitian adalah regresi
logistik atau regresi ordinal.
OLS REGRESI
Pengertian
OLS (Ordinary Least Square) adalah suatu metode ekonometrik dimana terdapat
variable independen yang merupakan variable penjelas dan variable dependen yaitu
variable yang dijelaskan dalam suatu persamaan linier. Dalam OLS hanya terdapat satu
variable dependen, sedangkan untuk variable independen jumlahnya bisa lebih dari
satu. Jika variable bebas yang digunakan hanya satu disebut dengan regresilinier
sederhana, sedangkan jika variable bebas yang digunakan lebih dari satu disebut
sebagai regresi linier majemuk.
OLS merupakan metode regresi yang meminimalkan jumlah kesalahan (error) kuadrat.
Model regresi linier yang dipakai dengan metode OLS tersebut, harus memenuhi
asumsi BLUE (best Liniear Unbiased Estimator) dalam melakukan pendugaan interval
dan pengujian parameter regresi populasi. Asumsi-asumsi BLUE antara lain:
1. Masalah Multikolinieritas
Multikolinearitas atau kolinearitas jamak merpakan pelanggaran asumsi OLS
dimana terdapat hubungan yang signifikan antara variable-variabel independen
dalam sebuah sistem persamaan structural. Sejumlah prosedur dapat dilakukan
sebagai indikasi dari terjadinya multikolinearitas, yaitu;
a. Nilai R-squared yang tinggi dan diikuti dengan nilai F-stat yang signifikan, namun
sebagian besar nilai dari t-stat tidak signifikan.
b. Tingkat correlation antar 2variabel bebas. Jika nilai korelasi antar variable
tersebut cukup tinggi (biasanya>0.8), maka diindikasikan terjadi masalah
multikolinearitas dalam persamaan tersebut.
c. Besarnya codition number yang berkaitan dengan variable bebas bernilai lebih
dari 20 atau 30. Nilai condition number dapat diperoleh dengan prosedur
pemisahan matriks variable-variabel bebas.
2. Masalah Heteroskedastisitas
Heteroskedastisitas adalah pelanggaran asumsi OLS yang menyebabkan parameter
yang kita duga menjadi tidak efisien skibat besaran varians selalu berubah-ubah.
Dalam mendeteksi ada atau tidaknya masalah heteroskedastisitas dapat dilakukan
dengan uji White Heteroskedasticity (no cross term) jika variable bebas berjumlah
sedikit atau White Heteroskedasticity (cross term) jika jumlah variable bebas ang
digunakan dalam model adalah banyak.
3. Masalah Autokorelasi
Salah satu asumsi dari metode OLS adalah tidak adanya korelasi serial antar error
sedangkan autokorelasi adalah terjadinya korelasi serial antara error. Pelanggaran
asumsi OLS ini akan menyebabkan parameter yang kita duga menjadi tidak efisien.
Untuk mendeteksi ada tidaknya autokorelasi pada first degree, kita dapat
menggunakan nilai Durbin-Watson (DW) dari hasil regresi. Jika nilai DW semakin
mendekati 2 maka asumsi no-autocorelation kita terima. Namun untuk melihat
tingkat autokorelasi pada degree yang lebih tinggi kita gunakan uji Breausch-
Godfrey Lagrange Multiplyer (LM).
ANOVA
Pengertian
Anova adalah sebuah analisis statistik yang menguji perbedaan rerata antar grup.
Grup disini bisa berarti kelompok atau jenis perlakuan. Anova ditemukan dan
diperkenalkan oleh seorang ahli statistik bernama Ronald Fisher.
Kegunaan ANOVA
Anova digunakan sebagai alat analisis untuk menguji hipotesis penelitian yang mana
menilai adakah perbedaan rerata antara kelompok. Hasil akhir dari analisis ANOVA
adalah nilai F test atau F hitung. Nilai F Hitung ini yang nantinya akan dibandingkan
dengan nilai pada tabel f. Jika nilai f hitung lebih dari f tabel, maka dapat disimpulkan
bahwa menerima H1 dan menolak H0 atau yang berarti ada perbedaan bermakna
rerata pada semua kelompok.
Analisis ANOVA sering digunakan pada penelitian eksperimen dimana terdapat
beberapa perlakuan. Peneliti ingin menguji, apakah ada perbedaan bermakna antar
perlakuan tersebut.
Kadang para pembaca cukup dibingungkan oleh adanya tabel ANOVA pada hasil
analisis regresi linear. Tentunya jika anda mengerti maksud sesungguhnya dari uji yang
satu ini, maka anda tidak akan bingung lagi. Anova dalam perhitungannya
membandingkan nilai mean square dan hasilnya adalah menilai apakah model prediksi
linear tidak berbeda nyata dengan nilai koefisien estimasi dan standar error.
Ciri-Ciri ANOVA
Ciri khasnya adalah adanya satu atau lebih variabel bebas sebagai faktor penyebab
dan satu atau lebih variabel response sebagai akibat atau efek dari adanya faktor.
Contoh penelitian yang dapat menggambarkan penjelasan ini: “Adakah pengaruh jenis
bahan bakar terhadap umur thorax mesin.” Dari judul tersebut jelas sekali bahwa
bahan bakar adalah faktor penyebab sedangkan umur thorax mesin adalah akibat atau
efek dari adanya perlakuan faktor. Ciri lainnya adalah variabel response berskala data
rasio atau interval (numerik atau kuantitatif).
Jenis ANOVA
Jenisnya adalah berdasarkan jumlah variabel faktor (independen variable atau variabel
bebas) dan jumlah variabel responsen (dependent variable atau variabel terikat).
Pembagiannya adalah sebagai berikut:
Univariat :
a. Univariate One Way Analysis of Variance. Apabila variabel bebas dan variabel
terikat jumlahnya satu.
b. Univariate Two Way Analysis of Variance. Apabila variabel bebas ada 2, sedangkan
variabel terikat ada satu.
c. Univariate Multi way Analysis of Variance. Apabila variabel bebas ada > 2,
sedangkan variabel terikat ada satu.
Multivariat :
a. Multivariate One Way Analysis of Variance. Apabila variabel bebas dan variabel
terikat jumlahnya lebih dari satu.
b. Multivariate Two Way Analysis of Variance. Apabila variabel bebas ada 2,
sedangkan variabel terikat jumlahnya lebih dari satu.
c. Multivariate Multi way Analysis of Variance. Apabila variabel bebas ada > 2,
sedangkan variabel terikat jumlahnya lebih dari satu.
ANALISIS FAKTOR
Pengertian
Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor
yang mampu menjelaskan hubungan atau korelasi antara berbagai indikator
independen yang diobservasi.
Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga
untuk mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk
menjelaskan sejumlah besar variabel yang saling berhubungan.
Hasil rotasi ini akan mengakibatkan setiap variabel asal mempunyai korelasi tinggi
dengan faktor tertentu saja dan dengan faktor yang lain korelasi relatif rendah
sehingga setiap faktor akan lebih mudah untuk diinterpretasikan. Untuk mengetahui
rotasi mana yang sesuai digunakan Μ2min yang dihasilkan dari analisis procrustes.
Perbedaan Analisis Komponen Utama (PCA) dan Analisis Faktor Konfirmatori (CFA)
Analisis faktor pada dasarnya dapat dibedakan secara nyata menjadi dua macam
yaitu:
Dalam analisis faktor eksploratori di mana peneliti tidak atau belum mempunyai
pengetahuan atau teori atau suatu hipotesis yang menyusun struktur faktor-
faktornya yang akan dibentuk atau yang terbentuk, sehingga dengan demikian
pada analisis faktor eksploratori merupakan teknik untuk membantu membangun
teori baru.
Analisis faktor eksploratori merupakan suatu teknik untuk mereduksi data dari
variabel asal atau variabel awal menjadi variabel baru atau faktor yang jumlahnya
lebih kecil dari pada variabel awal. Proses analisis tersebut mencoba untuk
menemukan hubungan antarvariabel baru atau faktor yang terbentuk yang saling
independen sesamanya, sehingga bisa dibuat satu atau beberapa kumpulan
variabel laten atau faktor yang lebih sedikit dari jumlah variabel awal yang bebas
atau tidak berkorelasi sesamanya. Jadi antar faktor yang terbentuk tidak
berkorelasi sesamanya.
o Analisis Faktor Konfirmatori (CFA)
Analisis faktor konfirmatori yaitu suatu teknik analisis faktor di mana secara
apriori berdasarkan teori dan konsep yang sudah diketahui dipahami atau
ditentukan sebelumnya, maka dibuat sejumlah faktor yang akan dibentuk, serta
variabel apa saja yang termasuk ke dalam masing-masing faktor yang dibentuk
dan sudah pasti tujuannya. Pembentukan faktor konfirmatori (CFA) secara sengaja
berdasarkan teori dan konsep, dalam upaya untuk mendapatkan variabel baru
atau faktor yang mewakili beberapa item atau sub-variabel, yang merupakan
variabel teramati atau observerb variable.
ANALISIS KONJOIN
Pengertian
Contjoint Analysis bisa disebut juga sebagai Consider jointly , yang dalam bahasa
Indonesia dapat diterjemahkan sebagai analisis konjoin. Analisis konjoin adalah
sebuah teknik analisis yang dapat digunakan untuk menentukan tingkat kepentingan
relatif berdasarkan persepsi pelanggan yang dibawa oleh suatu produk tertentu dan
nilai kegunaan yang muncul dari atribut-atribut produk terkait. Untuk menentukan
strategi pemasaran, analisis conjoint ini tepat dan baik. Bahkan pada tataran yang
lebih tinggi bisa dipakai untuk segmentasi pasar berdasarkan preferensi konsumen
terhadap atribut produk yang dipilihnya.
Filosofi dari teknik analisis ini ialah setiap stimulus apa saja yang bisa berupa produk,
merek atau barang yang dijual dipasar akan dievaluasi oleh konsumen sebagai suatu
kumpulan atribut-atribut tertentu. Oleh karena itu, teknik ini sangat bermanfaat
dalam pemasaran untuk mengetahui preferensi konsumen terhadap suatu produk
yang diluncurkan di pasar. Dalam model multivariat lainnya analisis konjoin dapat
digunakan untuk mengembangkan skor dari beberapa individu dan mengembangkan
model untuk tiap individu.
Menurut Green dan Krieger (1991) analisis ini dapat juga dimanfaatkan untuk :
1. Merancang harga
2. Memprediksi tingkat penjualan atau penggunaan produk (market share), uji coba
konsep produk baru.
3. Segmentasi preferensi
4. Merancang strategi promosi
Sama dengan analisis factor, analisis cluster (cluster analysis) termasuk pada
Interdependes Techniques. Namun ada perbedaan mendasar di antara kedua alat
analisis multivariate ini. Jika analisis factor (R factor analysis) bertujuan mereduksi
variabel, analisis cluster (Q factor analysis) lebih bertujuan mengelompokkan isi
variabel, walaupun bisa juga disertai dengan pengelompokan variabel. Dalam
terminology SPSS, analisis factor adalah perlakuan terhadap kolom, sedangkan analisis
cluster adalah perlakuan terhadap baris.
Tujuan
Beberapa manfaat dari analisis cluster adalah: eksplorasi data peubah ganda, reduksi
data, stratifikasi sampling, prediksi keadaan obyek. Hasil dari analisis cluster
dipengaruhi oleh: obyek yang diclusterkan, peubah yang diamati, ukuran kemiripan
(jarak) yang dipakai, skala ukuran yang dipakai, serta metode pengclusteran yang
digunakan.
Tahap 1
Mengukur kesamaan antar objek (similarity). Sesuai prinsip analisis cluster yang
mengelompokkan objek yang mempunyai kemiripan, proses pertama adalah
mengukur seberapa jauh ada kesamaan antar objek. Metode yang digunakan:
1. Mengukur korelasi antar sepasang objek pada beberapa variabel
2. Mengukur jarak (distance) antara dua objek. Pengukuran ada bermacam-
macam, yang paling popular adalah metode Euclidian distance.
Tahap 2
Membuat cluster. Metode dalam membuat cluster ada banyak sekali, seperti yang
digambarkan dalam diagram di bawah ini:
Melakukan validasi dan profiling cluster. Cluster yang terbentuk kemudian diuji
apakah hasil tersebut valid. Kemudian dilakukan proses profiling untuk menjelaskan
karakteristik setiap cluster berdasarkan profil tertentu (seperti usia konsumen pembeli
rumah, tingkat penghasilannya dan sebagainya). Analisis cluster agak bersifat subjektif
dalam penentuan penyelesaian cluster yang optimal, sehingga peneliti seharusnya
memberikan perhatian yang besar mengenai validasi dan jaminan tingkat signifikansi
pada penyelesaian akhir dari cluster. Meskipun tidak ada metode untuk menjamin
validitas dan tingkat signifikansi , beberapa pendekatan telah dikemukakan untuk
memberikan dasar bagi perkiraan peneliti.
Untuk melakukan proses analisis cluster ini, ada asumsi yang harus terpenuhi, yaitu:
Sampel yang diambil benar-benar dapat mewakili populasi yang ada
(representativeness of the sample) dan Multikolinieritas. Sedangkan asumsi lainnya
yang biasanya dilakukan pada analisis multivariat tidak perlu dilakukan, seperti: Uji
Normalitas, Uji Linearitas dan Uji Heteroskedastisitas.
ANALISIS DISKRIMINAN
Pengertian
Analisis diskriminan adalah salah satu teknik statistik yang bisa digunakan pada
hubungan dependensi (hubungan antar variabel dimana sudah bisa dibedakan mana
variabel respon dan mana variabel penjelas).
Analisis diskriminan bermanfaat pada situasi di mana sampel total dapat dibagi
menjadi group-group berdasarkan karateristik variabel yang diketahui dari beberapa
kasus. Tujuan utama dari analisis multipel diskriminan adalah untuk mengetahui
perbedaan antar group,”(Hair, Anderson, Tatham, Black, 1995).
Tujuan
Persamaan Diskriminan
Jika kita bandingkan dengan regresi linier, maka analisis ini merupakan kebalikannya.
Pada regresi linier, variabel respon yang harus mengikuti distribusi normal dan
homoskedastis, sedangkan variabel penjelas diasumsikan fixed, artinya variabel
penjelas tidak disyaratkan mengikuti sebaran tertentu. Untuk analisis diskriminan,
variabel penjelasnya seperti sudah disebutkan di atas harus mengikuti distribusi
normal dan homoskedastis, sedangkan variabel responnya fixed.
Multi Dimensional Scaling (MDS) adalah untuk memberikan gambaran visual dari pola
kedekatan yang berupa kesamaan atau jarak diantara sekumpulan objek-objek.
Penerapan MDS dapat dijumpai pada visualisasi ilmiah dan data mining dalam ilmu
kognitif, informasi, pemasaran maupun ekologi.
MDS sangat popular dalam penelitian bidang pemasaran untuk perbandingan brand,
dan pada psikologi ia digunakan untuk mempelajari dimensi ciri-ciri pribadi.
Penggunaan lain MDS adalah pada aplikasi yang menggunakan ranking, rating,
pembedaan persepsi, atau dalam pengambilan suara (voting).
Dari survey yang dilakukan terhadap konsumen susu dari beberapa merk, maka dapat
diketahui beberapa atribut susu, antara lain: (a) rasa, (b) kekentalan, (c) kandungan
gizi, (d) warna, (e) kemasan, (f) kelengkapan informasi pada kemasan, (g) manfaat
yang dirasakan, dan (h) kemudahan memperoleh produk.
BAB 3
PENUTUP
Kesimpulan
Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara
satu atau beberapa variabel terhadap satu buah variabel. Variabel yang mempengaruhi
sering disebut variabel bebas, variabel independen atau variabel penjelas. Variabel yang
dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. Regresi linear
hanya dapat digunakan pada skala interval dan ratio.
OLS (Ordinary Least Square) adalah suatu metode ekonometrik dimana terdapat variable
independen yang merupakan variable penjelas dan variable dependen yaitu variable yang
dijelaskan dalam suatu persamaan linier. Dalam OLS hanya terdapat satu variable
dependen, sedangkan untuk variable independen jumlahnya bisa lebih dari satu. Jika
variable bebas yang digunakan hanya satu disebut dengan regresilinier sederhana,
sedangkan jika variable bebas yang digunakan lebih dari satu disebut sebagai regresi
linier majemuk.
Anova adalah sebuah analisis statistik yang menguji perbedaan rerata antar grup. Grup
disini bisa berarti kelompok atau jenis perlakuan. Anova ditemukan dan diperkenalkan
oleh seorang ahli statistik bernama Ronald Fisher.
Anova merupakan singkatan dari Analysis of variance. Merupakan prosedur uji statistik
yang mirip dengan t test. Namun kelebihan dari Anova adalah dapat menguji perbedaan
lebih dari dua kelompok. Berbeda dengan independent sample t test yang hanya bisa
menguji perbedaan rerata dari dua kelompok saja.
Analisis faktor adalah sebuah teknik yang digunakan untuk mencari faktor-faktor yang
mampu menjelaskan hubungan atau korelasi antara berbagai indikator independen yang
diobservasi.
Analisis faktor merupakan perluasan dari analisis komponen utama. Digunakan juga
untuk mengidentifikasi sejumlah faktor yang relatif kecil yang dapat digunakan untuk
menjelaskan sejumlah besar variabel yang saling berhubungan.
Contjoint Analysis bisa disebut juga sebagai Consider jointly , yang dalam bahasa
Indonesia dapat diterjemahkan sebagai analisis konjoin. Analisis konjoin adalah sebuah
teknik analisis yang dapat digunakan untuk menentukan tingkat kepentingan relatif
berdasarkan persepsi pelanggan yang dibawa oleh suatu produk tertentu dan nilai
kegunaan yang muncul dari atribut-atribut produk terkait. Untuk menentukan strategi
pemasaran, analisis conjoint ini tepat dan baik. Bahkan pada tataran yang lebih tinggi
bisa dipakai untuk segmentasi pasar berdasarkan preferensi konsumen terhadap atribut
produk yang dipilihnya.
Sama dengan analisis factor, analisis cluster (cluster analysis) termasuk pada
Interdependes Techniques. Namun ada perbedaan mendasar di antara kedua alat analisis
multivariate ini. Jika analisis factor (R factor analysis) bertujuan mereduksi variabel,
analisis cluster (Q factor analysis) lebih bertujuan mengelompokkan isi variabel,
walaupun bisa juga disertai dengan pengelompokan variabel. Dalam terminology SPSS,
analisis factor adalah perlakuan terhadap kolom, sedangkan analisis cluster adalah
perlakuan terhadap baris.
Analisis diskriminan adalah salah satu teknik statistik yang bisa digunakan pada hubungan
dependensi (hubungan antar variabel dimana sudah bisa dibedakan mana variabel
respon dan mana variabel penjelas).
Analisis diskriminan bermanfaat pada situasi di mana sampel total dapat dibagi menjadi
group-group berdasarkan karateristik variabel yang diketahui dari beberapa kasus.
Tujuan utama dari analisis multipel diskriminan adalah untuk mengetahui perbedaan
antar group,”(Hair, Anderson, Tatham, Black, 1995).
Multi Dimensional Scaling (MDS) adalah untuk memberikan gambaran visual dari pola
kedekatan yang berupa kesamaan atau jarak diantara sekumpulan objek-objek.
Penerapan MDS dapat dijumpai pada visualisasi ilmiah dan data mining dalam ilmu
kognitif, informasi, pemasaran maupun ekologi.
Daftar Pustaka