Anda di halaman 1dari 30

Analisis Diskriminan

Jelly Lekatompessy (201972008)


Irma Febriyanti Salmin (201972015)
Analisis Regresi Berganda
Tinjauan Bab
Bab ini menjelaskan analisis regresi berganda yang digunakan untuk
memecahkan masalah penelitian yang penting, khususnya dalam bisnis. Analisis
regresi sejauh ini merupakan teknik ketergantungan yang paling banyak
digunakan dan serbaguna, yang dapat diterapkan dalam setiap fakta pengambilan
keputusan bisnis.

 Apa itu analisis regresi berganda?


Analisis regresi berganda merupakan teknik statistik yang dapat digunakan untuk
menganalisis hubungan antara satu variabel terikat dengan beberapa variabel bebas.
 Contoh regresi sederhana dan berganda
Tujuan dari analisis regresi adalah untuk memprediksi variabel dependen tunggal dari
pengetahuan tentang satu atau lebih variabel independen. Ketika masalah
melibatkan satu variabel independen, teknik statistiknya disebut regresi sederhana.
Ketika masalah melibatkan dua atau lebih variabel independen, itu adalah regresi
berganda.
 Prediksi menggunakan analisis independen tunggal adalah variabel
independen :regresi sederhana
Sebagai peneliti, titik awal dalam setiap analisis regresi adalah mengidentifikasi
variabel independen tunggal yang mencapai prediksi terbaik dari ukuran dependen.
Menafsirkan model regresi sederhana dengan koefisien intersep dan regresi yang
diperkirakan dengan prosedur kuadrat terkecil, perhatian sekarang beralih ke interpretasi
dua nilai ini:
a.koefisien regresi
b.intersep
c.dalam istilah sederhana, intersep memiliki nilai interpretatif hanya jika nol adalah nilai
yang valid secara konseptual untuk variabel independen . d.Jika nilai independen mewakili
ukuran yang tidak pernah dapat memiliki nilai sebenarnya dari nol, intersep membantu
dalam meningkatkan proses prediksi, tetapi tidak memiliki nilai penjelas.

 Menilai akurasi prediksi


Ukuran akurasi prediksi yang paling umum digunakan untuk model regresi adalah koefisien
determinasi. Ukuran akurasi prediksi lainnya adalah variasi yang diharapkan dalam nilai
prediksi, yang disebut kesalahan standar estimasi.
 Prediksi menggunakan beberapa variabel bebas : regresi berganda
Kami sebelumnya menunjukkan bagaimana regresi sederhana dapat membantu meningkatkan
prediksi kami dari variabel dependen. Hasil ini menimbulkan pertanyaan apakah kami dapat
meningkatkan prediksi kami lebih jauh dengan menggunakan variabel independen tambahan.
 Dampak Multikolinearitas
Kemampuan suatu variabel independen tambahan untuk meningkatkan variabel dependen tidak
hanya berhubungan dengan korelasinya dengan variabel dependen , tetapi juga dengan korelasi
variabel independen tambahan dengan variabel independen yang sudah ada dalam persamaan
regresi .
Persamaan regresi berganda seperti disebutkan sebelumnya, regresi berganda adalah
penggunaan dua atau lebih variabel independen dalam prediksi variabel dependen.
Menambahkan variabel independen ketiga, kita telah melihat peningkatan akurasi prediksi
yang diperoleh dalam perpindahan dari persamaan regresi sederhana ke berganda, tetapi
kita juga harus mencatat bahwa pada titik tertentu penambahan variabel independen akan
menjadi kurang menguntungkan dan bahkan dalam beberapa hal kontraproduktif. Analisis
regresi ringkasan adalah teknik ketergantungan sederhana dan lurus ke depan yang dapat
memberikan prediksi dan penjelasan kepada para peneliti.

Proses pengambilan keputusan untuk analisis regresi berganda


Pada bagian sebelumnya kami membahas contoh regresi sederhana dan regresi berganda.
Dalam diskusi tersebut, banyak faktor yang memengaruhi kemampuan kami untuk
menemukan model regresi terbaik. Sampai saat ini, kami memeriksa masalah ini hanya dalam
istilah sederhana, dengan sedikit memperhatikan bagaimana mereka menggabungkan dalam
pendekatan keseluruhan untuk beberapa analisis.
Tahap 1: tujuan regresi berganda
Dalam memilih aplikasi regresi berganda yang sesuai, para peneliti harus mempertimbangkan tiga
isu utama:
1. Kesesuaian masalah penelitian
2. Spesifikasi hubungan statistik
3. Pemilihan variabel dependen dan independen .
Tahap 2: peneliti merancang analisis regresi berganda
Dalam melakukannya, para peneliti menggabungkan tiga fitur:
1.Ukuran sampel
2.Unsur elemen sifat hubungan ketergantungan variabel independen.
3. Sifat variabel bebas

Tahap 3: asumsi dalam analisis regresi berganda


Asumsi yang akan diuji ada dalam empat bidang :
1. Linieritas fenomena yang diukur
2. Varians konstan dari istilah kesalahan
3. Independensi istilah kesalahan
4. Normalitas dari distribusi istilah kesalahan

Tahap 4: memperkirakan model regresi dan menilai kecocokan model secara


keseluruhan
Pada tahap ini, peneliti harus menyelesaikan tiga tugas dasar:
1. Pilih metode untuk menentukan model regresi yang akan diestimasi
2. Menilai signifikansi statistik dari model keseluruhan dalam memprediksi variabel
dependen.
3. Tentukan apakah salah satu pengamatan memberikan pengaruh yang tidak semestinya
pada hasil.
Menetapkan Interval Keyakinan. Untuk membuat penilaian ini, interval
kepercayaan harus ditetapkan di sekitar koefisien yang diestimasi. Jika selang
kepercayaan tidak memasukkan nilai nol, maka dapat dikatakan bahwa
perbedaan koefisien dari nol signifikan secara statistik. Untuk membuat
penilaian ini, peneliti mengandalkan tiga konsep:
1. Menetapkan tingkat signifikansi menunjukkan peluang yang bersedia diambil
peneliti untuk salah tentang apakah koefisien yang diestimasi berbeda dari
nol. Nilai yang biasanya digunakan adalah 0,05. Karena peneliti menginginkan
peluang kesalahan yang lebih kecil dan menetapkan tingkat signifikansi yang
lebih kecil, uji statistik menjadi lebih menuntut.
2. Kesalahan pengambilan sampel adalah penyebab variasi dalam koefisien
regresi yang diperkirakan untuk setiap sampel yang diambil dari suatu
populasi. Dengan bertambahnya ukuran sampel, sampel menjadi lebih mewakili
populasi, dan variasi koefisien yang diperkirakan untuk sampel besar ini
menjadi lebih kecil. Kemudian kebutuhan untuk pengujian signifikansi
dihilangkan karena sampel sama dengan, dan dengan demikian mewakili
populasi secara sempurna.
3. Kesalahan standar adalah variasi yang diharapkan dari koefisien yang
diestimasi (baik konstanta maupun koefisien regresi) karena kesalahan
pengambilan sampel. Kesalahan standar bertindak seperti standar deviasi
variabel dengan mewakili disperse yang diharapkan dari koefisien yang
Dengan tingkat signifikansi yang dipilih dan kesalahan standar yang dihitung,
kita dapat menetapkan interval kepercayaan untuk koefisien regresi berdasarkan
kesalahan standar seperti yang kita dapat untuk rata-rata berdasarkan standar
deviasi. Dengan interval kepercayaan di tangan, peneliti sekarang harus
mengajukan tiga pertanyaan tentang signifikansi statistic dari setiap koefisien
regresi:
1. Apakah signifikansi statistic ditetapkan?peneliti menetapkan tingkat
signifikansi dari mana interval kepercayaan diturunkan (misalnya, tingkat
signifikansi 5% untuk sampel besar menetapkan interval kepercayaan pada 1,96
kesalahan standar). Sebuah koefisien dianggap signifikan secara statistic jika
selang kepercayaan tidak termasuk nol.
2.Sampel yang lebih besar tidak menjamin bahwa koefisien tidak akan sama
dengan nol, tetapi membuat pengujian lebih presisi.
3.Seperti yang kita lihat dalam menilai nilai R2 untuk signifikansi statistik,
hanya karena koefisien signifikan secara statistik tidak menjamin bahwa itu juga
signifikan secara praktis.
Mengidentifikasi pengamatan yang berpengaruh
Pengamatan ini tidak selalu "buruk" dalam arti bahwa mereka harus dihapus. Namun, kita harus
terlebih dahulu mengidentifikasi mereka dan menilai dampaknya sebelum melanjutkan. Jenis-jenis
observasi yang berpengaruh. Tiga tipe dasar didasarkan pada sifat dampaknya terhadap hasil regresi:
1. Outliers. Adalah pengamatan yang memiliki nilai residual yang besar dan hanya dapat diidentifikasi
dengan memperhatikan model regresi tertentu.
2. Leverage points. Adalah pengamatan yang berbeda dari pengamatan lainnya berdasarkan nilai
variabel independennya.
3. Pengamatan berpengaruh adalah kategori terluas, termasuk semua pengamatan yang memiliki efek
yang tidak proporsional pada hasil regresi.

Mengidentifikasi observasi yang berpengaruh


8 gambar mengilustrasikan beberapa bentuk umum dari pengamatan yang berpengaruh dan pola
residualnya yang sesuai:
1. Memperkuat: Pada Gambar 8a, titik yang berpengaruh adalah titik yang "baik", memperkuat pola
umum data dan menurunkan kesalahan standar dari prediksi dan koefisien.
2. Bertantangan: Titik-titik berpengaruh dapat memberikan efek yang berlawanan dengan pola umum
dari data yang tersisa tetapi masih memiliki sisa yang kecil. Mereka juga tidak akan diidentifikasi jika
hanya residu besar yang dipertimbangkan, karena nilai residunya akan kecil.
3. Beberapa poin berpengaruh juga dapat bekerja menuju hasil yang sama. Pada Gambar 8f, orang-
orang berpengaruh memiliki posisi yang sangat berbeda tetapi efek yang sama pada hasil.
4. Pengamatan yang berpengaruh dapat mempengaruhi semua hasil dengan cara yang sama. Dengan
demikian, hubungan antara semua pengamatan tetap tidak berubah kecuali untuk pergeseran dalam
model regresi.
Perbaikan untuk pengaruh
Influential, out liers, dan leverage points didasarkan pada salah satu dari empat
kondisi, yang masing-masing memiliki tindakan korektif yang spesifik:
1. An error in observations or data entry: perbaiki dengan mengoreksi data atau
menghapus kasus.
2. A valid but exceptional observation that is explainable by an extraordinary
situation: perbaikan dengan penghapus kasus kecuali variabel yang
mencerminkan situasi lua biasa dimasukkan dalam persamaan regresi.
3. An exceptional observation with no likely explanation:menyajikan masalah
khusus karena tidak memiliki alas an untuk menghapus kasus, tetapi
penyertaannya juga tidak dapat dibenarkan, menyarankan analisis dan tanpa
pengamatan untuk membuat penilaian yang lengkap.
4. An ordinary observation in its individual characteristics but exceptional in its
combination of characteristics: menunjukan modifikasi pada dasar konseptual
model regresi dan harus dipertahankan.
Stage 5: menafsirkan variat regresi

Menggunakan koefisien regresi


Tanda koefisien menunjukkan apakah hubungan tersebut positif atau negatif, dan nilai koefisien
menunjukkan perubahan nilai terikat setiap kali variabel bebas berubah satu satuan. Sebagai contoh,
pada model regresi sederhana penggunaan kartu kredit dengan ukuran keluarga sebagai satu-satunya
variabel bebas, koefisien untuk ukuran keluarga adalah .
Perkiraan. Pertama, dalam prosedur estimasi kuadrat terkecil biasa yang digunakan untuk
menurunkan varian regresi, prediksi variabel dependen dibuat untuk setiap pengamatan dalam
kumpulan data. Prosedur estimasi menetapkan bobot dari variate regresi untuk meminimalkan residual
.
Setelah memvalidasi model, manajer penjualan memasukkan nilai ekspektasi bulan mendatang untuk
variabel independen dan menghitung nilai penjualan yang diharapkan.
Asumsikan bahwa kita menggunakan persamaan regresi berikut yang dikembangkan untuk
mempertimbangkan jumlah kartu kredit (Y) yang dimiliki oleh sebuah keluarga:
Y = .286 + .635V1 + .200V2 + .272V3 
Sekarang, misalkan kita memiliki keluarga dengan karaktaristik berikut: unukuran keluarga (V1) dari
2 anak laki-laki, pendapatan keluarga (V2) dari 22, dan jumlah mobil (V3) menjadi 3. Berapa jumlah
yang diharapkan? Kartu kredit untuk keluarga ini?
Y = .286 + .635(2) + .200(22) + .272(3) 
= .286 + 1.270 + 4.40 + .819 
= 6.775
Persamaan regresi kami kan memprediksi bahwa keluarga ini akan memiliki 6,775 kartu kredit.
Interpretasi dengan Koefisien Regresi. Jadi, untuk tujuan penjelasan, koefisien regresi
menjadi indikator dampak relatif dan pentingnya variabel bebas dalam hubungannya
dengan variabel terikat. Sayangnya, dalam banyak kasus, koefisien regresi tidak memberi
kita informasi ini secara langsung, masalah utamanya adalah «semua hal lain
sama.» Seperti yang akan kita lihat, skala variabel independen juga ikut bermain.
Persamaan regresi berikut dihitung menggunakan prosedur kuadrat terkecil:

Y = 30 + 4INC1 + .004INC2 

Dimana:
INC1 = penghasilan tahunan suami (in $1,000s) 
INC2 = penghasilan tahunan istri (in dollars) 

Jika kita mengetahui bahwa INC1 dan INC2 adalah pendapatan tahunan kedua pasangan,
maka kita mungkin akan menyimpulkan bahwa pendapatan suami jauh lebih penting
daripada pendapatan istri. Jika kita memprediksikan dolar restoran yang hanya untuk
pendapatan istri, itu akan menjadi $160 , yang akan sama persis dengan pendapatan
suami sebesar $40.000 . Dengan demikian, pendapatan masing-masing pasangan sama
pentingnya, tetapi interpretasi ini mungkin tidak akan terjadi hanya melalui pemeriksaan
koefisien regresi. Untuk menggunakan koefisien regresi untuk tujuan penjelasan, pertama-
tama kita harus memastikan bahwa semua variabel independen berada pada skala yang
sebanding.
Menilai Multikolinearitas
Isu kunci dalam menafsirkan variat regresi adalah korelasi antara variabel independen. Namun dalam kebanyakan
situasi, khususnya situasi yang melibatkan data respon konsumen, beberapa derajat multikolinearitas tidak dapat
dihindari. Pada beberapa kesempatan lain, seperti menggunakan variabel dummy untuk mewakili variabel nonmetrik
atau istilah polinomial untuk efek nonlinier, peneliti menciptakan situasi multikolinearitas tinggi. Tugas peneliti meliputi
hal-hal berikut:
a. Kaji derajat multikolinearitas.
b. Tentukan dampaknya terhadap hasil
c. Terapkan pengobatan yang diperlukan jika diperlukan

MENGIDENTIFIKASI MULTIKOLINIERITAS Cara paling sederhana dan paling jelas untuk mengidentifikasi
kolinearitas adalah pemeriksaan matriks korelasi untuk variabel independen. Collinearity mungkin karena efek
gabungan dari dua atau lebih variabel independen lainnya.
Untuk menilai multikolinearitas, kita memerlukan ukuran yang menyatakan sejauh mana setiap variabel bebas dijelaskan
oleh himpunan variabel bebas lainnya. Dua ukuran paling umum untuk menilai kolinearitas variabel berpasangan dan
ganda adalah toleransi dan kebalikannya, faktor inflasi varians. Jadi, untuk setiap model regresi dengan dua atau lebih
variabel independen, toleransi dapa secara sederhana diidentifikasikan dalam dua langkah:
Ambil setiap variabel independen, satu per satu, dan hitung R2 – jumlah variabell independen yang dijelaskan oleh
semua variabel independen lainnya dalam model regresi. Dalam proses ini, variabel bebas yang terpilih dijadikan
variabel terikat yang diprediksi oleh semua variabel bebas lainnya yang tersisa.
Toleransi kemudian dihitung sebagai 1-R2. Misalnya, jika variabel bebas lainnya menjelaskan 25% variabel bebas X1
(R2 = 0,25), maka nilai toleransi X1 adalah 75 (1,0 – 0,25 = 0,75)
Ukuran kedua dari multikolinearitas adalah faktor inflasi varians , yang dihitung secara sederhana sebagai kebalikan
dari nilai toleransi. Dalam contoh sebelumnya dengan toleransi . Mari kita periksa beberapa contoh untuk
menggambarkan keterkaitan toleransi, VIF, dan dampaknya terhadap kesalahan standar.
Misalnya, jika VIF sama dengan 1,0 (artinya toleransi sama dengan 1,0 dan dengan demikian tidak ada
multikolinieritas), maka kesalahan standard an tidak terpengaruh. Namun, asumsikan bahwa 1VIF = 1,0 toleransi
sebesar 0,5 (artinya terdapat multikoliearitas yang cukup tinggi, karena 75% variansi variabel dijelaskan oleh variabel
bebas lainnya). Dalam hal ii VIF adalah 4.0 (1,0 : 0,25 = 4) dan standard error menjadi dua kali lipat karena
multikolinearitas.
A. Pertama, kasus ekstrim multikolinearitas di mana dua atau lebih variabel berkorelasi sempurna,
disebut singularitas, mencegah estimasi koefisien apa pun. Kesalahan umum adalah memasukkan
semua variabel dummy yang digunakan untuk mewakili variabel nonmetrik, daripada menghilangkan
satu sebagai kategori referensi. Untuk alasan apapun, bagaimanapun, singularitas harus dihilangkan
sebelum estimasi koefisien dapat dilanjutkan.
B. Ketika multikolinearitas meningkat, kemampuan untuk menunjukkan bahwa estimasi koefisien
regresi berbeda secara signifikan dari nol dapat menjadi sangat terpengaruh karena peningkatan
kesalahan standar seperti yang ditunjukkan pada nilai VIF. Masalah ini menjadi sangat bermasalah
pada ukuran sampel yang lebih kecil, di mana kesalahan standar umumnya lebih besar karena
kesalahan pengambilan sampel.
C. Selain mempengaruhi uji statistik dari koefisien atau model keseluruhan, derajat multikolinearitas
yang tinggi juga dapat mengakibatkan koefisien regresi diestimasi secara tidak benar dan bahkan
memiliki tanda yang salah. Dua contoh menggambarkan hal ini
Contoh pertama kami (lihat tabel 6) mengilustrasikan situasi tanda pembalikan karena korelasi negatif
yang tinggi antara dua variabel. Persamaan regresi berganda, bagaimanapun, tidak mempertahankan
hubungan dari regresi sederhana. Tanda koefisien regresi V1 salah dalam pengertian intuitif, tetapi
korelasi negatif yang kuat antara V1 dan V2 menghasilkan pembalikan tanda untuk V1.
PERBAIKAN UNTUK MULTIKOLINIERITASSetelah derajat kolinearitas
telah ditentukan, peneliti memiliki sejumlah pilihan:
a. Hilangkan satu atau lebih variabel independen yang berkorelasi tinggi dan
identifikasi variabel independen lainnya untuk membantu prediksi. Namun,
peneliti harus berhati-hati saat mengikuti opsi ini, untuk menghindari kesalahan
spesifikasi saat menghapus satu atau lebih variabel independen.
b. Gunakan model dengan variabel independen yang berkorelasi tinggi hanya
untuk prediksi (yaitu, jangan mencoba menafsirkan koefisien regresi), sambil
mengakui tingkat kemampuan prediksi keseluruhan yang lebih rendah.
c. Gunakan korelasi sederhana antara masing-masing variabel independen dan
variabel dependen untuk memahami hubungan variabel independen-dependen.
d. Gunakan metode analisis yang lebih canggih seperti regresi Bayesian (atau
kasus khusus—regresi ridge) atau regresi pada komponen utama untuk
mendapatkan model yang lebih jelas mencerminkan efek sederhana dari
variabel independen. Prosedur ini dibahas secara lebih rinci dalam beberapa
teks
STAGE 6 VALIDASI HASIL

Sampel Tambahan atau Terpisah Pendekatan validasi empiris yang paling tepat adalah dengan
menguji model regresi pada sampel baru yang diambil dari populasi umum. Dalam kedua kasus,
peneliti menentukan validitas model asli dengan membandingkannya dengan model regresi yang
diestimasi dengan sampel baru. Sering kali kemampuan untuk mengumpulkan data baru dibatasi atau
dihalangi oleh faktor-faktor seperti biaya, tekanan waktu, atau ketersediaan responden. Semua paket
statistik populer menyertakan opsi khusus untuk memungkinkan estimasi dan validasi pada subsampel
terpisah.

Menghitung Statistik PRESS Sebuah pendekatan alternatif Prosedur menghilangkan satu observasi
dalam estimasi model regresi dan kemudian memprediksi observasi yang dihilangkan dengan model
estimasi. Dengan demikian, pengamatan tidak dapat mempengaruhi koefisien model yang digunakan
untuk menghitung nilai prediksinya. Prosedur diterapkan lagi, menghilangkan pengamatan lain,
memperkirakan model baru, dan membuat prediksi. 

Membandingkan Model Regresi Saat membandingkan model regresi, standar yang paling umum
digunakan adalah kecocokan prediktif keseluruhan. Jadi, dengan memasukkan semua variabel bebas,
kita tidak akan pernah menemukan model lain dengan R2 yang lebih tinggi, tetapi kita mungkin
menemukan bahwa jumlah variabel bebas yang lebih sedikit menghasilkan nilai yang hampir sama. R2
yang disesuaikan juga berguna dalam membandingkan model antara kumpulan data yang berbeda,
karena akan mengimbangi ukuran sampel yang berbeda.

Peramalan Dengan Model Saat menerapkan model ke sampel baru, kita harus ingat bahwa prediksi
sekarang tidak hanya memiliki variasi pengambilan sampel dari sampel asli, tetapi juga sampel yang
baru diambil. Dengan demikian, kita harus selalu menghitung interval kepercayaan dari prediksi kita
di samping estimasi titik untuk melihat rentang nilai variabel dependen yang diharapkan. Akhirnya,
kita tidak boleh menggunakan model untuk memperkirakan di luar jangkauan variabel independen
yang ditemukan dalam sampel. Seseorang tidak dapat berasumsi bahwa hubungannya adalah sama
untuk nilai-nilai variabel independen yang secara substansial lebih besar atau lebih kecil daripada
Ilustrasi Analisis Regresi Pertimbangkan pengaturan penelitian di mana HBAT
telah memperoleh sejumlah ukuran dalam survei pelanggan. Manajemen HBAT
telah lama tertarik untuk memprediksi tingkat kepuasan pelanggannya secara
lebih akurat. Untuk tujuan ini, para peneliti di HBAT mengusulkan bahwa
analisis regresi berganda harus dicoba untuk memprediksi kepuasan pelanggan
berdasarkan persepsi mereka tentang kinerja HBAT. Untuk menerapkan
prosedur regresi, peneliti memilih kepuasan pelanggan sebagai variabel
dependen yang diprediksi oleh variabel independen yang mewakili persepsi
kinerja HBAT.

Berikut 12 variabel yang dimasukkan sebagai variabel independen:


X6 Kualitas Produk X13 Harga Kompetitif
X7 Garansi & Klaim X14 E-Commerce
X8 Dukungan Teknis X15 Produk Baru
X9 Resolusi Keluhan X16 Pemesanan & Penagihan
X10 Fleksibilitas Harga X17 Periklanan
X11 Lini Produk X18Kecepatan Pengiriman
X12 Gambar Tenaga Penjualan
Pada langkah pertama, korelasi bivariat tertinggi akan dipilih. Tabel 7 menampilkan
semua korelasi antara 13 variabel independen dan korelasinya dengan variabel
dependen. Pemeriksaan matriks korelasi menunjukkan bahwa penyelesaian pengaduan
memiliki korelasi bivariat tertinggi dengan variabel terikat. Langkah pertama adalah
membangun persamaan regresi hanya dengan menggunakan variabel independen tunggal
ini.
Koefisien Regresi (b dan Beta) 603 adalah nilai yang dihitung dari data standar. Dengan hanya satu
variabel independen, koefisien beta kuadrat sama dengan koefisien determinasi. Nilai beta
memungkinkan Anda untuk membandingkan pengaruh X9 pada Y dengan pengaruh variabel
independen lainnya pada Y pada setiap tahap, karena nilai ini mengurangi koefisien regresi ke unit
yang sebanding, jumlah standar deviasi.
Kesalahan Standar dari Koefisien Standar eror dari koefisien regresi adalah perkiraan seberapa
besar koefisien regresi akan bervariasi antara sampel dengan ukuran yang sama yang diambil dari
populasi yang sama. Jika seseorang mengambil beberapa sampel dengan ukuran sampel yang sama
dari populasi yang sama dan menggunakannya untuk menghitung persamaan regresi, kesalahan
standar adalah perkiraan seberapa besar koefisien regresi akan bervariasi dari sampel ke
sampel. Kesalahan standar b9 adalah 0,079, yang menunjukkan bahwa interval kepercayaan 95%
untuk b9 adalah 0,595; , atau mulai dari terendah 0,44 hingga tertinggi 0,75.
Nilai Variabel dalam Persamaan Nilai t variabel dalam persamaan, seperti yang baru saja dihitung,
mengukur signifikansi korelasi parsial variabel yang tercermin dalam koefisien regresi. Nilai t juga
sangat berguna dalam prosedur bertahap dalam membantu menentukan apakah ada variabel yang
harus dikeluarkan dari persamaan setelah variabel bebas lainnya ditambahkan. Tingkat signifikansi
yang dihitung dibandingkan dengan tingkat ambang batas yang ditetapkan oleh peneliti untuk
menjatuhkan variabel. Jika jatuh di luar ambang batas, itu dihilangkan dari persamaan regresi, dan
model diestimasi lagi.
Korelasi Ukuran ini digunakan untuk menilai variabel mana yang selanjutnya ditambahkan dalam
metode pencarian berurutan. Akhirnya, korelasi bagian menunjukkan efek unik yang disebabkan oleh
setiap variabel independen. Untuk langkah pertama dalam solusi bertahap, ketiga korelasi identik
karena tidak ada variabel lain dalam persamaan.
Statistik Collinearity Kedua ukuran collinearity diberikan untuk memberikan perspektif tentang
dampak collinearity pada variabel independen dalam persamaan regresi. Dengan demikian, ini
mewakili varians unik yang tersisa untuk setiap variabel. Dalam kasus variabel tunggal dalam model
regresi, toleransinya adalah 1,00, yang menunjukkan bahwa variabel tersebut sama sekali tidak
terpengaruh oleh variabel independen lainnya .
Lebih lanjut menunjukkan bahwa variabel X9 dan X6 relatif bebas . Nilai t menunjukkan bahwa X9
dan X6 adalah prediktor signifikan secara statistik dari Y. Perhatikan bahwa nilai t untuk X6 adalah
nilai yang sama yang ditunjukkan untuk X6 pada langkah 1 di bawah judul «Variabel yang Tidak
Dimasukkan ke dalam Model Regresi» . Mengidentifikasi Variabel untuk Ditambahkan. Karena X9 dan
X6 keduanya memberikan kontribusi yang signifikan, keduanya tidak akan dihilangkan dalam prosedur
estimasi bertahap.

Sekarang kita dapat bertanya «Apakah prediktor lain tersedia?» Untuk menjawab pertanyaan ini, kita
dapat melihat pada Tabel 9 di bawah bagian «Variabel yang Tidak Dimasukkan ke dalam Model
Regresi». Melihat korelasi parsial untuk variabel yang tidak ada dalam persamaan pada Tabel 9, kita
melihat bahwa X12 memiliki korelasi parsial tertinggi.

Tabel 9 Example Output: Step 2 of HBAT Multiple Regression Example


Bagian berikut merinci model regresi yang baru terbentuk dan masalah-masalah yang berkaitan dengan kecocokan
model secara keseluruhan, koefisien yang diestimasi, dampak multikolinearitas, dan identifikasi variabel untuk
ditambahkan pada langkah berikutnya. Memasukkan X12 ke dalam persamaan regresi memberikan hasil yang
ditunjukkan pada Tabel 10. Sekali lagi, seperti halnya dengan X6 pada langkah sebelumnya, variabel baru yang
dimasukkan memberikan kontribusi besar terhadap kecocokan model secara keseluruhan. Penambahan X12 membawa
prediktor kepuasan pelanggan ketiga yang signifikan secara statistik ke dalam persamaan.

Dari hasil tersebut, kita akan melihat bahwa ketiga variabel yang sekarang dalam persamaan tersebut masing-masing
merupakan anggota dari faktor yang berbeda dalam analisis tersebut. Karena variabel dalam faktor yang sama
menunjukkan derajat multikolinearitas yang tinggi, maka diharapkan ketika satu variabel dari suatu faktor memasuki
persamaan regresi, peluang variabel lain dari faktor yang sama memasuki persamaan agak rendah.

TABLE 10 Example Output: Step 3 of HBAT Multiple Regression Example


780 menunjukkan tidak ada model yang berlebihan dan bahwa
hasilnya harus dapat digeneralisasikan dari perspektif rasio
pengamatan terhadap variabel dalam persamaan . Bagian
berikutnya memberikan diskusi yang lebih rinci tentang koefisien
regresi dan koefisien beta yang berkaitan dengan interpretasi
variat. Dampak Multikolinearitas. Dampak multikolinearitas,
bahkan di antara kelima variabel ini saja, cukup besar.

Dari lima variabel dalam persamaan, tiga di antaranya memiliki


nilai toleransi kurang dari . 50 menunjukkan bahwa lebih dari
setengah varians mereka diperhitungkan oleh variabel lain dalam
persamaan. Selain itu, variabel-variabel ini adalah tiga yang
terakhir masuk dalam proses bertahap. Jika kita meneliti korelasi
orde nol dan korelasi parsial, kita dapat melihat lebih langsung efek
multikolinearitas.

Misalnya, X11 memiliki korelasi bivariat tertinggi ketiga di antara


13 variabel, namun multikolinearitas menguranginya menjadi
korelasi parsial hanya . 135, menjadikannya kontributor marjinal
untuk persamaan regresi. Sebaliknya, X12 memiliki korelasi
bivariat yang bahkan dengan multikolinearitas tinggi masih
memiliki korelasi parsial . Jika kita mengambil perspektif yang
lebih luas, variabel-variabel yang memasuki persamaan regresi
hampir sama persis dengan faktor-faktor yang diturunkan dalam
analisis faktor pertama .

X9 dan X6 adalah masing-masing anggota faktor yang terpisah,


dengan multikolinearitas mengurangi korelasi parsial anggota lain
dari faktor-faktor ini ke tingkat yang tidak signifikan. X12 dan X7
keduanya merupakan anggota dari faktor ketiga, tetapi
multikolinearitas menyebabkan perubahan tanda koefisien taksiran
untuk X7 . Akhirnya, X11 tidak memuat salah satu faktor, tetapi
merupakan kontributor marjinal dalam model regresi. Dampak
multikolinearitas yang tercermin dalam struktur faktor menjadi
lebih jelas dengan menggunakan prosedur estimasi bertahap dan
akan dibahas lebih rinci pada tahap 5.
Jadi, kami menggunakan plot regresi parsial
untuk setiap variabel independen dalam
persamaan. Asumsi berikutnya berkaitan
dengan keteguhan residual di seluruh nilai
variabel independen. Analisis kami sekali
lagi melalui pemeriksaan residual , yang
tidak menunjukkan pola peningkatan atau
penurunan residual. Kemandirian Residu.

Asumsi ketiga berkaitan dengan pengaruh


carryover dari satu pengamatan ke
pengamatan lain, sehingga membuat residual
tidak independen. Ketika carryover
ditemukan dalam kasus seperti data deret
waktu, peneliti harus mengidentifikasi
variabel sekuensing potensial dan memplot
residu dengan variabel ini. Kita bisa
memplot residual dan melihat apakah sebuah
pola muncul. Dalam contoh kami, beberapa
variabel, termasuk nomor identifikasi dan
setiap variabel independen, dicoba dan tidak
ditemukan pola yang konsisten.
Kita harus menggunakan residual dalam
analisis ini, bukan nilai variabel dependen
asli, karena fokusnya adalah pada kesalahan
prediksi, bukan hubungan yang ditangkap
dalam persamaan
regresi. Normalitas. Asumsi terakhir yang
akan kita periksa adalah normalitas istilah
Gambar 13 menunjukkan residual terpelajar
untuk setiap pengamatan. Tujuh pengamatan
dapat dilihat pada Gambar 13 memiliki
residual yang signifikan dan dengan
demikian diklasifikasikan sebagai
outlier. Pencilan penting karena merupakan
pengamatan yang tidak diwakili oleh
persamaan regresi karena satu atau lebih
alasan, salah satunya mungkin merupakan
efek berpengaruh pada persamaan yang
memerlukan perbaikan. Pemeriksaan
residual juga dapat dilakukan melalui plot
regresi parsial.

Plot ini membantu untuk mengidentifikasi


pengamatan yang berpengaruh untuk setiap
hubungan variabel independen-
dependen. Secara konsisten di setiap grafik
pada Gambar 11, titik-titik di bagian bawah
adalah pengamatan yang diidentifikasi
memiliki residu negatif yang tinggi .
Bagian Tabel 11 yang berjudul “Variabel yang Dimasukkan ke dalam Persamaan Regresi”
menghasilkan persamaan prediksi dari kolom berlabel “Koefisien Regresi: B.” Dari kolom ini, kita
membaca suku konstanta (-1.151) dan koefisien (.319, .369, .775, -.417, dan .174) masing-masing
untuk X9, X6, X12, X7, dan X11. Persamaan prediksi akan ditulis

Y = -1.151 + .319X9 + .369X6 + .775X12 + (-.417)X7 + .174X11 

Dengan persamaan ini, tingkat kepuasan pelanggan yang diharapkan untuk setiap pelanggan dapat
dihitung jika evaluasi pelanggan terhadap HBAT diketahui. Sebagai ilustrasi, mari kita asumsikan
bahwa pelanggan menilai HBAT dengan nilai 6,0 untuk masing-masing dari lima ukuran ini. Tingkat
kepuasan pelanggan yang diprediksi untuk pelanggan itu adalah

Predicted Customer = -1.151 + .319 * 6 + .369 * 6 + .775 * 6 + (-.417) * 6  + .174 * 6 


Satisfaction = -1.151 + 1.914 + 2.214 + 4.650 - 2.502 + 1.044 
= 6.169 

Semua variabel kecuali satu memiliki koefisien positif. Semua variabel lain memiliki koefisien positif,
yang berarti bahwa persepsi yang lebih positif terhadap HBAT meningkatkan kepuasan
pelanggan. Dalam hal ini, korelasi bivariat antara X7 dan kepuasan pelanggan adalah positif,
menunjukkan bahwa jika dipertimbangkan secara terpisah, X7 memiliki hubungan positif dengan
kepuasan pelanggan, sama seperti variabel lainnya. Kami akan membahas di bagian berikut dampak
multikolinearitas pada pembalikan tanda untuk koefisien yang diestimasi.
Dalam pendekatan konfirmasi, tiga variabel memiliki nilai Tabel 15 memuat hasil penambahan X3 pada model stepwise,
toleransi di bawah . Dalam situasi seperti itu, hampir tidak dimana ditambah dengan lima variabel yang membentuk model
mungkin variabel-variabel ini menjadi prediktor stepwise tadi pada bagian ini. Ketika kita memeriksa koefisien
signifikan. Enam variabel lainnya memiliki nilai toleransi di regresi, perhatikan bahwa koefisien untuk X3 adalah . Nilai
bawah. 50, menunjukkan bahwa variabel model regresi koefisien yang positif menunjukkan bahwa perusahaan besar,
menyumbang lebih dari setengah varians dalam variabel- mengingat karakteristik mereka pada lima variabel independen
variabel ini. lainnya dalam persamaan, masih memiliki tingkat kepuasan
Dengan demikian, masuknya semua variabel menciptakan pelanggan sekitar seperempat poin lebih tinggi pada pertanyaan
masalah dalam estimasi dan interpretasi. kepuasan pelanggan 10 poin. Contoh ini mengilustrasikan cara
peneliti dapat menambahkan variabel nonmetrik ke variabel metrik
dalam varian regresi dan meningkatkan prediksi dan penjelasan.
Tinjauan Manajerial Hasil

Peningkatan salah satu variabel ini menghasilkan peningkatan kepuasan pelanggan. Misalnya,


peningkatan 1 poin dalam persepsi pelanggan tentang Salesforce Image akan menghasilkan
peningkatan rata-rata setidaknya tujuh per sepuluh poin pada skala kepuasan pelanggan 10
poin. Hasil serupa terlihat untuk variabel lainnya. Selain itu, setidaknya satu karakteristik
perusahaan, ukuran perusahaan, menunjukkan pengaruh yang signifikan terhadap kepuasan
pelanggan.

Perusahaan yang lebih besar memiliki tingkat kepuasan sekitar seperempat poin lebih tinggi daripada
perusahaan yang lebih kecil. Hasil ini memberikan manajemen dengan kerangka kerja untuk
mengembangkan strategi untuk meningkatkan kepuasan pelanggan. Tindakan yang diarahkan untuk
meningkatkan persepsi HBAT dapat dibenarkan mengingat peningkatan yang sesuai dalam kepuasan
pelanggan. Dampak dari dua variabel lain terhadap kepuasan pelanggan kurang pasti.

Meskipun kedua variabel ini termasuk dalam solusi bertahap, varians yang dijelaskan gabungannya
hanya . Kedua variabel tidak signifikan dalam model konfirmasi. Untuk menyatakan bahwa hanya tiga
variabel spesifik ini yang mempengaruhi kepuasan pelanggan akan menjadi salah saji yang serius dari
pola kolinearitas antar variabel yang lebih kompleks. Dengan demikian, variabel-variabel ini lebih
baik dipandang sebagai perwakilan dari dimensi persepsi, dengan variabel lain di setiap dimensi juga
dipertimbangkan dalam setiap kesimpulan yang diambil dari hasil ini.

Manajemen sekarang memiliki analisis objektif yang menegaskan tidak hanya pengaruh spesifik dari
variabel kunci, tetapi juga dimensi persepsi yang harus dipertimbangkan dalam segala bentuk
perencanaan bisnis mengenai strategi yang ditujukan untuk mempengaruhi kepuasan pelanggan.
Sekian dan Terima Kasih

Anda mungkin juga menyukai