Anda di halaman 1dari 15

Analisis multivariat merupakan salah satu teknik statistik yang digunakan

untuk memahami struktur data dalam dimensi tinggi. Variabel-variabel itu saling
terkait satu sama lain. Disinilah letak perbedaan antara multivariabel dan
multivariat. Multivariat pasti melibatkan multivariabel tetapi tidak sebaliknya.
Multivariabel yang saling berkorelasilah yang dikatakan multivariat.

Analisis multivariat merupakan analisis lanjutan dari analisis univariat


maupun bivariat. Secara ilmiah, untuk menjelaskan penomena sosial perlu
dilakukan percobaan dengan pengumpulan dan analisis data. Analisis data yang
dikumpulkan dari pengamatan atau percobaan akan menghasilkan modifikasi
penjelasan dari penomena tersebut. Selama dalam masa percobaan tersebut,
sering kali akan terjadi penambahan dan pengurangan variabel. Dengan
demikian, maka akan timbullah masalah yang semakin komplek sehingga
dibutuhkan lebih banyak variabel yang berbeda. Karena dalam data akan
terdapat pengaruh beberapa variabel terhadap variabel lainnya dalam waktu
yang bersamaan.

Analisis multivariat merupakan salah satu analisis statistika yang


berkaitan dengan analisis banyak variabel. Dalam analisis statistika, terdapat
pengelompokkan terhadap jumlah variabel yang dianalisis. Melalui
pengelompokkan tersebut, terbagi menjadi univariat (univariate), bivariat
(bivariate), dan multivariat (multivariate). Analisis univariat berasal dari kata
uni dan variate, yang artinya analisis satu variabel. Contohnya, pengukuran
rata-rata (mean) sebagai ukuran pusat dari sekelompok data. Analisis bivariat
berasal dari kata bi dan variate, yang artinya analisis statistika yang berkaitan
dengan dua variabel. Contohnya, analisis korelasi (correlation) yang mencari

hubungan keeratan antara dua variabel.


Analisis statistik multivariat merupakan metode statistik yang
memungkinkan kita melakukan penelitian terhadap lebih dari dua variable
secara bersamaan. Dengan menggunakan teknik analisis ini maka kita dapat
menganalisis pengaruh beberapa variable terhadap variabel (variable) lainnya
dalam waktu yang bersamaan. Contoh kita dapat menganalisis pengaruh
variable kualitas produk, harga dan saluran distribusi terhadap kepuasan
pelanggan. Contoh yang

lain, misalnya pengaruh kecepatan layanan,

keramahan petugas dan kejelasan memberikan informasi terhadap kepuasan


dan loyalitas pelanggan. Analisis multivariat digunakan karena pada
kenyataannnya masalah yang terjadi tidak dapat diselesaikan dengan hanya
menghubung-hubungkan dua variable atau melihat pengaruh satu variable
terhadap variable lainnya.
Analisis multivariat merupakan pengembangan lanjutan dari analisis
univariat maupun bivariat. Analisis multivariat berasal dari kata multi dan
variate, yang artinya analisis lebih dari dua variabel. Dengan demikian, analisis
multivariat merujuk kepada teknik statistika tertentu yang menganalisis
banyak variabel secara simultan. Contoh dari analisis multivariat adalah
Structural Equation Model (SEM). SEM merupakan pengembangan lanjut dari
analisis regresi. SEM dikembangkan untuk menjelaskan hubungan yang
komplek antar variabel. Sedangkan regresi bertujuan hanya untuk menjelaskan
hubungan tunggal antar variabel.Variabel di dalam analisis multivariat dapat
diklasifikasikan sebagai variabel dependen (dependent variable) dan variabel
independen (independent variable). Variabel dependen adalah variabel yang
nilainya ditentukan oleh variabel lain yaitu variabel independen. Sedangkan
variabel independen adalah variabel yang digunakan untuk mengestimasi atau

memprediksi nilai variabel lain yaitu variabel dependen.

Sebagai alat analisis statistika yang bersifat general, analisis multivariat terdiri
dari beberapa jenis. Jenis analisis multivariat dapat dikelompokkan ke dalam teknik
dependen (dependent technique) dan teknik interdependen (interdependent
technique).
Teknik dependen adalah teknik yang digunakan ketika variabel dependen
dipengaruhi oleh variabel independen. Teknik interdependen adalah teknik
yang digunakan ketika semua variabel saling berpengaruh. Sedangkan teknik
struktural adalah teknik yang digunakan untuk menganalisis variabel dependen
dan independen secara simultan.
Teknik Dependen
Bila di dalam analisis multivariat bisa dibedakan antara variabel
dependen dan variabel independen maka dapat digunakan teknik dependen.
Ada beberapa jenis analisis metode dependen di dalam analisis multivariat.
Pengelompokkannya didasarkan oleh dua hal yaitu; 1. Jumlah variabel
dependen, dan 2. Jenis pengukuran data terhadap variabel baik dependen
maupun independen. Berdasarkan jumlah variabel dependen, maka analisis
multivariat dikelompokkan apakah mempunyai satu variabel dependen, dua
variabel dependen, atau beberapa variabel dependen. Selanjutnya, setelah
diketahui jumlah variabel dependen maka dilihat jenis data variabel dependen
maupun data variabel independennya.

Jika jumlah variabel dependen adalah satu maka ada empat jenis analisis
multivariat yaitu: 1. Regresi, 2. Regresi Logistik, 3. Analisis Diskriminan, dan
4. Analisis Konjoin. Analisis regresi adalah analisis jika jumlah variabel
dependennya satu bersifat metrik dan variabel independennya dalam bentuk
metrik ataupun non metrik. Analisis regresi logistik (logit) merupakan analisis
dengan jumlah variabel dependen satu bersifat non metrik dan variabel
independennya bersifat baik metrik ataupun non metrik. Analisis diskriminan
adalah analisis dengan jumlah variabel dependen satu bersifat non metrik dan
varaiabel independennya bersifat metrik ataupun non metrik.
Jika jumlah variabel dependennya lebih dari satu maka ada 2 jenis
analisis multivariat yaitu: 1. Analisis kanonikal, dan 2. Analisis MANOVA.
Analisis kanonikal merupakan analisis dengan lebih dari dua variabel dependen
bersifat metrik dan variabelnya bersifat metrik juga. Sedangkan MANOVA
adalah analisis dengan variabel dependen lebih dari satu bersifat metrik dan
variabel independennya bersifat non metrik.
Teknik Interdependen
Dalam banyak kasus, seringkali dialami kesulitan dalam memisahkan antara
variabel dependen dan independennya. Dengan kata lain, semua variabel
adalah independen. Tujuan dari analisis interdependen adalah menganalisis

mengapa dan bagaimana variabel-variabel yang ada saling berhubungan. Karena


tidak bisa dipisahkan mana variabel dependen dan mana variabel independen,
maka pembagian metode interdependen didasarkan pada jenis variabel yang ada
yaitu apakah metrik atau non metrik.
Jika jenis variabel adalah metrik maka ada tiga jenis analisis yaitu: 1.
Analisis faktor, 2. Analisis kluster, dan 3. Skala multidimensi. Sedangkan bila
jenis variabel adalah variabel non metrik maka ada satu analisis yaitu analisis
koresponden. Lebih jelasnya dapat dilihat pada tabel di bawah ini.

2.1 Analisis Multivariat


Analisis statistik multivariat merupakan metode dalam melakukan penelitian
terhadap lebih dari dua variable secara bersamaan. Dengan menggunakan teknik
analisis ini maka kita dapat menganalisis pengaruh beberapa variable
terhadap
variabel lainnya dalam waktu yang bersamaan. Berdasarkan hubungan antar
variabel, analisis multivariat dapat dibedakan menjadi dependence techniques dan

interdependence techniques. Dalam dependence techniques, terdapat dua jenis


variabel, yaitu variabel terikat dan variabel bebas. Dependence techniques ini
digunakan untuk menyelesaikan permasalahan-permasalahan mengenai hubungan
antara dua kelompok variabel tersebut. Sedangkan dalam interdependence
techniques, kedudukan setiap variabel sama, tidak ada variabel terikat dan
variabel bebas. Biasanya interdependence techniques ini digunakan untuk melihat
saling keterkaitan hubungan antar semua variabel tanpa memperhatikan
bentuk
variabel yang dilibatkan (Bilson Simamora, 2005).

2.2 Analisis Regresi Linier Berganda


Analisis regresi berganda adalah suatu metode analisis regresi untuk lebih
dari
dua variabel, karena itu termasuk dalam analisis multivariat. Namun karena dalam
analisis regresi ganda juga dianalisis hubungan antar satu variabel bebas X dengan

variabel terikat Y manakala variabel bebas X lainnya dianggap konstan, maka


dalam analisisnya juga masih bisa digunakan metode kuadrat terkecil. Karena itu
analisis regresi ganda merupakan jembatan penghubung antara analisis
regresi
sederhana yang bersifat bivariate, dengan model analisis regresi yang bersifat
multivariate. Analisis regresi merupakan studi dalam menjelaskan dan
mengevaluasi hubungan antara suatu peubah bebas (independent variable) dengan
satu peubah tak bebas (dependent variable) dengan tujuan untuk
mengestimasi
atau meramalkan nilai peubah tak bebas didasarkan pada nilai peubah bebas yang
diketahui (Widarjono, 2005).
2.3 Asumsi-Asumsi Regresi Linear Berganda
Metode Kuadrat Terkecil dapat dilakukan apabila asumsi regresi linear klasik
terpenuhi. Beberapa asumsi yang yang harus dipenuhi oleh persamaan
regresi
linear berganda ini adalah sebagai berikut:
1. Normalitas, regresi linear klasik mengasumsikan bahwa tiap i mengikuti
distribusi normal, i ~ N(0,2).
2. Non autokorelasi antar sisaan, berarti cov (i ,j ) = 0, dimana i ke j.
3. Homoskedastisitas, var (i) = 2 untuk setiap i, i= 1,2,,n yang artinya
varians dari semua sisaan adalah konstan atau homoskedastik.
4. Tidak terjadi multikolinearitas. Tidak terdapat hubungan linear yang
sempurna atau pasti diantara variabel.

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang
berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi
linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada
variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model.
Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi
klasik.
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji
autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi.
Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh, dilakukan analisis terhadap semua uji
asumsi klasik, lalu dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut,
dan setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.
1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Model regresi yang baik
adalah memiliki nilai residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada
masing-masing variabel. Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya
bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Dalam kelas siswa yang bodoh
sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata.
Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya jika suatu kelas banyak
yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan
memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Demikian
juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square, Skewness dan Kurtosis atau
uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian
dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan
uji normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji
statistik lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0,049)
maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai
normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan trimming data
outliers atau menambah data observasi. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar

kuadrat, inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke kanan,
mengumpul di tengah atau menyebar ke samping kanan dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas
dalam suatu model regresi linear berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya, maka
hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model
regresi dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah
kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi, kepemimpinan
dan kepuasan kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan
kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation
factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan condition index
(CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut:
1.

Mengganti

atau

mengeluarkan

variabel

yang

mempunyai

korelasi

yang

tinggi.

2. Menambah jumlah observasi.


3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first
difference delta.

3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke
pengamatan ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana terdapat
kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai
prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik,
seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji
statistik

yang

dapat

digunakan

adalah uji

Glejser,

uji

Park

atau

uji

White.

Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke
dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan
dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas.
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t
-1). Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai contoh
adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada
bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti terdapat
gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada

bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari
apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross
section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang
bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun
biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. Beberapa cara untuk menanggulangi
masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke
dalam bentuk persamaan beda umum (generalized difference equation). Selain itu juga dapat dilakukan dengan
memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas, sehingga data observasi
menjadi berkurang 1.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji ini
jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk berdasarkan telaah teoretis bahwa
hubungan antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori
bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya masalah
elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak dapat
digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan
untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak
dengan hasil observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji
Lagrange Multiplier.

Karena dalam penelitian ini digunakan analisis regresi, terdapat asumsi yang
dipersyaratkan yang perlu dipenuhi terlebih dahulu. Andy Field (2005: 170), Draper
(1966:144), dan Santoso (2001:203) menyatakan bahwa syarat penggunaan analisis
regresi adalah menguji asumsi-asumsi yaitu : (1) asumsi multikolinieritas; (2) asumsi
Homosedastisitas; (3) asumsi normalitas; dan (4) asumsi linieritas. Persyaratan tersebut
dijelaskan berikut ini :

UJI PRASYARAT ANALISIS

Uji persyaratan analisis diperlukan guna mengetahui apakah analisis data untukpengujian hipotesis
dapat dilanjutkan atau tidak. Beberapa teknik analisis datamenuntut uji persyaratan analisis. Analisis
varian mempersyaratkan bahwa data berasaldari populasi yang berdistribusi normal dan kelompokkelompok yang dibandingkanhomogen. Oleh karena itu analisis varian mempersyaratkan uji
normalitas danhomogenitas data. (andri hidayat, 2010: 1-3)
Uji nonparametrik digunakan apabila asumsi-asumsi pada uji parametrik tidakdipenuhi. Asumsi yang
paling lazim pada uji parametrik adalah sampel acak yangberasal dari populasi yang berdistribusi
normal, data bersifat homogen, dan bersifatlinier. Bila asumsi-asumsi ini dipenuhi, atau paling tidak
penyimpangan terhadapasumsinya sedikit, maka uji parametrik masih bisa diandalkan. Tetapi bila
asumsi tidakdipenuhi maka uji nonparametrik menjadi alternatif. Ada tiga asumsi uji
statistikaparametrik sebagaimana diungkapkan di atas, yaitu normalitas, homogenitas, danlinieritas
data. (ahmad kurnia, 2010 :50-51)
Analisis regresi, selain mempersyaratkan uji normalitas juga mempersyaratkanuji
linearitas, uji heterokedasitas, uji autokorelasi, dan uji multikolinearitas. Berbagaipengujian persyaratan
analisis, seperti uji normalitas, uji homogenitas, uji linearitas, ujiheterokedasitas, uji autokorelasi, dan uji
multikolinearitas. Uji persyaratan analisis manayang diperlukan dalam satu teknik analisis data akan
disebutkan secara garis besar pada tiap-tiap teknik analsis data.

UJI PERSYARATAN ANALISIS UNTUK ANALISIS MULTIVARIAT


Umumnya, analisis multivariat atau metode multivariat berkaitan dengan metode-metode
statistik yang secara bersama-sama (simultan) melakukan analisis terhadap lebih dari dua
variabel. Dengan demikian, analisis multivariat dapat dikatakan lanjutan atau perluasan dari
analisis univariat seperti (uji t/uji beda) dan bivariat (seperti korelasi dan regresi sederhana).
Variat bisa didefinisikan sebagai kombinasi linier dari variabel-variabel dengan bobot variabel
yang ditentukan secara empiris, sebagai contoh persamaan multiple regression:
Nilai variat : w1X1 + w2X2 + w3X3+ wnXn
Xn adalah variabel yang telah ditentukan oleh peneliti sedangkan wn adalah hasil dari proses
multivariat. Nilai variat adalah hasil dari proses penjumlahan dan perjalian w dan X, yang
menghasilkan suatu nilai variat tertentu.
Dalam melakukan analisis multivariat, sebelumnya diperlukan uji persyaratan analisis terhadap
data yang telah dikumpulkan dalam penelitian, uji persyaratan analisis ini sama dengan uji
persyaratan analisis pada analisis univariat dan bivariat (uji normalitas, uji linieritas, dan uji
homogenitas), namun ada penambahan persyaratan yang harus dipenuhi dalam analisis
multivariat yaitu: 1) uji multikolinieritas, 2) uji heterokedasitas, 3) uji autokorelasi, 4) uji missing
data dan 5) uji outlier.

UjiPersyaratanData
Uji persyaratan analisis diperlukan guna mengetahui apakah analisis data untuk pengujian hipotesis
dapat dilanjutkan atau tidak. Beberapa teknik analisis data menuntut uji persyaratan analisis. Analisis
varian mempersyaratkan bahwa data berasal dari populasi yang berdistribusi normal dan kelompokkelompok yang dibandingkan homogen. Oleh karena itu analisis varian mempersyaratkan uji
normalitas dan homogenitas data.
Berbagai pengujian persyaratan analisis, seperti uji normalitas, uji homogenitas, dan uji linearitas.

Uji Asumsi Klasik Model Regresi Linier Berganda


Estimasi yang peneliti ciptakan melalui model regresi linier berganda (multiple
regression) memberi hubungan antar beberapa variabel. Tapi hasil regresi tidak
secara otomatis memberikan hubungan yang handal.
Peneliti harus mengetahui sifat-sifat estimator dan menunjukkan beberapa
asumsi dasar di dalam dataset. Sebuah model disebut sebagai model yang baik
jika memenuhi beberapa asumsi yang disebut dengan asumsi klasik (classical
assumptions).
Model regresi adalah statistik parametrik. Prinsip asumsi-asumsi tersebut yaitu:

Variabel bebas dan terikat dalam koefisien model harus linier.

Variabel bebas tidak berkorelasi dengan error atau residual.

Mean dari error adalah nol.

Error memiliki
heteroskedastisitas.

varian

konstan

(homoskedastis)

atau

Error tidak saling berkorelasi serial atau tidak ada autokorelasi.

tidak

ada

Tidak ada variabel bebas memiliki hubungan linear sempurna dengan


variabel bebas lainnya atau tidak ada multikolinearitas.
Error terdistribusi secara tidak normal.
Dengan demikian ada 4 uji yang harus dilakukan sebelum pengujian hipotesis
dalam model regresi yaitu heteroskedastisitas, autokorelasi, multikolinieritas dan
normalitas.
Uji Heteroskedastisitas
Uji heteroskedastisitas untuk mengetahui apakah model regresi terjadi
ketidaksamaan varian error satu pengamatan ke pengamatan yang lain. Model
yang baik harus homoskesdastisitas. Beberapa cara untuk menguji yaitu
menggunakan Uji Scatterplot, Uji Park, Uji Glesjer dan Uji White.
Uji Autokorelasi
Uji Autokorelasibertujuan menguji apakah model memiliki korelasi antar error
pada periode t dengan error periode t-1 (sebelumnya). Model yang baik tidak
terjadi autokorelasi. Beberapa cara untuk menguji menggunakan Uji DurbinWatson (DW test), Uji Langrange Multiplier (LM test), Uji Statistics Q Box-Pierce
dan Ljung Box, serta Run Test.
Uji Multikolinieritas
Uji Multikolinieritas bertujuan untuk menguji apakah model regresi ditemukan
adanya korelasi antar variabel bebas. Model yang baik seharusnya tidak terjadi
yaitu nilai Tolerance di atas 0,1 dan nilai VIF di bawah 10.
Uji Normalitas
Uji normalitas untuk mengetahui apakah error dalam model regresi memiliki
distribusi normal. Model yang baik mengasumsikan error tidak berdistribusi
normal. Beberapa cara untuk menguji yaitu menggunakan Analisis Grafik
Histogram dan P-P Plot, Analisis Z Skewness dan Z Kurtosis serta One-Sample
Kolmogorov-Smirnov Test.
Proses pengujian asumsi klasik dilakukan bersama dengan proses uji regresi
sehingga langkah-langkah yang dilakukan dalam pengujian asumsi klasik
menggunakan langkah kerja yang sama dengan uji regresi.

Regresi Ganda
Regresi Terdiri atas variabel bebas (yang mempengaruhi) dan variabel terikat (yang
dipengaruhi). Variabel yang mempaengaruhi ini dalam analisis regresi disebut sebagi variabel
prediktor (dengan lambang X) dan yang dipengaruhi disebut variabel kriterium (dengan lambang
Y). Namun pada regressi ganda kita membicarakan hubungan antara 1 variabel terikat dengan 2
atau lebih variable terikat.
Regresi Ganda bertujuan untuk.
Untuk meramalkan pengaruh dua variabel prediktor atau lebih terhadap satu variabel
kriterium atau variable terikat
Membuktikan ada atau tidaknya hubungan fungsional antara dua buah variabel bebas (X) atau
lebih dengan sebuah variabel terikat (Y).
Secara umum regresi ganda dituliskan dalam matematis sebagai beerikut
Y = a + b1X1 + b2X2 + b3X3.bnXn
Keterangan
Y = variable tak bebas
X1 = variabel bebas ke-1
X2 = variabel bebas ke-2
X3 = Variabel bebas ke-3
Xn = Variabel bebas ke-n
a = kostanta
b1 = kemiringan ke 1
b2 = kemiringan ke 2
b3 = kemiringan ke 3
REGRESI GANDA DENGAN 2 VARIABEL BEBAS
Dalam hal ini kita membahas regresi ganda dengan 2 variabel bebas, dimana dalam hal ini
terdiri dari 1 variabel terikat (Y) dan 2 variabel bebas (X 1 dan X2 ). Seperti yang dijelaskan diatas
karena hanya terdiri dari 2 variabel bebas maka secara umum dapat persamaaan regresi ganda
dengan 2 variabel bebas seperti dibawah ini
Y = a + b1X1 + b2X2
REGRESI GANDA DENGAN 3 VARIABEL BEBAS
Secara pengertian regresi ganda antara 2 variabel bebas dan 3 variabel bebas adalah
sama, jika Y adalah veriabel terikat maka dalam 2 variabel bebas seperti yang dijelaskan tadi

hanya memiliki 2 variabel predictor yaitu X1 dan X2, namun dalam regresi ganda dengan 3
variabel bebas dalam hal ini terdapat 3 variabel predictor, yaitu X1, X2 dan X3.
Secara umum bentuk persamaan dari regresi ganda dengan 3 variabel bebas adalah
Y = a + b1X1 + b2X2 + b3X3

Anda mungkin juga menyukai