Anda di halaman 1dari 16

MODUL PERKULIAHAN

STATISTIKA
MULTIVARIAT

Pokok Bahasan :
Asumsi Klasik

Fakultas Program Studi Tatap Muka Kode MK Disusun Oleh

09
Fakultas Ekonomi dan Akuntansi S1 R. Roosaleh Laksono T.Y., ST, S.Si. ME
Bisnis (FEB)

Abstract Kompetensi

Agar penelitian yang kita buat bersifat Best Mahasiswa mampu ketepatan dalam
Linear Unbias dan Estimator (BLUE) maka menjelaskan definisi asumsi klasik dan
diperlukan tahap pengujian terhadap data yang ketepatan mengolah data dengan uji
digunakan dalam penelitian tersebut. asumsi klasik dengan bantuan software
Tahap pengujian tersebut yaitu dengan asumsi statistik SPSS.
klasik. Uji ini diperlukan untuk mengetahui ada

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


1 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
tidaknya masalah atau penyimpangan asumsi
klasik terhadap model penelitian yang dibuat,
agar menghasilkan model persamaan yang
bersifat BLUE. Terdapat 3 uji asumsi klasik,
yaitu : Uji Multikolinear, Uji Heteroskedastis dan
Uji autokorelasi

PERTEMUAN 9
ASUMSI KLASIK

9.1 PENDAHULUAN
Oleh karena data penelitian yang digunakan sering kali menggunakan data sampel dengan
pertimbangan biaya, waktu dan tenaga lebih efisien. Maka agar hasil penelitian yang dilakukan
dapat mengestimasi dari data populasi yang sebenarnya perlu dilakukan tahap pengujian
terhadap data penelitian tersebut. Statistik yang menggunakan data sampel untuk mengestimasi
data populasi yang sebenarnya inilah yang disebut dengan stattistik induktif

Agar penelitian yang kita buat bersifat Best Linear Unbias dan Estimator (BLUE) maka diperlukan
tahap pengujian terhadap data yang digunakan dalam penelitian tersebut. Analisa regresi
diperlukan dalam suatu penelitian agar model penelitian yang kita buat atau rancang berdasarkan
teori-teori yang diperoleh hubungan antar variabelnya dapat bersfat BLUE maka harus memenuhi
berbagai asumsi dan beberapa tahapan pengujian agar model (persamaan regresi) yang
digunakan dalam penelitian sebagai alat prediksi yang baik, valid dan akurat (bebas dari
kesalahan). Menurut Santoso (2005) dalam analisis regresi terdapat beberapa asumsi yang
dikenal dengan asumsi klasik yang harus dipenuhi sehingga persamaan regresi yang dihasilkan
akan valid jika digunakan untuk memprediksi (estimator).

Metode yang digunakan untuk menganalisa model regresi ini yaitu menggunakan metode
Ordinary Least Square (OLS), suatu metode untuk menghasilkan suatu estimasi persamaan
regresi berganda dengan menggunakan data sampel.

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


2 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Berdasarkan teorema dari Gauss-Markov bahwa estimator OLS harus bersifat Best Linear
Unbiased Estimator (BLUE) Gujarati, 2009.
Best : Bahwa OLS harus mempunyai varian yang terkecil (estimasi yang paling
tepat) atau disebut dengan efficient estimator.
Linear : Bahwa OLS Merupakan fungsi linier dari variable random seperti variable
tak bebas Yi dalam model regresi..
Unbiased : Nilai ekspektasi dari OLS 𝐸(𝛽̂𝑖 ) sama seperti nilai sebenarnya dalam
populasi (βi).

Selain itu pada metode OLS ini terdapat beberapa asumsi-asumsi utama (asumsi klasik) yang
mendasari model regresi. Uji ini diperlukan untuk mengetahui ada tidaknya masalah atau
penyimpangan asumsi klasik terhadap model penelitian yang dibuat, agar menghasilkan model
persamaan yang bersifat BLUE. Beberapa asumsi-asumsi utama (asumsi klasik) yaitu :
 Model harus bersifat homoskedastisitas.
 Nilai rata-rata kesalahan adalah nol, atau 𝐸(𝜇𝑖 𝐼𝑋𝑖 ) = 0.
 Tidak bersifat mutikolinearitas yang sempurna antara variable bebas.
 Tidak ada autokorelasi antar kesalahan (antar i dan j tidak ada korelasinya)
Pengujian model ini terlebih dahulu dilakukan pengujian atau evaluasi terhadap variable-variabel
yang akan digunakan. Kriteria yang digunakan untuk menguji atau mengevaluasi model adalah
dengan uji statistic dan kriteria uji ekonomitrik.

9.2 UJI MULTIKOLINERITAS

Multikolineritas yaitu suatu kondisi dimana apakah ada hubungan linear antar variable-
variabel bebas (independent variable) dalam model regresi berganda (multiple regression) dari
penelitian yang dibuat maka diperlukan Uji Multikolineritas (Multicolinearity Test) . Salah satu
gejala multikoliner ini ditunjukan oleh nilai R2 yang tinggi (melebihi 0,8 atau 80%) dan uji F yang
signifikan, akan tetapi variable bebas banyak yang tidak signifikan yang ditunjukan oleh uji parsial
t atau denga kata lain R2 yang tinggi akan tetapi sedikit rasio t yang signifikan. Model regresi yang
baik seharusnya tidak terjadi korelasi antar variabel independentnya atau tidak terjdi gejala
multikolinear. Sehingga dapat disimpulkan ciri dari multikolinear adalah :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


3 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Indikator terjadinya multikolinear yaitu dapat dilihat dari nilai VIF (Variance Inflation Factor) dan
batas TOT (Tolerance).

• jika VIF dari suatu variabel melebihi 10 (VIF > 10) maka terjadi multikolinear, tetapi
jika VIF dari suatu variabel kurang 10 (VIF <= 10, 1-10) maka tidak terjadi
multikolinear

• jika Tolerance dari suatu variabel melebihi 0,1 (TOT >= 0,1) maka tidak terjadi
multikolinear, tetapi jika Tolerance dari suatu variabel kurang 0,1 (TOT < 0,1) maka
terjadi multikolinear

 Multikolinearitas biasanya terjadi karena sebagian besar variabel yang digunakan saling
terkait dalam suatu model regresi

 Multikolinearitas merupakan suatu kondisi adanya hubungan linier atau korelasi yang
tinggi diantara masing-masing variabel independen dalam sebuah model regresi
berganda

 Misal ada sebuah penelitian yang meneliti tentang pengaruh nilai tukar (exchange rate)
dan Peumbuhan ekonomi (kedua variabel ini merupakan variabel independent) terhadap
nilai ekspor (variabel dependent). Berdasarkan kedua jenis variabel independen yang
digunakan yaitu nilai tukar (exchange rate) dan Peumbuhan ekonomi memiliki potensi
terjadinya multikolinearitas, hal tersebut disebabkan semakin menguatnya mata uang
suatu Negara maka ada kecenderungan pertumbuhan ekonomi juga semakin meningkat,
maka kedua variabel independent tersebut mungkin saja dapat saling berkolerasi terjadi
hubungan yang kuat.

Jika terjadi gejala multikolinearitas yang tinggi, standard error koefisien regresi akan semakin be-
sar dan mengakibatkan confidence interval untuk pendugaan parameter semakin lebar. Denga
n demikian terbuka kemungkinan terjadinya kekeliruan yaitu menerima hipotesis yang
salah. Uji multikolinearitas dapat dilaksanakan dengan jalan menggunakan Variance Inflation

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


4 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Factor (VIF). Batas VIF adalah 10 apabila nilai VIF lebih besar dari pada 10 maka terjadi multiko
linearitas (Ghozali, 2002 dalam Thobarry, Achmad Ath, 2009), dengan rumus :
𝟏
𝑽𝑰𝑭 = 𝟏−𝒓𝟐
𝒊 …..…………….…… 9.1
Multikolinearitas akan menyebabkan :
 Estimasi parameter menjadi kurang akurat.
 Penaksiran koefisien dan standar error sangat sensitive terhadap sedikit perubahan data.
 Selang kepercayaan parameter populasi cenderung lebih besar.
Uji multikolinier dapat dinyatakan dengan hipotesa sebagai berikut :
H0 : Tidak terjadi multikolinieritas dalam model.
H1 : Terjadi multikolinieritas dalam model.

Hal –hal yang perlu dilakukan bila terjadi multikolenearitas adalah :


 Dengan menambahkan data penelitian yang telah ada, multikolinear terjadi disebabkan
salah satunya adalah jumlah observasinya sedikit

 Dengan cara transformasi data (misalnya dengan logaritma natural atau dengan
ekponensial)

 Dengan Mengeluarkan variabel yang berkorelasi dalam model.

Praktek Pengolahan Data dengan SPSS Untuk Multikolinear hasilnya adalah :


Langkah-langkah pengujian:
1. Definisikan variable X (independent variabel) dan Y (dependent variable) dan masukkan
data ke SPSS. Misalkan dalam percobaan yanga akan dilakukan yaitu ingin meneliti
tentang hubungan Harga, Promosi dan Lokasi (sebagai variabel independent)Terhadap
Pendapatan Perusahaan (sebagai variabel dependent)
2. Pilih menu Analyze -> Regression -> Linear.
3. Masukkan variable Perusahaan (Y) ke Dependent dan Harga(X1), Promosi(X2) dan
Lokasi (X3) ke Independent.

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


5 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
4. Klik Statistics lalu pilih Colinearity Diagnostics. Akan muncul tampilan dibawah ini :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


6 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
5. Klik Continue lalu OK.
6. Kita dapat melihat Hasil Output adalah sebagai berikut :

Coefficientsa

Model Unstandardized Standardized t Sig. Collinearity


Coefficients Coefficients Statistics
B Std. Error Beta Toleranc VIF
e
(Constant) -.026 .146 -.175 .862
HARGA .647 .113 .590 5.721 .000 .371 2.696
1
PROMOSI .170 .074 .200 2.290 .030 .515 1.940
LOKASI .207 .079 .254 2.623 .014 .420 2.378
a. Dependent Variable: PERUSAHAAN_Y

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


7 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Dari hasil output diatas, ternyata nilai VIF semua variable bebas (harga, promosi dan lokasi) di
sekitar angka 1-10, demikian pula nilai tolerance ≥ 0.1. Dengan demikian dapat disimpulkan
bahwa tidak terdapat masalah multikolinearitas antar variable bebas dalam model regresi.

9.3 UJI HETEROSCEDASTICITY.

Gejala Heteroscedasticity adalah gejala adanya situasi dimana nilai varian dari residual atau
error terms atau disturbance (ui) tidak konstan (non constant). Sebaliknya Gejala varian residual
yang sama dari satu pengamatan yang lain disebut dengan homokesatisitas.
Situasi heteroskedastisitas pada suatu model regresi akan menyebabkan penaksiran koefisien
koefisien regresi menjadi tidak efisien. Hasil taksiran akan menjadi kurang dari semestinya, akan
terjadi melebihi semestinya.
Untuk menguji adanya gejala heteroskedastisitas dalam varian error term suatu model regresi
dapat dilakukan dengan beberapa metode pengujian, yaitu dengan uji :
a) White’ Heteroscedasticity Test
b) Glejser test.
c) Park test
d) Bruesch-Pegan Godfrey test
e) Correlation Spearman test

Adapun Hipotesa Heteroscedasticity itu sendiri adalah sebagai berikut :

H0 : Homoscedasticity 
Var ui X i   E ui X i   2
2

H1 : Heteroscedasticity Var  ui X i    i 2   2  X i 

Tolak H0 (Reject Ho) jika :  df2*   df2 c

Konsekuensi dari heteroscedasticity ketika diabaikan adalah sebagai berikut (Gujarati,2003) :


 OLS Estimator masih linear dan unbiased tetapi estimator tidak tepat (kurang teliti)
 Var (𝛽̂𝑖 ) tidak lagi minimum, hal ini menyebabkan bukan hasil yang terbaik sehingga tidak
efisien dan not BLUE.

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


8 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
̂2
∑𝑢
 𝜎̂ 2 = 𝑛−𝑘𝑖 adalah bias, 𝐸(𝜎̂ 2 ) ≠ 𝜎 2

 Hasil statistic t dan F tidak dapat dipertanggung jawabkan

Praktek Pengolahan Data dengan SPSS Untuk Heteroscadastis hasilnya adalah :


Langkah-langkah pengujian:
1. Definisikan variable X (independent variabel) dan Y (dependent variable) dan masukkan
data ke SPSS. Misalkan dalam percobaan yanga akan dilakukan yaitu ingin meneliti
tentang hubungan Harga, Promosi dan Lokasi (sebagai variabel independent)Terhadap
Pendapatan Perusahaan (sebagai variabel dependent)
2. Pilih menu Analyze -> Regression -> Linear.
3. Masukkan variable Perusahaan (Y) ke Dependent dan Harga(X1), Promosi(X2) dan
Lokasi (X3) ke Independent. Seperti tampak pada gambar dibawah ini :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


9 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
4. Klik Plots lalu masukkan SRESID ke Y dan ZPRED ke X. akan tampak seperti gambar
dibawah ini

5. Klik Continue lalu OK.


6. Maka akan keluar Hasil Output adalah sebagai berikut :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


10 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Dari gambar grafik scatterplot diatas tampak bahwa titik-titik menyebar dan tidak membentuk
pola tertentu. Dengan demikian dapat disimpulkan bahwa tidak terjadi heterokedastisitas.

9.4 AUTOCORRELATION
Pengujian terhadap gejala autokorelasi lebih mudah ditimbulkan terhadap data yang bersifat
runtut waktu (time series), karena data masa sekarang dipengaruhi oleh masa yang lalu atau
sebelumnya :

•Gujarati (2007:112) uji autokorelasi merupakan adanya korelasi di antara anggota observasi
yang diurut menurut waktu (seperti deret berkala) atau ruang (seperti data lintas sektoral)

Bentuk autocorrelation atau disebut juga serial correlation didefinisikan sebagai korelasi antar
anggota dari rangkaian pengamatan yang dipengaruhi waktu (time) seperti dalam data runtun
waktu (data time series). (Gujarati, 2009). Secara symbol dapat ditulis sebagai berikut :
Cov(ui,u│xi,xj) = E(uiuj) = 0 dimana i ≠ j

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


11 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Uji autokorelasi ini digunakan untuk menguji apakah dalam suatu model regresi terdapat
korelasi residual satu observasi dengan observas lainnya.
Jika terjadi korelasi maka dinamakan ada masalah autokorelasi. Model regresi yang baik adal
ah yang bebas autokorelasi.
Konsekuensi yang dihadapi bila terjadi masalah autokorelasi menurut gujarati (2007:115) atau
pengaruh autokorelasi antara lain adalah :
 Estimator kuadrat terkecil masih linier dan tidak bias
 Tapi estimator tersebut tidak efisien, artinya tidak memiliki varians minimum bila
dibandingkan dengan prosedur yang mempertimbangkan dengan prosedur yang
mempertimbangkan autokorelasi atau kuadrat terkecil biasa yang umum (OLS) bukanlah
estimator tak bias linear terbaik (BLUE)

Sehingga pengaruh dari autokorelasi diatas akan menyebabkan model regresi (estimator)
penelitian menjadi tidak baik (not best) tetapi hanya LUE tidak BLUE.
Untuk dapat mendeteksi adanya autokorelasi dalam situasi tertentu, ada beberapa pengujian
autokorelasi, antara lain adalah :
a) Metode Grafik
b) Uji Breusch-Godfrey
c) Uji Durbin Watson.

Terdapat beberapa pengujian untuk uji autokorelasi ini yang dapat dilakukan, salah satunya
yaitu dengan menggunakan uji Durbin-Watson (DW). Rumus persamaan dari DW itu sendiri
adalah sebagai berikut :

∑𝑛 ̂𝑡−1 )2
̂𝑡 −𝑢
𝑡=1(𝑢
𝐷𝑊 = ∑𝑛 ̂
𝑢 2 …...…… 9.3
𝑡=1 𝑡

Atau dalam rumus pendekatan yang sederhana dapat ditulis sebagai berikut :
∑𝒖
̂𝒕𝒖
̂ 𝒕−𝟏
𝒅 ≈ 𝟐 (𝟏 − ∑𝒖̂ 𝟐𝒕
) …..…………….…… 9.4
Batas nilai dari “d” itu sendiri adalah 0 ≤ d ≤ 4
Jika Autokorelasi ini kita abaikan maka akan timbul masalah sebagai berikut :
 Koefisien estimasi atau estimator masih tetap tidak bias (unbiased). Akan tetapi tidak tepat
atau tidak teliti (uncorrect).

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


12 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
 Standard Error dari estimator OLS atau koefisien estimasi 𝑆𝑒(𝛽̂𝑘 ) menjadi lebih besar
dari estimator WLS (GLS).
 Tidak bersifat BLUE.

Hipotesa uji autokorelasi ini adalah sebagai berikut :


H0 :  =0 ; tidak terdapat autocorrelation
H1 :   0 ; Uji dua pihak untuk autocorrelation apakah positif atau negative.

Keputusan hipotesa adalah sebagai berikut :


Deteksi Autokorelasi Positif:
Jika d < dL maka terdapat autokorelasi positif
Jika d > dU maka tidak terdapat autokorelasi positif
Jika dL < d < dU maka pengujian tidak ada kesimpulan yang pasti

Deteksi Autokorelasi Negatif:


Jika (4-d) < dL maka terdapat autokorelasi negatif
Jika (4-d) > dU maka tidak terdapat autokorelasi negatif
Jika dL < (4-d) < dU maka pengujian tidak ada kesimpulan yang pasti

Keterangan:
d = Nilai Durbin-Watson
dL = Batas bawah DW
dU = Batas atas DW
Jika d < dL
Tolak H0 (reject H0)
Atau d > 4 - dL
Jika du < d < 4 - du ==> Terima H0 (not reject H0)
Jika dL  d  du
Tidak meyakinkan atau
Atau 4 - du  d  4 - dL Tidak dapat diputuskan

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


13 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
Praktek Pengolahan Data dengan SPSS Untuk Autocorrelation dengan metoda Durbin-Watson
(DW) hasilnya adalah :
Langkah-langkah pengujian:
1. Definisikan variable X (independent variabel) dan Y (dependent variable) dan masukkan
data ke SPSS. Misalkan dalam percobaan yanga akan dilakukan yaitu ingin meneliti
tentang hubungan Harga, Promosi dan Lokasi (sebagai variabel independent)Terhadap
Pendapatan Perusahaan (sebagai variabel dependent)
2. Pilih menu Analyze -> Regression -> Linear.
3. Masukkan variable Perusahaan (Y) ke Dependent dan Harga(X1), Promosi(X2) dan
Lokasi (X3) ke Independent. Seperti tampak pada gambar dibawah ini :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


14 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
4. Klik

Statistics lalu pilih Durbin-Watson pada kolom Residuals. Akan muncul seperti gambar dibawah
ini :

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


15 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id
5. Klik Continue lalu OK.
6. Maka akan terlihat Hasil Output seperti dibawah ini:
Model Summaryb
Model R R Square Adjusted R Std. Error of Durbin-
Square the Estimate Watson
1 .947a .898 .886 .266 1.915
a. Predictors: (Constant), LOKASI, PROMOSI, HARGA
b. Dependent Variable: PERUSAHAAN_Y

Dari hasil output didapatkan nilai statistik uji Durbin-Watson sebesar 1.915, nilai ini akan
dibandingkan dengan nilai tabel signifikansi 5% dengan (n=30) dan jumlah variabel independen
(K=3) yang menghasilkan nilai dL = 1.284 dan dU = 1.567. Karena nilai DW terletak antara dU
dan (4-dU) = 1.567 < 1.915 < 2.433 maka dapat disimpulkan bahwa tidak terdapat autokorelasi
antara semua variabel bebas (X) dengan variabel terikat (Y).

REFERENSI :
[1]. DR. rer.nat. Dedi Rosadi, MSc.,2012, Ekonometrika & Analisis Runtun Waktu Terapan, CV
Andi Offset.
[2]. Gujarati, Damodar N., 2009, Basic Econometrics, McGraw-Hill International Edition.
[3]. Sigit Nugroho, 2008, Statistika Multivariat Terapan, UNIB Press
[4]. Wing Wahyu, 2009, Analisis Ekonometrika dan Statistika, UPP STIM YKPN.

2020 Statistik Multivariat Biro Akademik dan Pembelajaran


16 R. Roosaleh Laksono T.Y http://www.widyatama.ac.id

Anda mungkin juga menyukai