Anda di halaman 1dari 13

ULASAN MENGENAI ASUMSI PADA REGRESI YAITU

MULTIKOLENEARITAS, HETEROKEDASTISITAS &


AUTOKORELASI

Dosen Pengampuh Mata Kuliah :

Dr. Munawwarah S. Mubarak, SE.,M.Si.

DISUSUN

Alif Isyawatul Darmawan


(A031211043)

FAKULTAS EKONOMI DAN BISNIS

UNIVERSITAS HASANUDDIN

2022/2023
1. Pengertian Uji Asumsi Klasik
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada
analisis regresi linear berganda yang berbasis ordinary least aquare (OLS).
Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik, misalnya regresi logistic atau regesi ordinal,
demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis
regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada cross
sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear
yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai
return saham yang dihitung dengan market model, atau market adjusted
model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan
pengemasan regresi, tetapi tidak perlu diuji asumsi klasik.
Uji asumsi klasik merupakan terjemahan dari chlasical linear regressiom
model (CLRM) yang merupakan asumsi yang diperlukan dalam analisis
regresi linear dengan ordinary least square. Sebagai informasi, semua ini
berkat kejeniusan seorang matematikawan Jerman bernama Carl Friedch
Gauss.
CLRM juga sering disebut dengan The Gaussian Standard, yang
sebenarnya terdiri dari 10 item. Akan tetapi, yang sering kita jumpai dalam
berbagai penelitian, atau berbagai buku statistic terapan mungkin hanya 4
atau 5 saja. Mengapa? Berikut sedikit uraian tentang 10 item tersebut.
1. Asumsi 1: Linear regression model
Model regresi haruslah linear, meskipun bila saja sebenarnya variabel
terikat Y dengan variabel bebas X tidak linear. Istilah linear ada dua
macam, yaitu linearitas pada variabel dan linearitas pada parameter.
Yang disebut ldengan linearitas pada variabel adalah jika
digambarkan dalam grafik maka akan berbentuk garis lurus. Misalnya
persamaan Y = a + bX. Seandainya persamaannya adalah Y = a + b X2
dapat disebut linear jika koefisien b mempunyai pangkat 1. Asumsi yang
diperlukan dalam regresi linear adalah linearitas pada parameter, bukan
linearitas pada variabel.
2. Asumsi 2: Values are fixed in repeated sampling
Nilai variabel X diasumsikan stokastik atau dianggap tetap dalam
sampel yang berulang. Misalnya ada 7 data yang akan dianalisa dengan
regresi (ini hanya contoh saja, karena regresi dengan 7 data tampaknya
terlalu sedikit)
Gaji (Juta) Pengeluaran (Juta)
3 2,5
3 2
3 3
4 3
4 2,5
5 4,5
5 4
Jadi misalnya ambil nilai tetap untuk X, yaitu gaji 3 juta maka sampel
pertama mempunyai pengeluaran 2,5 juta. Lalu ambil lagi kedua dengan
gaji 3 juta maka pengeluarannya adalah 2 juta. Demikian seterusnya untuk
sampel dengan gaji 4 juta dan 5 juta. Nilai X dianggap tetap pada sampel
yang berulang. (dalam regresi lanjut, dapat disaumsikan bahwa X tidak
stokastik).
3. Asumsi 3: Zero mean value of disturbance ui
Nilai Y hasil prediksi dengan model regresi tentunya mempunya
kesalahan atau tidak tepat sama dengan nilai Y pada data. Selisihnya
sering disebut dengan disturbance dan sering disimbolkan dengan u. nilai
ini harus mempunyai rata-rata sama dengan 0 (eksak). Ketika telah
mendapatkan garis lurus pada model, maka nilai Y yang sebenarnya bisa
berada di atas atau dibawah garis lurus tersebut, akan tetapi jumlahnya
akan seimbang sehingga rata-ratanya sama dengan 0.

4. Asumsi 4: Homoscedasticity or equal variance of ui


Homo berarti sama atau equal, scedasticity berarti disperse atau
scatter atau ada yang mengartikan sebaran. Jadi varians dari error atau
disturbance haruslah sama pada masing-msaing nilai X. sebagai contoh,
ada 3 orang dengan gaji 3 juta sehingga memberikan tiga buah error dan
mempunyai varians. Varians ini harus sama (equal) dengan varians error
pada nilai X yang lain misalnya 4 juta. Demikian seterusnya.
5. Asumsi 5: No autocorrelation between the disturbances
Asumsi ini masih berkaitan dengan nilai error, yaitu bahwa untuk
sembarang 2 buah nilai X, maka kedua error itu tidak berkorelasi (atau
mempunyai korelasi 0). Missalnya error pada X sebesar 3 juta dengan Y
sebesar 2 juta tidak berkorelasi.
Penelitian lain adalah misalnya ada persamaan Y=a+bX+u dengan u
adalah error. Jika ada korelasi antara u dengan u-1 (error sebelumnya)
maka model akan gagal, karena Y pada model harusnya dipengaruhi oleh
X saja, akan dipengaruhi oleh u. demikian seterusnya.
6. Asumsi 6: Zero covariance between ui and Xi
Artinya nilai variabel bebas (X) dengan error (ui) tidak berkorelasi.
Diasumsikan bahwa Y adalah dipengaruhi oleh X dan u, sehingga X dan u
harus tidak saling berkorelasi. Jika X atau u berkorelasi, maka tidak
mungkin mencari pengaruh masing-masing terhadap Y.
Jika X berkorelasi positif dengan u, maka jika X meningkat u juga
meningkat, atau jika X menurun maka u juga menurun (juga sebaliknya
jika berkorelasi negatif). Sehingga sulit untuk mengisolasi pengaruh X
dan u terhadap Y. asumsi ini sebenarnya akan terpenuhi secara otomatis
jika X merupakan stokastik karena untuk X bernilai tetap, u akan berubah.
7. Asumsi 7: The number of observation n must than tehe number of
parameters to be estimated
Asumsi ini sebenarnya tidak asing bagi matematika sederhana. Jika
ada dua parameter yang akan dicari nilainya maka tidak mungkin
diselesaikan dengan satu persamaan (observasi).

8. Asumsi 8: Variabillity in X values


Harus ada variasi nilai dalam variabel X. jika X nilainya sama untuk
semua observasi maka tentunya tidak dapat diestimasi. Meskipun ini
mudah dimengerti namun sering dilipakan.
9. Asumsi 9: The regression model is correctly specified
Model regresi yang dibangun haruslah benar dalam arti sesuai dengan
teori yang telah dikembangkan. Seperti telah dijelaskan bahwa statistic
hanyalah untuk menguji teori atau fenomena tertentu. Jadi jika
menggunakan variabel yang sembarangan (atau tidak berdasarkan teori
tertentu) maka model regresi yang dihasilkan juga patut dipertanyakan.
10. Asumsi 10: there is no perfect multicollinearity
Tidak ada hubungan linear yang tinggi antara variabel-variabel bebas
dalam model regresi. Jadi asumsi ini tentunya tidak bisa diterapkan pada
regresi dengan satu variabel bebas (regresi linear sederhana).

1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai tersebut berdistribusi
normal atau tidak. Model regresi yang baik adalah memiliki nilai residual
yang berdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-
masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang
jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel.
Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah
kelas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya
hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata.
Jika kelas tersebut bodoh semua maka tidak normal, atau sekolah luar biasa.
Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak
normal atau merupakan kelas unggulan. Pengamatan data yang normal akan
memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan
kebanyakan mengumpul di tengah. Demikian juga nilai rata-rata, modus dan
median relative dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolomogorov Smirnov. Tidak ada
metode yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian
dengan metode grafik sering menimbulkan perbedaan persepsi diantara
beberapa pengamat, sehingga penggunaan uji normalitas dengan uji statistic
bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa pengujian
dengan uji statistic lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya
signifikasi Kolomogorov Smirnov sebesar 0,049) maka dapat dicoba dengan
metode lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh
dari nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan
transformasi data, melakukan trimming data outliers atau menambah
dataobservasi. Transformasi data dapat dilakukan ke dalam bentuk
logaritma.natural, akar kuadrat, inverse, atau bentuk yang lain tergantung dari
bentuk kurva normalnya, apakah condong ke kiri, ke kanan, mengumpul di
tengah atau menyebar ke samping kanan dan kiri.
Uji asumsi normalitas untuk mendeteksi kemungkinan normalitas
kesalahan pengganggu. Uji ini dilakukan dengan cara uji chi square goodness
of fit atau dapat dengan langsung mengamati distribusi yang terbentuk dari
output computer untuk data yang berdistribusi normal. Metode yang
digunakan untuk menguji normalitas dalam penelitia ini adalah kolomogorov-
smirnov. Apabila dari hasil pengujian normalitas, terlihat sebaran data
variabel X 1 , X 2 , X 3 , X 4 , dan X 5 mengikuti kurva normal maka dapat langsung
diadakan pengujian hipotesis.
Untuk menentukan posisi normal dari sebaran data, langkah awal yang
dilakukan adalah menghitung standar deviasi.

( Dv−Dv )

SD=∑
❑ n
 SD 1 = 68%
 SD 2 = 95%
 SD 3 = 99,7%
Penentuan area ini penting, karena sebaran data yang dikatakan normal
apabila sebagai berikut:
 Sebanyak 68% dari observasi berada pada area SD1
 Sebanyak 95% dari sisanya berada pada area SD2
 Sebanyak 99% dari sisanya berada pada area SD3
Sebaran data yang dikatakan normal:
 Apabila data tidak normal, maka diperlukan upaya untuk mengatasi
seperti: memotong data yang out liers, memperbesar sampel, atau
melakukan transformasi data.
 Data yang tidak normal juga dapat dibedakan dari tingkat
kemencengannya (skewness). Jika data cenderung menceng ke kiri disebut
positif skewness, dan jika data cenderung menceng ke kanan disebut
negative skewness. Data dikatakan normal jika datanya simetris.

2. Asumsi Klasik Autokorelasi


Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu
periode t dengan periode sebelumnya (t-1). Secara sederhana adalah bahwa
analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terkait, jika tidak boleh ada korelasi antara observasi dengan
observasi sebelumnya.
Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap
nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu,
katakanlah bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan
Januari. Berarti terdapat gangguan autokorelasi pada model tersebut. Contoh
lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan Januari
suatu keluarga mengeluarkan belanja bulanan yang relative tinggi, maka
tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan
rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu)
dan tidak perlu dilakukan pada data cross section seperti pada kuisioner di
mana pengukuran semua variabel dilakukan secara serempak pada saat
bersamaan. Model regresi pada penelitian di nbursa efek Indonesia di mana
periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistic yang sering dipergunakan adalah uji Durbin-
Watson, uji dengan Run Test dan jika data observasi di atas 100 data
sebaiknya menggunakan uji Lagrange Multiper. Beberapa cara untuk
menanggulangi autokorelasi adalah dengan mentranformasikan data atau bisa
juga dengan mengubah model regresi ke dalam bentuk persamaan beda
umum (generalized difference equation). Selain itu juga dapat dilakukan
dengan memasukkan variabel lagi dengan variabel terkaitnya menjadi salah
satu variabel bebas, sehingga data observasi menjadi berkurang.
 Sebab- sebab Autokorelasi
1). Interia: data umumnya yang digunakan berbentuk kumulatif bukan
individual series. Sehingga nilai data pada satu titik lebih besar dari
data sebelumnya.
2). Manipulasi Data: menggunakan data tahunan menjadi triwulan dengan
cara membagi tiga data tahunan secara langsung.
 Tujuan penerapan Autokorelasi
Uji autokorelasi bertujuan menguji apakah dalam suatu model regresi
linear ada korelasi antara kesalahanpengganggu pada periode (t) dengan
kesalahan pada periode t-1 (sebelumnya). Jika terjadi korelasi maka
dinamakan ada problem autokorelasi. Model regresi yang baik adalah
regresi yang bebas dari autokorelasi Uji auto korelasi dilakukan dengan
α =5%, menggunakan uji Durbin-Watson (D-W), dengan tingkat
kepercayaan apabila D-W terletak antara -2 sampai +2 maka tidak ada
autokorelasi.
 Mendeteksi adanya autokorelasi
Dalam praktek secara umum, metode yang sering digunakan adalah:
Durbin-Watson Method. Dalam regresi linier tidak terjadi autokorelasi jika
nilai Durbin-Watson: 1,70-2,30.
 Akibat Autokorelasi
Akibatnya adalah niali (t) hitung akan menjadi bias pula, karena nilai
(t) diperoleh dari hasil bagi Sb terhadap b (t=b/sb). Berhubung nilai Sb
bias maka nilai (t) juga akan bias atau bersifat tidak pasti (misleading).
Karena adanya masalah korelasi dapat menimbulkan adanya bias pada
hasil regresi.

3. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi
yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear
berganda. Jika ada korelasi yang tinggi diantara variabel-variabel bebasnya,
maka hubungan antara variabel bebas terhadap variabel terkaitnya menjadi
terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya
motivasi, kepemimpinan dan kepuasan kerja dengan variabel terkainya adalah
kinerja.
Logika sederhananya adalah bahwa model tersesbut untuk mencari
pengaruh antara motivasi, kepemimpinan dan kepuasan kerja terhadap
kinerja. Jadi tidak boleh ada korelasi yang tinggi anatara motivasi dengan
kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan
dengan kepuasan kerja.
Alat statistic yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF), korelasi
pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan
condition index (CI).
Beberapa alternative cara untuk mengatasi masalah multikolinearitas
adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang
tinggi
2. Menambah jumlah observasi
3. Mentranformasikan data ke dalam bentuk lain, misalnya logaritma natural,
akar kuadrat atau bentuk first difference delta.
Multikolinearitas adalah suatu keadaan dimana terjadi korelasi linear yang
“perfect” atau eksak diantara variabel penjelas yang dimasukkan ke dalam
model.
 Konsekuensi Multikolinearitas
Apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas
dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat
ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap
nilai (t).
 Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas diantaranya:
menganalisis matrix korelasi dengan Pearson Correlation atau
Spearman’s Rho Correlation, melakukan regresi partial dengan teknik
auxiliary regression.
Pendapat Gujarati (1995) yang mengatakan bahwa bila korelasi
antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi
masalah yang serius. Gujarati juga menambahkan bahwa, apabila korelasi
antara variabel penjelas tidak lebih besa disbanding korelasi variabel
terkait dengan masing-masing variabel penjelas, maka dapat dikatakan
tidak terdapat masalah yang serius. Engan demikian, dapat dismimpulkan
bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan
telah terbebas dari masalah multikolinearitas.
Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan
tidak terpenuhinya asumsi terbatas dari masalah multikolinearitas, dengan
mempertimbangkan sifat data dari cross section, maka bila tujuan
persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat
ditolerir, sepanjang nilai (t) signifikan.
 Tujuan Penerapan Multikolinearitas
Uji multikolinearitas bertujuan untuk menguji apakah dalam model
regresi ditemukan adanya korelasi antar variabel bebas (independen).
Dalam model regresi yang baik seharusnya tidak terjadi korelasi di antara
variabel bebas. Uji multikolinearitas dilakukan dengan melihat nilai
tolerance dan variance inflation factor (VIF) dari hasil analisis dengan
menggunakan SPSS. Apabila nilai tolerance value lebih tinggi daripada
0,10 atau VIF lebih kecil daripada 10 maka dapat disimpulkan tidak
terjadi multikolinearitas.
4. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat
ketidaksamaan varians dari residual satu ke pengamatan yang lain. Model
regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan
varians dari residual satu pengamatan ke pengamatan yang lain tetap atau
disebut heteroskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot
dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai
nresidualnya). Model yang didapatkan jika tidak terdapat pola tertentu pada
grafik, seperti mengumpul di tengah, menyempit kemudian melebar atau
sebaliknya melebar kemudian menyempit. Uji statistic yang dapat digunakan
adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi
heteroskedastisitas. Heteroskedastisitas mencul apabila kesalahan (e) atau
residual dari model yang diamati tidak memiliki varians yang konstan dari
satu observasi ke observasi lainnya rumus regrensi diperoleh dengan asumsi
bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel
yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak
konstan, maka kondisi tersebut dikatakan tidak heteroskedastisitas atau
mengalami heteroskedastisitas.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun
mempunyai hubungan linear atau tidak. Uji ini jarang digunakan pada
berbagai penelitian, karena biasanya model dibenetuk berdasarkan telaah
teoretis bahwa hubungan antara variabel bebas dan variabel terikatnya adalah
linear. Hubungan atara variabel yang secara teori buka merupakan hubungan
linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear, misalnya
masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah
linear atau tidak, uji linearitas tidak dapat digunakan untuk memberikan
adjustments bahwa hubungan tersebut bersifat linear atau tidak. Uji linearitas
digunakan untuk untuk mengkonfirmasikan apakah sifat linear antara dua
variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil
observasi yang ada. Uji linearitas dapat menggunakan uji Durbin-Watson,
Romsey Test atau uji Lagrange Multiper.
DAFTAR PUSTAKA

Arikunto. (2003). Dasar-Dasar Evaluasi Pendidikan. Jakarta: Bumi Aksara


Gujarati.(1995). Basic aEconometrics (3rd edition ed). Yogyakarta: APM YKPN
Santoso, Sugih. (2002). SPSS mengolah Data Statistik Secara Profesional.
Jakarta: PT Elex Media Komputindo
Santoso, Sugih. (2010). Buku Latihan SPSS Statistik Parametrik. Jakarta: PT
Elex Media Komputindo

Anda mungkin juga menyukai