Anda di halaman 1dari 13

Bab IV : Konsep Regresi Berganda

Analisis regresi digunakan untuk mengukur seberapa besar pengaruh antara variabel
bebas dan variabel terikat. Apabila hanya terdapat satu variabel bebas dan satu variabel
terikat, maka regresi tersebut dinamakan regresi linear sederhana.Sebaliknya, apabila
terdapat lebih dari satu variabel bebas atau variabel terikat, maka disebut regresi linear
berganda. Regresi linear berganda merupakan model regresi yang melibatkan lebih dari
satu variabel independen. Analisis regresi linear berganda dilakukan untuk mengetahui
arah dan seberapa besar pengaruh variabel independen terhadap variabel dependen.
Dalam contoh penelitian ini uji regresi linear berganda dilakukan untuk mendapatkan
gambaran bagaimana variabel independen yang meliputi CSR, likuiditas, capital intensity,
dan inventory intensity mempengaruhi variabel dependen yaitu agresivitas pajak dengan
tingkat signifikansi sebesar 0,05. Hasil dalam pengujian regresi linear berganda dalam
table 1 sebagai berikut.

Tabel 1 : Hasil Uji Regresi Linear Berganda


Coefficientsa

Unstandardized Standardized
Coefficients Coefficients
Model t Sig.
B Std. Error Beta

(Constant) ,220 ,022 10,160 ,000

CSR -,038 ,090 -,053 -,424 ,674

1 Likuditas -,004 ,001 -,315 -2,519 ,015

Capital  Intensity ,070 ,021 ,539 3,352 ,002

Inventory Intensity ,097 ,034 ,459 2,832 ,007

a. Dependent Variable: Agresivitas Pajak


Sumber: Hasil Pengolahan Data SPSS 25

Berdasarkan tabel 1, dapat diuraikan persamaan regresi berganda yaitu sebagai berikut:

Y = α + β1X1 + β2X2 + β3X3 + β4X4 +  e

Y = (0,220) – 0,038X1 – 0,004X2 + 0,070X3 + 0,097X4 + e


Dari persamaan regresi linear berganda di atas, dapat dijelaskan sebagai berikut:

1. Nilai konstanta (a) memiliki nilai positif sebesar 0,220. Tanda positif
artinya menunjukkan pengaruh yang searah antara variabel independen
dan variabel dependen. Hal ini menunjukkan bahwa jika semua variabel
independen yang meliputi CSR (X1), likuiditas (X2), capital intensity (X3),
dan inventory intensity (X4) bernilai 0 persen atau tidak mengalami
perubahan, maka nilai agresivitas pajak adalah 0,220.
2. Nilai koefisien regresi untuk variabel CSR (X1) yaitu sebesar -0,038. Nilai
tersebut menunjukkan pengaruh negatif (berlawanan arah) antara variabel
CSR dan agresivitas pajak. Hal ini artinya jika variabel CSR mengalami
kenaikan sebesar 1%, maka sebaliknya variabel agresivitas pajak akan
mengalami penurunan sebesar 0,038. Dengan asumsi bahwa variabel
lainnya tetap konstan.
3. Nilai koefisien regresi untuk variabel likuiditas (X2) yaitu sebesar -0,004.
Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) antara
variabel likuiditas dan agresivitas pajak. Hal ini artinya jika variabel
likuiditas mengalami kenaikan 1%, maka sebaliknya variabel agresivitas
pajak akan mengalami penurunan sebesar 0,004. Dengan asumsi bahwa
variabel lainnya dianggap konstan.
4. Nilai koefisien regresi untuk variabel capital intensity (X3) memiliki nilai
positif sebesar 0,070. Hal ini menunjukkan jika capital intensity mengalami
kenaikan 1%, maka agresivitas pajak akan naik sebesar 0,070 dengan
asumsi variabel independen lainnya dianggap konstan. Tanda positif
artinya menunjukkan pengaruh yang searah antara variabel independen
dan variabel dependen.
5. Nilai koefisien regresi untuk variabel inventory intensity (X4) memiliki nilai
positif sebesar 0,097. Hal ini menunjukkan jika inventory
intensity mengalami kenaikan 1%, maka agresivitas pajak akan naik
sebesar 0,097 dengan asumsi variabel independen lainnya dianggap
konstan. Tanda positif artinya menunjukkan pengaruh yang searah antara
variabel independen dan variabel dependen.

Bab V : Sifat dan Konsekuensi serta Cara Penyembuhan Multikolinieritas

Definisi Multikolinearitas

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau


hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda.
Model regresi yang dimaksud dalam hal ini antara lain: regresi linear, regresi
logistik, regresi data panel dan cox regression.

Gejala Multikolinearitas
Dalam situasi terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai
koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara
dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh
karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun
mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel
bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya
multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas
dalam model regresi.

Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi


multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di
dalam model, kekuatan prediksinya tidak handal dan tidak stabil. Dan pengertian
multikolinearitas adalah sesungguhnya terletak pada ada atau tidak
adanya korelasi antar variabel bebas.

Penyebab Multikolinearitas

Penyebab multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua


variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya
yang dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain:

1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan
lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di
dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas
lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model
regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam
situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta
kolinearitas antara X2 dengan X1*X2.
3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha +
Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.

Dampak dari Multikolinearitas

Dampak

Dampak dari multikolinearitas antara lain:

1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai
standar errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan
drastis pada nilai koefisien regresi partial.
3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai
koefisien regresi parsial variabel lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk
menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut
terdapat multikolinearitas.

Contoh

Untuk memudahkan para pembaca memahami dampak di atas, kami coba ilustrasikan
sebagai berikut:

Anda harus pahami dulu yang dimaksud dengan koefisien regresi parsial. Dalam hal ini
biasanya lebih dikenal dengan istilah koefisien Beta. Koefisien Beta itu seperti yang ada
dalam contoh persamaan regresi berikut: Y = Alpha + Beta1 X1 + Beta2 X2 + e.

Contoh Model Regresi dengan Masalah Multikolinearitas


Berikut kami contohkan sebuah model regresi yang terdapat masalah multikolinearitas,
yaitu dengan persamaan Y = Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. (Dimana
X1*X2 adalah hasil perkalian antara X1 dengan X2).

Apabila kita punya data sebagai gambar berikut: ada X1, X2 dan Perkalian antara X1
dengan X2 yaitu X1X2. Dataset Multikolinearita
Pertama kali kita lakukan regresi tanpa melibatkan variabel X1X2, yaitu: persamaan Y =
Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. Berikut Hasilnya:

Output Multikolinear

Deteksi Multikolinear dengan Nilai Standar Error


Perhatikan di atas: Nilai Standar Error X2 sebesar 1,044 dimana nilainya > 1. dan nilai
standar error Constant 3,887 dimana juga nilainya > 1. Hal ini menunjukkan bahwa dengan
adanya multikolinearitas, nilai standar error menjadi besar, sehingga nilai Koefisien Beta
(B) tidak dapat mengukur variabel terikat secara presisi.

Deteksi Multikolinear dengan Nilai Confidence Interval


Perhatikan nilai Confidence Interval, baik Lower Bound maupun Upper Bound, rentangnya
sangat lebar. Misal pada X1, rentangnya antara -0,827 sd 3,108. Dan pada X2 nilai
rentangnya -1,138 sd 3,066. Hal ini yang menyebabkan nilai signifikansi t parsial di atas
lebih dari batas kritis 0,05 atau terima H0, yaitu pada X1 sebesar 0,249, pada X2 sebesar
0,361 dan pada X1*X2 sebesar 0,595. Hal ini menunjukkan bahwa, keberadaan sebuah
variabel yang berkorelasi kuat dengan variabel lainnya di dalam model dapat
menyebabkan perubahan secara dramatis nilai koefisien regresi parsial. Berikut akan kami
buktikan sebagai berikut:

Contoh Output Tanpa Multikolinearitas


Kita akan bandingkan apabila model regresi tanpa melibatkan variabel X1*X2, hasilnya
adalah di bawah ini:
Output Non Multikoliner
Lihat pada tabel “Output Non Multikolinear”, jika tanpa variabel penyebab
multikolinearitas yaitu X1*X2, maka hasilnya: Nilai standar error pada X1, X2 dan constant
adalah kurang dari 1. Nilai Rentang Confidence Interval sempit, yaitu pada X1 rentangnya
0,378 sd 0,866 dan pada X2 rentangnya 0,172 sd 0,646, sehingga signifikansi t parsial
adalah pada X1 sebesar 0,000 dan pada X2 sebesar 0,001 dimana keduanya kurang dari
batas kritis 0,05 atau dapat diartikan keduanya terima H1. Hasil diatas menunjukkan
bahwa sesungguhnya X1 dan X2 linear terhadap variabel terikat, namun dengan
penambahan variabel yang menyebabkan multikolinearitas, maka nilai signifikansi t
parsial berubah secara drastis. Sehingga dapat diambil kesimpulan bahwa sesungguhnya
nilai prediksi yang dihasilkan pada model yang terdapat multikolinearitas (tabel Output
Multicollinearity) tidak dapat memprediksi variabel terikat secara presisi.

Cara mendeteksi Multikolinearitas

Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:

1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel


bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error >
1, maka dapat diindikasikan adanya multikolinearitas.
3. Melihat rentang confidence interval. Jika rentang confidence interval sangat
lebar, maka dapat diindikasikan adanya multikolinearitas.
4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan
nilai eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance <
0,1 dan VIF > 10 dapat diindikasikan adanya multikolinearitas. Sebagian pakar
menggunakan batasan Tolerance < 0,2 dan VIF > 5 dalam menentukan adanya
multikolinearitas. Para pakar juga lebih banyak menggunakan nilai Tolerance
dan VIF dalam menentukan adanya Multikolinearitas di dalam model regresi
linear berganda dibandingkan menggunakan parameter-parameter yang lainnya.
Hal ini juga dalam prakteknya menggunakan SPSS, kita sudah disuguhkan
dengan hasil yang instant, dimana kita bisa langsung lihat nilai keduanya di
dalam output SPSS.
Kapan Bisa Dipertahankan

Ada kalanya kita tetap mempertahankan adanya multikolinearitas di dalam model regresi.
Yaitu jika kita berada dalam kondisi sebagai berikut:

Nilai VIF tinggi hanya pada variabel kontrol, sedangkan pada variabel interest, nilai
VIF rendah.

Meskipun pada variabel kontrol nilai VIF tinggi, tetapi pada variabel interest nilai VIF
rendah, maka dapat diartikan bahwa nilai prediksi dari variabel yang menjadi bahan
perhatian dalam model tetap dapat mengukur variabel terikat secara presisi. Mengapa bisa
seperti itu? kami akan ilustrasikan, misalkan model kita ada 3 variabel, yang menjadi
variabel interest adalah variabel dummy, yaitu Jenis Kelamin (Laki-laki dan perempuan).
Sedangkan variabel kontrol ada 2, yaitu penghasilan bulanan dan belanja bulanan. Dalam
hal ini, antara kedua variabel kontrol terdapat korelasi yang kuat, sehingga VIF keduanya
tinggi. Namun keduanya tidak berkorelasi dengan Jenis Kelamin yang menjadi variabel
interest. Sehingga nilai VIF Jenis Kelamin rendah.

Nilai VIF tinggi yang disebabkan oleh sebab inklusi karena hasil perkalian atau
kuadrat di dalam model, namun kedua variabel tersebut berkorelasi kuat terhadap
hasil perkaliannya.

Misalkan model kita terdapat variabel bebas X1, X2 dan X1*X2. Dimana X1*X2 adalah hasil
perkalian X1 dan X2. Kita ilustrasikan dengan cara melakukan Standarisasi berdasarkan
data yang digunakan pada contoh di atas (Dataset Multikolinearitas). Standarisasi kita
lakukan pada semua variabel, baik X1, X2 dan Y sebelum kita kalikan antara X1 dan X2.
Setelah distandarisasi baik X1 dan X2, selanjutnya variabel baru hasil standarisasi tersebut
kita kalikan, misal kita beri nama hasil standarisasi X1 menjadi SX1, X2 menjadi SX2 dan Y
menjadi SY. Kita kalikan SX1 dengan SX2 menjadi SX1X2. Selanjutnya kita lakukan uji
regresi linear dengan model: SY = Alpha + Beta1 SX1 + Beta2 SX2 + Beta3 SX1X2 + e.

Dengan sumber data yang sama, kita lihat hasilnya di bawah ini:
Output Product Standarisasi
Perhatikan di atas: Nilai Standar error rendah, rentang lower dan upper bound sempit,
serta Signifikansi t parsial tetap signifikan. Kalau kita telusuri nilai VIFnya, perhatikan di
bawah ini:

VIF Product Standarisasi


Lihat bahwa nilai VIF tetap rendah, yaitu < 5 atau < 10.

Model regresi dengan variabel dummy dengan jumlah kategori variabel dummy
adalah tiga kategori atau lebih.

Dikatakan tidak akan menjadi masalah jika terdapat perbedaan jumlah yang mencolok
anggota sampel didalam kategori, dimana yang menjadi kategori referensi adalah kategori
yang jumlah anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100 orang.
Variabel Dummy adalah “Jenis Pekerjaan (Petani, Buruh, PNS)”. Anggota kategori Petani 45
orang, Buruh 45 orang, sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi
adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan Variabel Dummy tidak
akan berkorelasi terhadap variabel lainnya, sebab yang menjadi referensi adalah yang
jumlah anggotanya paling sedikit.

Cara Mengatasi Multikolinearitas

Cara mengatasi multikolinearitas adalah dengan cara:


1. Jika jumlah variabel banyak, maka kita dapat melakukan Analisis Faktor sebelum
regresi. Setelah analisis faktor, variabel baru yang terbentuk kita gunakan
sebagai variabel di dalam model regresi.
2. Dengan cara memilih salah satu diantara variabel bebas yang berkorelasi kuat.
Oleh karena itu, sebelumnya anda harus mencari variabel yang nilai VIFnya
tinggi dan nilai korelasinya dengan variabel bebas lainnya kuat.
3. Dengan cara melakukan operasi matematis antar variabel bebas yang berkorelasi
kuat sehingga didapat variabel baru hasil operasi tersebut yang kemudian
dimasukkan ke dalam model regresi sebagai perwakilan dari variabel yang
menjadi sumber operasi matematis tersebut.
4. Melakukan standarisasi terhadap variabel yang menjadi penyebab inklusi
perkalian antara variabel, dimana hasil perkalian setelah standarisasi tersebut
yang dimasukkan ke dalam model bersama-sama dengan variabel yang sudah
distandarisasi.

Bab VI: Sifat dan Konsekuensi serta Cara Penyembuhan Autokorelasi


Suatu model regresi dapat dikatakan baik ketika terbebas dari autokorelasi. Uji
autokorelasi yang dapat muncul karena adanya observasi yang berurutan sepanjang waktu
dan saling berkaitan satu sama lainnya (Ghozali, 2016). Permasalahan ini muncul karena
residual tidak bebas pada satu observasi ke observasi lainnya. Uji autokorelasi bertujuan
untuk menunjukkan korelasi anggota observasi yang diurutkan berdasarkan waktu atau
ruang (Ajija, 2011). Uji autokorelasi bertujuan untuk menguji apakah dalam suatu model
regresi linear ada korelasi antara kesalahan pengganggu pada periode t dengan kesalahan
pada periode t-1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem
autokorelasi. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari
satu observasi ke obervasi lainnya. Jika data observasi di atas 100 data sebaiknya
menggunakan uji Lagrange Multiplier.

Gejala autokorelasi dapat dideteksi menggunakan uji Durbin  Watson Test dengan


menentukan nilai durbin watosn (DW). Uji autokorelasi hanya dilakukan pada data time
series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada
kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang
bersamaan. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya
lebih dari satu tahun biasanya memerlukan uji autokorelasi.
Untuk mendeteksi terdapat atau tidaknya autokorelasi adalah dengan melakukan :
1. Run test merupakan bagian dari statistik non-parametik yang dapat digunakan untuk
melakukan pengujian, apakah antar residual terjadi korelasi yang tinggi. Apabila antar
residual tidak terdapat hubungan korelasi, dapat dikatakan bahwa residual adalah random
atau acak.

2. Uji Durbin – Watson

Kriteria pengambilan keputusan :


1. Mencari nilai dl dan du dari t-tabel berdasarkan jumlah sampel penelitian.
2. Membuat grafik untuk mengetahui apakah data penelitian memiliki
masalah autokorelasi.
3. Pengambilan keputusan ada atau tidaknya autokorelasi menggunakan
kriteria DW tabel dengan tingkat signifikansi 5% yaitu sebagai berikut :
1. Nilai D-W di bawah -2 artinya terdapat autokorelasi positif.
2. Nilai D-W di antara -2 sampai +2 artinya tidak ada autokorelasi.
3. Nilai D-W di atas +2 artinya terdapat autokorelasi negatif.
4. Uji Breusch-Godfrey Serial Correlation LM Test. Dasar pengambilan keputusan
uji ini berdasarkan nilai p-value.
Jika uji Breusch-Godfrey Serial Correlation LM Test dengan signifikansi > 0.05
maka model regresi tidak terdapat masalah autokorelasi.
Jika hasil uji Breusch-Godfrey Serial Correlation LM Test dengan signifikansi <
0.05 maka model regresi masih terdapat masalah autokorelasi.
Sebagai contoh misal hasil uji Autokorelasi dengan menggunakan uji Breusch-
Godfrey (LM Test) menunjukkan nilai probability chi-square dari Obs*R-
squared sebesar 0.2869. Nilai tersebut bernilai diatas 0,05 maka dapat
disimpulkan bahwa tidak terdapat masalah autokorelasi pada model regresi.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah sebagai berikut :

1. Mengubah model regresi ke dalam bentuk persamaan beda umum


(generalized difference equation).
2. Memasukkan variabel lag dari variabel terikat menjadi salah satu variabel
bebas, sehingga data observasi menjadi berkurang 1.
3. Mengeluarkan satu variabel atau lebih variabel bebas yang mempunyai
nilai korelasi sederhana relatif tinggi (misalnya > ú 0,8ê).
4. Transformasi variabel. Menganalisis ulang model regresi yang sama, tetapi
dengan nilai variabel-variabel yang telah ditransformasikan.
5. Penambahan data baru. Semakin sedikit sampel yang diambil dalam
penelitian akan cenderung meningkatkan adanya gangguan.

Bab VI: Sifat dan Konsekuensi serta Cara Penyembuhan Heteroskedastisitas


Uji heteroskedastisitas digunakan untuk mengetahui ada atau tidaknya penyimpangan
asumsi klasik heteroskedastisitas yaitu adanya ketidaksamaan varian dari residual untuk
semua pengamatan pada model regresi. Heteroskedastisitas merupakan salah satu faktor
yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga
mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi
parameter (koefisien) regresi akan terganggu.

Gasperz, Vincent (1991) mengatakan bahwa heteroskedastisitas dapat mengakibatkan


pendugaan parameternya tidak efisien sehingga tidak mempunyai ragam minimum. Karena
pendugaan parameter dianggap efisien karena memiliki ragam yang minimum, sehingga
ragam galat bersifat konstan atau disebut juga bahwa asumsi homoskedastisitas terpenuhi.
Salah satu usaha untuk mengatasi heteroskedastisitas ini dapat dilakukan dengan
mentransformasikan variabel – variabelnya, baik variabel bebas, variabel tidak bebas
maupun keduanya agar asumsi homoskedastisitas terpenuhi. Dampak yang akan terjadi
apabila terdapat keadaan heterokedastisitas adalah sulit mengukur standart deviasi yang
sebenarnya, dapat menghasilkan standart deviasi yang terlalu lebar maupun terlalu sempit.
Jika tingkat error dari varians terus bertambah, maka tingkat kepercayaan akan semakin
sempit. Untuk mengatasi masalah heteroskedastisitas ini, salah satu solusinya adalah
dengan menggunakan regresi gamma.

Konsekuensi terjadinya heteroskedastisitas adalah hasil estimasi OLS yang diperoleh


tetap bersifat linier dan tak bias, tetapi varian yang diperoleh menjadi tidak efisien, artinya
varian cenderung membesar atau tidak lagi merupakan varian yang minimum sehingga
estimasi yang diperoleh tidak lagi BLUE (Best Linear Unbiased Estimator). Akibat dari
varians yang tidak lagi minimum yaitu menyebabkan perhitungan standard error metode
OLS menjadi tidak bisa dipercaya kebenarannya. . Standard error ini memiliki peran dalam
pembentukan t hitung maupun F hitung. Interval estimasi maupun uji hipotesis yang
didasarkan pada distribusi t maupun uji F tidak bisa lagi dipercaya untuk mengevaluasi
hasil regresi. Jika standard error mengecil maka t cenderung membesar namun
kelihatannya signifikan, padahal sebenarnya tidak signifikan. Sebaliknya jika standard
error membesar, maka t cenderung mengecil dan tidak signifikan, padahal sebenarnya
signifikan. Hal ini berarti bahwa jika terdapat heteroskedastisitas dalam model regresi
maka uji t menjadi tidak menentu sehingga dapat menyesatkan kesimpulan yang akan
diambil[5]. Dengan demikian model perlu diperbaiki terlebih dahulu agar pengaruh dari
heteroskedastisitas hilang[3]. Alternatif cara untuk mengatasi masalah heteroskedastisitas
adalah dengan metode Weighted Least Square (kuadrat terkecil tertimbang). Metode WLS
sama halnya seperti metode OLS yang meminimumkan jumlah sisaan, hanya saja pada
metode WLS dilakukan pembobotan suatu faktor yang tepat kemudian baru menggunakan
metode OLS terhadap data yang telah terboboti[3]. Selain itu, masalah heteroskedastisitas
dapat diatasi dengan mentransformasikan data ke bentuk LN atau Log atau bentuk lainnya.

Cara Mengatasi Heteroskedastisitas

Baiklah kita langsung masuk ke dalam tahap bahasan tentang bagaimana cara mengatasi
heteroskedastisitas dalam regresi linear. Pada prinsipnya, ada 3 cara yaitu antara lain:

1. Dengan cara transformasi data.


2. Dengan cara weighted least square (WLS) atau regresi linear dengan
menggunakan pembobot.
3. Dengan cara membiarkannya namun menggunakan koefisien estimasi yang
robust atau kebal terhadap pelanggaran heteroskedastisitas, yaitu koefisien
estimasi Huber White.
Mengatasi Pelanggaran Heteroskedastisitas dengan Transformasi

Cara yang pertama adalah dengan menggunakan trasformasi data, yaitu dengan mengubah
bentuk data yang digunakan dalam model regresi. Transformasi yang sering atau
direkomendasikan untuk cara mengatasi heteroskedastisitas dengan transformasi adalah
transformasi inverse logaritma natural dan transformasi logaritma natural.

Cara Mengatasi Heteroskedastisitas dengan Transformasi inverse logaritma natural


Dalam model transformasi ini, variabel-variabel di dalam ditransformasi ke dalam bentuk
satu per logaritma natural dari variabel, yaitu misalnya variabel X1 menjadi 1/(LN X1).
Sehingga apabila model awalnya adalah: Y = b0 + b1 X1 + b2 X2 + e, maka akan diubah
menjadi 1/LN(Y) = b0 + b1 1/LN(X1) + b2 1/LN(X2) + e
Daftar Pustaka
https://binus.ac.id/malang/2021/11/heteroskedastisitas-dan-regresi-gamma/
#:~:text=Heteroskedastisitas%20merupakan%20salah%20satu%20faktor,(koefisien)
%20regresi%20akan%20terganggu.
https://www.statistikian.com/2020/01/cara-mengatasi-heteroskedastisitas-regresi-
linear.html
https://www.statistikian.com/2016/11/multikolinearitas.html
https://www.statistikian.com/2017/01/tutorial-regresi-linear-dengan-eviews.html

Anda mungkin juga menyukai