Analisis regresi digunakan untuk mengukur seberapa besar pengaruh antara variabel
bebas dan variabel terikat. Apabila hanya terdapat satu variabel bebas dan satu variabel
terikat, maka regresi tersebut dinamakan regresi linear sederhana.Sebaliknya, apabila
terdapat lebih dari satu variabel bebas atau variabel terikat, maka disebut regresi linear
berganda. Regresi linear berganda merupakan model regresi yang melibatkan lebih dari
satu variabel independen. Analisis regresi linear berganda dilakukan untuk mengetahui
arah dan seberapa besar pengaruh variabel independen terhadap variabel dependen.
Dalam contoh penelitian ini uji regresi linear berganda dilakukan untuk mendapatkan
gambaran bagaimana variabel independen yang meliputi CSR, likuiditas, capital intensity,
dan inventory intensity mempengaruhi variabel dependen yaitu agresivitas pajak dengan
tingkat signifikansi sebesar 0,05. Hasil dalam pengujian regresi linear berganda dalam
table 1 sebagai berikut.
Unstandardized Standardized
Coefficients Coefficients
Model t Sig.
B Std. Error Beta
Berdasarkan tabel 1, dapat diuraikan persamaan regresi berganda yaitu sebagai berikut:
1. Nilai konstanta (a) memiliki nilai positif sebesar 0,220. Tanda positif
artinya menunjukkan pengaruh yang searah antara variabel independen
dan variabel dependen. Hal ini menunjukkan bahwa jika semua variabel
independen yang meliputi CSR (X1), likuiditas (X2), capital intensity (X3),
dan inventory intensity (X4) bernilai 0 persen atau tidak mengalami
perubahan, maka nilai agresivitas pajak adalah 0,220.
2. Nilai koefisien regresi untuk variabel CSR (X1) yaitu sebesar -0,038. Nilai
tersebut menunjukkan pengaruh negatif (berlawanan arah) antara variabel
CSR dan agresivitas pajak. Hal ini artinya jika variabel CSR mengalami
kenaikan sebesar 1%, maka sebaliknya variabel agresivitas pajak akan
mengalami penurunan sebesar 0,038. Dengan asumsi bahwa variabel
lainnya tetap konstan.
3. Nilai koefisien regresi untuk variabel likuiditas (X2) yaitu sebesar -0,004.
Nilai tersebut menunjukkan pengaruh negatif (berlawanan arah) antara
variabel likuiditas dan agresivitas pajak. Hal ini artinya jika variabel
likuiditas mengalami kenaikan 1%, maka sebaliknya variabel agresivitas
pajak akan mengalami penurunan sebesar 0,004. Dengan asumsi bahwa
variabel lainnya dianggap konstan.
4. Nilai koefisien regresi untuk variabel capital intensity (X3) memiliki nilai
positif sebesar 0,070. Hal ini menunjukkan jika capital intensity mengalami
kenaikan 1%, maka agresivitas pajak akan naik sebesar 0,070 dengan
asumsi variabel independen lainnya dianggap konstan. Tanda positif
artinya menunjukkan pengaruh yang searah antara variabel independen
dan variabel dependen.
5. Nilai koefisien regresi untuk variabel inventory intensity (X4) memiliki nilai
positif sebesar 0,097. Hal ini menunjukkan jika inventory
intensity mengalami kenaikan 1%, maka agresivitas pajak akan naik
sebesar 0,097 dengan asumsi variabel independen lainnya dianggap
konstan. Tanda positif artinya menunjukkan pengaruh yang searah antara
variabel independen dan variabel dependen.
Definisi Multikolinearitas
Gejala Multikolinearitas
Dalam situasi terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai
koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara
dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh
karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun
mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel
bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya
multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas
dalam model regresi.
Penyebab Multikolinearitas
1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan
lebih beresiko terjadi multikolinearitas jika ada lebih dari 1 variabel dummy di
dalam model.
2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas
lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut: dalam model
regresi anda, ada variabel X1, X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam
situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta
kolinearitas antara X2 dengan X1*X2.
3. Adanya pengulangan variabel bebas di dalam model, misalkan: Y = Alpha +
Beta1 X1 + Beta2 X1*5 + Beta3 X3 + e.
Dampak
1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai
standar errornya besar.
2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan
drastis pada nilai koefisien regresi partial.
3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai
koefisien regresi parsial variabel lainnya.
4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk
menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut
terdapat multikolinearitas.
Contoh
Untuk memudahkan para pembaca memahami dampak di atas, kami coba ilustrasikan
sebagai berikut:
Anda harus pahami dulu yang dimaksud dengan koefisien regresi parsial. Dalam hal ini
biasanya lebih dikenal dengan istilah koefisien Beta. Koefisien Beta itu seperti yang ada
dalam contoh persamaan regresi berikut: Y = Alpha + Beta1 X1 + Beta2 X2 + e.
Apabila kita punya data sebagai gambar berikut: ada X1, X2 dan Perkalian antara X1
dengan X2 yaitu X1X2. Dataset Multikolinearita
Pertama kali kita lakukan regresi tanpa melibatkan variabel X1X2, yaitu: persamaan Y =
Alpha + Beta1 X1 + Beta2 X2 + Beta3 X1*X2 + e. Berikut Hasilnya:
Output Multikolinear
Cara mendeteksi adanya Multikolinearitas di dalam model regresi adalah dengan cara:
Ada kalanya kita tetap mempertahankan adanya multikolinearitas di dalam model regresi.
Yaitu jika kita berada dalam kondisi sebagai berikut:
Nilai VIF tinggi hanya pada variabel kontrol, sedangkan pada variabel interest, nilai
VIF rendah.
Meskipun pada variabel kontrol nilai VIF tinggi, tetapi pada variabel interest nilai VIF
rendah, maka dapat diartikan bahwa nilai prediksi dari variabel yang menjadi bahan
perhatian dalam model tetap dapat mengukur variabel terikat secara presisi. Mengapa bisa
seperti itu? kami akan ilustrasikan, misalkan model kita ada 3 variabel, yang menjadi
variabel interest adalah variabel dummy, yaitu Jenis Kelamin (Laki-laki dan perempuan).
Sedangkan variabel kontrol ada 2, yaitu penghasilan bulanan dan belanja bulanan. Dalam
hal ini, antara kedua variabel kontrol terdapat korelasi yang kuat, sehingga VIF keduanya
tinggi. Namun keduanya tidak berkorelasi dengan Jenis Kelamin yang menjadi variabel
interest. Sehingga nilai VIF Jenis Kelamin rendah.
Nilai VIF tinggi yang disebabkan oleh sebab inklusi karena hasil perkalian atau
kuadrat di dalam model, namun kedua variabel tersebut berkorelasi kuat terhadap
hasil perkaliannya.
Misalkan model kita terdapat variabel bebas X1, X2 dan X1*X2. Dimana X1*X2 adalah hasil
perkalian X1 dan X2. Kita ilustrasikan dengan cara melakukan Standarisasi berdasarkan
data yang digunakan pada contoh di atas (Dataset Multikolinearitas). Standarisasi kita
lakukan pada semua variabel, baik X1, X2 dan Y sebelum kita kalikan antara X1 dan X2.
Setelah distandarisasi baik X1 dan X2, selanjutnya variabel baru hasil standarisasi tersebut
kita kalikan, misal kita beri nama hasil standarisasi X1 menjadi SX1, X2 menjadi SX2 dan Y
menjadi SY. Kita kalikan SX1 dengan SX2 menjadi SX1X2. Selanjutnya kita lakukan uji
regresi linear dengan model: SY = Alpha + Beta1 SX1 + Beta2 SX2 + Beta3 SX1X2 + e.
Dengan sumber data yang sama, kita lihat hasilnya di bawah ini:
Output Product Standarisasi
Perhatikan di atas: Nilai Standar error rendah, rentang lower dan upper bound sempit,
serta Signifikansi t parsial tetap signifikan. Kalau kita telusuri nilai VIFnya, perhatikan di
bawah ini:
Model regresi dengan variabel dummy dengan jumlah kategori variabel dummy
adalah tiga kategori atau lebih.
Dikatakan tidak akan menjadi masalah jika terdapat perbedaan jumlah yang mencolok
anggota sampel didalam kategori, dimana yang menjadi kategori referensi adalah kategori
yang jumlah anggotanya sedikit. Sebagai contoh: jumlah sampel sebanyak 100 orang.
Variabel Dummy adalah “Jenis Pekerjaan (Petani, Buruh, PNS)”. Anggota kategori Petani 45
orang, Buruh 45 orang, sedangkan PNS 10 orang. Selanjutnya yang menjadi referensi
adalah yang anggotanya sedikit, yaitu PNS. Hal ini menyebabkan Variabel Dummy tidak
akan berkorelasi terhadap variabel lainnya, sebab yang menjadi referensi adalah yang
jumlah anggotanya paling sedikit.
Baiklah kita langsung masuk ke dalam tahap bahasan tentang bagaimana cara mengatasi
heteroskedastisitas dalam regresi linear. Pada prinsipnya, ada 3 cara yaitu antara lain:
Cara yang pertama adalah dengan menggunakan trasformasi data, yaitu dengan mengubah
bentuk data yang digunakan dalam model regresi. Transformasi yang sering atau
direkomendasikan untuk cara mengatasi heteroskedastisitas dengan transformasi adalah
transformasi inverse logaritma natural dan transformasi logaritma natural.