Anda di halaman 1dari 53

Materi 5: Pemodelan Regresi Linier Majemuk

Materi 5

PEMODELAN REGRESI LINIER MAJEMUK

Prinsip-prinsip dasar pemodelan regresi majemuk tidak berbeda


dengan regresi sederhana. Hanya saja, jika pada regresi sederhana, hanya
digunakan sebuah variable bebas yang mempengaruhi variable terikat, maka
pada regresi majemuk digunakan lebih dari sebuah variable bebas.
Contohnya, pada Bab 3 lalu telah dicoba untuk melihat hubungan antara
Laba dengan Aset dan Pemberian Kredit, dengan membuat dua buah regresi
sederhana. Pada regresi majemuk ini, kita dapat melihat pengaruh dua
variable bebas, yaitu Aset dan Pemberian Kredit terhadap variable terikat,
yaitu Laba secara bersama-sama dalam satu model.

Dengan semakin banyaknya variable bebas berarti semakin tinggi


pula ‘kemampuan’ regresi yang dibuat untuk menerangkan variable terikat,
atau ‘peran’ faktor-faktor lain diluar variable bebas yang digunakan, yang
dicerminkan oleh residual atau error menjadi semakin kecil. Dengan
demikian, semakin banyak variable independen yang digunakan maka
semakin tinggi pula koefisien determinasinya (R2).

Sekalipun demikian, regresi mempunyai berbagai permasalahan yang


tidak ditemui dalam regresi sederhana. Digunakannya beberapa variable
bebas mengakibatkan berpeluangnya variable bebas tersebut saling
berkorelasi, atau yang dikenal dengan adanya Multikolinieritas di antara
variable bebas. Bila hal itu terjadi, maka akan mengganggu ketepatan model
yang dibuat. Permasalahan tersebut akan dibahas pada bagian selanjutnya.

Model regresi majemuk untuk populasi dituliskan sebagai berikut:

1
Materi 5: Pemodelan Regresi Linier Majemuk

Yi = β0 + β1X1i + β2X2i + β3X3i + ……. + βkXki + ui (5.1)

Mengingat data yang digunakan berasal dari sampel, maka


sebagaimana dalam regresi sederhana, nilai-nilai parameter tersebut harus
diduga, sehingga modelnya menjadi:

Ŷi = b0 + b1X1i + b2X2i + b3X3i + ……. + bkXki + ei (5.2)

di mana: i = 1,2,3,…..,n (banyaknya observasi)

b0, b1, b2, b3,….., bk,ei dugaan β0, β1, β2, β3, βk,ui

Dalam bagian ini tidak akan dijelaskan cara menurunkan rumus


model regresi ganda untuk mendapatkan koefisien-koefisiennya,
sebagaimana yang dilakukan dalam regresi sederhana. Yang perlu digaris
bawahi adalah pada prinsipnya, pendugaan koefisien regresi majemuk juga
diturunkan dengan metode kuadrat terkecil (Ordinary Least square/OLS),
sehingga residual model tersebut tetap yang terkecil.

Untuk regresi dengan dua variable bebas, yaitu:

Ŷi = b0 + b1X1i + b2X2i (5.3)

Nilai koefisiennya masih dapat dicari dengan persamaan normal, yaitu:

b0 = Ῡ-b1X1-b2 X2 (5.4)
2
(∑ 𝑦𝑖 𝑥1𝑖 )(∑ 𝑥2𝑖 )−(∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥1𝑖 𝑥2𝑖 )
b1 = 2 2 (5.5)
(∑ 𝑥1𝑖 )(∑ 𝑥2𝑖 )−(∑ 𝑥1𝑖 𝑥2𝑖 )

2
(∑ 𝑦𝑖 𝑥21𝑖 )(∑ 𝑥1𝑖 )−(∑ 𝑦𝑖 𝑥1𝑖 )(∑ 𝑥1𝑖 𝑥2𝑖 )
b2 = 2 2 (5.6)
(∑ 𝑥1𝑖 )(∑ 𝑥2𝑖 )−(∑ 𝑥1𝑖 𝑥2𝑖 )

perhatikan bahwa notasi variable yang digunakan untuk menghitung


b1 dan b2 berbeda. Notasi tersebut memang mempunyai arti tersendiri, dan

2
Materi 5: Pemodelan Regresi Linier Majemuk

dituliskan demikian untuk menyederhanakan penulisan formula. Adapun


artinya adalah:

∑ 𝑥𝑦 = ∑(𝑌 − Ῡ)(𝑋 − 𝑋) dan ∑ 𝑥 2 = ∑(𝑋 − 𝑋)2 (5.7)

Sedangkan untuk regresi majemuk yang mempunyai variable bebas


lebih dari dua buah, untuk menduga koefisien regresi biasanya dilakukan
dengan menggunakan persamaan matriks. Adapun formulanya adalah:

b = (XTX)-1 XTY (5.8)

Bentuk tersebut merupakan persamaan matriks, di mana:

X = Matriks data variable bebas

XT = Bentik transpose matriks data variable bebas

(XTX)-1 = Inverse perkalian matriks XT dan X

Y = Vektor data variabel terikat

b = Vektor parameter

Untuk dapat menghitungnya secara manual diperukan pengetahuan


yang cukup tentang matriks. Hal tersebut berada diluar ruang lingkup buku
ini, yang lebih menekankan pada penggunaan berbagai model ekonometri
untuk menganalisis data keuangan, sehingga perhitungan secara manualtidak
akan dibahas. Disamping itu, Paket Program Siap Pakai SPSS, telah
menyediakan sarana yang secara langsung dapat mengestimasi koefisien
regresi majemuk.

3
Materi 5: Pemodelan Regresi Linier Majemuk

A. INTERPRETASI MODEL

Interpretasi model regresi majemuk tidak jauh berbeda dengan


regresi sederhana. Perhatikan kembali persamaan (5.3) diatas. Nilai koefisen
b1 mempunyai arti bahwa setiap peningkatan 1 unit X1 akan mengakibatkan Y
naik sebesar b1 unit, dengan menganggap variable lainnya (dalam hal ini X2)
tetap atau konstan.

Untuk mempermudah pemahaman berikut akan diberikan ilustrasi


tentang hubungan antara Laba sebagai variable terikat dengan Aset dan
Pemberian Kredit sebagai variable bebas di 50 bank peringkat atas. Setelah
dilakukan perhitungan koefisien dengan SPSS didapat hasil sebagai berikut:

Coefficients
Model Unstandardized Standardized
Coefficients Coefficients t Sig.
B Std.Error Beta
1 (constant) 45748.484 35718.945 1.281 .207
ASET 1.106E-02 .002 .794 5.033 .000
KREDIT 8.126E-03 .009 .148 .938 .353
a. Dependent Variable: LABA

Persamaan regresi yang didapat adalah:

LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT (5.9)

Persamaan tersebut dapat diinterpretasikan bahwa bila asset bank


naik 10.000 rupiah, maka laba akan naik sebesar 106 rupiah, dengan
menganggap kredit konstan. Selanjutnya, bila kredit naik sebesar 10.000
rupiah maka laba akan naik 81 rupiah, dengan menganggap asset konstan.
Sesuaikah kondisi tesebut dengan keadaan sesungguhnya? Terutama
koefisien untuk variabel Kredit, dapat diragukan kebenarannya. Secara teori,
laba bank terbesar adalah hasil dari penyaluran kredit. Dengan koefisien

4
Materi 5: Pemodelan Regresi Linier Majemuk

tersebut laba bank dari menyalurkan kredit hanya 0,8 persen. Jika
dibandingkan dengan suku bunga saat itu (tahun 2000-2001) tentunya hasil
regresi tersebut perlu diragukan. Permasalahan ini akan dibahas pada bagian
selanjutnya.

B. MULTIKOLINIERITAS

Coba perhatikan kembali hasil perhitungan regresi majemuk pada


persamaan (5.9). Sekarang bandingkan dengan regresi sederhana untuk
masing-masing variable bebas, yang hasilnya adalah:

(i) LABA = 58260,461 + 0,013 ASET


(ii) LABA = 5053,712 + 0,049 KREDIT

Terlihat bahwa koefisien, baik untuk variable ASET maupun


KREDIT, pada regresi majemuk berbeda dengan regresi sederhana. Mengapa
hal tersebut terjadi? Hal ini disebabkan adanya korelasi antara variable ASET
dan KREDIT. Jika tidak ada korelasi antara kedua variable tersebut, maka
koefisien pada regresi majemuk akan sama dengan koefisien pada regresi
sederhana. Hubungan linier antarvariabel bebas inilah yang disebut dengan
multikolinieritas.

Perhatikan pula bagaimana cara menginterpretasikan koefisien suatu


variable, dimana kita selalu menganggap variable lain konstan atau tetap.
Jika ada variable yang berkorelasi, sudah tentu anggapan tersebut tidak
berlaku, sebab setiap perubahan suatu variable bebas, akan mengakibatkan
pula variable bebas lainnya berubah. Oleh karena itu, dalam membuat regresi
berganda, variable bebas yang baik adalah variable bebas yang mempunyai
hubungan dengan variable terikat, tetapi tidak mempunyai hubungan dengan
variable bebas lainnya.

5
Materi 5: Pemodelan Regresi Linier Majemuk

Dalam praktiknya, umumnya multikolinieritas tidak dapat dihindari.


Dalam artian sulit menemukan dua variable bebas yang secara matematis
tidak berkorelasi (korelasi = 0) sekalipun secara substansi tidak berkorelasi.
Akan tetapi, ada multikolinieritas yang signifikan (harus mendapat perhatian
khusus) dan tidak signifikan (mendekati nol). Kita juga akan sulit
menemukan kolinieritas yang sempurna (perfect collinirity). Bila ditemukan
kolinieritas yang sempurna maka salah satu dampak yang ditimbulkannya
adalah tidak dapat dihitungnya koefisien regresi. Hal tersebut dapat
dibuktikan secara matematis.

Bila dua independen variable mempunyai korelasi sebagai berikut: X1 = y X2

Kemudian perhatikan kembali persamaan (5.5) untuk mengestimasi b1:


2
(∑ 𝑦𝑖 𝑥1𝑖 )(∑ 𝑥2𝑖 )−(∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥1𝑖 𝑥2𝑖 )
b1 = 2 2 (5.5)
(∑ 𝑥1𝑖 )(∑ 𝑥2𝑖 )−(∑ 𝑥1𝑖 𝑥2𝑖 )

bila kita subtitusikan korelasi antara X1 dan X2 kedalam persamaan (5.5),


maka:
2
(∑ 𝑦𝑖 𝑥1𝑖 )(𝑟 2 ∑ 𝑥1𝑖 )−(𝑦 ∑ 𝑦𝑖 𝑥1𝑖 )(∑ 𝑥1𝑖 𝑥1𝑖 )
b1 = 2 2 2 (5.10)
(∑ 𝑥1𝑖 )(∑ 𝑥1𝑖 )−𝑟 2 (∑ 𝑥1𝑖 )

b1 = 0.

Secara umum, bila terjadi kolinieritas sempurna, maka koefisien


regresi tidak dapat diperoleh dikarenakan (XT X)-1 pada persamaan (5.8) tidak
dapat dicari.

Satu hal yang perlu ditekankan kembali disini bahwa kolinieritas


merupakan hubungan linier. Jika variable bebas mepunyai hubungan, tetapi
tidak linier maka hal tersebut tidak dikategorikan sebagai multikolinieritas.
Misalnya X1 = X2 atau X1 = log X2, maka dikatakan bahwa X1 dan X2 tidak
kolinier.

6
Materi 5: Pemodelan Regresi Linier Majemuk

B.1. Dampak Multikolinieritas

Secara implisit sebenarnya pemaparan diatas telah menunjukkan


beberapa dampak yang ditimbulkan oleh multikolinieritas, seperti:
tidak dapatnya intrpretasi dilakukan, atau tidak dapatnya koefisien
regresi diestimasi. Dalam praktik, kolinieritas sempurna hamper
tidak ditemui, sehingga sekaliun variabel bebas berkorelasi, koefisien
regresi tetap dapat diestimasi. Akan tetapi, dengan terdapatnya
multikolinieritas dalam persamaan regresi, maka membawa berbagai
konsekuensi terhadap model itu sendiri.

Ada beberapa dampak yang ditimbulkan oleh kolinieritas


tersebut, antara lain:

1. Varian koefisien regresi menjadi besar

Perhatikan kembali persamaan (5.3), yang merupakan regresi


dengan dua variable bebas. Besarnya varian untuk b1 dapat
diukur dengan formula:

𝜎2
Var(b1) = ∑ (5.11)
𝑥1𝑖 (1−𝑟𝑥21 𝑥2 )

Di mana rx1x2 adalah korelasi variable bebas X1 dan X2


(akan dibicarakan lebih banyak pada bagian selanjutnya pada
bab ini). Dari formula tersebut terlihat bahwa semakin besar
korelasi antara variabel bebas X1 dan X2 akan mengakibatkan
semakin besarnya varian. Dan bila kedua variable bebas
mempunyai kolinieritas sempurna (𝑟𝑥1 𝑥2 = 1 ) maka varian
menjadi tak berhingga.

7
Materi 5: Pemodelan Regresi Linier Majemuk

2. Varian yang besar sebagaimana dibicarakan diatas,


menimbulkan beberapa permasalahan, yaitu:
a. Lebarnya interval kepercayaan (Confidence Interval).
Perhatikan formula pembuatan interval kepercayaan berikut:
b1 ± Zu/2 s.e (b1)

Oleh karena s.e (b1) merupakan akar dari Var (b1), sehingga bila
Var (b1) besar maka s.e (b1) juga besar. Dengan demikian
interval yang dihasilkan juga akan besar.

b. Selain interval kepercayaan, besarnya varian juga


mempengaruhi Uji-t. perhatikan kembali formula Uji-t berikut.
𝑏𝑗
f=
𝑠.𝑒(𝑏𝑗 )

Var (bj) yang besar mengakibatkan s.e (bj) juga besar. Bila
standard error terlalu besar maka besar pula kemungkinan
taksiran β menjadi tidak signifikan.

3. Sekalipun multikolinieritas dapat mengakibatkan banyak


variable yang tidak signifikan, tetapi koefisien determinasi (R2)
tetap tinggi, dan Uji F signifikan. Secara matematis kedia hal
tersebut dapat diketahui penyebabnya.

Untuk regresi majemuk dengan dua variable bebas, hubungan


antara R2 dan korelasi antar variable adalah sebagai berikut:
2 2
R2 = 1-(1 − 𝑟𝑌𝑋1
)(1 − 𝑟𝑌𝑋1 .𝑋2
)

8
Materi 5: Pemodelan Regresi Linier Majemuk

di mana:
2
𝑟𝑌𝑋1
adalah korelasi sederhana antara Y dan X2

2
𝑟𝑌𝑋1 .𝑋2
adalah korelasi parsial antara Y dan X1 dengan
menganggap X2 konstan.

Kedua hal tersebut lebih jauh akan dibahas pada bagian


2
selanjutnya. Sekarang, perhatikan khususnya pada 𝑟𝑌𝑋 1 .𝑋2
, yang
mengasumsikan X2 konstan. Padahal bila terjadi kolinieritas
2
maka X2 tidak mungkin konstan. Akibatnya, nilai 𝑟𝑌𝑋 1 .𝑋2
akan
2
cenderung besar. Dengan besarnya angka tersebut, maka R akan
cenderung tinggi searah dengan semakin tingginya kolinieritas
yang terjadi.

Bagaimana dengan Uji-F yang signifikan? Perhatikan formulasi


hubungan antara R2 dengan Uji-F berikut:

𝑅2
F = 1−𝑅2(n-k-1)

Dari formula tersebut terlihat bahwa jika R2 besar sudah pasti


nilai F juga besar, sehingga Uji-F cenderung untuk signifikan.

4. Hal lain yang terkadang terjadi adalah angka estimasi koefisien


regresi yang didapat akan mempunyai nilai yang tidak sesuai
dengan substansi, atau kondisi yang dapat diduga atau dirasakan
akal sehat, sehingga dapat menyesatkan interpretasi,
sebagaimana contoh yang telah diberikan di atas.

Untuk mendapat pemahaman yang lebih baik, berikut in


akan diberikan ilustrasi mengenai dampak yang di timbulkan oleh

9
Materi 5: Pemodelan Regresi Linier Majemuk

multikolinieritas. Kembali digunakan contoh tentang pengaruh Aset


dan Kredit terhadap Laba. Perhatikan SPSS berikut:

Model Summary

Model R R.Square Adjusted R. Std. Error


of the
Estimate
1 .935a .874 .869 213011.9
a. Predictors: (Constant), KREDIT, ASET

ANNOVAb

Model Sun of df Mean F Sig.


Square Squares
1 Regression 1.5E+13 2 7.4E+12 163.380 .000a
Residual 2.1E+12 47 4.5E+10
Total 1.7E+13 49
a. Predictors: (Constant), KREDIT, ASET
b. Dependent Variable: LABA

Coefficients

Understandardized Standardiz 95% Confidence


Model Coefficients ed T Sig. Interval for B
Coefficient
s
B Std. Error Beta
1(Constant) 15748.484 35718.945 1.281 .207 -26108 117605.7
ASET
KREDIT 1.106E-02 .002 .794 5.033 .000 .007 .015
8.126E-03 .009 .148 .938 .353 .009 .026
a. Dependent Variable: LABA

Berdasarkan output diatas terlihat bahwa R2 terilang tinggi, yaitu


87,4% dan Uji-F signifikan. Akan tetapi bila dilihat pada Uji-t ternyata
intercept dan koefisien KREDIT tidak signifikan. Ditambah lagi, dengan

10
Materi 5: Pemodelan Regresi Linier Majemuk

diragukannya ketetapan interpretasi koefisien KREDIT. Di sini patut


dicurigai bahwa persamaan regresi yang dibuat mengandung
multikolinearitas. Bagaimana dengan interval kepercayaannya? Lebar atau
tidaknya mungkin sulit untuk diukur dengan angka yang dihasilkan, tetapi
secara matematis telah dibuktikan bahwa interval tersebut memang lebar.
Untuk membuktikannya, akan dilihat ketika multikolinieritas telah
dihilangkan dari model.

B.2. Teknik Mendeteksi Multikolinieritas

Dengan mengetahui dampak yang menimbulkan akibat


adanya multikolinieritas didalam persamaan regresi yang dibuat,
sesungguhnya hal tersebut dapat dijadikan ‘alat’ untuk mendeteksi
ada atau tidaknya multikolinieritas, seperti: R2 yang tinggu dan Uji-F
yang signifikan, tetapi banyak koefisien regresi dalam Uji-t yang
tidak signifikan, atau secara substansi interpretasi yang didapat
meragukan.

Akan tetapi tidak jarang, kita dihadapkan pada keraguan,


seperti: seberapa batasan R2 dikatakan tinggi? 70%, 80% atau 90%.
Memang ada buku yang mengatakan R2 dinyatakan tinggi bila sudah
mencapai 70%, tetapi buku lain menyatakan bila sudah mencapai
80%. Sesungguhnya, batasan ini sangat subjektif dan sangat
tergantung pada substansi. Untuk data keuangan, terutama yang
bersifat mikro, angka 80% sangat sulit dicapai sekalipun telah
menggunakan lima atau enam variable bebas. Sedang penerapan
dibidang lain, sangat mungkin R2 yang sebesar 90% sangat mudah
didapat.

11
Materi 5: Pemodelan Regresi Linier Majemuk

Oleh karena itu, tidak jarang dibutuhkan uji formal untuk


mendeteksi keberadaan multikolinieritas tersebut. Ada banyak uji
formal yang dapat dilakukan, tetapi didalam buku ini hanya akan
diberikan uji formal yang sangat ppopuler, dan tersedia di dalam
paket program SPSS.

1. Eigenvalues dan Conditional Index

Pada bagian ini kita tidak akan membicarakan cara manual untuk
mendapatkan nilai eigenvalues, karena membutukan banyak
pengetahuan tentang aljabar. Hal ini tentunya berada diluar
ruang lingkup buku ini. Dengan menggunakan SPSS, nilai-nilai
eigenvalues akan diperhitungkan bila kita meminta untuk
mendiagnosa kolinieritas. Adapun aturan yang digunakan
adalah: multikolinieritas ditengarai ada di dalam persamaan
regresi bila nilai Eigenvalues mendekati 0.

Hubungan antara Eigenvalues dan Conditional Index


(CI) adalah sebagai berikut:
max 𝑒𝑖𝑔𝑛𝑣𝑎𝑙𝑢𝑒𝑠
CI =
min 𝑒𝑖𝑔𝑛𝑣𝑎𝑙𝑢𝑒𝑠

Jika CI berada diantara nilai 10 sampai 30, maka model


mengandung kolinieritas moderat. Tetapi ada juga buku yang
menyatakan kolinieritas baru ada jika CI melebihi angka 15. Bila
CI mempunyai nilai diatas 30, maka dapat dinyatakan bahwa
persamaan regresi mempunyai kolinieritas yang kuat
antarvariabel bebasnya.

12
Materi 5: Pemodelan Regresi Linier Majemuk

2. VIF dan Tolerance

Perhatikan kembali persamaan (5.11) berikut:

𝜎2
Var(b1) = ∑ 𝑥 2 (5.11)
1𝑖 (1−𝑟𝑥1 𝑥2 )

Yang disebut dengan VIF atau Variance Inflation Factor adalah:


1
VIF = (5.12)
(1−𝑟𝑥21 𝑥2 )

Jadi:

𝜎2
Var(b1) = ∑ 𝑥 VIF
1𝑖

Terlihat bahwa VIF besar maka akan mengakibatkan Var(b1)


besar juga, dan hal tersebut diakibatkan karena besarnya 𝑟𝑥1 𝑥2 akibat
kolinieritas antara X1 dan X2. Dengan kata lain, bila VIF kecil, maka
dapat diduga tidak ada kultikolinieritas. Seberapakah batasan VIF
yang kecil?

Pertama-tama kita lihat dulu formulasi VIF untuk regresi


majemuk dengan variable bebasnya lebih dari dua, yaitu:
1
VIFj = ; j=1,2,….,k (5.13)
(1−𝑅𝑗2 )

k adalah banyaknya variable bebas

R2j adalah koefisien determinasi antara variable bebas ke-j


dengan variable bebas lainnya.

13
Materi 5: Pemodelan Regresi Linier Majemuk

Oleh karena itu, jika j = 2, maka koefisien determinasinya


sama dengan korelasi antara X1 dan X2. Sebagaimana terrulis dalam
persamaan (5.12).

Berdasarkan formula (5.13) terlihat bahwa jika R2j = 0 atau


antar variable bebas tidak berkorelasi, maka nilai VIF = 1.
Sebaliknya bila R2j ≠ 0 atau ada korelasi antar variable bebas, maka
nilai VIF >1. Oleh karena itu, dapat disimpulkan bahwa kolinieritas
tidak ada jika nilai VIF mendekati angka 1. Ada buku yang
menyebutkan bahwa kolinieritas dianggap ada jika VIF >5. Artinya,
buku tersebut menganjurkan untuk menganggap model tidak
mempunyai kolinieritas jika korelasi antar variable bebas hanya
mencapai 0,8. Perhatikan hal berikut:
1
VIFj =
(1−𝑅𝑗2 )

1
5= 𝑅𝑗2= 0,8
(1−𝑅𝑗2 )

Tepatkah hal tersebut?

VIF ini mempunyai hubungan dengan Tolerance (TOL),


dimana hubungannya adalah sebagai berikut:
1
TOLj = = (1 − 𝑅𝑗2 ) (5.14)
𝑉𝐼𝐹

Dengan demikian jika 𝑅𝑗2 = 0 atau antarvariabel bebas tidak


berkorelasi, maka nilai TOL = 1. Sebaliknya jika 𝑅𝑗2 = 1 atau
antarvariabel bebas mempunyai korelasi sempurna, maka nilai TOL
= 0. Oleh karena itu, berdasarkan ukuran ini, variable bebas
dinyatakan tidak multikolinieritas jika TOL mendekati 1.

14
Materi 5: Pemodelan Regresi Linier Majemuk

Pada ilustrasi diatas, kita telah mencurigai adanya


multikolinieritas akibat beberapa dampak yang ditimbulkannya.
Berikut ini akan dicoba untuk melakukan deteksi keadaaan
multikolinieritas tersebut dengan menggunakan uji formal.
Perhatikan output yang dikeluarkan paket program SPSS berikut:

Coefficientsa

Understandardized Standardized Colinearity


Model Coefficients Coefficients t Sig. Statistics
B Std Error Beta Tolerance VIF
1 (Constant) 45748.484 35718.945 1,281 .207
ASET 1.106E-02 .002 .794 5.033 .000 .107 9.304
KREDIT 8.126E-03 .009 .148 .938 .363 .107 9.304
a. Dependent Variable: LABA

Collinearity Diagnosticsa

Model Dimension Elgenvalue Condition Variance Proportions


Index (Constant) ASET KREDIT
1 1 2.280 1.000 .06 .02 .01
2 .676 1.836 .83 .02 .01
3 4.329E-02 7.266 .11 .97 .98
a. Dependent Variable: LABA

Pertama-tama perhatikan dulu table ‘Collinearity


Diagnostics’ pada kolom Dimension, yang perlu dilihat adalah
kode’2’ yang merupakan nilai Eigenvalue untuk variable bebas
ASET dan kode ‘3’ untuk KREDIT. Terlihat bahwa kedua variable
bebas tersebut mempunyai nilai Eigenvalue yang mendekati 0.
Artinya, terdapat kolinieritas antara ASET dan KREDIT. Akan tetapi
bila dilihat nilai CI-nya, ternyata relative kecil atau dibawah 10. Hal
ini tentunya akan menimbulkan keraguan bagi kita untuk mengambil
kesimpulan.

15
Materi 5: Pemodelan Regresi Linier Majemuk

Kita beruntung mempunyai formula lain untuk mendeteksi


multikolinieritas, yaitu VIF dan TOL, sebagaimana tersaji dalam
table ‘Coefficiens’. Terlihat bahwa untuk regresi majemuk dengan
dua variable bebas, baik nilai TOL maupun VIF untuk ASET dan
KREDIT sama (mengapa?). angka TOL yang didapat sebesar 0,107,
angka ini mendekati 0, berarti korelasi antara ASET dan KREDIT
besar, atau dengan kata lain ada korelasi antara kedua variable bebas
tersebut.

Sedangkan nilai VIF sebesar 9,304. Angka tersebut sudah


jauh dari 1. Oleh karena itu, berdasarkan indicator ini, kita dapat
menyimpulkan bahwa kedua variable bebas, yaitu ASET dan
KREDIT mempunyai kolinieritas.

Kalau diawal mempelajari tekik mendeteksi multikolinieritas


ada yang bertanya:”Untuk apa metode mendeteksi kolinieritas
sebegitu banyaknya?”. Inilah jawabannya, bahwa masing-masing
metode mempunyai kelemahan dan kelebihan. Dengan sedemikian
banyak bukti ini, maka sekarang kita dapat mengambil kesimpulan
dengan sangat meyakinkan bahwa persamaan regresi yang dibuat
mengandung kolinieritas.

B.3. Mengatasi Kolinieritas

Tidak ada cara yang spesifik untuk mengatasi kolinieritas. Satu cara
mungkin saja berhasil mengatasi multikolinieritas dalam suatu
model, tetapi ada kalanya cara tersebut tidak dapat diterapkan pada
model lain. Oleh karena itu, ada beberapa cara yang dapat dilakukan,
yaitu:

16
Materi 5: Pemodelan Regresi Linier Majemuk

1. Melihat informasi sejenis yang ada

Perhatikan model berikut:

W = β0 + β 1 I + β2 A + u (5.15)

di mana:

W = upah kerja

I = pendapatan perusahaan

A = aset perusahaan

Misalkan ada teori atau hasil empiris yang mengataan bahwa


perubahan upah pekerja terhadap asset perusahaan 15% perubahan
upah pekerja terhadap pendapatan, perusahaan, atau secara
matematis dituliskan:

β2 = 0,15 β1 (5.16)

Sehingga persamaan (5.15) dapat ditulis dengan:

Y = β0 + β1 I + 0,15 β1 A + u

Y = β0 + β1 ( I + 0,15 A) + u

Y = β0 + β1 X + u

Di mana: X = I + 0.15 A

Setelah β1 ditaksir, maka β2 dapat dicari melalui hubungan


sebagaimana tertulis pada persamaan (5.15).

17
Materi 5: Pemodelan Regresi Linier Majemuk

2. Mengeluarkan variable bebas yang kolinier dari model

Kolinieritas merupakan hubungan linier antara satu variable bebas


dengan variable bebas lainnya. Dengan mengeluarkan salah satu
variable berkorelasi, tentunya akan menghilangkan masalah tersebut.
Akan tetapi, dalam mengeluarkan sebuah variable bebas harus
dilakukan dengan hai-hati, karena tidak tertutup kemungkinan bahwa
variable yang dikeluarkan justru variable yang sangat penting.
Kondisi ini dikenal dengan sebutan specification bias.

3. Mentransformasikan variable

Ada berbagai macam transformasi variable yang dapat dilakukan,


antara lain:

a. Melakukan Pembedaan (Difference)

Teknik transformasi ini hanya berlaku untuk regresi yang


dibentuk dari data time series. Katakanlah ada persamaan model
regresi majemuk sebagai berikut:

Y = β0 + β1 XIl + β2 X2l + u (5.17)

Kemudian buat persamaan pada waktu t-l

Y = β0 + β1 XIl-l + β2 X2l-l + ul-l (5.18)

Kurangi persamaan (5.18) dengan (5.19), sehingga model


menjadi:

(Y1 – Yl-1) = β1 (XIl - XIl-l ) + β2 (X2l – X2l-l ) + (ul + ul-l ) (5.19)

18
Materi 5: Pemodelan Regresi Linier Majemuk

Teknik pengurangan inilah yang disebut dengan pembedaan.


Lebih jauh mengenai hal ini akan dibicarakan pada bab
selanjutnya.

Kemudian model tersebut didefinisikan kembali, sehingga model


menjadi:

Yt* = β2 X2l* + β3 X3l* + ul* (5.20)

di mana:

Yt* = ( Yt - Yt-l )

X2l*= ( X2l - X2l-l )

X3l*= ( X3l – X3l-l )

ul* = (ul - ul-l )

Perhatikan bahwa model yang didapat tidak memounyai


intercept (β0). Berarti regresi yang digunakan akan melalui titik
asal (0,0).

b. Membuat Rasio

Perhatikan persamaaan berikut:

Yi = β0 + β1 XIi + β2 X2i + ui (5.21)

Katakanlah Y adalah pajak seluruh pegawai perusahaan


yang bergerak disektor industry manufaktur, X1 jumlah
karyawan. Diduga, semakin besar karyawan, semakin besar pula
pendapatan perusahaan, atau X1 dan X2 berkorelasi. Untuk
mengatasinya, kita dapat membuat rasio dengan cara membagi

19
Materi 5: Pemodelan Regresi Linier Majemuk

seluruh variable dengan X2, sehingga data yang digunakan tidak


lagi data komulatif satu perusahaan, melainkan data perkapita.
Dengan demikian model menjadi:
𝑌𝑖 𝑌𝑖 𝑌 𝑢
= β0 ( ) + β1( 1𝑖 )+ β2( 𝑖 )
𝑋2𝑖 𝑋2𝑖 𝑋2𝑖 𝑋2𝑖

c. Berbagi Transformasi Lain

Ada berbagai transformasi yang dilakukan, seperti:


Mentransformasi variable menjadi bentuk logaritma, atau
mengubah X menjadi
1
𝑋
, √𝑋 atau X2 .

4. Mencari data tambahan

Dengan tambahan data, kolinearitas dapat berkurang tetapi dalam


praktik tidak mudah untuk mencari tambahn data.

Dari pembahasan mengenai multikolinieritas dapat


disimpulkan bahwa kadang-kadang, adanya kolinieritas dalam suatu
model merupakan hal yang sengat serius yang perlu segera dibenahi.
Parameter yang terestimasi pada saat adanya kolinieritas menjadi
tidak reliable. Dengan demikian, pada saat kita hendak
menginterpretasikan parameter tersebut analisisnya menjadi kurang
atau tidak akurat. Akan tetapi model yang mengandung kolinieritas
masih bermanfaat, jika model yang terestimasi hanya digunakan
untuk membuat suatu ramalan (forecast) saja, asalkan R2 masih
cukup tinggi. Sebab untuk keperluan meramal, yang penting adalah
menganalisis keseluruhan model dan tidak individual parameter.

20
Materi 5: Pemodelan Regresi Linier Majemuk

Sekarang perhatikan kembali ilustrasi yang telah dibuat,


dimana kita menemui adanya kolinearitas anta variable bebas (Aset
dan Kredit). Bagaimana cara menanggulanginya? Tentu kita akan
menggunakan salah satu langkah-langkah yang telah dibicarakan.
Langkah mengeluarkan salah satu variabel bebas atau penambahan
data tidak akan dilakukan disini.

Mengingat data yang digunakan adalah data cross-section,


maka tidak menggunakan transformasi dengan pembedaan. Sedang
membuat transformasi dengan rasio tidak memungkinkan, karena
data tidak mempunyai arti, baik dibagi dengan Aset maupun Kredit.
Setelah dilakukan transformasi, baik dengan logaritma, kuadrat, akar,
dan satu dibagi akar X, ternyata transformasi-transformasi tersebut
tidak dapat membantu, karena setelah data diolah dengan
menggunakan SPSS, model regresi masih mengandung kolinearitas.
Hanya model akar yang menunjukan perubahan yang cukup berarti,
tetapi tetap masih mengandung multikolinieritas.

Langkah terakhir adalah mencoba melihat besarnya


pengaruh kedua variable bebas tersebut terhadap variable terikatnya.
Salah satu indicator yang dapat digunakan adalah nilai Beta yang
terdapat pada table ‘Coefficient’ yang terlampir diatas (Secara Teori
Beta akan dibicarakan pada bagian selanjutnya pada bab ini).
Angka ini dapat menunjukan besarnya pengaruh kedua variable
bebas terhadap variable terikat. Variable ASET mempunya nilai Beta
= 0,794 dan KREDIT = 0,148. Pengaruh ASET terhadap LABA
ternyata lebih besar disbanding pengaruh KREDIT, yang jika
dirasiokan sebesar 5,36 kali.

Berdasarkan angka tersebut maka kita dapat melakukan


transformasi sebagai berikut:

21
Materi 5: Pemodelan Regresi Linier Majemuk

Model awal adalah: LABA = b0 + b1 KREDIT + b2 ASET

Hubungan KREDIT dan ASET: b2 = 5,36 b1

Dengan demikian: LABA = b0 + b1 KREDIT + 5,36 b1 ASET

Selanjutnya: LABA = b0 + b1 (KREDIT + 5,36 ASET

LABA = b0 + b1 TRANS

Di mana TRANS = KREDIT + 5,36 ASET

Langkah selanjutnya adalah menregresikan LABA dengan X,


sehingga didapat:

Model Summary

Model R R. Square Adjusted R. Std. Error


Square of the
Estimate
1 .934a .873 .870 211769.3
a. Predictors: (Constant), TRANS

Coefficients

Understandized Standardized
Model Coefficients Coefficients T Sig
B Std.Error Beta .
1 (Constant) 54477.754 33022.123 1.650 .10
TRANS 6
2.367E-03 .000 .934 18.170 .00
0
a. Dependen Variabel: LABA

Model yang didapat cukup baik dimana R2 masih tinggi, dan


koefisien slope signifikan. Kolinieritas tentu sudah tak ada karena
pada akhirnya yang dibuat adalah regresi sederhana. Masalah

22
Materi 5: Pemodelan Regresi Linier Majemuk

semakin kompleks karena kita akan menemui kesulitan dalam


meenginterpretasikan arti koefisien slope dari variabel TRANS. Kita
harus menyatakan bahwa setiap kenaikan seribu rupiah kredit dan
5.360 rupiah asset akan mengakibatkan laba naik sebesar 23 rupiah.

C. HETEROSKEDASTISITAS

Bila multikolinieritas hanya mungkin terjadi dalam regresi linier


majemuk, maka heteroskedastis ini dapat pula terjadi pada regresi sederhana.
Sebagaimana telah dibicarakan pada bagian lalu bahwa salah satu asumsi
yang harus dipenuhi agar taksiran parameter dalam model regresi bersifat
BLUE maka var (ui) harus sama dengan σ2 (konstan), atau dengan kata lain,
semua residual atau error mempunyai varian yang sama. Kondisi seperti itu
disebut dengan homoskedastis. Sedangkan bila varian tidak konstan atau
berubah-ubah disebut dengan heteroskedastis.

Dalam kehidupan sehari-hari, banyak ditemui kasus dimana variansi


ui berubah-ubah. Contohya: kita ingin melihat pengaruh omset terhadap laba.
Perbedaan laba yang di dapat antara perusahaan-perusahaan yang tergolong
beromset kecil tentunya tidak akan besar. Berbeda dengan perusahaan-
perusahaan yang tergolong besar, perbedaan tentu akan lebih besar.
Perusahaan yang lebih efisien dan efektif, sehingga berhasil menekan biaya
produksi, tentunya akan mempunyai peluang untuk mendapat laba lebih
besar disbanding perusahaan yang dikelola kurang baik. Untuk lebih
jelasnya, perhatikan Gambar 5.1 di bawah.

Pada Gambar 5.1 terlihat bahwa perbedaan laba perusahaan yang


tergolong beromset besar cukup besar. Atau dengan kata lain, variasinya
lebih besar dibandingkan perusahaan yang tergolong beromset kecil.
Akibatnya, jarak antara titik observasi ke garis regresi juga lebih bervariasi.

23
Materi 5: Pemodelan Regresi Linier Majemuk

Dengan demikian varian residual (ui) antara kedua kelompok perusahaan


tersebut juga berbeda. Kondisi seperti inilah yang dikatakan sebagai adanya
heteroskedastisitas pada varian ui. Untuk khasus ini, kita dapat menuliskan
secara matematis, sebagai: var(ui) =𝜎𝑖2 , di mana dapat diduga bahwa 𝜎𝑖2 ≥ 𝜎𝑗2
untuk Xi ≥ Xj ; Xi menyatakan omset perusahaan i.

Gambar 5.1 Hubungan Antara Omset dan Laba

Laba

Laba = b0 + b1 OMSET

Omset

Contoh lainnya adalah hubungan antara pendapatan dan menabung,


atau pendapatan dengan konsumsi. Orang berpendapatan rendah, tentunya
mempunyai variasi yang rendah dalam menggunakan pendapatannya untuk
menabung atau konsumsi, tetapi orang berpendapatan tinggi, tentu
mempunyai variasi lebih tinggi untuk menabung atau konsumsi. Orang
berpendapatan tinggi yang boros, tentu akan mempunyai konsumsi tinggi,
dan tabungan yang lebih rendah dibanding orang yang tidak boros.

Dalam praktiknya, heteroskedastis banyak ditemui pada data cross-


section, karena pengamatan dilakukan pada individu yang berbeda pada saat
yang sama, sebagaimana contoh diatas. Akan tetapi bukan berarti
heteroskedastis tidak ada dalam data time series. Misalnya pada masalah
produk suatu perusahaan. Perusahaan yang baru muncul, tentunya akan

24
Materi 5: Pemodelan Regresi Linier Majemuk

mempunyai produk yang relative rendah pada saat pengenalan produk


tersebut. Jika ada indikasi masyarakat menerima produk, tentu produksi akan
diperbesar. Salah satu factor yang mempengaruhi besar-kecilnya produksi
adalah pesaing. Ketika produksi masih sedikit, pengaruh pesaing tentunya
tidak akan membuat fluktuasi produksi besar, tetapi ketika produk besar,
pengaruh pesaing akan sangat terasakan. Bila pesaing berhasil merebut pasar,
maka produk akan berlebih, sehingga produksi harus dikurangi. Factor lain,
mungkin saja produksi terrpaksa dikurangi akibat kondisi perekonomian
secara makro sedang buruk, sehingga daya beli masyarakat merosot. Kondisi
politik, social, dan keamanan, mungkin juga akan mempengaruhi pasar dari
produksi tersebut.

Untuk lebih jelasnya mengenai masalah heteroskedastisitas pada data


time series, dapat dilihat Gambar 5.2 dibawah. Pada gambar tersebut terlihat
bahwa pada awalnya produksi tidak begitu berfluktuasi, sekalipun terjadi
kenaikan dan penurunan produksi. Tetapi sejak bulan ke-18, di mana
produksi semakin membesar, ternyata fluktuasi yang terjadi juga membesar.
Hal inilah berarti terjadi heteroskedastisitas dalam data time series, di mana
varian (ui) semakin membesar bersamaan dengan meningkatnya waktu.

Gambar 5.2 Produksi Berdasarkan Waktu

Produksi

0 1 2 3 4 5 6 ............... 18 19 ……………………………………… Waktu (bulan)

25
Materi 5: Pemodelan Regresi Linier Majemuk

C.1. Dampak Heteroskedastisitas

Setelah mempelajari dan memahami apa yang disebut dengan


heteroskedastisitas, berikut ini akan diberikan beberapa alasan
mengapa heteroskedastisitas menjadi begitu penting perhatikan
ketika kita mengestimasi koefisien regresi dengan OLS.

Perhatikan formulasi untuk mencari nilai var (β1) pada


regresi sederhana Y = β0 + β1 Xi , yaitu:
𝑉𝑎𝑟(𝑢𝑖 )
var (b1) = ∑ 𝑋𝑖

Bila σ2 atau var (ui) tidak konstan, maka persamaannya menjadi:

∑ 𝑋𝑖 𝜎𝑖2
var (b1) = (∑
𝑋𝑖 )2

pada buku ini tidak akan dibuktikan bagaimana cara


matematis mendapatkan persamaan var (b1) yang heteroskedastis.
Bagi yang berminat dapat mencarinya di buku-buku ekonometrika.
Kembali pada persamaan diatas, ternyata dalam banyak aplikasi, var
(ui) akan cenderung besar, atau dapat dituliskan 𝜎12 > 𝜎22 >…> 𝜎𝑘2 .
Dengan demikian, sudah dapat diduga bahwa heteroskedastisitas
akan mengakibatkan var (b1) cenderung akan besar.

Akibat varian koefisien regresi yang lebih besar, maka akan


mengandung berbagai kosekuensi lain, sebagaimana telah
dibicarakan pada bagian multikolienaritas, dan telah dibuktikaan
secara matematis, yaitu Interval kepercayaan semakin lebar, Uji
hipotis baik Uji-t atau Uji-F akan berpengaruh yang berakibat uji
hipotis tidak akurat, dan pada akhirnya akan membawa dampak pula
pada keakuratan kesimpulan. Melihat hal-hal tersebut, maka cukup

26
Materi 5: Pemodelan Regresi Linier Majemuk

banyak alasan untuk memberikan perhatian cukup pada masalah


heteroskedastisitas pada saat membuat model regresi.

C.2. Teknik Mendeteksi Heteroskedastisitas

Sebagaimana dalam mendeteksi multikolinieritas, heteroskedastisitas


dapat diketahui dengan melakukan serangkaian pengujian. Pengujian
untuk mendeteksi heteroskedastisitas terbagi atas dua, yaitu: secara
grafis dan uji formal. Pada bagian ini akan dicoba untuk
memaparkan kedua jenis uji tersebut.

1. Metode Grafik
Sebagaimana telah dipelajari bahwa heteroskedastisitas
merupakan suatu kondisi dimana var (ui2) tidak konstan. Dengan
demikian, pada suatu nilai variable bebas X atau sekelompok
nilai X akan mempunyai nilai var (ui2) yang berbeda dengan
variable bebas X atau sekelompok nilai X lainnya. Oleh karena
itu, bila nilai-nilai ui2 diplot dengan nilai-nilai variable bebas
akan ditemui suatu pola atau bentuk yang tidak random.
Perhatikan beberapa plot antara residual dan variabel X
di bawah ini.

27
Materi 5: Pemodelan Regresi Linier Majemuk

Gambar 5.3 Pola Hipotesis Residual


𝑢𝑖2 𝑢𝑖2

0 (a) X 0 (b) X

𝑢𝑖2 𝑢𝑖2

0 (c) X 0 (d) X

Perhatikan Gambar 5.3(a). Titik-titik pada gambar


tersebut tidak mencerminkan suatu pola yang sistematis atau
dapat dikatakan random. Ini menunjukan bahwa tidak ada
perbedaan var (ui2) pada suatu tingkat nilai X atau sekelompok
X. dengan kata lain, var (ui2) konstan untuk semua nilai X, atau
variannya Homoskedastis.

Pola residual pada Gambar 5.3(a) berbeda dengan


gambar-gambar lainnya yang tersaji. Gambar 5.3(b)
menunjukkan adanya pola yang sistematik, di mana semakin
besar nilai X, fluktuasi ui2, semakin besar. Sedang pada Gambar
5.3(c) menunjukkan adanya trend, dan 5.3(d) menunjukkan pola
yang mengikuti fungsi logaritma, pola-pola sistematis ini
menunjukkan var (ui2) tidak konstan untuk semua nilai X, atau
variannya Heteroskedastis.

28
Materi 5: Pemodelan Regresi Linier Majemuk

Bagaimanakah cara menguji heteroskedastisitas pada


regresi majemuk? Bila pada regresi sederhana hanya digunakan
sebuah variabel bebas, tentunya metode di atas dapat langsung
digunakan. Tetapi bila variabel bebasnya banyak sebagaimana
dalam regresi majemuk, maka yang digunakan adalah Ŷ.

2. Uji Formal

Salah satu kelemahan pengujian secara grafis adalah tidak jarang


kita ragu terhadap pola yang ditunjukkan grafik. Keputusan
secara subjektif tentunya dapat mengakibatkan berbedanya
keputusan antara satu orang dengan yang lainnya. Oleh karena
itu kadang-kadang dibutuhkan uji formal untuk memutuskannya.

Uji formal yang tersedia berjumlah cukup banyak,


seperti: Uji park dan Goldfeld-Quandt. Secara prinsip, kedua uji
ini menyerupai uji secara grafis. Tetapi, dengan langkah
menggresikan ui2 dengan X untuk regresi sederhana atau Ŷ untuk
regresi majemuk. Bagi yang berminat mempelajari teknik ini
dapat melihat buku: “Penggunaan Teknik Ekonometrika”
(Nachrowi dan Usman, 2002).

Pada bagian ini akan dicoba teknik Breusch – Pagan


Godfrey (Uji BPG) dan Uji White. Kedua uji ini telah tersedia
dalam beberapa paket program, misalnya EViews, dan dapat
pula dikerjakan dengan menggunakan SPSS.

a. Uji Breusch-Pagan-Godfey
Pada prisnsipnya, uji ini juga tidak jauh berbeda dengan
ujilainnya, yaitu mencoba mengukur varian uᵢ² akibat
perubahan nilai-nilai variabel bebasnya.

29
Materi 5: Pemodelan Regresi Linier Majemuk

perhatikan kembali model regresi majemuk pada persamaan


(5.1)

Yᵢ=ᵦₒ + ᵦ₁X₁ᵢ + ᵦ₂X₂ᵢ + ᵦ₃X₃ᵢ + ….. + ᵦKXKᵢ + uᵢ (5.1)

Diasumsikan Var(uᵢ2) = 𝜎𝑖2 merupakan fungsi linier


dari variabel non stokastik Z, dimana Z adalah sebagian atau
seluruh variabel X:

𝜎𝑖2 = ᵞ0 + ᵞ1 𝑍1𝑖 + ᵞ2𝑍2𝑖 + ᵞ₃ 𝑧₃𝑖 + ….+ ᵞ𝑚 𝑋𝑚𝑖 (5.22)

melihat persamaan 5.22, maka dapat dipahami bila


ᵞ1 + ᵞ2 + ᵞ3 + …… + ᵞ𝑚 = 0,

Maka 𝜎𝑖2 = ᵞ0 , yang berarti 𝜎𝑖2 konstan atau homoskedastis.

Adapun langkah-langkah yang perlu dilakukan


untuk menguji ini adalah:
1. Buat hipotesis:
H0 : Varian ui Homoskedastis.
H1 : Lainnya.
2. Estimasi model regresi, dan cari ûi.
3. Cari:
û2𝑖
𝜎̃ =
𝑛
4. Hitung pi dengan formula:
û𝑖 2
𝑝𝑖 = ̃2
𝜎
5. Regresikan 𝒑𝑖 dengan Z (sering digunakan X), sehingga
diapat:
𝑝𝑖2 = 𝑦0 + 𝑦1 𝑍1𝑖 + 𝑦2 𝑍2𝑖 + 𝑦3 𝑍3𝑖 + …. + 𝑦𝑚 𝑋𝑚𝑖 + 𝑉𝑖

𝑉𝑖 adalah residual.

30
Materi 5: Pemodelan Regresi Linier Majemuk

6. Hitung Sum of Square Regression (SSR), dan cari:


1
𝜃 = 2SSR
7. Bandingkan 𝜃 dengan tabel Chi-Square dengan derajat
bebas (m-1), di mana m adlah banyaknya parameter
yang digunakan.
2
Jika 𝜃 > 𝑋(𝑚−1) maka tolak hipotesis yang menyatakan
homoskedastisitas.

Untuk memahami bagaimana melakukan uji


tersebut, kembali perhatikan Tabel 3.2 pada Bab 3,
khususnya untuk melihat pengaruh pemberian kredit
terhadap laba 50 bank peringkat atas Indonesia.

Persamaan regresi yang diddapat adalah:

Laba = 5053,712 + 0,049 Kredit

Pengolahan dengan SPSS, sekaligus memberikan kita nilai


Sum of Square Residual/Error (SSE) yang terdapat di dalam table
ANOVA, yaitu sebesar: 3,28+E12. Dengan demikian kita dapat
menghitung:

̂𝑖2
𝑢
𝜎̃ 2 = 𝑛
= 3,28+E12/50 = 65.600.000.000

Sebagai catatan perlu dijelaskan di sini, bahwa output SPSS


akan memberikan nilai residual untuk masing-masing observasi yang
diletakkan pada ‘output viewer’, atau dengan kata lain, nilai residual
tidak diletakkan di ‘SPSS Data Editor’. Dengan demikian, angka-
angka residual tidak dapat digunakan secara langsung, tetapi terlebih
dahulu, data residual akan dipindahkan ke ‘SPSS Data Editor’.
Caranya akan dibicarakan pada bab selajutnya, yang membahas

31
Materi 5: Pemodelan Regresi Linier Majemuk

tentang aplikasi data keuangan dengan memanfaatkan model regresi


majemuk.

Langkah selajutnya adlah mencari nilai dan membuat regresi


antara dengan hasil. Hasil pengolahan data dengan SPSS
menghasilkan output sebagai berikut:

Model Summary

Model R R. Square Adjusted R.Square Std. Error of


the Estimate
1 264ᵃ 070 050 3.57513
a. Predictors: (Constant), KREDIT
b. Dependent Variable: PI

ANOVAᵇ

Model Sum of df Mean F Sig.


Squares Squares
I Regression 46.051 I 46.051 3.603 064ᵃ
Residual 613.514 48 12.782
Total 659.565 49
a. Predictors (Constant), KREDIT

Coefficients

Model Unstandardized Standard


coefficients Coefficients t Sig.
B Std. Error Beta
1 (constan) .446 .584 .764 .449
KREDIT 9.053E-08 .000 .264 1.898 .064

a. Dependent Variable : PI

32
Materi 5: Pemodelan Regresi Linier Majemuk

Hasil pengolahan data menunjukkan bahwa R² sangat kecil, dan Uji-t


serta Uji-F tidak signifikan. Sedangkan nilai Sum of Square Regression
(SSR) adalah sebesar 46,051. Dengan demikian, dapat dihitung
1 1
𝜃 = 2SSR= 2(46,051) = 23,0255

2
Angka tersebut sangat besar dibandingkan 𝑋(𝑚−1) dengan ᵅ = 5%,
dan df = 1, yang sebesar 3,8414. Oleh karena itu kita dapat menolak H˳ yang
menyatakan homoskedastis. Tau dengan kata lain, residual model diatas
adalah heteroskedastis.

b. Uji White (White’s General Heteroscedasticity Test)


Dalam impelementasinya, model ini relative lebih mudah
dibandingkan dengan uji-uji lainnya. Perhatikan persamaan
regresi berikut:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝑢𝑖

Berdasarkan regresi yang mempunyai dua variabel


bebas di atas, kita dapat melakukan Uji White dengan
beberapa tahapan prosedur, yaitu:
1. Hasil estimasi dari model di atas akan menghasilkan
nilai error, yaitu: ûᵢ²
2. Buat persamaan regresi:

𝑢̂𝑖2 = 𝑎0 + 𝑎1 𝑋1𝑖 + 𝑎2 𝑋2𝑖 + 𝑎3 𝑋1𝑖


2 2
+ 𝑎4 𝑋2𝑖 + 𝑎5 𝑋1𝑖 𝑋2𝑖 +𝑉𝑖

Perhatikan model diatas, uji ini mengasumsikan


bahwa varian error merupakan fungsi yang mempunyai
hubungan dengan variabel bebas, kuadrat masing-masing
variabel bebas, dan interaksi antar variabel bebas.

33
Materi 5: Pemodelan Regresi Linier Majemuk

3. Dengan Hipotesis:
H˳ : Homoskedastis
H₁ : Lainnya

Sampel berukuran n dan koefisien determinasi R²


yang didapat dari regresi akan mengikuti distribusi Chi-
Square dengan derajat bebas jumlah variabel bebas atau
jumlah koefisien regresi diluar intercept. Dengan demikian,
formulasi Uji White adalah sebagai berikut:

n R² ~ᵪ²

4. Jika nilai penghitungan melebihi nilai kritis dengan ᵅ


yang dipilih, diputuskan bahwa tidak terdapat
heteroskedastisitas. Hal ini disebabkan ᵅ₁ = ᵅ₂ = ᵅ₃ = ᵅ₄ =
ᵅ₅ = 0, sehingga ûᵢ² = ᵅ˳ (konstan).

Sebagai catatan: pengolahan data dengan SPSS ternyata tidak mempunyai


‘menu’ yang secara langsung dapat mendeteksi heteroskedastisitas, sehingga
kita harus mengikuti tahapan-tahapan diatas. Akan tetapi, khusus untuk Uji
White ini kita dapat melakukannya secara langsung dengan menggunakan
Program Siap Pakai EVIEWS. Dengan paket program tersebut, selain
mendeteksi heteroskedastisitas, kita juga disediakan fasilitas untuk mengatasi
permasalahan tersebut. Penggunaan Program Siap Pakai EVIEWS akan
dibahas pada bagian selajutnya.

C.3.Teknik Mengatasi Heteroskedastisitas

Sebagaimana multikolinieritas, maka permasalahan heteroskedastisitas


juga harus diatasi. Ada berbagai macam teknik yang dapat digunakan
untuk kepentingan tersebut. Berikut ini akan dipaparkan berbagai teknik
yang dapat digunakan.

34
Materi 5: Pemodelan Regresi Linier Majemuk

1. Metode Generalized Least Squares (GLS)


Metode ini sering juga disebut dengan Metode Kuadrat Terkecil
Tertimbang. Adapun metode ini hanya dapat diterapkan jika 𝜎𝑗2
diketahui.

Perhatikan model berikut:

𝑌𝑗 = 𝛽0 + 𝛽1 𝑋𝑗 + 𝑢𝑗 dengan Var (𝑢𝑗 ) = 𝜎𝑗2 (5.23)

1
Jika persamaan tersebut masing-masing dikalikan , maka:
𝜎𝑗

𝑌𝑗 1 𝑋 𝑢
= 𝛽0 ( ) + 𝛽1 ( 𝑗) + ( 𝑗) (5.24)
𝜎𝑗 𝜎𝑗 𝜎𝑗 𝜎𝑗

Model tersebut dapat dituliskan sebagai:

𝑌𝑖 ∗ = 𝛽0∗ + 𝛽1 𝑋𝑖 ∗ + 𝑢𝑖 ∗ (5.25)

Dapat dibuktikan bahwa model (5.24) telah homoskedastis.


Perhatikan pembuktian di bawah ini:
𝑢𝑗2 1 1
E(𝑢𝑖∗2 ) = E( )= E(𝑢𝑗2 )= (𝜎𝑗2 )=konstan (5.26)
𝜎𝑗2 𝜎𝑗2 𝜎𝑗2

Oleh karena residual telah homoskedastis, maka model (5.25)


dapat diduga dengan OLS, dan penduga yang diperoleh akan bersifat
BLUE. Sedangkan model awal (5.23) yang belum ditransformasikan
(original model) bila ditaksir dengan OLS, taksirannya tidak BLUE.

1
2. Transformasi dengan (𝑋 )
𝑗

35
Materi 5: Pemodelan Regresi Linier Majemuk

Dalam banyak pembuatan model regresi, ternyata nilai-nilai 𝜎𝑗2


hampir tidak pernah diketahui. Untuk menanggulangi kendala
tersebut maka digunakan asumsi untuk menentukan nilai 𝜎𝑗2 . Pada
bagian ini akan dicoba mengansumsikan bahwa:

E (𝑢𝑗2 )=σ2 𝑋𝑗2 (5.27)

Dengan asumsi demikian, maka transformasi dilakukan dengan


membagi model awal (lihat persamaan 5.23) dengan Xj. dengan
demikian model menjadi:

𝑌𝑗 1 𝑢𝑗
𝑋𝑗
= 𝛽0 (𝑋 ) + 𝛽1 + (𝑋 ) (5.28)
𝑗 𝑗

Atau dapat ditulis dengan:

𝑌𝑖 ∗ = 𝛽0 𝑋 ∗ + 𝛽1 + 𝑣𝑖
Apakah sudah homokedastis? Perhatikan bukti berikut:

𝑢2 1 1
E=(𝑣𝑖2 )=E( 𝑗2 )= 2 E(𝑢𝑗2 )= (𝜎 2 𝑋𝑗2 )=σ2konstan (5.29)
𝑋𝑗 𝑋𝑗 𝑋𝑗2

Ternyata hasil transformasi tersebut telah menyebabkan


residual konstan, dan bearti residual telah homoskedastis.mengingat
hal tersebut, maka sekarang OLS dapat digunakan dengan
𝑌𝑖 1
meregresiakan 𝑋𝑖
dengan 𝑋𝑖
. Lihat kembali persamaan (5.28).
persamaan hasil transformasi menunjukkan bahwa yang menjadi
slope adalah 𝛽0 dan yang menjadi intercept 𝛽1 .
𝟏
3. Transformasi dengan
√𝑿𝒊

Pada transformasi ini diasumsikan bahwa E(𝑢𝑗2 )=𝜎 2 𝑋𝑗

36
Materi 5: Pemodelan Regresi Linier Majemuk

Setelah ditransformasi, maka model pada persamaan 5.23 menjadi:

𝑌𝑗 1 𝑢𝑗
=𝛽0 ( )+𝛽1 √𝑋𝑗 +( ) (5.30)
√𝑋𝑗 √𝑋𝑗 √𝑋𝑗

atau dapat ditulis dengan:

𝑌𝑖∗ =𝛽0∗+𝛽1 𝑋𝑖 *+𝑣𝑖

Pembuktian bahwa hasil transformasi telah mengakibatkan residual


konstan adalah:

𝑢𝑗2 1 1
E=(𝑣𝑖2 )=E( )=𝑋 E(𝑢𝑗2 )=𝑋 (𝜎 2 𝑋𝑗 )=σ2konstan (5.31)
√𝑋𝑗2 𝑗 𝑗

4. Transformasi dengan E(Y1)

Transformasi ini dilandasi dengan asumsi bahwa

E(𝑢𝑗2 )=𝜎 2 [𝐸(𝑌𝑗 )]2

Hasil transformasi adalah:

𝑌𝑗 1 𝑋 𝑢
𝐸(𝑌𝑗 )
=𝛽0 (𝐸(𝑌 )+𝛽1 (𝐸(𝑌𝑗 )+(𝐸(𝑌𝑗 ) (5.32)
𝑗) 𝑗) 𝑗)

atau dapat ditulis dengan:

𝑌𝑖∗ =𝛽0∗+𝛽1 𝑋𝑖 *+𝑣𝑖

Kembali akan dibuktikan, apakah residualnya telah homoskedastis.


𝑢𝑗2 1 1 2
E=(𝑣𝑖2 )=E( 2 )= 2 E(𝑢𝑗2 )= 2 (𝜎 2 [𝐸(𝑌𝑗 )] )=𝜎 2 (5.33)
[𝐸(𝑌𝑗 )] [𝐸(𝑌𝑗 )] [𝐸(𝑌𝑗 )]

37
Materi 5: Pemodelan Regresi Linier Majemuk

Permasalahan dalam trannsformasi ini adalah tidak


diketahuinya nilai 𝛽0 dan 𝛽1 , sehingga 𝐸(𝑌𝑗 ) juga tidak dapat
diketahui. Oleh karena itu, transformasi dapat dilakukan dengan
memanfaatkan model regresi yang diduga, yaitu: 𝑦𝑗 = 𝑏0 +𝑏1 𝑋𝑗 , yang
sekaligus merupakan penduga 𝐸(𝑌𝑗 ), atau sering dinotasikan dengan
Ŷ. Oleh karena itu, persamaan hasil transformasi adalah:

𝑌𝑗 1 𝑌 𝑢
Ŷ𝑗
=𝛽0 (Ŷ )+𝛽1 Ŷ𝑗+( Ŷ 𝑗) (5.34)
𝑗 𝑗 𝑗

5. Transformasi dengan Logaritma


Transformasi ini ditunjukkan untuk memperkecil skala antar variabel
bebas. Dengan semakin ‘sempitnya’ range nilai observasi.
Diharapkan variasi error juga tidak akan berbeda besar antar
kelompok observasi. Adapun model yang digunakan adalah:

Ln 𝑌𝑗 = 𝛽0 +𝛽1 Ln 𝑋𝑗 + 𝑢𝑗

Sebagai contoh, perhatikan kembali hubungan antara laba dan kredit,


yang terdeteksi mempunyai residual yang heteroskedastis. Untuk
menanggulangi permasalahan tersebut, maka kita coba untuk menggunakan
salah satu metode diatas. Pertama-tama kita asumsikan bahwa E(𝑢𝑗2 )=𝜎 2 𝑋𝑗2
1
sehingga model harus di transformasi dengan . Hasil pengolahan data
𝑋𝑗
dengan SPSS memberikan hasil sebagaimana terlihat dibawah ini.
𝐿𝐴𝐵𝐴 1
=0,046+27229,972
𝐾𝑅𝐸𝐷𝐼𝑇 𝐾𝑅𝐸𝐷𝐼𝑇

Dengan nilai SSE = 0,129, maka dapat dicari

ū2𝑖 0,129
𝜎̃ 2 = = = 0,00258
𝑛 50

38
Materi 5: Pemodelan Regresi Linier Majemuk

Setelah mendapat nilai pi, kemudian dibuat kembali regresi,


sehingga didapat hasil sebagai berikut:
1
pi = 0,623 + 452968,2 𝐾𝑅𝐸𝐷𝐼𝑇

Uji t dan Uji F menunjukkan hasil yang tidak signifikan, dan


2
R sangat rendah (lihat output yang tersaji dibawah). Sementara itu
nilai Sum of Square Regression sebesar 8,543. Hal tersebut
1 1
membawa arti bahwa: 𝛩 = 2 SSR = 2(8,543 = 4,2715).

2
Oleh karena nilai 𝑋(𝑚−1) dengan α = 5%, dan df = 1 sebesar 3,8414,
yang berarti 𝛩 mempunyai nilai lebih besar, maka kita memutuskan untuk
menolak hipotesis yang menyatakan residual homoskedastis pada α = 5%.
2
Akan tetapi bila dilihat nilai 𝑋(𝑚−1) dengan α = 1%. Paling tidak kondisi ini
mengindikasikan bahwa transformasi yang dilakukan memang dapat
mengatasi permasalahan heteroskedastisitas.

Model Summary

Model R R.Square Adjusted R.Square Std. Error of the


Estimate
1 .126a .016 -.005 3.31969
a. Predictors: (Constant), PER_KRDT
b. Dependent Variabel: PILPERK

ANOVAb

Model Sum of df Mean F Sig.


Squares Squares
1 Regression 8.543 1 8.543 .775 .383a
Residual 528.976 48 11.020
Total 537.520 49

39
Materi 5: Pemodelan Regresi Linier Majemuk

a. Predictors: (Constant), PER_KRDT


b. Dependent Variabel: PILPERK

Coefficients

Model Understandized Standized


Coefficients Coefficients t Sig.
B Std.error Beta
1 (Constant) .623 .637 .979 .333
PER_KRDT 452968.2 514458.7 .126 .880 .383

a. Dependent Variabel: PILPERK

D. PEMILIHAN MODEL

Kita telah mempelajari dua jenis model regresi, yaitu regresi


sederhana dan regresi majemuk. Perbedaan model ini hanya terletak pada
variabel bebas yang digunakan.menentukan jumlah variabel bebas yang ingin
digunakan untuk membuat regresi inipun perlu mendapat perhatian.
Katakanlah kita mempunya sekumpulan data dengan sebuah variabel terikat
dan k buah variabel bebas. Apakah bila kita memasukkan k variabel bebas
tersebut dalam model, maka kita akan menentukan model yang terbaik?
Ataukah sesungguhnya ada model yang lebih sederhana, tetapi lebih baik
daripada model tersebut? Atau dapat juga dipertanyakan, apakah model
regresi majemuk selalu lebih baik dibanding regresi sederhana?

Untuk menjawab pertanyaan tersebut, berikut akan dipaparkan


berbagai krteria yang berguna untuk memilih model, terutama berkenaan
dengan banyaknya variabel bebas yang sebaiknya digunakan dalam model.

D.1. R2 Adjusted

Telah dipaparkan pada bagian sebelumnya bahwa R2 sangat berguna


untuk mengukur ‘kedekatan’ antara nilai prediksi dan nilai
sesungguhnya dari variabel terikat. Semakin besar R2, maka semakin

40
Materi 5: Pemodelan Regresi Linier Majemuk

besar (‘kuat’) pula hubungan antara variabel terikat dengan satu atau
banyak variabel bebas. Masalahnya, bila kita mempunyai dia buah
regresi dengan variabel terikat yang sama, tetapi jumlah variabel
bebasnya berbeda, misalkan:

(i) LABA = 5053,712 + 0,049 KREDIT;


R2 = 80,6%
(ii) LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT;
R2 = 87,4%.

Model manakah yang lebih baik ditinjau dari koefisien


determinasinya? Tentu saja kesimpulan dengan cepat dapat diambil
bahwa model yang lebih baik adalah model (ii) karena R2-nya lebih
tinggi dibanding model (i).

Benarkah demikian? Sekarang kita perhatikan kembali formula


untuk menghitung R2, yaitu:

𝑆𝑆𝑅 𝑆𝑆𝑅 ∑ 𝑢2
R2 = 𝑆𝑆𝑇 = 1 - 𝑆𝑆𝑇 = 1 - ∑(𝑌 −Ῡ)
𝑖
2
𝑖

Berdasarkan rumusan diatas terlihat bahwa besaran SST sama


sekali tidak dipengaruhi oleh variabel bebas, karena formulasinya hanya
memperhitungkan variabel terikat. Dalam arti, berapapun jumlah
variabel bebas yang digunakan dalam membentuk regresi, tidak akan
memengaruhi SST.

Sementara itu, dalam penghitungan SSE, tentu akan


dipengaruhi oleh variabel bebas, dimana semakin banyak variabel
bebas, maka nilai SSE cenderung semakin kecil, atau paling tidak tetap,
dan sebaliknya semakin sedikit variabel bebas, maka nilai SSE
cenderung akan semakin besar. Hal ini disebabkan semakin banyaknya
variabel bebas akan mengakibatkan semakin besarnya variasi variabel

41
Materi 5: Pemodelan Regresi Linier Majemuk

terikat yang dapat diterangkan oleh variabel bebas, sehingga nilai SSR
akan besar, yang berakibat nilai SSE akan kecil.

Akibat kedua hal tersebut, maka semakin banyak variabel


bebas yang dimasukkan dalam model, maka nilai R2 akan semakin
besar. Hal tersebut dibuktikan oleh model (i) dan model (ii) di atas.
Setelah melihat pemaparan di atas, maka kita akan kembali bertanya,
benarkah semua model yang menggunakan variabel bebas lebih banyak
akan lebih baik dibanding dengan yang mempunyai variabel besar lebih
sedikit?

Bila kita hanya berpatokan pada R2 tentu kita akan selalu


memustuskan bahwa model yang terbaik adalah model dengan variabel
bebas yang banyak. Padahal kenyataannya tidaklah demikian.
Terkadang satu variabel bebas dalam model regresi sederhana dapat
menerangkan variabel terikat dengan lebih baik dibandingkan beberapa
variabel bebas dalam regresi majemuk. Oleh karena itu, agar keputusan
lebih tepat, terutama untuk membandingkan regresi dengan variabel
terikat yang sama, maka digunakan R2 yang disesuaikan atau dikenal
dengan sebutan R2 Adjusted yang dinotasikan dengan R2. Adapun
formulasi perhitungannya adalah sebagai berikut:

∑ 𝑢2 / (𝑛−𝑘)
R2 = 1 - ∑(𝑌 −Ῡ)/(𝑛−1)
𝑖
(5.35)
𝑖

Di mana: k adalah banyaknya parameter model regresi


termasuk intercept.

Terlihat pada persamaan (5.35) di atas bahwa baik nilai SST


maupun SSE telah diberi penimbang, baik jumlah variabel bebas dalam
medel, maupun jumlah sampel.

42
Materi 5: Pemodelan Regresi Linier Majemuk

Sekarang kita kembali pada ilustrasi di atas. Berdasarkan hasil


pengolahan SPPS didapat data sebagai berikut:

Model (i)

Model Summary

Model R R. Adjusted R. Std. Error of the


Square Square Estimate
a
1 .898 .806 .802 261479.442
a. Predictors: (Constant), KREDIT

Model (ii)

Model Summary

Model R R. Adjusted R. Std. Error of the


Square Square Estimate
1 .935a .874 .869 213011.9
a. Predictors: (Constant), PER_KRDT

Hasil di atas menunjukkan bahwa memang model (ii) yang


berbentuk regresi majemuk lebih baik dibanding model (i) yang
berbentuk regresi sederhana dengan variabel bebas KREDIT, karena R2
untuk model (ii) yang sebesar 86,9, lebih tinggi dibanding R2 model (i)
yang sebesar 80,2.

Perhatikan kembali bahwa model (ii) menggunakan dua buah


variabel bebas, yaitu KREDIT dan ASET. Coba kita periksa,
bagaimanakah kondisi R2 regresi sederhana yang mempunyai variabel
bebas ASET. Hasil pengolahan data dengan SPSS memberikan hasil
sebagai berikut:

43
Materi 5: Pemodelan Regresi Linier Majemuk

Model Summary

Model R R. Square Adjusted R. Std. Error of the


Square Estimate
1 .934a .872 .869 212743.174
a. Predictors: (Constant), ASET
b. Dependent Variabel: LABA

Ternyata hasil menunjukkan bahwa R2 regresi tersebut sama


dengan medel (ii). Disinilah terlihat bahwa tidak selalu model regresi
majemuk merupakan regresi yang lebih baik dibanding regresi
sederhana. Bila sebuah variabel bebas mampu menerangkan variabel
terikat sama besarnya dengan beberapa variabel bebas dalam
menerangkan variabel terikat yang sama, model manakah yang akan
dipilih?

D.2. Akaike Information Criterion (AIC)

Selain melihat R2, pemilihan model juga dapat dilakukan dengan


menggunakan Akaike Information Criterion (AIC). Adapun
formulasinya adalah;
𝑆𝑆𝐸
AIC = 𝑒 2𝑘/𝑛 ∑ 𝑢𝑖2 = 𝑒 2𝑘/𝑛 𝑛
(5.36)

Atau dapat ditulis sebagai:


2𝑘 𝑅𝑆𝑆
In AIC = ( ) + In( ) (5.37)
𝑛 𝑛

Di mana:

k = jumlah parameter dalam model termasuk intercept,

n = jumlah observasi (sampel).

44
Materi 5: Pemodelan Regresi Linier Majemuk

Bila kita membandngkan dua buah regresi atau lebih, maka


model yang mempunyai nilai AIC terkecil merupakan model yang lebih
baik. Sebagai ilustrasi penggunaan kriteria ini, kembali kita lihat tiga
model yang telah dibicarakan, yaitu:

LABA = 5053,712 + 0,049 KREDIT;

SSE = 3,28E + 12

LABA = 58260,461 + 0,013 ASET

SSE = 2,1E + 12

LABA = 45748,484 + 0,0106 ASET + 0,0081 KREDIT;

SSE = 2,17E + 12

Dengan demikian kita juga dapat menghitung nilai AIC masing-masing


model, yaitu:
2𝑘 𝑅𝑆𝑆 2𝑥2 3,28𝐸+12
In AIC(i) = ( ) + In( ) =( ) + In( ) = 24,9868
𝑛 𝑛 50 50

2𝑘 𝑅𝑆𝑆 2𝑥2 2,1𝐸+12


In AIC(ii) = ( 𝑛 ) + In( 𝑛
) = ( 50 ) + In( 50
) = 24,5409

2𝑘 𝑅𝑆𝑆 2𝑥3 2,17𝐸+12


In AIC(iii) = ( ) + In( ) =( ) + In( ) = 24,6137
𝑛 𝑛 50 50

Terlihat bahwa model (ii) mempunyai nilai AIC yang terkecil,


kemudian berturut-turut model (iii) dan model (i). apa yang ditunjukkan
oleh AIC ini sama halnya dengan yang telah ditunjukkan oleh R2,
sehingga kesimpulan kedua kriteria ini adalah sama, di mana sebaiknya
kita memilih model (ii).

45
Materi 5: Pemodelan Regresi Linier Majemuk

Catatan: sebagaimana terlihat diatas bahwa nilai AIC tidak bisa di


dapat secara langsung jika pengolahan data menggunakan SPSS. Nilai
tersebut bias di dapat secara langsung jika kita menggunakan Program
Siap Pakai EVIEWS. Hal ini akan dibicarakan pada bagian selanjutnya.

D.3. Schwarz Information Criterion (SIC)

Kegunaan SIC pada prinsipnya tidak berbeda dengan AIC. Formulanya


dituliskan sebagai berikut:

∑ 𝑢𝑖2 𝑆𝑆𝐸
SIC = 𝑛𝑘/𝑛 𝑛
= 𝑛𝑘/𝑛 𝑛
(5.38)

atau dapat ditulis sebagai:


𝑘 𝑅𝑆𝑆
In SIC = (𝑛) In n + In( 𝑛
) (5.39)

Sekarang kita coba terapkan kriteria ini dalam model yang


menjadi ilustrasi di atas:
𝑘 𝑅𝑆𝑆 2 3,28𝐸+12
In SIC(i) = ( ) In n+ In( ) = ( ) In 50 + In( ) = 25,06
𝑛 𝑛 50 50

𝑘 𝑅𝑆𝑆 2 2,1𝐸+12
In SIC(ii) = (𝑛) In n+ In( 𝑛
) = (50) In 50 + In( 50
) = 24,62

𝑘 𝑅𝑆𝑆 3 2,17𝐸+12
In SIC(iii) = ( ) In n+ In( ) = ( ) In 50 + In( ) = 24,73
𝑛 𝑛 50 50

Sama dengan AIC, pada SIC juga berlaku untuk memilih


model yang mempunyai nilai SIC terendah. Dari hasil perhitungan
terlihat bahwa untuk ketiga kriteria di atas, yaitu R2, AIC, dan SIC
memberikan kesimpulan yang sama, yaitu model (ii) yang terbaik.

Catatan: sebagaimana terlihat dinilai AIC, maka nilai SIC juga tidak
bisa di dapat secara langsung jika pengolahan data menggunakan SPSS.

46
Materi 5: Pemodelan Regresi Linier Majemuk

Nilai tersebut bias di dapat secara langsung jika kita menggunakan


Program Siap Pakai EVIEWS. Hal ini akan dibicarakan pada bagian
selanjutnya.

E. STANDARISASI VARIABEL

Topic ini pernah disinggung ketika kita membahas multikolinieritas,


khususnya ketika kita mencari jalan untuk menanggulangi kolinieritas dari
satu model, yang membutuhkan perbandingan kontribusi antara dua buah
variabel bebas untuk menerangkan variabel terikat. Jadi, secara tidak
langsung kita telah mengetahui fungsi daripada standarisasi variabel yang
akan dibahas pada bagian ini.

Pada dasarnya standarisasi variabel ini tidak ubahnya dengan


transformasi variabel, yang dilakukan dengan mengurangi nilai observasi
dengan rata-rata dan kemudian membagi hasil pengurangan tersebut dengan
standar deviasi dari nilai observasi, atau secara matematis dituliskan sebagai
berikut:

𝑌𝑖 − Ῡ 𝑋𝑖 − 𝑋
𝑌𝑖∗ = 𝑆𝑌
; dan 𝑥𝑖∗ 𝑆𝑋
(5.40)

di mana:

Ῡ = rata-rata observasi Y

𝑆𝑌 = standar deviasi oservasi Y

X = rata-rata observasi X

SX = standar deviasi observasi X

47
Materi 5: Pemodelan Regresi Linier Majemuk

Dengan demikian regresi awal, yaitu: 𝑌𝑖 + 𝛽0 + 𝛽1 𝑋𝑖 + 𝑢𝑖 , dituliskan sebagai:

𝑌𝑖∗ = 𝛽0∗ + 𝛽1∗ 𝑋𝑖∗ + 𝑢𝑖∗

Akibat standarisasi yang dilakukan maka semua variabel akan


mempunyai nilai tengah = 0, dan varian = 1. Hal ini dapat dibuktikan
sebagai berikut:

𝑌𝑖 − Ῡ
𝑌𝑖∗ = 𝑆𝑌

∑ 𝑌𝑖 −Ῡ 0
Ῡ∗𝑖 = 𝑛𝑆𝑌
= 𝑛𝑆 = 0 (nilai tengah = 0)
𝑌

(𝑌𝑖 −Ῡ)2 /(𝑛−1) (𝑛−1)𝑆𝑌2 /(𝑛−1)


𝑆𝑌2∗ = ∑ 𝑆𝑌2
= 𝑆𝑌2
= 1 (varian = 1)

Akibat dari kondisi tersebut, maka model regresi yang


menggunakan variabel yang telah di standarisasi tidak akan
mempunyai intercept. Buktinya, untuk regresi sederhana kita
mempunyai formula untuk mendapatkan intercept sebagai berikut:

𝛽0∗ = Ῡ - 𝛽1∗X

Oleh karena nilai tengah observasi = 0, maka 𝛽0∗ juga akan


bernilai 0. dengan demikian persamaan regresi untuk variabel yang
telah distandarisasi adalah:

𝑌𝑖∗ = 𝛽1∗ 𝑋𝑖∗ + 𝑢𝑖∗

Dalam pengolahan data dengan menggunakan SPSS, ternyata


secara langsung kita mendapatkan nilai-nilai penduga koefisien regresi
yang dibentuk setelah standarisasi variabel. Adapun notasi yang
diberikan untuk koefisien tersebut adalah BETA.

48
Materi 5: Pemodelan Regresi Linier Majemuk

Mengingan standarisasi merupakan suatu upaya di mana kita


meletakkan semua variabel pada basis yang sama, maka secara
langsung kita dapat membandingkan kontribusi masing-masing
variabel bebas untuk menerangkan variabel terikat. Jika koefisien Beta
suatu variabel bebas lebih besar dibanding yang lain, maka kita dapat
katakana bahwa kontribusi variabel bebas tersebut untuk menerangkan
variabel terikat lebih besar dibanding variabel bebas lainnya. Dari
pemaparan ini dapat telihat bahwa standarisasi variabel lebih berguna
untuk analisis pada model regresi majemuk.

Sebagai ilustrasi, perhatikan output di bawah ini.

Coefficienta

Model Unstandardized Standardized Collinearity Statistics


Coefficients Coefficients t Sig.
B Std.Error Beta Tolerance VIF
1 (Constant) 45748.484 35718.945 1.281 .207 -26108.8 117605.7
ASET 1.106E-02 .002 .794 5.033 .000 .007 .015
KREDIT 8.126E-03 .009 .148 .938 .363 .009 .025
a. Dependent Variable: LABA

Berdasarkan output tersebut dapat disimpulkan bahwa


kontribusi variabel bebas ASET untuk menerangkan LABA, jauh lebih
besar dibandingkan variabel bebas KREDIT.

F. KOEFISIEN KORELASI DAN KORELASI PARSIAL

Kita telah banyak membahas koefisien determinan (R2) yang


menggambarkan tingkat hubungan antara satu atau beberapa variabel bebas
dengan variabel terikat. Dalam regresi sederhana, jika angka koefisien
determinasi tersebut diakarkan, maka akan didapat koefisien korelasi (r),

49
Materi 5: Pemodelan Regresi Linier Majemuk

yang merupakan ukuran hubungan linier antar dua variabel (Y dan X).
Adapun formula penghitungannya sebagai berikut:
𝑛 ∑ 𝑋𝑖 𝑌𝑖 −(∑ 𝑋𝑖 )(∑ 𝑌𝑖 )
r= (5.41)
√[𝑛 ∑ 𝑋𝑖 −(∑ 𝑋𝑖 )2 |𝑛 ∑ 𝑌𝑖 −(∑ 𝑌𝑖 )2 ]

sedangkan untuk regresi majemuk, misalnya model 𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 +


𝛽2 𝑋2𝑖 + ui, maka dapat dihitung beberapa koefisien korelasi, yaitu korelasi
antara Y dengan X1i atau dinotasikan r01; Y dengan X2i (r01) dan X1i dengan
X2i (r12). Korelasi ini disebut dengan koefisien korelasi sederhana atau
koefisien korelasi orde 0.

Dalam regresi majemuk, ternyata korelasi tersebut kurang tepat


untuk langsung digunakan. Sebagaimana telah dibahas pada bagian yang
menjelaskan multikolinearitas, bahwa hubungan linier antara variabel terikat
dengan beberapa variabel bebas, bukan hanya dipengaruhi oleh korelasi
masing-masing variabel bebas terhadap variabel terikat, tetapi juga akibat
berkorelasinya sesama variabel bebas.

Jadi, korelasi antara Y dengan X1i, sesungguhnya masih dipengaruhi


oleh korelasi Y dengan X2i ; dan X1i dengan X2i, sehingga bila kita
meggunakan r01 untuk mengukur korelasi kedua variabel tersebut, maka
hasilnya tidaklah tepat. Untuk mendapatkan hasil yang lebih tepat, maka
digunakan suatu koefisien dimana formula yang digunakan telah
mempertimbangkan korelasi lain dalam regresi, disaat meengukur suatu
korelasi. Koefisien ini disebut dengan Korelasi Parsial atau Koefisien
Korelasi Orde Pertama. Untuk regresi majemuk dengan dua variabel bebas
sebagaimana tertulis diatas, digunakan notasi sebagai berikut:

r 01.2, yaitu koefisien korelasi parsial antara Y dengan X1i di mana X2i
dianggap konstan.

50
Materi 5: Pemodelan Regresi Linier Majemuk

r 02.3, yaitu koefisien korelasi parsial antara Y dengan X2i di mana X1i
dianggap konstan.

r 12.3, yaitu koefisien korelasi parsial antara X1i dengan X2i di mana Y
dianggap konstan.

Adapun formula yang digunakan untuk penghitungan masing-masing


koefisien korelasi adalah sebagai berikut:
𝑟01 −𝑟02 𝑟12
r 01.2 = 2 )(1−𝑟 2 ) (5.42)
(1−𝑟02 12

𝑟02 −𝑟01 𝑟12


r 02.1 = 2 )(1−𝑟 2 ) (5.43)
(1−𝑟01 12

𝑟12 −𝑟01 𝑟02


r 12.0 = 2 )(1−𝑟 2 ) (5.44)
(1−𝑟01 02

Bagaimana jika kita mempunyai regresi majemuk dengan tiga buah


variabel bebas? Kita dapat mencarinya dengan menganggap dua variabel lain
konstan, misalnya r 01.23, yaitu koefisien korelasi parsial antara Y dengan X1i
di mana X2i dan X3i dianggap konstan. Korelasi ini disebut dengan koefisien
korelasi orde kedua. Bila kita mempunyai k buah variabel bebas, maka kita
akan menganggap sebanyak (k-1) variabel bebas dianggap konstan. Misalnya
r 01.23….k, yaitu koefisien korelasi parsial antara Y dengan X1i di mana X2i,
X3i,…., Xki, dianggap konstan. Ini disebut dengan koefisien korelasi ke-k.

Formulasi perhitungan selain orde pertama tidak akan kita bahas


disini. Sedang untuk menetapkan nilai-nilai tersebut jika kita membuat
regresi majemuk dengan tiga variabel bebas atau lebih, SPSS secara otomatis
telah menyediakannya jika kita klik pilihan ‘Partial Correlation’.

51
Materi 5: Pemodelan Regresi Linier Majemuk

G. DIAGNOSTIK REGRESI

Sebagaimana telah banyak dibahas pada bab 1 bahwa residual


merupakan komponen penting untuk menentukan atau mengevaluasi
kesahihan suatu model, baik untuk melihat pelanggaran terhadap asumsi
maupun untuk melihat penyimpangan nilai prediksi terhadap nilai
sesungguhnya. Manfaat untuk melihat pelanggaran asumsi telah banyak
dibahas diatas. Pada bagian ini akan dibahas bagaimana cara mendeteksi
nilai-nilai ekstrim atau outlier.

Outlier adalah nilai yang terpisah dari nilai observasi, yang dapat
bernilai sangat besar atau sangat kecil. Mengingat pendugaan koefisien
regresi dan berbagai perhitungan lain yang menyangkut regresi, seperti
koefisien determinasi atau uji hipotesis, sangat banyak memanfaatkan nilai
rata-rata, maka nilai ekstrim akan mempunyai pengaruh terhadap ketepatan
model.

Contoh, ada sekumpulan data yang bernilai: 1,2,1,4,1,2 dan 10.


Dengan demikian rata-ratanya akan menjadi 3. Apakah rata-rata tersebut
mencerminkan kondisi yang sebenarnya? Oleh karena itulah dalam regresi
outlier harus diperhatikan dengan cermat, jika kita ingin persamaan regresi
yang dibuat akurat.

Deteksi outlier dapat dilakukan dengan membuat plot antara residual


dan nilai prediksi atau residual standar dan nilai prediksi standar. Residual
yang besar akan mengindikasikan nilai prediksi jauh daripada nilai
sesungguhnya. Akan tetapi, seberapakah yang disebut jauh dan seberapakah
yang disebut dekat? Atau kapankah kita dapat menyebut suatu observasi
merupakan outlier dan kapan tidak.

Untuk kebutuhan tersebut, kita perlu mengingat kembali residual


standar yang telah dibicarakan pada Bab 1, yaitu:

52
Materi 5: Pemodelan Regresi Linier Majemuk

𝑒𝑖
𝑆𝑒𝑖

Di mana 𝑆𝑒𝑖 , adalah standar deviasi residual, yang dapat dicari dengan
menggunakan rumus:

𝑆𝑒𝑖 = 𝑆𝑌.𝑋′𝑠 √1 − ℎ𝑖𝑖

Di mana 𝑆𝑌.𝑋′𝑠 adalah standard error estimasi atau akar dari Mean Square or
Error √𝑀𝑆𝐸.

Residual standar akan mempertimbangkan nilai Y yang tinggi jika:


𝑒
|𝑆 𝑖 |>2
𝑒𝑖

Sebab nilai Y dengan residual yang tinggi akan mengganggu dalam


memprediksi fungsi regresi.

53

Anda mungkin juga menyukai