Anda di halaman 1dari 24

PERTEMUAN 14

REGRESI BERGANDA (LANJ-UTAN)


Team Teaching: Ajimat, S.Si., M.M., Angga Rovita, S.Pd., M.Pd

A. Tujuan Pembelajaran
1. Mahasiswa diharapkan mampu memahami analisis varians dalam regresi
linier berganda, dan melakukan pendugaan dengan menggunakan regresi
linier berganda.
2. Mahasiswa diharapkan mampu memahami masalah regresi lainnya.

B. Uraian Materi
1. Analisis varians dalam regresi linier berganda, dan melakukan
pendugaan dengan menggunakan regresi linier berganda.
Pada regresi sederhana, dinyatakan bahwa apabila variabel 𝑋 dan 𝑌 yang
diukur menurut rata-ratanya, dinyatakan dalam bentuk simpangan
(𝑥𝑖 = 𝑋𝑖 − 𝑋, 𝑦𝑖 = 𝑦𝑖 − 𝑌), maka:

∑ 𝑥𝑖 𝑦𝑖
𝑦𝑖 = 𝑦̂𝑖 + 𝑒𝑖 ⇒ 𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖 , 𝑦̂𝑖 = 𝑏𝑥𝑖 ⇒ 𝑏 =
∑ 𝑥𝑖2
∑ 𝑦𝑖2 = ∑ 𝑦̂𝑖2 + ∑ 𝑒𝑖2 ⇒ ∑ 𝑦̂𝑖2 = 𝑏 2 ∑ 𝑥𝑖2 = 𝑏 ∑ 𝑥𝑖 𝑦𝑖 = 𝑏 𝑇 𝑥 𝑇 𝑦
∑ 𝑒𝑖2 = (1 − 𝑟 2 ) ∑ 𝑦𝑖2 = (1 − 𝑟 2 )𝑦 𝑇 𝑦
∑ 𝑥𝑖 𝑦 𝑖 ∑ 𝑦2
𝑏 ∑ 𝑥𝑖 𝑦𝑖 = ∑ 𝑥𝑖2
. ∑ 𝑥𝑖 𝑦𝑖 . ∑ 𝑦𝑖2 = 𝑟 2 ∑ 𝑦𝑖2 = 𝑟 2 𝑦 𝑇 𝑦
𝑖
Jadi, ∑ 𝑦𝑖2 = 𝑟 2 𝑦 𝑇 𝑦(1 − 𝑟2 )𝑦 𝑇 𝑦

Pada umumnya, kalau hubungan antara 𝑘 variabel (yaitu antar 𝑌 dengan


𝑋1 , 𝑋2 , … , 𝑋𝑘 ) sebanyak 𝑘 varabel bebas 𝑋 untuk suatu sampel dengan 𝑛
observasi.
𝑌𝑖 = 𝐵0 + 𝐵1 𝑋1𝑖 + ⋯ + 𝐵𝑗 𝑋𝑗𝑖 + ⋯ + 𝐵𝑘 𝑋𝑘𝑖 + 𝜀𝑖 , 𝑖 = 1,2, … 𝑛 dan 𝑗 = 1,2, . . , 𝑘

Karena koefisien 𝐵 dan kesalahan pengganggu 𝜀 tak diketahui, maka


nilainya harus diestimasi dari data hasil observasi. 𝐵 dan 𝜀 diestimasi
dengan 𝑏 dan 𝑒. Sehingga:
𝑌𝑖 = 𝐵0 + 𝐵1 𝑋1𝑖 + ⋯ + 𝐵𝑗 𝑋𝑗𝑖 + ⋯ + 𝐵𝑘 𝑋𝑘𝑖 + 𝜀𝑖 , 𝑖 = 1,2, … 𝑛

Dinyatakan dalam bentuk matriks:


𝑌 = 𝑋𝐵 + 𝜀
𝑌1 1 ⋯ 𝑋11 ⋯ 𝑋𝑗1 ⋯ 𝑋𝑘1 𝐵1 𝜀1
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
𝑌2 1 ⋯ 𝑋12 ⋯ 𝑋𝑗2 ⋯ 𝑋𝑘2 𝐵2 𝜀2
𝑌 = ⋮ ,𝑋 = ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ,𝐵 = ⋮ ,𝜀 = ⋮
𝑌𝑖 𝑋1𝑖 ⋯ 𝑋𝑗𝑖 ⋯ 𝐵𝑖 𝜀𝑖
1 ⋯ 𝑋𝑘𝑖
⋮ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑌𝑛 ] 𝑋1𝑛 ⋯ 𝑋𝑗𝑛 ⋯ [𝐵𝑛 ] [𝜀𝑛 ]
[1 ⋯ 𝑋𝑘𝑛 ]

Apabila variabel 𝑋 dan 𝑌 diukur dari titik asal, maka dapat diringkaskan
hal-hal sebagai berikut:
𝑌 = 𝑋𝐵 + 𝜀, diestimasi dengan 𝑋𝑏 + 𝑒
−1
𝑏 = (𝑋 𝑇 𝑋) 𝑋 𝑇 𝑌
𝐸(𝑏) = 𝐵
−1
Var(𝑏) = 𝜎 2 (𝑋 𝑇 𝑋)
1
2 𝑏 𝑋 𝑇 𝑌− (∑ 𝑌𝑖 )2
𝐸(𝑒 𝑇 𝑒) = (𝑛 − 𝑘)𝜎 2 dan 𝑅1,23…..𝑘 = 𝑅2 = 𝑛
1
𝑌 𝑇 𝑌−− (∑ 𝑌𝑖 )2
𝑛

Apabila variabel 𝑋 dan 𝑌 masing-masing diukur dari rata-rata, kemudian


dinyatakan dengan huruf latin kecil 𝑥𝑗 = 𝑋𝑗 − 𝑋𝑗 dan 𝑦𝑖 = 𝑌𝑖 − 𝑌, maka
hubungan tersebut akan menjadi:
𝑦𝑖 = 𝑏1 𝑥1𝑖 + 𝑏2 𝑥2𝑖 + ⋯ +𝑏𝑗 𝑥𝑗𝑖 + ⋯ + 𝑏𝑘 𝑥𝑘1𝑖 + 𝑒𝑖 , 𝑖 = 1,2, . . 𝑛 dan 𝑗 = 1,2, . . , 𝑘

Dinyatakan dalam bentuk matriks, akan diperoleh hubungan berikut


𝑌 = 𝑋𝐵 + 𝜀 + 𝜀̅, yang dapat diestimasi dengan 𝑋𝑏 + 𝜀 (dapat dibuktikan
bahwa 𝑒 = 0).
𝑦1 𝑥11 𝑥21 ⋯ 𝑥𝑗1 𝑥𝑘1 𝐵1
𝑦2 ⋯
𝑥12 𝑥22 𝑥𝑗2 𝑥𝑘2 𝐵2

𝑌 = ⋮ ,𝑋 = ⋮ ⋮ ⋮ ⋮ ,𝐵 = ⋮ ,
𝑦𝑖 𝑥1𝑖 𝑥2𝑖 𝑥𝑗𝑖 𝑥𝑘𝑖 𝐵𝑗
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑦𝑛 ] [𝑥1𝑛 𝑥2𝑛 𝑥𝑗𝑛 𝑥𝑘𝑛 ] [𝐵𝑘 ]

𝑏1 𝜀1 𝜀1 𝑒1
𝑏2 𝜀2 𝜀2 𝑒2
⋮ ⋮ ⋮ ⋮
𝑏 = ⋮ ,𝜀 = ⋮ ,𝜀 = ⋮ ,𝑒 = ⋮
𝑏𝑖 𝜀𝑖 𝜀𝑖 𝑒𝑖
⋮ ⋮ ⋮ ⋮
[𝑏𝑛 ] [𝜀𝑛 ] [𝜀𝑛 ] [𝑒𝑛 ]
Perhatikan bahwa kita sukar sekali (tidak bisa) membedakan antara
matriks/vektor dengan elemen-elemen berupa variabel yang diukur dari
titik nol (dinyatakan dengan huruf latin besar) dan yang diukur dari rata-
ratanya (dinyatakan dengan huruf latin kecil), sebab matriks/vektor harus
dinyatakan dalam huruf latin besar.
Apabila variabel diukur dari rata-ratanya, atau dinyatakan dalam
bentuk simpangan dengan huruf latin kecil, maka matriks 𝑋 akan menjadi
𝑛 baris dan 𝑘 kolom, sedangkan vektor 𝐵 akan terdiri dari 𝑘
komponen/elemen.
Semua rumus yang berhubungan dengan variabel yang dinyatakan
dalam bentuk simpangan (huruf kecil), mepunyai bentuk yang sama
2
apabila dinyatakan dalam bentuk persamaan matriks, kecuali 𝑅1,23…..𝑘 =
𝑟 2 , yang bentuknya akan berubah dari:
1
bT XT Y− (∑ Yi )2
2
𝑅 = 1
n
(variabel 𝑋 dan 𝑌 dinyatakan dalam huruf besar)
YT Y− (∑ Yi )2
n
menjadi,
bT X T Y
𝑅2 = (variabel 𝑋 dan 𝑌 dinyatakan dalam huruf kecil) dimana:
YT Y
∑ 𝑥1𝑖 𝑦𝑖
∑ 𝑥2𝑖 𝑦𝑖

bT X T Y = (𝑏1 , 𝑏2 , … , 𝑏𝑗 , … , 𝑏𝑘 ) ∑ 𝑥 𝑦
𝑗𝑖 𝑖

[∑ 𝑥𝑘𝑖 𝑦𝑖 ]

bT X T Y = 𝑏1 ∑ 𝑥1𝑖 𝑦𝑖 + 𝑏2 ∑ 𝑥2𝑖 𝑦𝑖 +. . . +𝑏𝑗 ∑ 𝑥𝑗𝑖 𝑦𝑖 + ⋯ + 𝑏𝑘 ∑ 𝑥𝑘𝑖 𝑦𝑖

Sesuai dengan uraian mengenai regresi linear sederhana untuk hubungan


antara dua variabel, maka:
bT X T Y = Y T Y(𝑅 2 )
𝑒 𝑇 𝑒 = Y T Y(1 − 𝑅 2 )
Y T Y = bT X T Y + 𝑒 𝑇 𝑒 = Y T Y(𝑅2 ) + Y T Y(1 − 𝑅 2 ) ⇒ Y T Y = ∑ 𝑦𝑖2 dan 𝑒 𝑇 𝑒 = ∑ 𝑒𝑖2
Y T Y = ∑ 𝑦𝑖2 ⇒ untuk mengukur variasi Y
bT X T Y = Y T Y(𝑅 2 ) ⇒ variasi Y yang berasal dari regresi
𝑒 𝑇 𝑒 = Y T Y(1 − 𝑅 2 ) ⇒ variasi Y yang berasal dari residu

Jadi, variasi 𝑌 berasal dari dua sumber, yaitu dari regresi linear berganda
(tergantung pada variabel bebas 𝑋1 , 𝑋2 , … , 𝑋𝑘 ) dan dari residu.
Pemecahan variasi 𝑌 menjadi dua sumber merupakan dasar
analisis varians dan dapat disajikan dalam bentuk tabel analisis varians
(Anova) sebagai berikut:

Tabel Anova untuk Sumber Variasi 𝒀


Sumber Variasi Jumlah kuadrat Derajat Kebebasan Rata-rata Kuadrat
𝑋1 , 𝑋2 , … 𝑋𝑘 bT X T Y = Y T Y(𝑅2 ) 𝑘 Y T Y(𝑅2 )/𝑘
Residu/Error 𝑒 𝑇 𝑒 = Y T Y(1 − 𝑅2 ) 𝑛−𝑘−1 Y Y(1 − 𝑅2 )/(n-k-1)
T

∑ Y T Y = ∑ 𝑦𝑖2 𝑛−1

𝑘 = banyaknya variabel 𝑋
bT XT Y/𝑘 YT Y(𝑅2 ) 𝑅2 /𝑘
𝐹0 = = =
𝑒𝑇 𝑒/(𝑛 − 𝑘 − 1) YT Y(1 − 𝑅2 )/(𝑛 − 𝑘 − 1) (1 − 𝑅2 )/(𝑛 − 𝑘 − 1)

Jadi, untuk menguji keberartian model digunakan rumus:


𝑅2 /𝑘
𝐹0 = … … … … … … … … … … … … … … … . (𝐏𝐞𝐫𝐬. 𝟐𝟔)
(1 − 𝑅2 )/(𝑛 − 𝑘 − 1)

Secara umum tabel Anova dapat ditulis sebagai berikut:

Tabel Anova untuk Pengujian Keberartian


Sumber Variasi Jumlah kuadrat Derajat Kebebasan Rata-rata Kuadrat
Regresi JKR 𝑘 JKR/𝑘 = RKR
Residu/Error JKE 𝑛−𝑘−1 JKE/(n-k-1) = RKE
∑ JKT 𝑛−1 JKT/𝑛 − 1 = RKT

𝑅𝐾𝑅
𝐹obs =
𝑅𝐾𝐸

dimana,
𝐽𝐾𝑅 = jumlah kuadrat regresi
𝐽𝐾𝐸 = jumlah kuadrat error
𝐽𝐾𝑇 = jumlah kuadrat total
𝑅𝐾𝑅 = rata-rata kuadrat regresi
𝑅𝐾𝐸 = rata-rata kuadrat error

𝐹0 mengikuti fungsi 𝐹 dengan derajat kebebasan 𝑘 dan (𝑛 − 𝑘 − 1).


Statistik uji 𝐹 yang dihitung berdasarkan sampel ini, dipergunakan sebagai
dasar pengujian hipotesis dengan menggunakan analisis varians.
Hipotesis yang akan diuji adalah:

𝐻0 : 𝐵1 = 𝐵2 = ⋯ 𝐵𝑗 = ⋯ 𝐵𝑘 = 0
(tak ada pengaruh dari 𝑋1 , 𝑋2 , … , 𝑋𝑗 , … , 𝑋𝑘 terhadap 𝑌).
𝐻𝑎 : 𝐵𝑗 ≠ 0
(paling sedikit ada satu variabel 𝑋 yang mempengaruhi 𝑌, misalnya 𝑋𝑗 ⇒
𝐵𝑗 ≠ 0).
𝐹0 kemudian dibandingkan dengan 𝐹(𝛼)(𝑘)(𝑛−𝑘−1) dari tabel 𝐹.
Apabila 𝐹0 > 𝐹𝑡𝑎𝑏𝑒𝑙 , 𝐻0 ditolak, sebaliknya apabila 𝐹0 < 𝐹𝑡𝑎𝑏𝑒𝑙 , 𝐻0 diterima.
Tujuan pengujian hipotesis ini ialah sebagai dasar pembuatan
keputusan, apakah persamaan regresi linear dapat digunakan untuk
memperkirakan/meramalkan nilai 𝑌 kalau nilai𝑋1 , 𝑋2 , … , 𝑋𝑘 sudah diketahui
semuanya.
Nilai variabel 𝑋 diketahui berdasarkan hal-hal berikut:
1. Ditentukan berdasarkan kebijakan, mungkin melalui perencanaan
sehingga disebut “policy variable”. Misalnya, pemerintah memutuskan
untuk waktu yang akan datang, bahwa suku bunga deposito akan
diturunkan menjadi 1% per bulan; pemerintah daerah akan
menggunakan pupuk 100 ton; harga minyak akan dinaikkan 5%; tarif
bis kota DKI Jakarta Raya akan dinaikkan menjadi dua kali lipat; tarif
pajak akan diturunkan 10%; pengeluaran pemerintah akan dinaikkan
7%; biaya iklan suatu perusahaan akan naik menjadi Rp. 100 juta; dan
seterusnya.
2. Kejadian yang sudah terjadi (sudah lama timbul atau baru saja terjadi).
Misalnya, konsumsi tahun lalu, harga sebulan yang lalu. PDB tahun
yang lalu, jumlah kredit 3 bulan yang lalu, jumlah penduduk tahun lalu,
jumlah uang yang beredar triwulan yang lalu, dan lain sebagainya.
3. Hasil ramalan. Misalnya, ramalan PDB, ramalan produksi padi, ramalan
penduduk, ramalan hasil penjualan, ramalan ekspor, dan lain
sebagainya.

Apabila hasil pengujian hipotesis menunjukkan bahwa 𝐻0 diterima,


berarti persamaan garis regresi linear berganda yang bersangkutan tak
dapat dipergunakan untuk membuat ramalan nilai 𝑌, karena tak satupun
variabel bebas 𝑋 yang mempengaruhi 𝑌.

Contoh 1
1. Berdasarkan data dari contoh 4 di pertemuan ke-13, ujilah pendapat
dengan menggunakan analisis varians, bahwa 𝑋1 dan 𝑋2 masing-
masing tidak mempengaruhi 𝑌, dengan alternatif, paling tidak ada satu
yang mempengaruhi 𝑌. Gunakan 𝛼 = 5% dan 𝛼 = 1% !

Jawab
𝐻0 : 𝐵1 = 𝐵2 = 0
𝐻𝑎 : 𝐵𝑗 ≠ 0, 𝑗 = 2,3
Dari contoh 4 dipertemuan ke-13 telah dihitung perkiraan:
𝑏1 = 1,3642
𝑏2 = 0,1139
bT X T Y = 𝑏1 ∑ 𝑥1𝑖 𝑦𝑖 + 𝑏2 ∑ 𝑥2𝑖 𝑦𝑖 = 1,3642(879) + 0,1139(−79) = 1183,3127
Y T Y = ∑ 𝑦𝑖2 = 1260,89
T
𝑒 𝑇 𝑒 = ∑ 𝑒𝑖2 = Y T Y − b XT Y = 1260,89 − 1183,3127 = 77,5773

Hasil perhitungan ini dapat disajikan dalam tabel Anova sebagai berikut.

Tabel Anova untuk Pengujian Keberartian


Rata-rata
Sumber Variasi Jumlah kuadrat Derajat Kebebasan
Kuadrat
Regresi (𝑋1 , 𝑋2 ) bT X T Y = 1183,3127 𝑘=2 591,6564
𝑛−𝑘−1 =9−2−1
Residu/Error 𝑒 𝑇 𝑒 = 77,5773 12,9296
=6
∑ Y T Y = 1260,89 𝑛−1

591,6564
𝐹0 = = 45,7598
12,9296
𝐹0 juga dapat diperoleh rumus:

𝑅2 /𝑘 (0,9384)/2 0,4692
𝐹0 = 2
= = = 45,5534
(1 − 𝑅 )/(𝑛 − 𝑘 − 1) (1 − 0,9384)/6 0,0103
(perbedaan merupakan kesalahan pembulatan).

𝐹(𝛼)(𝑘)(𝑛−𝑘−1) = 𝐹(0,05)(2)(6) = 5,14.


𝐹(𝛼)(𝑘)(𝑛−𝑘−1) = 𝐹(0,01)(2)(6) = 10,92.

Karena 𝐹0 = 45,5534 > 𝐹(0,05)(2)(6) = 5,14 maka 𝐻0 ditolak yang berarti ada
pengaruh dari 𝑋1 dan 𝑋2 terhadap 𝑌. Ternyata, 𝐹0 = 45,5534 >
𝐹(0,01)(2)(6) = 10,92 sehingga pada 𝛼 = 1% , 𝐻0 juga ditolak.
Hipotesis yang ditolak pada nilai 𝛼 = 5% dikatakan nyata biasa
(significant); sedangkan kalau ditolak pada nilai 𝛼 = 1% dikatakan sangat
nyata (highly significant). Hasil penolakan 𝐻0 pada 𝛼 = 1% ini lebih
meyakinkan, yang berarti nyata-nyata ada pengaruh dari 𝑋1 dan 𝑋2
terhadap 𝑌. Perlu disebutkan di sini bahwa ada kemungkinan suatu
hipotesis ditolak pada tingkat nyata 5%, akan tetapi tidak ditolak pada
tingkat nyata 1%. Dalam hal ini, penolakan dianggap biasa saja.
Analisis varians yang baru saja diuraikan di atas, digunakan untuk
menguji hipotesis bahwa seluruh variabel bebas 𝑋1 , 𝑋2 , … , 𝑋𝑗 , … , 𝑋𝑘 tidak
mempengaruhi 𝑌. Apabila hipotesis tersebut benar, maka garis regresi
linear berganda yang bersangkutan tak dapat digunakan untuk
memperkirakan/meramalkan 𝑌; sebaliknya kalau hipotesis tersebut
ditolak, persamaan garis regresinya adalah:
𝑦̂ = 𝑏1 𝑥1 + 𝑏2 𝑥2 + ⋯ + 𝑏𝑗 𝑥𝑗 + ⋯ . +𝑏𝑘 𝑥𝑘
atau
𝑌̂ = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + ⋯ + 𝑏𝑗 𝑋𝑗 + ⋯ . +𝑏𝑘 𝑋𝑘

dimana 𝑏0 = 𝑌 − 𝑏1 𝑋1 − 𝑏2 𝑋2 − ⋯ − 𝑏𝑘 𝑋𝑘 dapat digunakan untuk


meramalkan nilai 𝑌, kalau nilai 𝑋1 , 𝑋2 , … , 𝑋𝑘 sudah diketahui.

Di dalam praktek, kita sering kali ingin menguji pendapat bahwa


satu variabel (katakanlah 𝑋𝑘 ) atau suatu kelompok variabel (katakanlah
𝑋1 , 𝑋2 , … , 𝑋𝑗 , … , 𝑋𝑘 ) tidak mempengaruhi 𝑌.

Kita dapat melakukan pengujian ini, dengan langkah-langkah sebagai


berikut.
1. Untuk satu variabel saja, katakanlah 𝑋𝑘 tak mempengaruhi 𝑌, berarti:
𝐻0 : 𝐵𝑘 = 0
𝐻0 : 𝐵𝑘 ≠ 0

Hipotesis ini dapat diuji dengan menggunakan statistik uji 𝑡 sebagai


berikut.
𝑏𝑘 𝑏𝑘
𝑡0 = =
𝑠𝑏𝑘 𝑠𝑒 √𝑑𝑗𝑗

dimana 𝑑𝑗𝑗 = elemen ke-𝑗 dari diagonal utama matriks.


−1
𝐷 = (X T X)
1
𝑆 = √(𝑛−𝑘−1) ∑ 𝑒𝑖2

2
Atau dapat juga dipergunakan statistik uji 𝐹, karena 𝑡(𝑛−𝑘−1) = 𝐹(𝑛−𝑘−1) ,
sebagai berikut.
𝑏𝑘2 𝑏𝑘2
𝐹0 = 2 =
𝑠𝑏𝑘 ( 1
∑ 𝑒𝑖2 ) (𝑑𝑘𝑘 )
(𝑛 − 𝑘 − 1)

𝑏2
Apabila 𝑑 𝑘 = 𝑏𝑘∗2 ⇒ 𝑏𝑘2 = 𝑑𝑘𝑘 . 𝑏𝑘∗2 , maka 𝐹0 menjadi
𝑘𝑘

𝑏𝑘∗2
𝐹0 =
∑ 𝑒𝑖2 /(𝑛 − 𝑘 − 1)
Pengujian hipotesis mengenai 𝐻0 : 𝐵𝑘 = 0 dan 𝐻0 : 𝐵𝑘 ≠ 0 dapat
menggunakan analisis varians dengan tabel Anova sebagai berikut:

Tabel Anova untuk Pengujian Hipotesis Satu Variabel


Derajat
Sumber Variasi Jumlah kuadrat Rata-rata Kuadrat
Kebebasan
𝑋1 , 𝑋2 , … 𝑋𝑘 ∗2
∑𝑘−1
𝑖=1 𝑏𝑖 𝑘−1

𝑋𝑘 𝑏𝑘∗2 1 𝑏𝑘∗2
𝑋1 , 𝑋2 , … 𝑋𝑘 ∗2
∑𝑘𝑖=1 𝑏𝑖 𝑘

Residu/Error ∑ 𝑒𝑖2 𝑛−𝑘−1 ∑ 𝑒𝑖2 /(𝑛 − 𝑘 − 1)

∑ ∑ 𝑦𝑖2 𝑛−1

𝑏𝑘∗2
𝐹0 =
∑ 𝑒𝑖2 /(𝑛 − 𝑘 − 1)

Mengikuti fungsi 𝐹 dengan derajat kebebasan 1 dan (𝑛 − 𝑘 − 1):


Kalau 𝐹0 ≥ 𝐹(𝛼)(1)(𝑛−𝑘−1) , 𝐻0 ditolak.
Kalau 𝐹0 < 𝐹(𝛼)(1)(𝑛−𝑘−1) , 𝐻0 diterima.

2. Untuk sekelompok variabel, katakan 𝑋1 , 𝑋2 , … , 𝑋𝑟 tidak mempengaruhi


𝑌, berarti:
𝐻0 : 𝐵1 = 𝐵2 = ⋯ = 𝐵𝑟 = 0
𝐻0 : 𝐵𝑗 ≠ 0, (𝑗 = 2,3, … , 𝑟)

Hipotesis ini dapat diuji dengan menggunakan analisis varians


menggunakan tabel Anova.
∗2
∑𝑘−1
𝑖=𝑟+1 𝑏𝑖 /(𝑘 − 𝑟)
𝐹0 = 𝑛 2
∑𝑖=1 𝑒𝑖 /(𝑛 − 𝑘 − 1)
Mengikuti fungsi 𝐹 dengan derajat kebebasan (𝑘 − 𝑟) dan (𝑛 − 𝑘 − 1).
Apabila,
𝐹0 ≥ 𝐹(𝛼)(𝑘−𝑟)(𝑛−𝑘−1) , 𝐻0 ditolak.
𝐹0 < 𝐹(𝛼)(𝑘−𝑟)(𝑛−𝑘−1) , 𝐻0 diterima.

Tabel Anova untuk Pengujian Hipotesis Satu Variabel


Derajat
Sumber Variasi Jumlah kuadrat Rata-rata Kuadrat
Kebebasan
𝑋1 , 𝑋2 , … 𝑋𝑟 ∗2
∑𝑛𝑖=1 𝑏𝑖 𝑟
∗2 𝑘−𝑟 ∗2
𝑋𝑟+1 , 𝑋𝑟+2 , … , 𝑋𝑘 ∑𝑘𝑟+1 𝑏𝑖 ∑𝑘𝑟+1 𝑏𝑖 /(𝑘 − 𝑟)
𝑋1 , 𝑋2 , … 𝑋𝑘 ∗2
∑𝑘𝑖=1 𝑏𝑖 𝑘

Residu/Error ∑ 𝑒𝑖2 𝑛−𝑘−1 ∑ 𝑒𝑖2 /(𝑛 − 𝑘 − 1)

Total ∑ 𝑦𝑖2 𝑛−1

Apabila ternyata hasil pengujian hipotesis bahwa 𝑋𝑘 tak mempengaruhi


𝑌(𝐵𝑘 = 0) tidak ditolak, maka 𝑋𝑘 tidak perlu dimasukkan dalam
persamaan regresi linear berganda. Cukup dengan (𝑘 − 1) variabel
bebas (𝑋1 , 𝑋2 , … , 𝑋𝑘−1 ) saja. Selanjutnya, kalau pengujian hipotesis
bahwa 𝑋1 , 𝑋2 , … , 𝑋𝑟 , tak mempengaruhi 𝑌 (𝐵1 = 𝐵2 = ⋯ = 𝐵𝑟 = 0) tidak
ditolak maka 𝑋1 , 𝑋2 , … , 𝑋𝑟 tak perlu dimasukkan dalam persamaan
regresi linear berganda cukup dengan (𝑘 − 𝑟) variabel bebas
(𝑋𝑟+1 , 𝑋𝑟+2 , … , 𝑋𝑘 ) saja.

Pendugaan atau ramalan dengan menggunakan regresi linear


berganda
Apabila persamaan garis regresi linear berganda sudah diestimasi, maka
persamaan tersebut dapat digunakan untuk membuat pendugaan/ramalan
nilai 𝑌, apabila nilai beberapa variabel bebas 𝑋1 , 𝑋2 , … , 𝑋𝑘 sudah diketahui.
Keuntungan persamaan regresi linear berganda untuk
memperkirakan/meramalkan ialah bahwa kita dapat mengetahui besarnya
pengaruh secara kuantitatif dari setiap variabel bebas, kalau pengaruh
variabel lainnya dianggap konstan. Misalnya apabila 𝑌 = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 ,
dimana 𝑋1 (biaya pemasangan iklan), 𝑋2 (pendapatan rata-rata), dan 𝑌
(hasil penjualan). 𝑏1 = 𝑏𝑦1.2 = pengaruh 𝑋1 terhadap 𝑌 jika 𝑋2 konstan;
𝑏2 = 𝑏𝑦2.1 = pengaruh 𝑋2 terhadap 𝑌 jika 𝑋1 konstan. Atau dapat juga 𝑋1
(banyaknya pupuk yang digunakan), 𝑋2 (luas sawah), 𝑋3 (curah hujan),
dan 𝑌 (produksi padi), dengan persamaan regresi berganda:
𝑌 = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3
dimana,
𝑏1 = 𝑏𝑦1.23 = pengaruh 𝑋1 terhadap 𝑌 jika 𝑋2 dan 𝑋3 konstan.
𝑏2 = 𝑏𝑦2.13 = pengaruh 𝑋2 terhadap 𝑌 jika 𝑋1 dan 𝑋3 konstan.
𝑏3 = 𝑏𝑦3.12 = pengaruh 𝑋3 terhadap 𝑌 jika 𝑋1 dan 𝑋2 konstan.

Agar suatu persamaan garis regresi dapat digunakan untuk


meramalkan/memperkirakan nilai variabel tidak bebas 𝑌, perlu dilakukan
pengujian terlebih dahulu terhadap seluruh koefisien regresi/parsial, untuk
mengetahui apakah variabel-variabel bebas yang dimasukkan dalam
persamaan regresi mempunyai pengaruh yang nyata terhadap 𝑌 atau
tidak. Apabila pengaruhnya tak nyata, sebagai hasil pengujian hipotesis
dengan menggunakan analisis varians seperti contoh di pertemuan 13.
Persamaan garis regresi linear berganda yang akan digunakan
untuk memperkirakan/meramalkan, biasanya disertai dengan nilai 𝑅 2 =
koefisien determinasi berganda, sebagai ukuran tepat/tidaknya garis
tersebut sebagai pendekatan (aproksimasi). Selain itu, setiap pendugaan
sering juga disertai kesalahan baku masing-masing.
𝑒 𝑇𝑒 ∑ 𝑒2
𝑠𝑒 = √𝑛−𝑘−1 = √𝑛−𝑘−1
𝑖
= kesalahan baku untuk regresi = 𝑏0 + 𝑏1 𝑋1 + ⋯ +
𝑏𝑘 𝑋𝑘 dimana 𝑘 = banyaknya variabel 𝑋.

Kesalahan baku untuk regresi sama dengan simpangan baku dari


kesalahan pengganggu (𝑠𝑦̂ = 𝑠𝑒 ). Untuk hubungan antara dua variabel,
biasanya digunakan simbol 𝑠𝑦𝑥 sebagai pengganti 𝑠𝑒 .
𝑌̂ = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + ⋯ + 𝑏𝑗 𝑋𝑗 + ⋯ + 𝑏𝑘 𝑋𝑘 , 𝑠𝑦 = 𝑠𝑒

Contoh 2
1. Dengan menggunakan data contoh 1 pada pertemuan 13, buatlah
ramalan 𝑌, apabila 𝑋1 = 8, pada 𝑋2 = 10, lengkapilah garis regresi
dengan kesalahan baku untuk setiap penduga, juga dilengkapi dengan
koefisien determinasi berganda.
Jawab
𝑏0 = 2,5529 𝑠𝑏0 = 1,6248
𝑏1 = −1,0921 𝑠𝑏1 = 0,2708
𝑏2 = 1,9608 𝑠𝑏2 = 0,3018

𝑒 𝑇𝑒 ∑ 𝑒2 9,7576
𝑠𝑒 = √𝑆𝑒2 = √𝑛−𝑘−1 = √𝑛−𝑘−1
𝑖
=√ = 1,1806
7
(∑ 𝑌𝑖2 )2 742
∑ 𝑦𝑖2 = ∑ 𝑌𝑖2
− = 626 − = 78,4
𝑛 10
∑ 𝑋1𝑖 . ∑ 𝑌𝑖 (40)(74)
∑ 𝑥1𝑖 𝑦𝑖 = ∑ 𝑋1𝑖 𝑌𝑖 − = 282 − = −14
𝑛 10
∑ 𝑋2𝑖 . ∑ 𝑌𝑖 (47)(74)
∑ 𝑥2𝑖 𝑦𝑖 = ∑ 𝑋2𝑖 𝑌𝑖 − = 375 − = 27,2
𝑛 10

𝑏1 ∑ 𝑥1𝑖 𝑦𝑖 + 𝑏2 ∑ 𝑥2𝑖 𝑦𝑖 (−1,0921)(−14) + (1,9608)(27,2)


𝑅2 = = = 0,8753
∑ 𝑦𝑖2 78,4

Jadi,
𝑌̂ = 2,5529 − 1,0921𝑋1 + 1,9608𝑋2 𝑠𝑒 = 1,1806
(1,6248) (0,2708) (0,3018) 𝑅 2 = 0,8753
Sehingga, apabila 𝑋1 = 8 dan 𝑋2 = 10, maka nilai ramalan 𝑌 adalah
𝑌̂ = 2,5529 − 1,0921𝑋1 + 1,9608𝑋2
𝑌̂ = 2,5529 − 1,0921(8) + 1,9608(10)
𝑌̂ = 2,5529 − 8,7368 + 19,608
𝑌̂ = 13,42

2. Masalah regresi lainnya


Otokorelasi
Di dalam model regresi yang sudah dibicarakan sebelumnya,
dianggap bahwa kesalahan pengganggu 𝜀𝑖 , 𝑖 = 1, 2, … , 𝑛 merupakan
variabel acak yang bebas. Dengan kata lain, kesalahan observasi yang
berikutnya diperoleh secara bebas terhadap kesalahan sebelumnya.
Artinya, 𝐸(𝜀𝑖 𝜀𝑖+𝑟 ) = 0, untuk semua 𝑖 dan semua 𝑟 ≠ 0.
Banyaknya kesukaran yang dialami pada analisis ekonomi, apabila
asumsi tersebut tidak berlaku. Pada kesempatan ini, akan kita bahas hal-
hal dimana kesalahan observasi tersebut berkorelasi satu sama lain, atau
terjadi otokorelasi.
Misalnya, suatu model regresi:
𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜀𝑖 , 𝑖 = 1, 2, 3, … , 𝑛
(Model ini bisa saja ditulis 𝑌𝑖 = 𝐵0 + 𝐵1 𝑋1𝑖 + 𝜀𝑖 ⇒ 𝐵0 = 𝐴 dan 𝐵1 = 𝐵. Kalau
𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 𝑋2 + ⋯ + 𝐵𝑘 𝑋𝑘 , berarti hubungan mencakup (𝑘 + 1)
variabel yaitu 𝑘 variabel bebas 𝑋 ⇒ 𝑋1 , 𝑋2 , … , 𝑋𝑘 dan 𝑌 sebagai variabel
tidak bebas.
Didalam model 𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜀𝑖 , misalnya 𝜀𝑖 dan 𝜀𝑖−1 mempunyai
bentuk hubungan linear sebagai berikut:
𝜀𝑖 + 𝜌𝜀𝑖−1 + 𝑉𝑖
|𝜌| < 1
dimana 𝑉𝑖 adalah kesalahan pengganggu ke-𝑖
Dalam persamaan ini berlaku:
𝐸(𝑉𝑖 ) = 0
𝐸(𝑉𝑖+𝑟 ) = 𝜎𝑟2 , untuk 𝑟 = 0 dan untuk semua 𝑖
𝐸(𝑉𝑖 ) = 0, untuk 𝑟 ≠ 0 dan untuk semua 𝑖
Dalam hal ini, 𝜀𝑖 dikatakan mengikuti otoregresi tingkat pertama.
Untuk mencari nilai harapan 𝜀𝑖 = 𝐸(𝜀𝑖 ), perhatikan bahwa:
𝜀𝑖 = 𝜌𝜀𝑖−1 + 𝑉𝑖 = 𝜌(𝜌𝜀𝑖−2 + 𝑉𝑖−1 ) + 𝑉𝑖
𝜀𝑖 = 𝑉𝑖 + 𝜌𝑉𝑖−1 + 𝜌2 𝑉𝑖−2 + ⋯

𝜀𝑖 = ∑ 𝜌𝑡 𝑉𝑖−𝑡
𝑡=0

Jadi, 𝐸(𝜀𝑖 ) = ∑∞ 𝑡
𝑡=0 𝜌 𝐸(𝑉𝑖−𝑡 )
Variance-Covariance (= VC) dari matriks kesalahan pengganggu adalah:
𝐸(𝜀𝑖2 ) (𝜀1 𝜀2 ) ⋯ 𝐸(𝜀1 𝜀𝑛 )
2
VC = E(𝜀𝜀 𝑇 ) = 𝐸(𝜀2 𝜀1 ) 𝐸(𝜀2 ) ⋯ 𝐸(𝜀2 𝜀𝑛 )
⋮ ⋮ ⋮ ⋮
[𝐸(𝜀𝑛 𝜀1 ) 𝐸(𝜀𝑛 𝜀2 ) ⋯ 𝐸(𝜀𝑛2 ) ]

2
𝐸(𝜀𝑖2 ) = 𝐸 (∑ 𝜌𝑡 (𝑉𝑖−𝑡 ))
𝐸(𝜀𝑖2 ) = 𝐸(𝑉𝑖2 ) + 𝜌2 𝐸(𝑉𝑖−1 + 𝜌2 𝑉𝑖−2 + ⋯ )2
𝐸(𝜀𝑖2 ) = 𝐸(𝑉𝑖2 ) + 𝜌2 𝐸(𝑉𝑖−1 ) + 𝜌4 𝐸(𝑉𝑖−2 ) + ⋯
𝐸(𝜀𝑖2 ) = (1 + 𝜌2 + 𝜌4 + ⋯ )𝜎𝑣2
𝜎2
𝐸(𝜀𝑖2 ) = 1−𝜌
𝑣 2
2 = 𝜎𝜀 , untuk semua 𝑖.

Ingat, bahwa apabila 𝑠 = 1 + 𝜌2 + 𝜌4 +.., kemudian 𝜌2 𝑠 = 𝜌2 + 𝜌4 + 𝜌8 +. ..


Sehingga,
1
𝑠=
1 − 𝜌2
𝜎2
Dengan demikian (1 + 𝜌2 + 𝜌4 + ⋯ )𝜎𝑣2 + 𝑠𝜎𝑣2 = 1−𝜌
𝑣
2

Dapat ditunjukkan, bahwa 𝐸(𝜀𝑖 𝜀𝑖−𝑟 ) = 𝜌𝑟 𝜎𝜀2 untuk 𝑟 ≠ 0


1 𝜌 𝜌2 ⋯ 𝜌𝑛−1
Jadi, 𝐸(𝜀𝜀 𝑇 ) = 𝜎 2 [ 𝜌 1 𝜌 ⋯ 𝜌𝑛−2 ]
𝜌𝑛−1 𝜌𝑛−2 𝜌𝑛−3 ⋯ 1
𝑇) 2
Karena 𝐸(𝜀𝜀 = 𝜎 𝐼𝑛 , maka apabila metode kuadrat terkecil diterapkan
untuk memperkirakan parameter 𝐴 dan 𝐵, diperoleh penduga 𝑎 dan 𝑏
yang tidak lagi BLUE (best linear unbiased estimator). Selain itu,
pengujian nyata berdasarkan statistik uji-𝑡 dan 𝐹 sebetulnya tidak berlaku
lagi, apabila terjadi otokorelasi di antara kesalahan pengganggu. Apabila
memang terjadi otokorelasi, data asli harus ditransformasikan terlebih
dahulu untuk menghilangkannya. Sebelum melakukan transformasi, perlu
dilakukan pengujian terlebih dahulu, apakah ada otokorelasi atau tidak.
Cara pengujiannya dilakukan dengan menggunakan statistik 𝑑 Durbin-
Watson (The Durbin-Watson d Statistics).

Statistik d Durbin-Watson
Misalnya, 𝜀𝑖 merupakan kesalahan pengganggu (disturbance error) yang
sering disebut residu dari suatu regresi linear.
𝑌𝑖 = 𝑎 + 𝑏1 𝑋1𝑖 + 𝑏2 𝑋2𝑖 + ⋯ + 𝑏𝑗 𝑋𝑗𝑖 + ⋯ + 𝑏𝑘 𝑋𝑘𝑖 + 𝑒𝑖
𝒌

𝑌𝑖 = 𝑎 + ∑ 𝑏𝑗 𝑋𝑗𝑖 + 𝒆𝒊
𝒋=𝟏
Statistik d Durbin-Watson adalah sebagai berikut.
∑𝑛𝑖=2(𝑒𝑖 − 𝑒𝑖−1 )2
𝑑= … … … … … … … … … … … … … . (𝐩𝐞𝐫𝐬. 𝟐𝟕)
∑𝑛𝑖=1 𝑒𝑖2

Durbin dan Watson sudah membuat tabel yang disebut statistik d Durbin-
Watson pada tingkat nyata 5% dan 1%. Tabel, memuat nilai batas atas
(upper bound), 𝑑𝑢 dan nilai batas bawah (lower bound) 𝑑𝐿 , untuk berbagai
nilai 𝑛 (= besarnya sampel) dan 𝑘 (banyaknya variabel bebas:
𝑋1 , 𝑋2 , … , 𝑋𝑗 , … . , 𝑋𝑘 ).

Untuk tingkat nyata 5% dan 1% dari 𝑑𝐿 dan 𝑑𝑢 untuk 𝑘 =


1,2, … ,5, dan berbagai nilai 𝑛 berkisar antara 15 dan 100, dapat dilihat
dalam tabel statistik 𝑑 Durbin-Watson. Untuk menguji hipotesis:
𝐻0 : tak ada korelasi serial (otokorelasi) yang positif
𝐻𝑎 : ada korelasi serial (otokorelasi) yang positif

Kita hitung 𝑑 berdasarkan rumus di atas dengan data hasil observasi,


kemudian membandingkan 𝑑 dengan 𝑑𝐿 . Apabila ada korelasi serial yang
positif (yaitu kalau 0 < 𝜌 < 1), 𝑑 akan cenderung mempunyai nilai kecil.
Dengan demikian, kalau 𝑑 lebih kecil dari 𝑑𝐿 , maka kita tolak 𝐻0 dan
menyimpulkan bahwa ada korelasi serial (otokorelasi). Kalau 𝑑 lebih besar
dari 𝑑𝑢 , kita tidak menolak 𝐻0 , dengan demikian tak ada otokorelasi. Kalau
𝑑𝐿 < 𝑑 < 𝑑𝑢 , kita tak dapat mengambil kesimpulan dan diperlukan
observasi lebih lanjut agar dapat menentukan, apakah ada otokorelasi
atau tidak.
Untuk menguji apakah ada otokorelasi negatif atau tidak, kita
gunakan (4 − 𝑑) sebagai pengganti 𝑑. Apabila (4 − 𝑑) < 𝑑𝐿 , kita tolak 𝐻0
yang mengatakan bahwa tak ada otokorelasi negatif. Apabila (4 − 𝑑) >
𝑑𝑢 , kita tidak menolak 𝐻0 . Oleh karena itu, tak ada otokorelasi negatif.
Selanjutnya, apabila 𝑑𝐿 < (4 − 𝑑) < 𝑑𝑢 , hasil pengujian tak dapat
disimpulkan.
Untuk pengujian hipotesis dua arah (two tail test), kita simpulkan
bahwa 𝑑 = nyata (significant) dan ada korelasi (positif atau negatif) kalau
𝑑 < 𝑑𝐿 atau (4 − 𝑑) < 𝑑𝐿 . Akan tetapi, kalau 𝑑 < 𝑑𝑢 , kemudian 𝑑 = tidak
nyata (not significant), maka disimpulkan tak ada otokorelasi. Selain itu,
hasil pengujian tak dapat disimpulkan. Apabila tabel Durbin-Watson
sebesar 5% digunakan untuk mencari 𝑑𝑢 dan 𝑑𝐿 , maka tingkat nyata yang
harus digunakan untuk pengujian dua arah (two tail test) adalah 10%.
Sebagai ilustrasi, kita pergunakan model 𝑌𝑖 = 20 + 2𝑋𝑖 + 𝜀𝑖 dimana
𝜀𝑖 = 0,5 𝜀𝑖−1 + 𝑉𝑖 dan kesalahan pengganggu 𝑉𝑖 merupakan distribusi yang
bebas dengan 𝐸(𝑉𝑖 ) = 0. Metode kuadrat terkecil menghasilkan garis
regresi linear sederhana 𝑌̂ = 20,858 + 1,941𝑋. Statistik 𝑑 Durbin Watson
adalah sebagai berikut:

∑(𝑒𝑖 − 𝑒𝑖−1 ) 23,491


𝑑= = = 0,557
∑ 𝑒𝑖2 42,140

Niali 𝑌, 𝑌̂, dan 𝑒 diperoleh dari tabel berikut.


𝑖 𝑋𝑖 𝑌𝑖 𝑌̂𝑖 𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖 (𝑒𝑖 − 𝑒𝑖−1 )
1 2 25,5 24,740 0,760 -
2 3 27,8 26,681 1,119 0,359
3 4 30,4 28,622 1,778 0,659
4 5 33,2 30,563 2,632 0,859
5 6 34,6 32,504 2,096 -0,541
6 7 35,3 34,445 0,855 -1,241
7 8 38,6 36,386 2,214 1,359
8 4 28,3 28,622 -0,322 -2,536
9 5 28,7 30,563 -1,863 -1,541
10 6 30,7 32,504 -1,804 0,059
11 7 33,3 34,445 -1,145 0,659
12 3 26,2 26,681 -0,481 0,664
13 4 29,1 28,622 0,478 0,959
14 5 28,5 30,563 -2,063 -2,541
15 8 34,3 36,386 -2,086 -0,023
16 2 23,1 24,740 -1,640 0,446
17 4 28,1 28,622 -0,522 1,118

∑ 𝑋𝑖 = 83 ∑ 𝑒𝑖2 = 42,140
2
∑ 𝑌𝑖 = 515,7 ∑ 𝑒𝑖−1 = 41,86
∑ 𝑋𝑖2 = 463 ∑(𝑒𝑖 − 𝑒𝑖−1 )2 = 23,491
∑ 𝑋𝑖 𝑌𝑖 = 2.630 ∑ 𝑒𝑖 𝑒𝑖−1 = 29,969

Kita ingin menguji,


𝐻0 : tak ada otokorelasi yang positif
𝐻𝑎 : ada otokorelasi yang positif

Dalam persoalan ini, 𝑛 = 17, 𝑘 = 1 = banyaknya variabel bebas.


Dengan menggunakan tingkat nyata 5%, kita peroleh 𝑑𝐿 = 1,13 dan 𝑑𝑢 =
1,38 (lihat tabel Durbin Watson). Karena 𝑑 = 0,557 < 𝑑𝐿 = 1,13, maka 𝐻0
kita tolak, yang berarti ada otokorelasi yang positif.
Sering kali prosedur yang diulang-ulang digunakan untuk
menghilangkan otokorelasi. Model regresi: 𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜀𝑖 akan
digunakan sebagai ilustrasi. Karena 𝜀𝑖 = 𝜌𝜀𝑖−1 + 𝑉𝑖 maka
𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜀𝑖 menjadi 𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜌𝜀𝑖−1 + 𝑉𝑖
padahal, 𝜀𝑖−1 = 𝑌𝑖−1 − 𝐴 + 𝐵𝑋𝑖−1
Oleh karena itu,
𝑌𝑖 = 𝐴 + 𝐵𝑋𝑖 + 𝜌(𝑌𝑖−1 − 𝐴 + 𝐵𝑋𝑖−1 ) + 𝑉𝑖
(𝑌𝑖 − 𝜌𝑌𝑖−1 ) = (𝐴 − 𝜌𝐴) + 𝐵(𝑋𝑖 − 𝜌𝑋𝑖−1 ) + 𝑉𝑖

Hubungan ini dapat ditulis seperti rumus berikut:


𝑌′𝑖 = 𝐴′ + 𝐵𝑋′𝑖 + 𝑉𝑖 .................................................... (pers. 28)

Dimana: 𝑖 = 1,2,3, … , 𝑛 𝐸(𝑉𝑖 ) = 0


2
dan 𝐴 = 𝑌𝑖 − 𝜌𝐴, 𝐸(𝑉𝑖 ) = 𝜎𝜀2 dan 𝐸(𝑉𝑖 𝑉𝑖−𝑟 ) = 0, untuk semua 𝑖 dan 𝑟 ≠ 0.

𝑌′𝑖 = 𝑌𝑖 − 𝜌𝑋𝑖−1
𝑋𝑖 = 𝑋𝑖 − 𝜌𝑋𝑖−1

Jadi, kalau variabel 𝑋 ′ dan 𝑌; sudah diketahui, maka kita dapat


memperoleh best linear unbiased estimator untuk 𝐴 dan 𝐵.
Untuk mengestimasi nilai 𝑋 ′ dan 𝑌; kita harus cari angka penduga
untuk 𝐴 dan 𝐵 melalui hubungan yang asli antara 𝑋 dan 𝑌, yaitu 𝑎 dan 𝑏
ini kemudian digunakan untuk menghitung residu (kesalahan
pengganggu) 𝑒𝑖 sebagai berikut:
𝑒𝑖 = 𝑌𝑖 − 𝑎 − 𝑏𝑋𝑖

Residu 𝑒𝑖 kemudian digunakan untuk memperkirakan otokorelasi 𝜌 untuk


otoregresi tingkat pertama, dalam bentuk berikut:
∑ 𝑒𝑖 𝑒𝑖−1
𝜌̂ = 2 … … … … … … … … … … … … … … … … … … … . (𝐩𝐞𝐫𝐬. 𝟐𝟗)
∑ 𝑒𝑖−1

𝜌̂ ini kemudian digunakan untuk transformasi 𝑋 ′ dan 𝑌 ′


𝑋′𝑖 = (𝑋𝑖 − 𝜌̂𝑋𝑖−1 )
𝑌′𝑖 = (𝑌𝑖 − 𝜌̂𝑌𝑖−1 ), untuk i = 1,2,3, … , n.

Dengan menggunakan metode kuadrat terkecil, kemudian kita bisa


mengestimasi 𝐴′ dan 𝐵 dari persamaan 28, katakanlah 𝑎′ dan 𝑏.

Apabila residu yang diperoleh dari hubungan baru 𝑌 ′ = 𝐴′ + 𝐵𝑋 ′ +


𝑉 ternyata berotokorelasi, maka hubungan baru ini dapat digunakan untuk
memperoleh variabel transformasi yang baru 𝑋" dan 𝑌" berdasarkan data
observasi yang asli.
Prosedur yang berulang-ulang ini dapat diteruskan sampai
otokorelasi hilang. Dengan sendirinya, prosedur ini dapat diperluas untuk
regresi linear berganda. Tabel sebelumnya yang memuat 𝑋𝑖 , 𝑌𝑖 , 𝑒𝑖 , dan
𝑒𝑖 − 𝑒𝑖−1 dapat digunakan sebagai ilustrasi.

∑ 𝑒𝑖 𝑒𝑖−1 29,969
𝜌̂ = 2
∑ 𝑒𝑖−1
= 41,860 = 0,716 dimana 𝜌̂ adalah penduga 𝜌.

𝜌̂ kemudian digunakan untuk memperoleh variabel transformasi 𝑋 dan 𝑌


yang baru, yaitu 𝑋′ dan 𝑌′.
Nilai 𝑋′𝑖 , 𝑌′𝑖 , 𝑒′𝑖 , dan (𝑒′𝑖 − 𝑒′𝑖−1 ) adalah sebagai berikut:
𝑖 𝑋′𝑖 𝑌′𝑖 ̂𝑖
𝑒′𝑖 = 𝑌′𝑖 − 𝑌′ (𝑒′𝑖 − 𝑒′𝑖−1 )
1 - - - -
2 1,568 9,542 0,643 -
3 1,852 10,495 1,023 0,380
4 2,136 11,434 1,389 0,366
5 2,420 10,829 0,211 -1,178
6 2,704 10,526 -0,665 -0,876
7 2,988 13,325 1,561 2,226
8 -1,728 0,663 -1,589 -3,150
9 2,136 8,437 -1,608 -0,019
10 2,420 10,151 -0,467 1,410
11 2,704 11,319 0,128 0,595
12 -2,012 2,357 0,678 0,550
13 1,852 10,341 0,869 0,191
14 2,136 7,665 -2,380 -3,249
15 4,420 13,894 -0,758 1,622
16 -3,728 -12,459 0,323 1,081
17 2,568 11,560 0,644 0,321

∑𝑛𝑖=2 𝑋′𝑖 = 24,436 ∑𝑛𝑖=2 𝑋′𝑖 𝑌′𝑖 = 352,671


∑𝑛𝑖=2 𝑌′𝑖 = 141,079 ∑𝑛𝑖=2 𝑒′2𝑖 = 19,630
∑𝑛𝑖=2 𝑋′2𝑖 = 105,333 ∑𝑛𝑖=2(𝑒′𝑖 − 𝑒′𝑖−1 )2 = 33,765

Garis regresi linear sederhana yang baru, berdasarkan data transformasi


𝑋′ dan 𝑌′ adalah sebagai berikut:
𝑌̂ ′ = 5,737 + 2,017𝑋′, 𝑎′ = 5,737

Penduga 𝐴 dapat diperoleh langsung dari hasil pendugaan 𝐴′.


𝐴′
Mengingat, bahwa 𝐴′ = 𝐴 − 𝜌𝐴 = (1 − 𝜌)𝐴 ⇒ 𝐴 = 1−𝜌
Maka 𝑎 sebagai penduga 𝐴 dapat dihitung sebagai berikut.
𝑎′ 5,737
𝑎 = 1−𝜌 = 1−0,716 = 20,201
Jadi, garis regresi yang baru, berdasarkan data yang asli, dapat dituliskan
sebagai berikut.
𝑌̂ = 𝑎 + 𝑏𝑋 = 20,201 + 2,017𝑋.
Statistik 𝑑 Durbin Watson untuk data hasil transformasi:
∑(𝑒′𝑖 − 𝑒′𝑖−1 ) 33,765
𝑑′ = = = 1,72
∑ 𝑒𝑖2 19,630

Perhatikan berdasarkan variabel baru hasil transformasi, kita hanya


mempunyai 𝑛′ = 𝑛 − 1 = 17 − 1 = 16. Untuk 𝑘 = 1 dan 𝑛′ = 16, kalau 𝛼 =
5%, 𝑑𝐿 = 1,10 dan 𝑑𝑢 = 1,37, maka 𝐻0 tidak ditolak. Berarti, tak ada
korelasi serial yang positif, apabila digunakan data baru hasil transformasi.

Heteroskedastisitas
Apabila matriks VC (Variance Covariance) kesalahan pengganggu adalah
sebagai berikut:
𝑉11 0 ⋯ 0
𝑇 2 2 0 𝑉
𝐸(𝜀 ) = 𝜎 𝑉 = 𝜎 [ 22 ⋯ 0 ]
0 0 ⋯ 𝑉𝑛𝑛
dan beberapa elemen pada diagonal utama tidak sama dengan satu
(𝑉𝑖𝑖 ≠ 1), maka kesalahan pengganggu disebut heteroskedastis. Dengan
kata lain, kesalahan pengganggu merupakan variabel bebas, akan tetapi
dengan varians dan untuk setiap nilai 𝑋 (nilai konstan) yang berbeda,
dimana 𝑋 merupakan variabel bebas.
Kalau 𝑋 = pendapatan rumah tangga, 𝑌 = pengeluaran rumah
tangga, maka biasanya varians 𝑌 akan naik. Artinya, bagi rumah tangga
dengan tingkat pendapatan yang tinggi akan terdapat variasi yang tinggi
pada pola pengeluarannya. Kenyataannya ini sering dijumpai dalam studi
anggaran rumah tangga (family budget studies).
Sebagai ilustrasi, misalnya kita pergunakan suatu regresi linear,
dan kita asumsikan bahwa varians dari kesalahan pengganggu adalah
proporsional terhadap 𝑋 2 , yaitu:
𝐸(𝜀𝑖2 ) = 𝜎 2 𝑋𝑖2 , 𝑖 = 1,2,3, … , 𝑛
Atau, apabila model regresi tersebut dinyatakan dalam bentuk matriks:
𝑌 = 𝑋𝐵 + 𝜀
Dimana seperti biasanya,
1. 𝐸(𝜀) = 0
𝑋𝑖2 0 ⋯ 0
𝑇 2
2. 𝐸(𝜀 ) = 𝜎 [ 0 𝑋2 ⋯ 0 ] 2

0 0 ⋯ 𝑋𝑛2
3. 𝑋 suatu matriks konstan, artinya tak berubah dari sampel ke sampel.

Untuk memperoleh penduga parameter 𝐵 dengan metode kuadrat terkecil,


mula-mula kita cari matriks 𝑇 sedemikian rupa sehingga:
𝐸(𝑇𝜀 𝑇 𝑇 𝑇 ) = 𝜎 2 𝐼𝑛 ........................................................ (pers. 30)

Dalam hal ini, matriks 𝑇 adalah sebagai berikut:


1/𝑋1 0 ⋯ 0
0 1/𝑋2 ⋯ ⋮
𝑇=[ ], 𝑇 𝑇 = transpos matriks 𝑇
⋮ ⋮ ⋮
0 0 ⋯ 1/𝑋𝑛

Kalau 𝑌 = 𝑋𝐵 + 𝜀 kita kalikan dengan 𝑇, kita peroleh 𝑇𝑌 = 𝑇𝑋𝐵 + 𝑇𝜀


Kemudian kalau 𝑏 ∗ sebagai penduga 𝐵 diperoleh dengan metode kuadrat
terkecil, maka kita peroleh rumus berikut:
−1
𝑏 ∗ = (𝑋 𝑇 𝑇 𝑇 𝑇𝑋) 𝑋 𝑇 𝑇 𝑇 𝑇𝑌........................................ (pers. 31)

Apabila kita hanya mempunyai hubungan antara dua variabel 𝑋 dan 𝑌


dalam bentuk regresi linear sederhana 𝑌 = 𝐵1 + 𝐵2 𝑋 + 𝜖𝑖 , maka metode
kuadrat terkecil akan menghasilkan rumus 𝑏 ∗ untuk sebagai berikut.
𝑏0∗
𝑏 ∗ = [ ∗ ] … … … … … … … … … … … … … … … … … … … … … . . (𝐩𝐞𝐫𝐬. 𝟑𝟐)
𝑏1
dimana
𝑛 ∑ 𝑌𝑖 /𝑋𝑖2 − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖
𝑏0∗ 𝑛 ∑ 1/𝑋𝑖2 − (∑ 1/𝑋𝑖 )2
[ ∗] = 𝑌
𝑏1 ∑ 1/𝑋𝑖2 ∑ 𝑖 − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖2
𝑋𝑖
[ 𝑛 ∑ 1/𝑋𝑖2 − (∑ 1/𝑋𝑖 )2 ]

Cara alternatif untuk memperoleh angka penduga 𝑏 ∗ di atas, dapat


langsung dilakukan terhadap data hasil transformasi berikut ini.
1
𝑌𝑖 = 𝐵0 + 𝐵1 𝑋1 + 𝜀, kalikan dengan (ditransformasi), akan diperoleh
𝑋𝑖
𝑌𝑖 /𝑋𝑖 = 𝐵0 /𝑋𝑖 + 𝐵𝑖 + 𝑉𝑖 , dimana 𝑉𝑖 = 𝜀/𝑋𝑖 .

Kemudian, tentukan 𝑏1∗ sebagai titik potong/konstanta 𝑌𝑖 /𝑋𝑖 terhadap 1/𝑋𝑖 .


Cara mendapatkannya:
𝑌0 = 𝑏0 + 𝑏0 𝑋0
dimana
𝑎0 = 𝑏1 , 𝑌0 = 𝑌𝑖 /𝑋𝑖
𝑏0 = 𝑏0 dan 𝑋0 = 1/𝑋𝑖 .

𝑎0 = 𝑌0 + 𝑏0 𝑋0

𝑛 ∑ 𝑋0 𝑌0 − ∑ 𝑋0 ∑ 𝑌0
𝑏0 =
𝑛 ∑ 𝑋02 − (∑ 𝑋0 )2
∑(1/𝑋𝑖 )(𝑌𝑖 /𝑋𝑖 ) − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖
𝑏0 =
𝑛 ∑(1/𝑋𝑖 )2 − (∑ 1/𝑋𝑖 )2
∑ 𝑌𝑖 /𝑋𝑖2 − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖
𝑏0 =
𝑛 ∑(1/𝑋𝑖 )2 − (∑ 1/𝑋𝑖 )2

∑ 𝑌0 ∑ 𝑋0
𝑎0 = 𝑌0 + 𝑏0 𝑋0 → 𝑌0 = , 𝑋0 =
𝑛 𝑛
∑ 𝑌0 ∑ 𝑋0 𝑛 ∑ 𝑋0 𝑌0 − ∑ 𝑋0 𝑌0
𝑎0 = − { }
𝑛 𝑛 𝑛 ∑ 𝑋02 − (∑ 𝑋0 )2
(∑ 𝑋02 )(∑ 𝑌0 ) − (∑ 𝑋0 )(∑ 𝑋0 𝑌0 )
𝑎0 =
𝑛 ∑ 𝑋02 − (∑ 𝑋0 )2
𝑎0 =, dimana dalam hal ini 𝑏2 = 𝑏2

Sebagai ilustrasi, perhatikan tabel berikut.


1 𝑋𝑖 1/𝑋𝑖 1/𝑋𝑖2 𝑌𝑖 𝑌𝑖 /𝑋𝑖 𝑌𝑖 /𝑋𝑖2
1 1 1,0 1,00 12 12,0 12,00
2 2 0,5 0,25 15 7,5 3,75
3 10 0,1 0,01 27 2,7 0,27
4 5 0,2 0,04 22 4,4 0,88
5 1 1,0 1,00 12 12,0 12,00
6 2 0,5 0,25 13 6,5 3,25
∑ 21 3,3 2,55 101 45,1 32,15

𝑛 ∑ 𝑌𝑖 /𝑋𝑖2 − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖


𝑏0∗ =
𝑛 ∑ 1/𝑋𝑖2 − (∑ 1/𝑋𝑖 )2
6(32,15) − (3,3)(45,1) 44,7
𝑏0∗ = = = 9,99
6(2,55) − (3,3)2 4,4
𝑌
∑ 1/𝑋𝑖2 ∑ 𝑖 − ∑ 1/𝑋𝑖 ∑ 𝑌𝑖 /𝑋𝑖2
𝑋 𝑖
𝑏1∗ =
𝑛 1/𝑋𝑖2 − (∑ 1/𝑋𝑖 )2

(2,55)(45,1) − (3,3)(32,15)
𝑏1∗ = = 2,02
6(2,55) − (3,3)2

Jadi, 𝑌̂ = 𝑏0∗ + 𝑏1∗ 𝑋 = 9,99 + 2,02𝑋


Matriks VC dari 𝑏 ∗ adalah sebagai berikut.
2 −1 Var (𝑏 ∗ ) Cov(𝑏1∗ , 𝑏2∗ )
Var(𝑏 ∗ ) = 𝜎 2 (𝑋 𝑇 𝑇 𝑇 𝑇𝑋) = 𝜎 2 (𝑋 𝑇 𝑇 2 𝑋) =[ ]
Cov(𝑏1∗ , 𝑏2∗ ) Var (𝑏2∗ )
𝜎2 𝑛 − ∑ 1/𝑋𝑖2
Var(𝑏 ∗ ) = 𝑛 ∑ 1/𝑋 2−(∑ 1/𝑋 )2 [ ]
𝑖 𝑖 − ∑ 1/𝑋𝑖 ∑ 1/𝑋𝑖2

Berdasarkan perhitungan di atas,


𝜎 2 (2,55)
Var(𝑏 ∗ ) = = 0,58𝜎 2 (𝜎 2 tak diketahui)
6(2,55) − (3,3)2
𝑇
𝑒 𝑇 𝑇 𝑇 𝑇 𝑒 (𝑌 − 𝑋 ∗ 𝑏) 𝑇 2 (𝑌 − 𝑋 ∗ 𝑏)
𝑆𝑒2= = = penduga 𝜎 2
𝑛−𝑘 𝑛−𝑘−1
untuk 𝑘 = 1
1
(𝑛 − 2)𝑆𝑒2 = ∑ 1/𝑋𝑖2 (𝑌𝑖 − 𝑏1∗ − 𝑏2∗ 𝑋𝑖 )2 = ∑ 2 (𝑒𝑖2 )
𝑋 𝑖
atau,
(𝑛 − 2)𝑆𝑒2 = ∑ 1/𝑋𝑖2 (𝑒𝑖2 )

Berdasarkan hasil perhitungan sebelumnya, ternyata 𝑆𝑒2 = 0,1871


Jadi, Var(𝑏1∗ ) = (0,58)(0,1871) = 𝑆𝑏∗1

Untuk menguji hipotesis bahwa 𝐵1 = 0, dengan alternatif bahwa 𝐵1 ≠ 0,


dimana 𝛼 = 0,05, caranya sebagai berikut.
𝑏1∗ 2,02
𝑡0 = = = 6,1
𝑠𝑏1 √0,1085
𝑡𝛼(𝑛−1) = 𝑡0,05(4) = 2,7764
Karena 𝑡0 = 6,1 > 𝑡0,05(4) = 2,7764 maka 𝐻0 ditolak. Berarti 𝐵1 ≠ 0.

Kolinearitas berganda
Apabila kitamenggunakan model regresi: 𝑌 = 𝐴 + 𝐵1 𝑋1 + 𝐵2 𝑋2 + ⋯ +
𝐵𝑘 𝑋𝑘 + 𝜀, 𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 𝑋2 + ⋯ + 𝐵𝑘 𝑋𝑘 + 𝜀, dalam hal ini kita
mempunyai asumsi bahwa 𝑋1 , 𝑋2 , … , 𝑋𝑘 sebagai variabel-variabel bebas
tidak berkorelasi satu sama lain.
Seandainya variabel-variabel bebas tersebut berkorelasi satu sama
lain, maka dikatakan terjadi kolinearitas berganda (multi collinearity). Hal
ini sering terjadi pada data berkala (time series data), khususnya di bidang
ekonomi. Secara ekstrem, ada kemungkinan terjadi 2 variabel atau lebih
mempunyai hubungan (korelasi) yang sangat kuat sehingga pengaruh
masing-masing variabel tersebut terhadap 𝑌 sukar untuk dibedakan.
Perhatikan hubungan linear berikut:
𝑌𝑖 = 𝐵0 + 𝐵1 𝑋1𝑖 + 𝐵2 𝑋2𝑖 + 𝜀𝑖

Misalkan 𝑋1 dan 𝑋2 mempunyai hubungan sedemikian rupa sehingga


𝑋2𝑖 = 𝑘𝑋1𝑖 , dimana 𝑘 = bilangan konstan. Untuk memperkirakan
𝐵0 , 𝐵1 , dan 𝐵2, kita harus menggunakan data hasil observasi sebanyak 𝑛,
untuk variabel 𝑋1 dan 𝑋2 sebagai berikut:

𝑋1 𝑋11 𝑋12 𝑋13 ⋯ 𝑋1𝑖 ⋯ 𝑋𝑖𝑛


𝑋2 𝑋21 𝑋22 𝑋23 ⋯ 𝑋2𝑖 ⋯ 𝑋2𝑛
𝑌1 𝑌1 𝑌2 𝑌3 ⋯ 𝑌𝑖 ⋯ 𝑌𝑛

Dalam hal ini, metode kuadrat terkecil tidak dapat menghasilkan penduga
𝑏0 , 𝑏1 , 𝑏2,…. , 𝑏𝑘 yang BLUE karena 𝑟(𝑋 𝑇 𝑋) < 𝑘 = 2, dimana 𝑟 = rank
matriks, sehingga det (𝑋 𝑇 𝑋) = 0. Karena det (𝑋 𝑇 𝑋) = 0, maka (𝑋 𝑇 𝑋)−1
tak dapat dicari.
−1
Jadi, 𝑏 = (𝑋 𝑇 𝑋) (𝑋 𝑇 𝑌)
Tak mungkin dapat dihitung. Perhatikan uraian berikut:
1 1 ⋯ 1 1 𝑋11 ⋯ 𝑋21 𝑛 ∑ 𝑋2𝑖 ∑ 𝑋2𝑖
𝑋 𝑋12 ⋯ 𝑋1𝑛 1 𝑋12 ⋯ 𝑋22 2
𝑋𝑇 𝑋 = [ 1 ][ ] = [∑ 𝑋1𝑖 ∑ 𝑋1𝑖 ∑ 𝑋2𝑖 𝑋1𝑖 ]
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮ 2
𝑋21 𝑋22 ⋯ 𝑋2𝑛 1 𝑋1𝑛 ∑ 𝑋2𝑖 ∑ 𝑋2𝑖 𝑋1𝑖 ∑ 𝑋2𝑖
⋯ 𝑋2𝑛

𝑛 ∑ 𝑋1𝑖 𝑘 ∑ 𝑋1𝑖
𝑇 2
𝑋 𝑋 = [ ∑ 𝑋1𝑖 ∑ 𝑋1𝑖 𝑘 ∑ 𝑋1𝑖 ]
𝑘 ∑ 𝑋1𝑖 𝑘 ∑ 𝑋1𝑖 𝑘2 ∑ 𝑋21𝑖
2

Ingat bahwa berdasarkan teori matriks, nilai determinan suatu matriks


tidak berubah kalau suatu baris/kolom dikalikan dengan suatu bilangan
konstan, kemudian baris/kolom lain dikurangi dengan baris/kolom
tersebut.
Dalam hal ini, kalikan baris 2 dengan 𝑘
𝑘(∑ 𝑋1𝑖 ∑ 𝑋21𝑖 𝑘 ∑ 𝑋21𝑖 ) = (𝑘 ∑ 𝑋1𝑖 𝑘 ∑ 𝑋21𝑖 𝑘2 ∑ 𝑋21𝑖 )

Kemudian baris 3 dikurangi dengan baris 2, maka kita peroleh:


𝑛 ∑ 𝑋1𝑖 𝑘 ∑ 𝑋1𝑖
𝑇
𝑋 𝑋 = [∑ 𝑋1𝑖 ∑ 𝑋21𝑖 𝑘 ∑ 𝑋21𝑖 ]
0 0 0

Menurut teori matriks, kalau baris/kolom suatu matriks semua elemennya


0, maka determinan matriks yang bersangkutan nol. Karena det (𝑋 𝑇 𝑋) = 0
maka 𝑋 𝑇 𝑋 adalah matriks singular dan karenanya (𝑋 𝑇 𝑋)−1 , tidak ada.

Didalam praktek, hubungan yang sempurna jarang tejadi. Seperti


kita ketahui, hubungan antarvariabel sering digunakan untuk
memperkirakan/meramalkan variabel lainnya, apabila nilai variabel-
variabel bebasnya sudah diketahui.
Dalam persoalan ekonomi, misalnya kita ingin
mengetahui/meramalkan permintaan beras (𝑌) dengan menggunakan
data penduduk (𝑋1) dan pendapatan (𝑋2). Beberapa negara menunjukkan
bahwa ada hubungan yang erat antara pendapatan nasional dengan
penduduknya. Jadi, ada hubungan yang erat antara (𝑋1) dan (𝑋2) yang
berarti terjadi kolineritas berganda. Akibat yang langsung dirasakan ialah:
1. Kalau hubungan tersebut sempurna, maka koefisien regresi parsial tak
akan dapat diestimasi.
2. Kalau hubungan tersebut tidak sempurna, maka koefisien regresi
parsial masih dapat diestimasi, tetapi kesalahan baku dari penduga
koefisien regresi parsial sangat besar.
3. Koefisien regresi parsial yang menurut teori bertanda (+) dan (−). Hal
ini menyebabkan pendugaan/ramalan nilai 𝑌 dengan menggunakan
(𝑋1) dan (𝑋2) kurang teliti.

Adanya kolinearitas berganda dapat dicegah/dihindari, antara lain


dengan menggunakan salah satu variabel (𝑋1) dan (𝑋2), misalnya 𝑋 =
(𝑋1 )/ (𝑋2 ) yang merupakan pendapatan per kapita, atau menggunakan
apa yang disebut 𝑎 𝑝𝑟𝑖𝑜𝑟𝑖 𝑒𝑥𝑡𝑟𝑎𝑛𝑒𝑜𝑢𝑠 𝑖𝑛𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛.
Penggunaan 𝑒𝑥𝑡𝑟𝑎𝑛𝑒𝑜𝑢𝑠 𝑖𝑛𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 sangat tergantung pada
beberapa hal, misalnya jenis informasi yang ada, tujuan analisis, dan daya
khayal/imajinasi peneliti/analisis karena memang tidak ada aturan yang
tepat untuk hal ini.
Sebagai contoh misalnya, dari suatu model regresi linear berganda.
𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 𝑋2 + 𝐵3 𝑋3 + 𝜀

ternyata (𝑋2) dan (𝑋3) mempunyai hubungan yang sangat kuat.


Berdasarkan 𝑒𝑥𝑡𝑟𝑎𝑛𝑒𝑜𝑢𝑠 𝑖𝑛𝑓𝑜𝑟𝑚𝑎𝑡𝑖𝑜𝑛 diketahui bahwa 𝐵3 = 0,5𝐵2.
Dengan demikian hubungan tersebut bisa dirubah menjadi:
𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 (𝑋2 + 0,5𝑋3 ) + 𝜀
𝑌 = 𝐵0 + 𝐵1 𝑋1 + 𝐵2 𝑋4 + 𝑒, dimana 𝑋4 = 𝑋2 + 0,5𝑋3

Metode kuadrat terkecil dapat dipergunakan untuk mengestimasi


𝐵0 , 𝐵1 , dan 𝐵2, dimana 𝑌 merupakan regresi terhadap variabel bebas (𝑋1)
dan (𝑋4).

C. Soal/Latihan/Tugas
1. 𝑋1 = indeks pendapatan nasional suatu negara
𝑋2 = indeks harga impor suatu komoditi
𝑌 = indeks impor suatu komoditi
Selama 10 tahun diperoleh data berkala sebagai berikut.
𝑋1 100 104 104 106 111 111 115 120 124 126
𝑋2 100 99 99 110 136 113 113 103 102 98
𝑌 100 108 106 107 120 110 126 133 133 147
Ujilah pendapat dengan menggunakan analisis varians, bahwa 𝑋1 dan 𝑋2
masing-masing tidak mempengaruhi 𝑌, dengan alternatif, paling tidak ada
satu yang mempengaruhi 𝑌. Gunakanlah 𝛼 = 5% dan 𝛼 = 1% !

2. Ada 12 rumah tangga yang merupakan sampel acak dari suatu penelitian.
Antara lain dinyatakan tentang banyaknya konsumsi atas komoditi tertentu
(dalam satuan), harga komoditi (dalam satuan), dan pendapatan (dalam
satuan).
Kita ketahui, bahwa permintaan terhadap komoditi tersebut untuk
keperluan konsumsi (𝑌) akan dipengaruhi oleh harga (𝑋1 ) dan
pendapatan (𝑋2 ). Hasil penelitian adalah sebagai berikut:
𝑋1 2 5 3 3 5 4 6 3 3 4 5 6
𝑋2 3 7 5 4 7 6 8 6 4 5 6 4
𝑌 5 9 6 8 8 10 9 12 7 11 7 13

buatlah ramalan 𝑌, apabila 𝑋1 = 20 dan 𝑋2 = 25, kemudian lengkapilah


garis regresi dengan kesalahan baku untuk setiap penduga dn lengkapi
juga kesalahan koefisien determinasi ganda !

3. Bahwa permintaan terhadap komoditi tersebut untuk keperluan konsumsi


(𝑌) akan dipengaruhi oleh harga (𝑋). Didapatkanri data seperti di bawah
ini:
𝑋𝑖 3 7 5 4 7 7 8 6 4 5 6 4
𝑌𝑖 5 9 7 8 8 10 12 7 9 12 7 12

Ujilah dengan apakah data di atas ada otokorelasi positif atau tak ada
otokorelasi (gunakan statistik 𝑑 Durbin-Watson dengan 𝛼 = 5%) ?

4. Perhatikan tabel berikut:


1 𝑋𝑖 𝑌𝑖
1 3 13
2 7 8
3 5 20
4 7 22
5 7 13
6 7 15
7 8 12

Ujilah heterokedastisitas dari data di atas (𝛼 = 5%)!

5. Referensi
Supranto, J. 2009. Statistik: Teori dan Aplikasi Edisi Ketujuh. Jakarta:
Erlangga

Anda mungkin juga menyukai