Anda di halaman 1dari 46

MODUL EKONOMETRIKA KEUANGAN

REGRESI BERGANDA : PENAKSIRAN DAN PENGUJIAN HIPOTESIS

KELOMPOK 3

NAMA KELOMPOK:

ALIFIA ARTHANIA 1702121862

DESI PERMATA SARI 1702114856

EVDI MUHAMMAD 1702110682

ISABELLA TAMPUBOLON 1702114751

MUTIA MEILIANI 1702114625

SISKA OKTARIANI 1702110633

VELIA YAFNI 1702110638

FAKULTAS EKONOMI DAN BISNIS


JURUSAN MANAJEMEN
UNIVERSITAS RIAU
2020
REGRESI BERGANDA : PENAKSIRAN DAN PENGUJIAN HIPOTESIS

Dalam model regresi linear dua variabel yang telah kita bahas sejauh ini hanya ada satu
variabel bebas atau variabel penjelas. Dalam bab ini, kita akan memperluas model tersebut
dengan mempertimbangkan kemungkinan bahwa ada lebih dari satu variabel penjelas yang
mempengaruhi variabel tak bebas. Model regresi dengan lebih dari satu variabel penjelas disebut
sebagai model regresi berganda; disebut berganda karena hanyaknya taktor (dalam hal ini.
variabel) vang mungkin mempengaruhi variabel tak bebas.

Sebagai contoh, pertimbangkan krisis simpan-pinjam yang terjadi pada tahun 1980-an
akibat kebangkrutan beberapa lembaga keuangan simpan-pinjam di beberapa negara bagian di
AS. Andaikan kita ingin mengembangkan sebuah model regresi untuk menjelaskan
kebangkrutan sebagai varıabel tak bebas. Sekarang fenomena seperti kebangkrutan terlalu
kompleks untuk dijelaskan hanya dengan satu variabel penjelas saja: penjelasannya mungkin
memerlukan beberapa variabel, seperti rasio modal pokok terhadap total aktiva, rasio pinjaman
yang jangka waktu jatuh temponya lebih dari 90 hari terhadap total-total aktiva, rasio kredit
macet terhadap total aktiva, rasio kredit yang dinegosiasi/dijadwalkan ulang terhadap total
aktiva, ataupun rasio pendapatan netto terhadap totał aktiva, dan sebagainya. Untuk memasukkan
semua variabel ini ke dalam model regresi guna memungkinkan banyaknya faktor yang
mempengaruhi kebangkrutan, kita harus mempertinmbangkan suatu model regresi berganda.

Tak pelak lagi. kita dapat mengutip banyak sekali contoh tentang model regresi berganda.
Sesungguhnya hampir semua model regresi merupakan model regresi berganda karena hanya
sedikt sekali fenomena ekonomi yang dapat dijelaskan hanya oleh satu variabel penjelas saja,
seperti dalam model regresi dua variabel. Dalam bab ini kita akan membahas model regresi
berganda dalam rangka mencari jawaban atas beberapa pertanyaan berikut ini:

1. Bagaimana cara kita menaksir model regresi berganda? Apakah prosedur penaksirannya
berbeda dengan prosedur penaksiran untuk model regresi dua variabel?

2. Apakah prosedur pengujian hipotesisnya berbeda dengan prosedur pengujian hipotesis


untuk model regresi dua variabel?
3. Adakah sifat unik dari regresi berganda yang tidak kita jumpai dalam model regresi dua
variabel?

4. Karena model regresi berganda dapat memiliki banyak sekali variabel penjelas,
bagaimana cara kita menentukan banyaknya variabel yang akan kita masukkan ke dalam
model untuk suatu situasi tertentu?

Untuk nenjawab semua pertanyaan tersebut maupun pertanyaan-pertanyaan lain yang


terkait, pertama kita pertimbangkan sebuah model regresi berganda yang paling sederhana, yaitu
model regresi tiga variabel di mana perilaku variabel tak bebas Y dikaji dalam hubungannya
dengan dua variabel penjelas, X2 dan X3. Setelah model tiga variabel ini dapat dipahami dengan
jelas, perluasan ke arah kasus dengan empat, lima atau lebih variabel dapat dilakukan dengan
sangat mudah kendati aritmatikanya sedikit lebih rurmit. (Namun di zaman komputerisasi yang
canggih seperti sekarang ini, hal tersebut agaknya tidak lagi menjadi masalah). Sungguh menarik
bahwa model regresi tiga variabel itu sendiri dalam beberapa hal merupakan perluasan yang
gamblang dari model regresi dua variabel, sebagaimana yang akan ditunjukkan dalam
pembahasan berikut ini.

1.1. MODEL REGRESI LINEAR TIGA VARIABEL

Dengan menyamaratakan fungsi regresi populasi (FRP) dua variabel. kita dapat
menuliskan FRP tiga variabel dalam bentuk nonstokhastik sebagai berikut

E ( Y 1 )=B1 + B2 X 2 t + B3 X 3 t (8.1)

dan dalam bentuk stokhastik sebagai

Y t =B 1+ B2 X 2 t + B3 X 3 t +u t (8.2)

¿ E ( Y t ) + ut (8.3)

di mana: Y = variabel tak bebas

X2 đan X3 = variabel-variabel penjelas


u = faktor gangguan stokhastik
t = ubservasi ke-t
Dalam hal datanya bersifat lintas sektoral, maka indeks bawah i akan menotasikan
observasi ke-i. Perhatikan bahwa kita memperkenalkan u dalam model regresi tiga variabel, atau
secara lebih umum, dalam model regresi banyak variabel dengan alasan vang sama dengan
dimasukkannya faktor tersebut ke đalam model regresi dua variabel.

B1 adalah faktor titik potong. Faktor ini menyatakan nilai rata-rata Y apabila X2 đan X3
ditetapkan sama dengan nol. Koefisien B, dan B, disebut koefisien regresi parsial; dan
pengertiannya akan segera dijelaskan di bawah ini.

Mengikuti pembahasan dalam Bab 6. Persamaan (8 1) menyatakan nilai rata-rata


bersyarat dari Y, di mana syaratnya adalah bahwa nilai varjabel X, dan X, telah ditetapkan
sebelumnya atau tertentu. Olen Karena itu, sebagaimana halnya dalam analisis regresi dua
variabel, analisis regresi berganda merupakan analisis regresi bersyarat, di mana syaratnya
adalah bahwa nılai variabel-variabei penjelas telah ditetapkan sebelumnya atau tertentu, dan kita
memperoleh nilai rata-rata dari Y untuk nilai variabel-variabel X yang tertentu. Ingatlah kembali
bahwa FRP memberikan rata-rata (bersyarat) dari nilai populasi Y untuk nilai tetentu dari
variabel-variabel penjelas, X2 dan X3.

Versi stokhastiknya, yakni Persamaan (8.2), menyatakan bahwa setiap nilai Y dapat
dinyatakan sebagai jumlah dari dua komponen.

1. Komponen sistematis atau deterministik (B1 + B2X2t + B3X3t). yang nilai rata-ratanya
E(Yt) (dalam hal ini. titik pada garis regresi populasi, GRP)," dan
2. ut yang merupakan komponen nonsistematis atau acak, yang ditentukan oleh faktor-
faktor selain X2 dan X3

Senua ini tidaklah asing dalam kasus dua variabel; satu-satunya hal yang harus
diperhatikan adalah bahwa sekarang kita mempunyai dua buah variabel penjelas, bukan hanya
satu variabel penjelas Perhatikan bahwa Persamaan (8.1), ataupun fungsi stokhastiknya
Persamaan (8.2), merupakan model regresi linear- yakni model yang linear dari segi
parameternya, B. Sebagaimana telah diuraikan dalam Bab 6, perhatian kita dalam buku ini
adalah model regresi yang parameternya linear; model semacam itu mungkin memiliki variabel
yang linear atau mungkin pula tidak (namun pembahasan tentang masalah ini secara lebih rinci
akan dilakukan dalam Bab 9).

Arti Koefisien Regresi Parsial

Sebagaimana telah disebutkan sebelumnya, koefisien regresi B 2 dan B3 disebut sebagai


koefisien regresi parsial atau koefisien kemiringan parsial. Arti dari koefisien regresi parsial
adalah sebagai berikut: B2 mengukur perubahan nilai rata-rata Y. E(Y), untuk tiap unit
perubahan dalam X2. sementara nilai X3 dipertahankan konstan. Demikian pula, B3 mengukur
perubahan nilai rata-rata Y untuk tiap unit perubahan dalam X 3 sementara nilai X2 dipertahankan
konstan. Ini merupakan sifat unik dari regresi berganda; dalam kasus dua variabel, karena hanya
ada satu variabel penjelas saja, maka kita tidak perlu khawatir tentang keberadaan variabel-
variabel penjelas lain di dalam model, Dalam model regresi berganda kita ingin menyelidiki
berapa bagian dari perubahan nilai rata-rata Y dapat dikaitkan secara langsung dengan X 2 dan
berapa bagian yang dapat dikaitkan langsung dengan X3. Karena hal ini sangat penting dalam
memahami logika dari regresi berganda, marilah kita menjelaskannya dengan sebuah contoh
sederhana. Andaikan kita mempunyai FRP sebagai berikut:

E(Yt) = 15 - 1.2 X2t + 0,8 X3t (8.4)

Misalkan X3 dipertahankan konstan pada nilai 10. Dengan memasukkan nilai ini ke
dalam Persamaan (8.4), kita peroleh

E(Yt) = 15 - 1.2 X2t + 0,8 (10)

= (15 + 8) - 1,2 X2t

= 23 - 1,2 X2t (8.5)

Di sini koefisien kemiringan B2 = -1,2 menunjukkan bahwa nilai rata-rata Y akan turun
sebesar 1,2 untuk tiap unit kenaikan X2 apabila X3 dipertahankan konstan-dalam contoh ini, X3
dipertahankan konstan sebesar 10 kendati nilai lain manapun boleh saja digunakan. Koefisien
kemiringan ini disebut sebagai koefisien regresi parsial. Demikian pula, jika X2 kita pertahankan
konstan, misalnya, pada nilai 5, kita peroleh
E(Yt) = 15 - 1,2(5) + 0,8X3t

= 9 + 0,8X3t (8.6)

Di sini koefisien kemiringan B3 = 0,8 yang berarti bahwa nilai rata-rata Y akan naik
sebesar 0,8 untuk tiap unit kenaikan X3 apabila X2 dipertahankan konstan - dalam contoh ini, X 2
dipertahankan konstan sebesar 5 kendati nilai lain manapun boleh saja digunakan. Koefisien
kemiringan ini juga disebut sebagai koefisien regresi parsial.

Singkatnya, koefisien regresi parsial mencerminkan pengaruh (parsial) dari sebuah


variabel penjelas terhadap nilai rata-rata variabel tak bebas apabila nilai variabel-variabel
penjelas lainnva yang terdapat dalam model dipertahankan konstan. Sifat unik dari regresi
berganda ini memungkinkan kita bukan hanya untuk memasukkan lebih dari satu variabel
penjelas ke dalam model, melainkan juga untuk “memisahkan" atau "melepaskan" pengaruh
masing-masing variabel X terhadap Y dari variabel-varisbei X lain yang masuk di dalam model.

1.2. ASUMSI-ASUMSI MODEL REGRESI LINEAR BERGANDA

Sebagaimana halnya dalam kasus regresi dua variabel, perintah pertama kita adalah
menaksir koefisien-koefisien regresi dari model regresi berganda. Untuk tujuan itu, kita tetap
menggunakan kerangka model regresi linear klasik (MRLK) yang pertama kali diperkenalkan
dalam Bab 7 dan menggunakan metode kuadrat terkecil biasa (OLS) dalam menaksir koefisien-
koefisien tersebut, Secara spesifik, untuk model (8.2), kita asumsikan (bandingkanlah dengan
pembahasan dalam Bagian 7.1):

A8.1.

Model regresi ini memiliki parameter-parameter yang bersifat linear sebagaimana yang
ditunjukkan dalam Persamaan (8.1) dan bahwa model ini ditentukan secara tepat.

A8.2.
X2 dan X3 tidak berkorelasi dengan faktor gangguan u. Namun demikian, jika X2 dan X3
bersifat non-stokhastik (dalam hal ini, angkanya ditetapkan dalam penarikan sampel
secara berulang-ulang). maka asumsi ini otomatis terpenuhi.

Karena analisis regresi kita merupakan analisis regresi bersyarat, dengan syarat bahwa
nilai-nilai X-nya tertentu, maka asumsi 8.2 tidaklah diperlukan. Namun asumsi ini dibuat untuk
menopang model regresi persamaan simultan yang akan dibahas dalam Bab 15 (di Jilid 2). di
mana kita akan melihat bahwa beberapa variabel X mungkin berkorelasi dengan faktor
kesalahan.

A8.3.

Faktor kesalahan u mempunyai nilai rata-rata sebesar nol; dalam hal ini.

E(ui) = 0 (8.7)

A8.4.

Homoskedastisitas, atau dengan kata lain, varians dari u, adalah konstan:

var (ui) = σ 2 (8.8)

A8.5.

Tidak ada otokorelasi antara faktor kesalahan ui dan uj ;

cov (ui , uj) i≠ j (8.9)

A8.6.

Tidak ada kolinearitas nyata antara X2 dan X3: dalam hal ini, tidak ada hubungan linear
yang nyata antara kedua variabel penjelas. Ini merupakan asumsi baru dan akan
dijelaskan nanti dalam pembahasan selanjutnya.

A8.7.

Untuk pengujian hipotesis. faktor kesalahan u mengikuti distribusi normal dengan rata-
rata sebesar nol dan varians σ 2 (homoskedastis). Dalam hal ini.
ui N(0, σ 2) (8.10)

Kecuali untuk asumsi 8.6. dasar pemikiran dari asumsi-asumsi lainnya adalah sama
dengan dasar pemikiran yang dibahas untuk regresi linier dua variabel. Sebagaimana telah
diuraikan dalam bab 7, kita membuat asumsi-asumsi ini guna memudahkan pengembangan topik
bahasan. Daiam Bagian III kita akan berjumpa kembali dengan asumsi-asumsi ini dan melihat
apa yang akan terjadi seandainya salah satu atau lebih di antara asumsi-asunısi tersebut tidak
terpenuhi dalam penerapan nyata.

Asumsi 8.6 bahwa tidak ada hubungan linear yang nyata antara variabel-variabel penjelas
X2 dan X3 secara teknis disebut sebagai asumsi tidak adanya kolinearitas, atau tidak ada
multikolinearitas, seandainya terdapat lebih dari satu hubungan linear yang nyata di antara
variabel-variabel penjelas, menupakan asumsi baru dan memerlukan penjelasan yang lebih rinci.

Secara informal, tidak ada kolinearitas sama sekali berarti bahwa suatu variabel, misalnya
X2 tidak dapat dinyatakan sebagai suatu fungsi linear yang nyata dari variabel lain, misalnya. X 3
Jadi. jika kita dapat menyatakan

X2i = 3 + 2X3i

atau

X2i = 4X3i

maka kedua variabel bersifat kolinear, karena terdapat hubungan linear yang nyata
antara X2 dan X3. Asumsi 8.6 menyatakan bahwa hal ini tidak holeh terjadi. Logikanva di sini
sangatlah sedertana. Jika, misalnya, X2 = 4X3. maka bila kita substitusikan nilai ini ke dalam
Persamaan (8.1). akan kia dapatkan bahwa

E(Yi) = B1 + B2 (4X3i) + B3X3i

= B1 + (4B2 + B3) X3i

= B1 + AX3i (8.11)

di mana
A = 4B2 + B3 (8.12)

Persamaan (8.11) merupakan model regresi dua variabel, bukan model regresi tiga
variabel, Kini meskipun kita dapat menaksir Persamaan (8.11) dan mermperoleh nilai taksiran
dari A, kita tidak bisa mendapatkan taksiran dari masing-masing nilai B2 atau B3 dari A yang
ditaksir. Perhatikan bahwa karena Persamaan (8.12) adalah sebuah persamaan dengan dua faktor
yang tidak diketahui, maka kita memerlukan dua buah persamaan (yang berdiri sendıri) untuk
nendapatkan taksiran yang unik dari B2 dan B3.

Kesimpulan dari pembahasan ini adalah bahwa jika terdapat kolinearitas sempurna, kita
tidak dapat menaksir masing-masing koefisien regresi parsial B2 atau B3: dengan kata lain, kita
tidak dapat mengukur pengaruh dari masing-masing X2 dan X3 terhadap Y. Tetapi hal ini tidak
lah mengherankan. mengingat hahwa kita tidak mempunyai dua variabel yang benar-benar bebas
di dalam model.

Meskipun, dalam praktek, kasus kolinearitas sempurna jarang dijumpai, namun kasus
dengan kolinearitas yang tinggi atau mendekati sempurna sering kita jumpai. Dalam bab
selanjutnya (lihat Bab 12 di Jilid 2) kita akan mengkaji hal ini secara lebih rinci. Sekarang kita
hanya mensyaratkan bahwa dua atau lebih variabel penjelas tidak mempunyai hubungan linear
yang nyata di antara mereka.

1.3. PENAKSIRAN PARAMETER DALAM REGRESI BERGANDA

Guna menaksir parameter dari persamaan (8.2), kita menggunkan metode kuadrat terkecil
biasa (OLS) yang ciri utamanya telah dibahas di bab 6 dan bab 7.

Penaksir Kuadrat Terkecil Biasa


Untuk mendapatkan penaksir-penaksir OLS , pertama marilah kita menuliskan fungsi
regresi sampel (FRS) yang sesuai untuk FRP Persamaan (8.2) sebagai berikut:

Yt = b1 + b2 X2t + b3 X3t + et (8.13)


Dimana, mengikuti ketentuan yang diperkenalkan dalam Bab 6, e adalah factor residu, atau
cukup disebut residu saja – sebagai imbalan dari u untuk tingkat sampel – dan dimana b adalah
penaksir dari koefisien populasi, B. Secara lebih spesifik.
b1 = penaksir dari B1
b2 = penaksir dari B2
b3 = penaksir dari B3
Imbangan untuk tingkat sampel dari Persamaan (8.1) adalah
Ŷ = b1 + b2 X2t + b3 X3t (8.14)

Yang merupakan taksiran dari garis regresi populasi (GRP) (yang benar-benar membentuk
sebuah pesawat).
Sebagaimana telah dijelaskan dalam Bab 6, prinsip OLS memiliki nilai-nilai dari
parameter-parameter yang tak diketahui sedemikian rupa sehingga jumlah kuadrat residu (RSS)-
nya Σet2 sekecil mungkin. Untuk itu, mula-mula kita menuliskan Persamaan (8.13) sebagai

et = Yt – b1 – b2X2t – b3X3t (8.15)

Dengan mengkuadratkan persamaan ini pada kedua sisinya dan menjumlakan di antara seluruh
observasi sampel, kita peroleh

RSS : Σet2 = Σ(Yt – b1 – b2X2t – b3X3t (8.16)

Dan dalam OLS kita meminimalkan RSS ini (yang semata-mata merupakan jumlaj dari selisih
kuadrat antara Y, yang sebenarnya dan Yt taksiran).
Minimisasi Persamaan (8.16) melibatkan metode diferensiasi dalam kalkulus. Tanpa perlu
membahsnya secara rinci, proses diferensiasi ini memberikan persamaan di bawah ini, yang
disebut sebagai persamaan normal (kuadrat terkecil), guna memudahkan dalam menaksir factor-
faktor yang tak dikatahui (bandingkan dengan persamaan yang sesuai untuk kasus dua variabel
dalam persamaan (6.14) dan (6.15).

Ŷ = b1 = b2 X́ 2 + b3 X́ 3 (8.17)
Σ Y X2t = b1 Σ X2t + b2 Σ X 22 t + b3 Σ X2t X3t (8.18)
Σ Yt X3t = b1 Σ X3t + b2 Σ X2t X3t + b3 Σ X 23 t (8.19)

Dimana penjumlahannya dilakukan terhadap seluruh rentang sampel l sampai n. Disini kita
mempunyai tiga persamaan dengan tiga factor ysng tak diketahui, yang diketahui adalah
variabel-variabel Y dan X sedangkan yang tak diketahui adalah parameter-parameter b. biasanya,
kita harus mampu memecahkan ketiga persamaan dengan tiga parameter yang tak diketahui ini.
Dengan manipulasi aljabar sederhana untuk persamaan-persamaan di atas, kita peroleh ketiga
penaksir OLS sebagai berikut.

b1 = Ý – b2 X́ 2 – b3 X́ 3 (8.20)

( Σ y 2 t x 2 t )−(Σ yt x 3 t )( Σ y 2t x 3 t )
b2¿ (8.21)
( Σ x 22 t )( Σ x 23 t )−( Σ x 2t x 3 t )2

( Σ y t x 3 t ) ( Σ x 22t )−( Σ yt x 2 t )( Σ x 2 t x 3 t )
b3 ¿ (8.22)
( Σ x 22 t )( Σ x 23 t )−(Σ x2 t x 3 t )2

dimana, seperti biasanya, huruf kecil menyatakan deviasi dari nilai rata-rata sampel (dalam hal
ini yt = Yt - Ý ).
Anda akan memperhatikan kesamaan antara persamaan-persamaan tersebut dengan
persamaan yang sesuai untuk kasus dua variabel yang dinyatakan dalam Persamaan (6.16) dan
(6.17). Demikian pula, perhatikan ciri-ciri berikut ini dari persamaan-persamaan di atas: (1)
Persamaan (8.21) dan (8.22) bersifat simteris karena salah satu persamaan dapat diperoleh
berdasarkan persamaan lain dengan menukar peran X2 dan X3 dan (2) penyebut dalam kedua
persamaan tersebut adalah sama.

Varians dan Keasalahan Standar dari Penaksir OLS


Setelah memperoleh penaksir OLS untuk titik potong dan koefisien regresi parsial, kita
dapat memperoleh varians dan kesalahan standar dari penaksir-penaksir tersebut dengan cara
yang sama seperti dalam model dua variabel. Varians dan kesalahan standar ini memberikan
gagasan kepada kita tentang variabilitas penaksir-penaksir ini dari sampel yang satu ke sampel
berikutnya. Sebagaimna halnya dalam kasus regresi dua variabel, kita memerlukan kesalahan
standar untuk dua tujuan utama ; (1) untuk menetapkan interval keyakinan bagi nilai-nilai
paramaeter yang sebenarnya dan (2) untuk menguji hipotesis statistic. Rumus-rumus yang
relevan, tanpa perlu dilakukan pembuktian adalah sebagai berikut.

2 2 2
1 X 2 Σ x 3 t + X 2t −2 X 2 X 3 Σ x 2t x 3 t
var (b1) =
n
+
[ 2 2
Σ x2 t Σ x3 t −( Σ x 2 t x3 t )2
]
. σ2 (8.23)

se (b1) = √ var (b1 ) (8.24)

∑ x23 t
var (b2) = 2 2 2 . σ2 (8.25)
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t

se (b2) = √ var (b2 ) (8.26)

∑ x22 t
var (b3) = 2 2 2 . σ2 (8.27)
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t

se (b3) = √ var ( b3 ) (8.28)

Didalam semua rumus ini, σ2 merupakan varians (yang homoskedastis) dari factor kesalahan
populasi ut . Penaksir OLS dari varians yang tak diketahui ini adalah:

Σ e2t
σ2 = (8.29)
n−3

Rumus ini merupakan perluasan langsung dari rumus kasus dua variabel yang diberikan dalam
Persamaan (7.8) kecuali bahwa sekarang derajat kebebasan (d.k)-nya adalah (n-3). Ini karena
dalam menaksir RSS Σ e2t , kita mula-mula harus memperoleh b1 , b2 , dan b3 yang menghabiskan
3 d.k. penjelasan ini berlaku umum. Dalam kasus regresi empat variabel, d.k-nya akan sebesar
(n-4), dalam regresi lima variabel, (n-5); dan seterusnya.
Perhatikan pula bahwa akar kuadrat (yang positif) dari σ^ 2

σ^ 2 = √ σ^ 2 (8.30)

Adalah kesalahan standar dari taksiran, atau kesalahan standar dari regresi, yang, sebagaimana
telah dijelaskan dalam bab 6, merupakan deviasi standar dari nilai Y disekitar garos regresi yang
ditaksir.
2
Sekitar perhitungan Σ e2t . Karena Σ e2t = Σ ( Y t −Y^ t ) , maka untuk menghitung persamaan ini,

kita mula-mula harus menghitung Y^ t yang dapat dilakukan dengan mudah melalui penggunaan
computer. Tetapi ad acara pintas untuk menghitung RSS (lihat lampiran 8A.2), dimana

Σ e2t =Σ y 2t −b 2 Σ y t x 2t −b3 Σ y t x 3 t (8.31)

Yang dapat langsung dihitung setelah kemiringan parsialnya berhasil ditaksir.

Sifat-sifat Penaksir OLS dalam Regresi Berganda


Dalam kasus regresi dua variabel, kita mengetahui bahwa berdasarkan syarat-syarat yang
diasumsikan, penaksir OLS merupakan penaksir tak bias linear yang terbaik (BLUE). Sifat ini
tetap berlaku untuk regresi berganda. Jadi, tiap koefisien regresi yang ditaksir dengan
menggunakan metode OLS bersifat linear dan tak bias – secara rata-rata, koefisien yang ditaksir
ini tepat sama dengan nilai yang sebenarnya. Diantara semua penaksir tak bias linear semacam
itu, penaksir OLS memiliki varians yang mungkin paling kecil sedemikian rupa sehingga
parameter yang sebenarnya dapat ditaksir secara lebih akurat dibandingkan dengan penaksir tak
bias linear lainnya. Singkatnya, penaksir OLS bersifat efisien.
Sebagaimana yang telah ditunjukkan dalam pengembangan model di atas, dalam beberapa
hal model regresi tiga variabel merupakan perluasan dari model regresi dua variabel, meskipun
rumus penaksirannya agak lebih rumit. Rumus-rumus ini menjadi jauh lebih rumit dan sulit
dipakai begitu kita mengembangkan model dengan lebih dari tiga variabel. Dalam kasus
semacam itu, kita harus menggunakan aljabar matriks, yang menyatakan berbagai rumus
penaksir secara lebih rapi. Tentu saja, dalam buku ini, aljabar matriks tidak digunakan.
Disamping itu, saat ini Anda jarang menghitung taksiran secara manual; biarkan computer yang
mengerjakan semuanya.

1.4. KECOCOKAN SUAI DARI REGRESI BERGANDA YANG DITAKSIR :


KOEFISIEN DETERMINASI BERGANDA, R2
Dalam kasus regresi dua variabel, kita melihat bahwa r 2 sebagaimana yang didefinisikan
dalam Persamaan (7.38) mengukur kecocokan suai dari garis regresi sampel (GRS) yang
dicocokkan; dalam hal ini, r2 menyatakan proporsi atau persentase dari total varisi variabel tak
bebas Y yang dijelaskan oleh sebuah variabel penjelas X. Konsep r2 ini dapat diperluas sehingga
mencakup model regresi yang memuat lebih dari satu variabel penjelas. Jadi, dalam kasus regresi
tiga variabel kita ingin mengetahui proporsi total variasi Y (=Σ y 2t ) yang dijelaskan oleh X2 dan
X3 secara bersama-sama. Ukuran yang memberikan informasi ini disebut sebagai koefisien
dererminasi berganda dan dinotasikan dengan symbol R2; secara konseptual, R2 sama saja
dengan r2.
Sebagaimana halnya dalam kasus regresi dua variabel, kita mempunyai identitas
(bandingkan dengan Persamaan 7.36):

TSS = ESS + RSS (8.32)


Dimana TSS = total jumlah kuadrat variabel tak bebas Y = (=Σ y 2t )
ESS = jumlah kuadrat yang dijelaskan (dalam hal ini, dijelaskan oleh
semua variabel X)
RSS = jumlah kuadrat residu

Juga, seperti halnya dalam kasus regresi dua variabel, R2 didefinisikan sebagai

ESS
R2 = (8.33)
TSS
Dalam hal ini, R2 merupakan rasio antara jumlah kuadrat yang dijelaskan terhadap total
jumlah kuadrat; satu-satunya perubahan adalah bahwa ESS sekarang diakibatkan oleh lebih dari
satu variabel penjelas.
Kini dapat ditunjukkan bahwa
ESS=b2 ∑ y t x 2 t +b3 ∑ y t x 3t (8.34)

Dan sebagaimana telah ditunjukkan sebelumnya


2
ESS=∑ y t −b2 ∑ y t x 2 t −b3 ∑ y t x 3 t (8.35)
Oleh karena itu, R2 dapat dihitung sebagai
b2 ∑ y t x 2 t +b3 ∑ y t x 3t
R2 =
∑ y 2t (8.36)
Selain itu, perhatikan bahwa akar kuadrat yang positif dari R 2, yakni R, disebut sebagai
koefisien korelasi berganda, yang analog dengan koefisien korelasi r dalam model regresi dua
variabel. Seperti halnya r mengukur derajat hubungan linier antara Y dan X. R dapat ditafsirkan
sebagai derajat hubungan linear antara Y dan semua variabel X secara bersama-sama meskipun r
dapat positif atau negatif, namun R selalu mengambil nilai positif. Akan tetapi, dalam praktek R
tidaklah terlalu penting.

1.5. MENINJAU KEMBALI HARGA LELANG JAM ANTIK


Mari kita beristirahat sejenak guna mengilustrasikan semua teori di atas dengan contoh
tentang harga lelang jam antik yang telah kita bahas dalam bab 6 (lihat tabel 6-14). Misalkan y =
harga lelang, x 2 = umur jam, dan x 3 = jumlah penawar. Secara teoritis, kita akan mengharapkan
hubungan yang positif antara y dan kedua variabel penjelas di atas. Hasil regresi terhadap kedua
variabel penjelas tersebut adalah sebagai berikut (output program eviews untuk regresi ini
disajikan dalam lampiran 8A.4)
Y=−1336 ,049+12,7413 X 2t +85,7640 X 3 t
se=(175,2725)(0,9123 )( 8,8019)
t=(−7,6226)(13,9653 )(9,7437)
p=(0,0000)¿ (0 ,0000)¿ (0,0000)¿
R2 =0.8906
F=118,0585
(8.37)

Penafsiran Hasil Regresi


Sebagaimana yang diharapkan,harga lelang berkorelasi positif dengan umur jam-jam
maupun jumlah penawar. Penafsiran dari korelasi kemiringan sekitar 12.74 berarti bahwa dengan
asumsi variabel variabel lainnya dipertahankan konstan, seandainya umur jam naik sebesar 1
tahun, maka harga rata-rata jam tersebut akan naik sekitar 12,74 mark Jerman. Demikian
pula,dengan asumsi bahwa variabel variabel lain dipertahankan konstan, seandainya jumlah
penawaran naik sebanyak 1 orang, maka harga rata-rata jam tersebut akan naik sekitar 85,76
Mark Jerman.nilai titik potong yang negatif tidak memiliki arti yang nyata dari segi ekonomi.
Nilai R2 sekitar 0,89 berarti bahwa kedua variabel penjelas menjelaskan sekitar 89% variasi
harga penawaran lelang, suatu nilai yang cukup tinggi. Nilai F yang disajikan dalam persamaan
(8.37) akan segera dijelaskan dalam bab ini.

1.6. PENGUJIAN HIPOTESIS DALAM MODEL REGRESI BERGANDA:


PENDAPATAN UMUM
Meskipun R2 memberikan ukuran menyeluruh dari kecocokan suai garis regresi yang
ditaksir, R2 itu sendiri tidak memberikan informasi tentang apakah koefisien regresi parsial yang
ditaksir signifikan secara statistik, dalam hal ini, berbeda secara statistik dari nol. Sebagai
koefisien regresi parsial mungkin signifikan secara statistik dan sebagian lagi mungkin tidak.
Agar lebih spesifik,marilah kita andaikan kita ingin menguji hipotesis bahwa umur jam antik
tidak berpengaruh terhadap harganya. Dengan kata lain, kita ingin menguji hipotesis nol: H0 : B2
= 0. Bagaimana cara kita melakukannya? dari pembahasan kita tentang pengujian hipotesis untuk
model dua variabel yang diberikan dalam bab 7,dalam menjawab pertanyaan ini kita perlu
mengetahui distribusi sampling atau penarikan sampel dari b2 sebagai penaksir B2.
bagaimanakah distribusi sampling dari b2? Dan bagaimana distribusi sampling dari b1 dan b3?
Dalam kasus regresi 2 variabel, kita mengetahui bahwa penaksiran OLS, b1 dan
b2,didistribusikan secara normal apabila kita bersedia mengasumsikan bahwa faktor kesalahan
μ mengikuti distribusi normal. Kini dalam asumsi A8.7kita telah menyatakan bahwa untuk

regresi berganda pun kita akan tetap mengasumsikan bahwa μ didistribusikan secara normal
dengan rata-rata sebesar 0 dan varians konstan σ2. Berdasarkan asumsi ini serta asumsi asumsi
lain yang disebut dalam bagian 8.2 kita dapat membuktikan bahwa b1, b2 dan b3 masing-masing
mengikuti distribusi normal dengan rata-rata sama dengan B1, B2 dan B3 serta varians yang
menyatakan berturut-turut dalam persamaan (8.23),(8.25) dan (8.27).
Akan tetapi, seperti dalam kasus regresi dua variabel, jika kita menangani varian yang
sebenarnya namun tak diketahui σ2 dengan penaksir tak biasnya σ2 yang dinyatakan dalam
persamaan (8. 29) maka penaksir OLS tersebut mengikuti distribusi t dengan d.k.(n-3), dan
bukannya distribusi dalam hal ini
b1 −B 1
t= ~ t
se(b 1 ) n-3 (8.38)
b2 −B 2
t= ~ t
se( b 2 ) n-3 (8.39)
b3 −B 3
t= ~ t
se(b 3 ) n-3 (8.40)

Perhatikan bahwa d.k.-nya sekarang adalah (n-3) karena dalam menghitung RSS, ∑ e 2t
dan karenanya σ 2 . Kita pertama-tama perlu menaksir koefisien titik potong serta kedua
koefisien kemiringan parsialnya sehingga kita kehilangan 3 d.k.

Kita ketahui bahwa dengan mengganti σ2 dengan σ2 maka penaksir OLS mengikuti
distribusi t.sekarang kita dapat menggunakan informasi ini untuk mengetahui interval keyakinan
maupun untuk menguji hipotesis statistik tentang koefisien regresi parsial yang sebenarnya.
Mekanisme sebenarnya dalam beberapa hal sama dengan mekanisme dalam kasus regresi dua
variabel, yang sekarang akan kita ilustrasikan dengan contoh.
1.7. PENGUJIAN HIPOTESIS TENTANG MASING-MASING
KOEFISIEN REGRESI PARSIAL
Andaikan dalam contoh ilustrasi ini kita dapat menyatakan hipotesis bahwa
H0 : B2 = 0 atau H1 : B2 ≠ 0
Dalam hal ini, berdasarkan hipotesis nol, umur jam antik tidak berpengaruh apapun
terhadap harga lelangnya, sedangkan dalam hipotesis alternatif dinyatakan bahwa umur jam
mempunyai pengaruh, entah positif ataupun negatif, terhadap harga. Jadi, hipotesis alternatif ini
bersifat dua sisi.
Berdasarkan hipotesis nol sebelumnya, kita ketahui bahwa
b2 −B2
t=
se (b 2 )
b2
¿
se (b 2 ) (catatan : B2 = 0) (8.41)
Mengikuti distribusi t dengan d.k. (n-3) = 29, karena dalam contoh kita n = 32. Berdasarkan hasil
regresi yang diberikan dalam (8.37), kita peroleh
12 ,7413
t= =13 , 9653
0 , 9123 (8.42)
Yang mempunyai distribusi t dengan d.k. 29.
Berdasarkan nilai hitung t, apakah kita menolak hipotesis nol bahwa umur jam antik tidak
berpengaruh terhadap harga lelang? Untuk menjawab pertanyaan ini, kita dapat menggunakan
pendekatan uji signifikansi atau pendekatan interval keyakinan, sebagaimana dalam pengujian
hipotesis untuk regresi dua variabel

Pendekatan uji signifikansi


Ingatlah bahwa dalam pendekatan uji signifikansi untuk pengujian hipotesis kita
mengembangkan suatu statistik uji, mencari tahu distribusi sampling atau penarikan sampelnya,
memilih tingkat signifikansi α, dan menentukan nilai kritis dari statistik uji pada tingkat
signifikansi yang dipilih. kemudian kita membandingkan nilai statistik uji yang diperoleh dari
sampel yang ada dengan nilai kritis nya dan menolak hipotesis nol apabila nilai hitung dari
statistik uji lebih besar dari nilai kritisnya. Sebagai alternatif, kita dapat mencari nilai ρ dari
statistik uji dan menolak hipotesis nol apabila nilai ρ lebih kecil daripada nilai α yang dipilih.
pendekatan yang kita ikuti dalam kasus regresi dua variabel juga dapat digunakan terhadap
regresi berganda.
Kembali ke contoh ilustrasi kita. kita ketahui bahwa statistik uji yang dibicarakan adalah
statistik t, yang mengikuti distribusi t dengan d.k(n-3). Oleh karena itu, kita menggunakan uji
signifikansi t. Mekanisme yang sebenarnya kini menjadi mudah. Andaikan kita memilih α = 0,05
atau 5%. Karena hipotesis alternatifnya memiliki dua sisi, maka kita harus mencari nilai kritis t
pada α/2=25% untuk d.k.(n-3) yang dalam contoh ini adalah 29. Kemudian, dari tabel t kita
ketahui bahwa untuk d.k. 29.
(−2,045≤t≤2,045 )=0 ,95
(8.43)
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam batas -2,045 ma dan
+2,045 adalah 95%.
Dari persamaan (8.4 2), kita ketahui bahwa nilai hitung t pada H0 : B2 = 0 mendekati 14,
yang jelas lebih besar dari pada nilai kritis t sebesar 2,045. oleh karena itu, kita menolak
hipotesis nol dan menyimpulkan bahwa umur jumantik jelas pengaruh terhadap harga lelangnya
kesimpulan ini juga diperkuat oleh nilai p yang diberikan dalam persamaan (8.37), yang
mendekati nol. Dalam ini, seandainya hipotesis nol bahwa B2 = 0 benar, peluang kita untuk
mendapatkan nilai t sekitar 14 atau lebih mendekati nihil. Oleh karena itu, kita dapat menolak
hipotesis nol secara lebih meyakinkan berdasarkan nilai p ketimbang nilai α sebesar 1% atau 5%
yang lazim dipilih.
Uji satu sisi atau dua sisi? karena, secara teoritis, kita mengharapkan koefisien variabel
untuk bernilai positif, kita benar-benar harus menggunakan uji t satu sisi. Nilai t kritis 5% untuk
uji satu sisi dengan d.k. 29 sekarang menjadi 1,699. Karena nilai hitung t sekitar 14 masih jauh
lebih besar daripada 1,699 maka kita menolak hipotesis nol dan sekarang menyimpulkan bahwa
umur jam antik berpengaruh positif terhadap harga lelang; sebaliknya, uji dua sisi sekedar
memberitahu kita bahwa umur jam antik mungkin berpengaruh positif atau negatif terhadap
harga lelangnya. Oleh karena itu, hendaknya anda berhati-hati dalam merumuskan hipotesis nol
dan hipotesis alternatif. Biarkan teori menjadi pedoman dalam memilih hipotesis hipotesis
tersebut.

Pendekatan interval keyakinan dalam pengujian hipotesis


Dasar pemikiran dari pendekatan interval keyakinan dalam pengujian hipotesis telah kita
bahas dalam bab 7 disini kita sekedar mengilustrasikan nya dengan contoh numerik, telah kita
tunjukkan sebelumnya bahwa
P(−2, 045≤t≤2 ,045 )=0 ,95
Kita juga mengetahui bahwa
b2 −B 2
t=
se( b 2 ) (8.39)
Jika kita substitusikan nilai t ke dalam persamaan (8.43), kita peroleh
b 2−B2
(
P −2 , 045≤
se (b2 ) )
≤2, 045 =0 ,95

Yang, setelah disusun kembali menjadi


P [ b2 −2 ,045 se ( b2 )≤B2 ≤b2 + 2 ,045 se( b2 ) ]=0 , 95

(8.44)

Yang merupakan interval keyakinan 95% untuk B2 (bandingkan dengan persamaan (7.2 6)).
Ingatlah kembali bahwa menurut pendekatan interval keyakinan, jika interval keyakinan yang
kita sebut sebagai daerah penerimaan, mencakup nilai yang dinyatakan dalam hipotesis nol,
maka kita tidak menolak hipotesis nol. Sebaliknya, jika nilai yang dinyatakan dalam hipotesis
nol terletak diluar interval keyakinan atau dalam hal ini, di dalam daerah penolakan, maka kita
dapat menolak hipotesis nol. Tetapi camkanlah selalu bahwa dalam mengambil keputusan
tentang menolak atau tidak menolak hipotesis nol, kita berpeluang melakukan kesalahan sebesar
α% (misalnya 5%) pada saat kita mengambil keputusan tersebut.
Untuk contoh ilustrasi kita, persamaan (8.44) akan menjadi
12 ,7413−2 ,045 (0 , 9123)≤B2 ≤12 ,7413+2, 045(0 ,9123 )
Dalam hal ini,
10 , 8757≤B2 ≤14 , 6069 (8.45)
Yang merupakan interval keyakinan 95% untuk nilai B 2 yang sebenarnya.karena interval ini
tidak mencakup nilai yang dinyatakan dalam hipotesis nol, maka kita dapat menolak hipotesis
nol: jika kita menyusun interval keyakinan seperti persamaan (8.45) maka 95 diantara 100
interval semacam itu akan mencakup nilai B2 yang sebenarnya, namun sebagaimana yang telah
kita uraikan dalam bab 7, kita tidak mengatakan bahwa probabilitas adalah 95% bahwa interval
tertentu (8,45) mencakup atau tidak mencakup nilai B2 yang sebenarnya.
Tak pelak lagi, kita dapat menggunakan kedua pendekatan tersebut dalam menguji hipotesis
guna menguji hipotesis tentang koefisien lain yang diberikan dalam hasil regresi untuk contoh
ilustrasi kita. Sebagaimana dapat Anda lihat dari hasil regresi, variabel jumlah penawaran juga
signifikan secara statistik (dalam hal ini, nyata tidak sama dengan nol) karena nilai t yang
ditaksir secara sekitar 8 mempunyai nilai p yang mendekati nol.ingatlah bahwa semakin kecil
nilai p, semakin kuat alasan untuk menentang hipotesis nol.

1.8. PENGUJIAN HIPOTESIS GABUNGAN BAHWA B2 = B3=0 ATAU R2=


0

Untuk contoh ilustratif kita, kita ketahui bahwa masing – masing koefisien kemiringan
parsial b2 dan b3 signifikan secara statistik, dalam hal ini, masing – masing koefisien parsial nyata
tidak sama dengan nol. Tetapi sekarang perhatikan hipotesis nol dibawah ini :
H0 : B2 = B3 = 0 (8.46)
Hipotesis nol ini adalah hipotesis gabungan bahwa B2 dan B3 secara bersama – sama
atau secara simultan ( dan bukan secara sendiri – sendiri atau terpisah ) sama dengan nol.
Hipotesis ini menyatakan bahwa kedua variable penjelas secara bersama – sama tidak
berpengaruh terhadap Y. ini sama saja mengatakan bahwa
H0 : R2 = 0 (8.47)
Dalam hal ini, kedua variable penjelas menjelaskan sebanyak nol persen terhadap variasi
variable bebas ( ingat kembali definisi tentang R2 ). Oleh karena itu, kedua himpunan hipotesis
(8.46) dan (8.47) adalah ekuivalen; yang satu menyiratkan yang lain. Pengujian terhadap salah
satu hipotesis ini disebut sebagai uji signifikansi keseluruhan terhadap regresi berganda
yang ditaksir, dalam hal ini, apakah Y berkorelasi linear dengan X2 maupun X3 secara bersama –
sama.
Bagaimana kita menguji, katakanlah, hipotesis yang diberikan dalam Persamaan (8.46) ?
godaannya di sini adalah untuk menyatakan bahwa karena, dalam contoh ini b2 dan b3 secara
sendiri – sendiri nyata tidak sama dengan nol; dalam hal ini, kita menolak H0 yang diberikan
dalam persamaan (8.46). dengan kata lain , karena umur jam antik dan penawar lelang masing –
masing memiliki pengaruh yang nyata terhadap harga lelang, maka secara bersama – sama pun
kedua variabel ini pasti memiliki pengaruh yang nyata terhadap harga lelang. Tetapi kita harus
berhati – hati disini, karena sebagaimana yang akan kita tunjukkan secara lebih rinci dalam bab
12 ( di Jilid 2 ) tentang multikolineritas,pada kenyataannya, dalam suatu regresi berganda dengan
satu atau lebih variabel secara sendiri – sendiri tidak berpengaruh terhadap variabel tak bebas
namun secara bersama – sama mempunyai pengaruh yang besar terhadap variabel tak bebas. Ini
berarti bahwa prosedut uji – t yang telah kita bahas sebelumnya, kendati berlaku bagi pengujian
signifikansi statistik dari masing – masing koefisien regresi, tidaklah berlaku bagi pengujian
hipotesis gabungan.
Lalu, bagaimana cara kita menguji hipotesis semacam hipotesis (8.46)? Ini dapat
dilakukan dengan menggunakan sebuah metode yang disebut analisis varian (ANOVA). Guna
mengetahui cara penggunaan analisis ini, ingatlah kembali identitas berikut ini :
TSS = ESS + RSS (8.32)
Dalam hal ini,

(8.48)
Persamaan (8.48) membagi TSS ke dalam dua komponennya, komponen yang satu
dijelaskan oleh model regresi yang dipilih (ESS) dan komponen lainnya tidak dijelaskan oleh
model regresi tersebut (RSS). Studi mengenai kedua komponen TSS ini disebut sebagi analisis
varians (ANOVA) dari sudut pandang regresi.
Sebagaimana telah kita jelaskan dalam Bab 4, setiap jumlah kuadrat selalu memiliki
derajat kebebasan (d.k.)-nya sendiri – sendiri; dalam hal ini jumlah, observasi independen yang
menjadi dasar perhitungan jumlah kuadrat. Sekarang masing – masing dari jumlah kuadrat
terdahulu memiliki d.k seperti berikut ini :

Jumlah Kuadrat d.k.

TSS n – 1 ( selalu, Mengapa? )


RSS n – 3 ( model tiga variabel )

ESS 2 ( model tiga variabel )*

* Cara yang mudah guna mencari d.k dari ESS adalah mengurangkan d.k untuk RSS dari
d.k untuk TSS
kita menyusun semua jumlah kuadrat ini beserta d.k nya yang terkait dalam bentuk
table,yang disebut table ANOVA, sebagimana ditunjukkan Tabel 8 – 1.
Sekarang, berdasarkan asumsi – asumsi MRLK ( dan asumsi A8.7) dan hipotesis nol : H0
: B2 = B3 = 0, dapat kita tunjukkan bahwa variabel

(8.49)

Mengikuti distribusi F dengan d.k. 2 sebagai pembilang dan d.k ( n – 3 ) sebagai


penyebut. ( Untuk pembahasan yang bersifat umum tentang distribusi F, lihat Bab 4, dan untuk
penerapannya lihat Bab 5 ). Pada umumnya, jika model regresi mempunyai variabel penjelas
sebanyak k termasuk factor titik potongnya, maka rasio F memiliki d.k sebesar ( k – 1 ) di
bagian pembilang dan ( n – k ) di bagian penyebut.
Bagaimana kita dapat menggunakan rasio F dari persamaan (8.49) untuk menguji
hipotesis gabungan bahwa kedua variabel X2 dan X3 tidak berpengaruh terhadap Y? Jawabannya
jelas terlihat dalam persamaan (8.49). jika pembilang dalam persamaan (8.49) lebih besar
daripada penyebutnya- yakni, jika varians dari Y yang dijelaskan oleh regresi ( dalam hal ini,
oleh X2 dan X3 ) lebih besar daripada varians yang tak dijelaskan oleh regresi maka – nilai F akan
lebih besar dari 1. Oleh karena itu, sejalan dengan makin besarnya varians yang dijelaskan oleh
variabel X relatif terhadap varians yang tak dijelaskan, rasio F juga akan semakin besar. Jadi,
nilai F yang makin besar akan menjadi bukti untuk menolak hipotesis nol bahwa kedua ( atau
lebih ) variabel penjelas tidak berpengaruh terhadap Y.
TABEL 8 -1

* Cara sederhana untuk mengingat hal ini adalah d.k. pembilang dari rasio F sama dengan jumlah koefisien
kemiringan parsial dalam model regresi, dan d.k. penyebut sama dengan n dikurangi jumlah total parameter yang
ditaksir (dalam hal ini, koefisien kemiringan parsial ditambah dengan koefisien titik potong).

TABEL 8 -2

Tentu saja, alasan intuitif ini dapat diformalkan dalam kerangka pengujian hipotesis yang
lazim digunakan. Sebagaimana telah ditunjukkan dalam bab4, bagian 4.4, kita menghitung F
sebagaimana yang diberikan dalam persamaan (8.49) dan membandingkannya dengan nilai F
kritis untuk d.k. 2 dan ( n – 3 ) pada tingkat signifikansi α, yakni probabilitas melakukan
kesalahan jenis I, yang dipilih. Seperti biasanya, jika nilai hitung F lebih besar daripada nilai F
kritis, kita menolak hipotesis nol. Jika nilai hitung F tidak lebih besar daripada nilai F
kritis,maka kita tidak akan menolak hipotesis nol bahwa variabel – variabel penjelas tidak
berpengaruh apapun terhadap variabel tak bebas.
Untuk mengilustrasikan mekanisme yang sebenarnya, marilah kita kembali ke contoh
ilustratif kita. Angka – angka tandingan dari Tabel 8–1 disajikan dalam Tabel 8-2.
Angka – angka dalam tabel ini diperoleh dari output program computer Eviews yang
diberikan dalam Lampiran 8A.4. Dari table ini serta output computer, kita ketahui bahwa nilai F
yang ditaksir adalah 118,0585 atau sekitar 119. Dengan hipotesis nol bahwa B2 = B3 = 0, dan
berdasarkan asumsi – asumsi model regresi inear klasik (MLRK), kita ketahui bahwa nilai hitung
F mengikuti distribusi F dengan d.k. 2 sebagai pembilang dan d.k 29 sebagai penyebut.
Seandainya hipotesis nol tersebut benar, berapakah probabilitas untuk memperoleh nilai F
sebesar 118 atau lebih untuk d.k. 2 dan 13 ? Nilai p untuk mendapatkan nilai F sebesar 118 atau
lebih adalah 0,000000, yang mendekati nol. Oleh karenanya, kita dapat menolak hipotesis nol
bahwa umur jam dan jumlah penawar secara bersama – sama tidak berpengaruh terhadap harga
lelang jam antik.
Dalam contoh ilustratif kita, kebetulan sekali bahwa kita bukan hanya menolak hipotesis
nol bahwa B2 dan B3 secara sendiri – sendiri tidak signifikan secara statistik, melainkan kita juga
menolak hipotesis bahwa B2 dan B3 secara sendiri – sendiri tidak signifikan secara statistik.
Akan tetapi, hal semacam itu tidak terlalu terjadi. Kita akan menjumpai kasus – kasus di mana
tidak semua variabel penjelas secara sendiri – sendiri berpengarh terhadap variabel tak bebas
( dalam hal ini, berapakah nilai t mungkin tidak signifikan secara statistik ) namun semua
variabel penjelas itu secara bersama - sama mempengaruhi variabel tak bebas ( dalam hal ini, uji
F akan menolak hipotesis nol bahwa semua koefisien kemiringan parsial secara simultan sama
dengan nol). Sebagaimana akan kita lihat, hal seperti ini akan terjadi apabila kita menghadapi
masalah multikolineritas, yang akan kita bahas secara lebih rinci dalam Bab 12 ( di Jilid 2 ).

Hubungan Penting antara F dan R2

Ada hubungan penting antara koefisien determinasi R2 dan rasio F yang digunakan
ANOVA. Hubungan ini adalah sebagai berikut :
TABEL 8 -3

Catatan : Dalam menghitung nilai F, kita tidak perlu mengalikan R2 dan ( 1 - R2 ) dengan ∑y2i karena faktor
tersebut dicoret, sebagaimana tampak jelas dari Persamaan (8.49). Dalam model ini dengan k variabel, d.k nya
berturut – turut akan sebesar ( k – 1 ) dan ( n – k ).

Persamaaan (8.50) menunjukkan bagaimana hubungan F dan R2. Kedua statistik tersebut
bervariasi secara langsung. Bila R2 = 0 ( dalam hal ini, tidak ada hubungan antara Y dan variabel
– variabel X ), F juga sama dengan nol ipso facto. Semakin besar nilai R2, maka nilai F akan
semakin besar pula. Pada batas di mana R2 = 1, nilai F mencapai tak terhingga.
Jadi, uji F sebagaimana yang kita bahas terdahulu, yang mengukur signifikansi
keseluruhan dari garis regresi yang ditaksir, juga sekaligus merupakan uji signifikansi untuk R2;
dalam hal ini, apakah R2 tidak sama dengan nol. Dengan kata lain, pengujian hipotesis nol dalam
persamaan (8.46) sama saja artinya dengan engujian hipotesis nol bahwa R2 (populasi) adalah
sebesar nol, sebagaimana yang dijelaskan dalam persamaan (8.47).
Salah satu keunggulan dengan menyatakan uji F dalam benuk R2 adalah kemudahan
perhitungan. Yang perlu kita ketahui hanyalah nilai R2, yang rutin dihitung oleh program
komputer regresi. Oleh karena itu, uji signifikansi F secara keseluruhan dinyatakan dalam
persamaan (8.49) dapat dituliskan kembali menurut R2 sebagaimana yang ditunjukkan dalam
persamaan (8.50), dan Tabel 8 – 1 tentang ANOVA dapat dinyatakan secara ekuivalen dengan
Tabel 8 – 3.
Untuk contoh ilustratif kita, R2 = 0,8906. Oleh karena itu, rasio F dari persamaan (8.50)
menjadi
0,8906/2
F¿ = 118,12
(1−0,8906) /29
yang kira- kira sama dengan F yang ditunjukkan dalam Tabel 8 -2, kecuali kesalahan
karena faktor pembulatan.

1.9. REGRESI DUA VARIABEL DALAM KONTEKS REGRESI


BERGANDA : PENGANTAR BIAS SPESIFIKASI

Marilah kita kembali ke contoh kita. Dalam contoh 6.5, kita meregresikan harga lelang
terhadap umur jam antik dan jumlah penawar secara terpisah, sebagaimana yang ditunjukkan
dalam persamaan (6.27) dan (6.28). Kedua persamaan ini dikutip kembali disini dengan output
regresi yang lazim.

(8.52)

Ŷi= 807,9501 + 54,5724 Penawar

se = (231,9501) (23,5724) (8.53)


t = (3,4962) (2,3455) r2= 0,1549; F = 5,5017

Jika kita bandingkan kedua regresi ini dengan hasil regresi berganda yang disajikan dalam
Persamaan (8.37), kita lihat beberapa perbedaan:

1. Nilai-nilai kemiringan dalam Persamaan (8.52) dan (8.53) berbeda dari nilai-nilai
kemiringan yang diberikan dalam regresi berganda (8.37), khususnya koefisien
kemiringan untuk variabel jumlah penawar.
2. Nilai-nilai titik potong dalam ketiga regresi juga berbeda.
3. Nilai R2 dalam regresi berganda sangat berbeda dengan nilai-nilai r2 yang diberikan
dalam kedua regresi bivariat di atas.

Sebagaimana akan kita tunjukkan, sebagian perbedaan tersebut signifikan secara statistik
dan sebagian lainnya mungkin tidak.

Mengapa hasil dari kedua regresi di atas berbeda? Ingatlah bahwa dalam Persamaan (8.37),
ketika mengukur pengaruh umur jam antik terhadap harga lelang, kita mempertahankan jumlah
penawar pada tingkat yang konstan, sedangkan dalam Persamaan (8.52) kita sama sekali
mengabaikan jumlah penawar. Dengan kata lain, dalam Persamaan (8.37) pengaruh umur jam
terhadap harga lelang bebas dari pengaruh jumlah penawar, sedangkan dalam Persamaan (8.52)
pengaruh jumlah penawar tidak diabaikan. Jadi, koefisien variabel umur jam dalam Persamaan
(8.52) mencerminkan pengaruh bruto-yakni, terdiri atas pengaruh langsung dari umur jam
maupun pengaruh tak langsung dari jumlah penawar. Pertedaan antara hasil regresi (8.37) dan
(8.52) ini menunjukkan dengan baik sekali tentang arti dari koefisien regresi "parsial".

Kita ketahui dalam pembahasan kita tentang regresi (8.37) bahwa kedua variabel umur jam
dan jumlah penawar secara sendiri-sendiri maupun secara bersama-sama memiliki pengaruh
yang penting terhadap harga lelang. Oleh karena itu, dengan mengabaikan variabel jumlah
penawar dari regresi (8.52) kita telah melakukan apa yang disebut sebagai bias spesifikasi atau
kesaiahan spesifikasi (model), atau secara lebih spesifik, kesalahan spesifikasi karena
mengabaikan variabel yang relevan dari model regresi. Demikian pula, dengan mengabaikan
variabel umur jam dalam regresi (8.53), kita juga melakukan kesalahan spesifikasi.

Meskipun kita akan mengkaji topik kesalahan spesifikasi dalam Bab 11 (di Jilid 2), yang
penting untuk diperhatikan di sini adalah bahwa sebaiknya Anda sangat berhati-hati dalam
mengembangkan model regresi untuk kepentingan empiris. Ambillah informasi apa saja yang
dapat membantu Anda dari teori yang mendasari, dan/atau sebelum melakukan penelitian
empiris dalam mengembangkan model regresi. Dan setelah Anda memilih sebuah model, jangan
sembarang membuang variabel dari model tersebut.
1.10. MEMBANDINGKAN DUA NILAI R2: R2 YANG DISESUAIKAN

Dengan memeriksa R2 pada regresi dua variabel [Persamaan (8.52) atau (8.53)] dan regresi
tiga variabel [Persamaan (8.37)] untuk contoh ilustratif kita, Anda akan melihat bahwa nilai R2
pada regresi pertama [0,5325 untuk Persamaan (8.52) atau 0,1549 untuk Persamaan (8.53)] lebih
kecil daripada nilai R pada regresi kedua (0,8906). Apakah selalu berlaku demikian? Ya! Salah
satu sifat penting dari R2 adalah bahwa semakin banyak jumlah variabel penjelas dalam suatu
model, akan semakin tinggi nilai R2. Jadi tampaknya bila kita ingin menjelaskan sebagian besar
variasi dari variabel tak bebas, kita harus terus menambah jumiah variabel penjelasnya!

Akan tetapi, janganlah terlalu serius dalam menuruti “nasihat" ini karena definisi R 2 =
ESS/TSS tidak memperhatikan besarnya d.k. Perhatikan bahwa dalam model dengan k-variabel
termasuk koefisien titik potong, d.k. untuk ESS-nya adalah (k - 1). Jadi, jika Anda mempunyai
model dengan 5 variabel penjelas termasuk titik potong, d.k. untuk ESS akan sebesar 4.
sedangkan jika Anda memiliki model dengan 10 variabel penjelas termasuk titik potong, d.k.
untuk ESS akan sebesar 9. Tetapi rumus konvensional untuk R2 tidak memperhitungkan
perbedaan d.k. dalam berbagai model regresi. Perhatikan bahwa d.k. untuk TSS selalu sebesar (n
- 1). (Mengapa?) Oleh karena itu, membandingkan nilai-nilai R dari dua model dengan variabel
tak bebas yang sama namun dengan jumlah variabel penjelas yang berbeda pada dasarnya
sama saja dengan membandingkan antara apel dengan jeruk.

Dengan demikian, yang kita perlukan adalah mengukur kecocokan-suai yang disesuaikan
terhadap (dalam hal ini, mempertimbangkan secara eksplisit) jumlah variabel penjelas dalam
model. Ukuran semacam itu telah ditemukan dan disebut sebagai R 2 yang disesuaikan, dan
dinotasikan dengan simbol Ŕ2. ( Ŕ2) ini dapat diperoleh dari rumus R konvensional (lihat
Lampiran 8A.3) sebagai berikut:

2 n−1
Ŕ2=1−( 1−R ) n−k (8.54)

Perhatikan bahwa R2yang telah kita bahas sebelumnya juga disebut R2yang belum di
sesuaikan karena alasan-alasan yang cukup jelas.

Sifat-sifat dari R yang disesuaikan adalah:


1. Jika k > 1, Ŕ2 ≤R; dalam hal ini, sejalan dengan makin bertambahnya jumlah variabel
penjelas di dalam model, R' yang disesuaikan makin lama akan makin lebih kecil
daripada R2 yang belum disesuaikan. Tampaknya ada semacam "penalti" bila kita
menambah variabel penjelas ke dalam model regersi.
2. Meskipun R2 yang belum disesuaikan selalu bernilai positif, R 2 yang disesuaikan kadang-
kadang berubah menjadi negatif. Sebagai contoh, dalam model regresi dengan k=3 dan
n=30, jika R2 diperoleh sebesar 0,06, maka R² dapat bernilai negatif (-0,0096).

Dewasa ini, hampir semua paket komputer regresi menghitung nilai R 2 yang disesuaikan
maupun yang belum disesuaikan. Ini merupakan langkah yang baik karena R2 yang disesuaikan
akan memungkinkan kita untuk membandingkan kedua regresi yang mempunyai variabel tak
bebas yang sama namun dengan jumlah variabel penjelas yang berbeda. Meskipun kita tidak
membandingkan dua model regresi, akan baik sekali bila kita mencari nilai R 2 yang disesuaikan
karena nilai ini secara eksplisit memperhitungkan jumlah variabel yang dimasukkan ke dalam
model.

Untuk contoh ilustratif kita, Anda hendaknya membuktikan bahwa nilai R 2 yang disesuaikan
adalah 0,8830, yang, sebagaimana kita harapkan, lebih kecil daripada nilai R2 yang belum
disesuaikan sebesar 0,8906. Nilai R2 yang disesuaikan untuk regresi (8.52) dan (8.53) masing-
masing adalah 0,5169 dan 0,1268, yang sedikit lebih kecil daripada nilai R 2 yang belum
disesuaikan.

1.11. KAPAN HARUS MENAMBAH VARIABEL PENJELAS KE DALAM


MODEL

Pada prakteknya, dalam rangka menjelaskan suatu fenomena tertentu, kita sering kali
dihadapkan pada masalah pemilihan di antara beberapa variabel penjelas yang layak untuk
dimasukkan ke dalam model. Praktek yang lazim dilakukan adalah dengan terus menambah
variabel selama nilai R2 meningkat (kendati nilai angkanya mungkin lebih kecil daripada nilai R2
yang belum disesuaikan). Tetapi, kapankah R² yang disesuaikan akan meningkat? Dapat kita
tunjukkan bahwa Ŕ2 akan meningkat apabila |t| (nilai t absolut) untuk koefisien variabel yang
ditambahkan lebih besar dari 1, di mana nilai t dihitung berdasarkan hipotesis nol bahwa nilai
populasi dari koefisien tersebut adalah nol.

Untuk memahami hal ini secara lebih jelas, marilah kita pertama-tama meregresikan harga
lelang terhadap suatu konstanta saja, kemudian terhadap konstanta dan umur jam antik, dan
selanjutnya terhadap konstanta, umur jam, dan jumlah penawar. Hasilnya disajikan dalam Tabel
8-4.

Catatan: Angka-angka di dalam tanda kurung adalah nilai-nilai t taksiran berdasarkan hipotesis
bahwa nilai-nilai populasi dari koefisien-koefisien di atas adalah nol.

Beberapa fakta menarik muncul dalam latihan ini:

1. Ketika kita meregresikan harga lelang hanya terhadap titik potong saja, nilai R 2, Ŕ2,
maupun F seluruhnya sama dengan nol, sebagainiana yang kita harapkan. Akan tetapi,
apakah yang dinyatakan oleh nilai titik potong dalam regresi ini? Bukan lain adalah nilai
rata-rata (sampel) dari harga lelang. Salah satu cara untuk mengecek hal ini adalah
dengan mengamati Persamaan (6.16). Jika tidak ada variabel X dalan persamaan ini, titik
potongnya sama dengan nilai rata-rata dari variabel tak bebas.
2. Ketika kita meregresikan narga lelang terhadap suatu konstanta dan umur jam antik, kita
ketahui bahwa nilai t dari variabel umur jam bukan saja lebih besar dari 1 melainkan juga
signifikan secara statistik. Jadi, tak mengherankan bahwa nilai R 2 maupun Ŕ2- meningkat

(walaupun nilai Ŕ2 agak lebih kecil daripada nilai R2). Tetapi perhatikanlah sebuah fakta
yang menarik. Jika Anda mengkuadratkan nilai t yang besarnya 5,8457, kita peroleh
(5.8457)2 = 34,1722 yang kira-kira sama dengan nilai F sebesar 34,1723 sebagaimana
ditunjukkan dalam Tabel 8-4 Apakah hal ini mengherankan? Tidak, karena dalam
Persamaan (4.15) kita nyatakan bahwa

t 2k =F 1 ,k (8.55) = (4.15)

Dalam hal ini, kuadrat dari statistik t dengan d.k. sebesar k sama dengan statistik F
dengan d.k. sebesar 1 untuk pembilang dan d.k. sebesar k untuk penyebut. Dalam contoh
kita, k = 30 [32 observasi - 2, yakni kedua koefisien yang ditaksir dalam Model (2)]. D.k.
pembilangnya sebesar 1 karena kita hanya mempunyai satu variabel penjelas saja dalam
model ini.

3. Ketika kita meregresikan harga lelang terhadap sebuah konstanta dan jumlah penawar,
kita ketahui bahwa nilai t untuk variabel jumlah penawar adalah 2,3455. Jika Anda
mengkuadratkan nilai ini, Anda akan memperoleh (2,3455)2 = 5,5013, yang kira-kira
sama dengan yang ditunjukkan dalam tabel di atas, yang sekali lagi membuktikan
Persamaan (8.55). Karena nilai t lebih besar dari 1, maka nilai R² maupun Ŕ2 meningkat.
Nilai hitung t juga signifikan secara statistik, yang menunjukkan bahwa variabel jumlah
penawar sebaiknya ditambahkan ke dalam model (1). Kesimpulan yang sama berlaku
pula untuk model (2).
4. Bagaimana cara kita memutuskan apakah bermanfaat bila kita menambahkan variabel
umur jam serta jumlah penawar secara bersama-sama ke dalam model (1)? Kita telah
menjawab pertanyaan ini dengan bantuan metode ANOVA dan kehadiran statistik uji F.
Dalam Tabel 8-2, kita telah menunjukkan bahwa kita dapat menolak hipotesis bahwa B2
= B3 = 0, dalam hal ini, kedua variabel penjelas secara bersama-sama tidak berpengaruh
terhadap harga lelang.

1.12. KUADRAT TERKECIL TERKENDALA

Marilah kita amati lagi regresi yang diberikan dalam Tabel 8-4. Dalam tabel tersebut kita
melihat akibat dari diabaikannya variabel-variabel yang relevan dari suatu model regresi. Jadi,
dalam regresi (l) yang ditunjukkan dalam tabel ini, kita meregresikan harga lelang jam antik
hanya terhadap titik potong saja, yang menghasilkan nilai R2 sebesar nol, yang bagi kita tidaklah
mengherankan. Kemudian dalam regresi (4) kita meregresikan harga lelang terhadap umur jam
maupun jumlah penawar yang hadir di acara lelang, di mana diperoleh nilai R2 sebesar 0,8906.
Berdasarkan uji F dapat kita simpulkan bahwa terdapat kesalahan spesifikasi dan bahwa kedua
variabel penjelas harus ditambahkan ke dalam model.

Marilah kita menyebut regresi (1) sebagai model terkendala karena secara implisit
mengasumsikan bahwa koefisien umur jam dan jumlah penawar adalah nol; dalam hal ini,
variabel-variabel tersebut tidak masuk di dalam model (yakni, B2 : B3 = O). Marilah kita
menyebut regresi (4) sebagai model tanpa kendala karena memasukkan semua variabel yang
relevan. Karena (1) merupakan model terkendala, maka pada saat kita menaksimya dengan
metode OLS, kita menyebutnya sebagai kuadrat terkeeil terkendala (restricted least squares,
RLS). Karena (4) merupakan model tanpa kendala, maka ketika kita menaksirnya dengan
menggunakan metode OLS, kita menyebutnya sebagai kuadrat terkecil tanpa kendala
(unrestricted least squares, URLS). Seluruh model yang telah kita taksir sejauh ini pada dasarnya
merupakan URLS, karena kita mengasumsikan bahwa model yang sedang ditaksir telah
dispesifikasikan secara tepat dan bahwa kita telah memasukkan semua variabel yang relevan ke
dalam model. Dalam Bab ll (di Jilid 2) kita akan mengetahui akibat dari diabaikannya asumsi ini.

Pertanyaannya sekarang adalah: Bagaimana cara kita memutuskan antara RLS dan
URLS? Dalam hal ini, bagaimana kita mengetahui apakah kendala yang ditetapkan oleh suatu
model, seperti model (1) dalam contoh kita ini, berlaku secara sah? Pertanyaan ini dapat dijawab
dengan menggunakan uji F . Untuk itu, misalkan R2r menotasikan nilai R2 yang diperoleh dari
model terkendala dan R2ur, menotasikan nilai R2 yang diperoleh dari model tanpa kendala.
Sekarang, dengan mengasumsikan bahwa faktor kesalahan ui didistribusikan secara normal,
dapat kita tunjukkan bahwa

(8.56)

Mengikuti distribusi F dengan d.k. sebesar m pada pembilang dan d.k. sebesar (n - k)
pada penyebut, di mana R2r = R2 yang diperoleh dari model regresi terkendala, R2ur = R2 yang
diperoleh dari regresi tanpa kendala m = jumlah kendala yang ditetapkan oleh model regresi
terkendala (dalam contoh kita, m = 2), n = jumlah observasi dalam sampel, dan k = jumlah
parameter yang ditaksir dalam regresi tanpa kendala (termasuk titik potong). Hipotesis nol yang
diuji di sini adalah bahwa kendala yang ditetapkan oleh model terkendala berlaku secara sah.
Jika nilai F yang ditaksir dari Persamaan (8.56) melampaui nilai F kritis pada tingkat signifikansi
yang dipilih, kita menolak regresi terkendala. Dengan kata lain, dalam situasi ini, kendala yang
ditetapkan oleh model (terkendala) tidak berlaku secara sah.

Kembali ke contoh kita tentang harga lelang jam antik, dengan menempatkan nilai-nilai
yang sesuai ke dalam Persamaan (8.56) dcari Tabel 8-4, kita peroleh:

(8.57)

Probabilitas dari nilai F sebesar itu sangatlah kecil. Oleh karena itu, kita menolak regresi
terkendala. Bila dikatakan secara positif, baik umur jam antik maupun jumlah penawar yang
hadir dalam acara lelang mempunyai pengaruh yang signifikan secara statistik terhadap harga
lelang.

Rumus (8.56) merupakan salah satu penerapan yang sifatnya umum. Satu-satunya kehati-
hatian yang perlu diperhatikan dalam penerapannya adalah bahwa dalam membandingkan regresi
terkendala dengan regresi tanpa kendala, variabel tak bebasnya harus dinyatakan dalam bentuk
yang sama. Jika tidak, maka kita harus membuatnya dapat diperbandingkan dengan
menggunakan metode yang akan kita bahas dalam Bab 9 (lihat Soal 9.16) ataupun menggunakan
metode alternatif yang dibahas dalam Latihan 8.20.

1.13. CONTOH - CONTOH lLUSTRATIF

Untuk menutup bab ini. kita pertimbangkan beberapa contoh yang mencakup regresi
berganda. Tuju kita di sini adalah untuk menunjukkan bagaimana model-model regresi berganda
digunakan dalam berbagai penerapan.
Contoh 8.1. Apakah kebijakan perpajakan mempengaruhi struktur modal perusahaan?
Untuk mengetahui seberapa besar pengaruh kebijakan perpajakan terhadap kecenderungan akhi
akhir ini di sektor industri manufaktur AS untuk menggunakan modal utang sebagai penggar
modal ekuitas-dalam hal ini, kecenderungan ke arah peningkatan rasio utang/ekuitas (yang
disebut sebagai pengungkit atau leverage dalam literatur keuangan)-Pozdena menaksir model
regresi dibawah ini :18

Yt = Bl + B2X2t + B3X3t + B4X4t + B5 X5t + B6X6t + ut (8.58)

di mana :
Y = pengungkit (= utang/ekuitas) dalam persen
X2 = tarif pajak perseroan
X3 = tarif pajak perorangan
X4 = tarif pajak keuntungan modal
X5 = tax shields di luar utang
X6 = laju inflasi
Teori ekonomi menunjukkan bahwa koefisien-koefisien B2, B4 , dan B6 akan bemilai
positif sedangkan koefisien B3 dan B5 akan negatif.19 Berdasarkan data perusahaan manufaktur di
AS untuk tahun 1935 sampai 1982, Podzena memperoleh hasil OLS yang disajikan dalam bentuk
tabel 8-5 dan bukannya dalam bentuk lazimnya [dalam hal ini, persamaan 8.37]

Tabel 8 -5
Pembahasan Tentang Hasil Regresi

Fakta pertama yang harus diperhatikan tentang hasil regresi di atas adalah bahwa semua
koehsien mempunyai tanda sesuai dengan yang diharapkan sebelumnya. Sebagai contoh. tarif
pajak perseroan mempunyai pengaruh yang positif terhadap pengungkit. Bila hal-hal lain
dipertahankan konstan (ceteris paribus), maka seandainya tarif pajak perseroan naik sebesar satu
persen poin, maka secara rata-rata rasio pengungkit (dalam hal ini, rasio utang/ekuitas) naik
sebesar 2,4 persen poin. Demikian pula, jika laju inflasi naik sebesar satu persen poin, maka
secara rata-rata pengungkit akan naik sebesar 1,4 persen poin, ceteris paribus. (Pertanyaan:
Mengapa Anda akan mengharapkan hubungan positif antara pengungkit dan inflasi?) Koefisien
regresi parsial lainnya dapat ditafsirkan dengan cara yang serupa.

Karena nilai-nilai t disajikan di bawah masing-masing koefisien regresi parsial menurut


hipotesis nol bahwa masing-masing koefisien regresi parsial populasi secara sendiri-sendiri sama
dengan nol, maka kita dapat dengan mudah menguji apakah hipotesis nol tersebut bertentangan
dengan hipotesis alternatif (dua sisi) bahwa masing-masing koelisien populasi yang sebenarnya
tidak sama dengan nol. Oleh karenanya, kita menggunakan uji t dua sisi. Derajat kebebasan
(d.k.) dalam contoh ini adalah 42, yang diperoleh dengan mengurangkan jumlah parameter yang
ditaksir, yang dalam contoh ini adalah 6, dari n (= 48). (Catatan: Nilai titik potong tidak
disajikan dalam Tabel 8-5, meskipun nilai tersebut juga turut ditaksir.) Jika kita memilih (α =
0,05 atau 5%, nilai t kritis dua sisi untuk d.k. 40 adalah sekitar 2.021. (Catatan: Nilai ini cukup
baik untuk kepentingan pengujian kita karena tabel t tidak memberikan nilai yang persis untuk
d.k. 42.) Jika α ditetapkan pada tingkat signifikansi 0,0l atau 1%, nilai t kritis untuk d.k. 40
adalah 2,704 (dua sisi). Dengan melihat nilai-nilai t yang disajikan dalam Tabel 8-5, kita ketahui
bahwa tiap-tiap koefisien regresi parsial, kecuali untuk variabel pajak keuntungan atas modal,
nyata secara statistik tidak sama dengan nol pada tingkat signifikansi 1%. Koefisien variabel
pajak keuntungan atas modal tidaklah signifikan baik pada tingkat signifikansi 5% maupun 1%.
Oleh karena itu, kecuali untuk variabel ini, kita dapat menolak masingmasing hipotesis nol
bahwa tiaptiap koensien regresi parsial adalah nol. Dengan kata lain, semua kecuali satu variabel
penjelas secara sendiri-sendiri mempunyai pengaruh terhadap rasio utanglekuitas. Dalam pada
itu, perhatikanlah bahwa apabila koefsien yang ditaksir signifikan secara statistik pada tingkat
signifikansi 1%. maka koefisien tersebut juga signifikan pada tingkat signikansi 5%, tetapi hal
sebaliknya tidaklah berlaku.

Bagaimanakah halnya dengan signifikansi keseluruhan dari garis regresi yang ditaksir?
Dalam hal ini, apakah kita menolak hipotesis nol bahwa semua kemiringan parsial secara
simultan sama dengan nol atau. dengan kata lain, R2 = 0? Hipotesis ini dapat dengan mudah diuji
dengan menggunakan Persamaan (8.50), yang dalam kasus kita ini menghasilkan

(8.59)

Nilai F ini memiliki distribusi F dengan d.k. 5 dan 42. Jika α ditetapkan sebesar 0,05,
tabel F (Lampiran A. Tabel A-3) menunjukkan bahwa untuk d.k. 5 dan 40 (tabel F tidak
mempunyai nilai yang tepat untuk d.k. 42 pada penyebutnya), nilai F kritis adalah 2,45. Nilai F
kritis pada α = 0.0l adalah 3,51. Nilai hitung F sebesar = 56 jauh lebih besar daripada kedua nilai
F kritis tersebut. Oleh karena itu, kita menolak hipotesis nol bahwa semua kemiringan parsial
secara simultan sama dengan nol atau, dengan kata lain, R 2 = 0. Secara bersama-sama, kelima
variabel penjelas mempengaruhi variabel tak bebas. Akan tetapi, sebagaimana kita ketahui,
secara sendiri-sendiri hanya empat variabel saja yang berpengaruh terhadap variabel tak bebas.
yakni rasio utang/ekuitas. Contoh 8-1 sekali lagi menegaskan kesimpulan yang dibuat
sebelumnya bahwa uji t (secara sendiri-sendiri) dan uji F (gabungan) sangatlah berbeda.

Contoh 8.2. Permintaan barang impor di Jamaika

Untuk menjelaskan permintaan barang impor di Jamaika. J. Gafarz' memperoleh regresi


berikut ini berdasarkan data tahunan selama 19 tahun:

(8.60)
di mana:

Y = jumlah barang impor


X2 = pengeluaran konsumsi perorangan
X3 = harga impor/harga domestik
Teori ekonomi akan menunjukkan hubungan yang positif antara Y dan X2, dan hubungan
negatif antar. Y dan X3, yang ternyata memang demikianlah halnya. Secara scndiri-sendiri. pada
tingkat signihkans 5%. koefisien X2 signifrkan secara statistik sedangkan koefisien X3 tidak
signifikan. Tetapi karena nilai t absolut untuk X3 lebih besar dari l, maka R2 untuk contoh ini
akan turun apabila X3 dikeluarkan dar model. (Mengapa?) Secara bersama-sama, X2 dan X3
menjelaskan sekitar 96 persen dari variasi jumlah barang yang diimpor ke Jamaika.

Contoh 8.3. Permintaan akan minuman beralkohol di Inggris


Untuk menjelaskan permintaan akan minuman beralkohol di Inggris, T. McGuinness22
menaksir regresi berikut ini berdasarkan data tahunan selama 20 tahun:

(8.61)

di mana :
Y = perubahan konsumsi alkohol murni per jumlah orang dewasa per tahun
X2 = perubahan indeks harga riil minuman beralkohol per tahun
X3 = perubahan pendapatan disposabel riil per kapita per tahun
X4 = perubahan jumlah tempat penjualan resmi per tahun
jumlah penduduk dewasa
X5 = pembahan belanja iklan riil minuman beralkohol per jumlah orang dewasa per tahun
Teori akan menunjukkan bahwa semua variabel kecuali X2 akan berkorelasi secara posi1
dengan Y. Teori tersebut ditegaskan oleh hasil regresi di atas, meskipun tiap-tiap koefisien tidak
signifikan secara statistik. Untuk d.k. sebesar 15 (Mengapa?), nilai t kritis pada tingkat signifikan
5% adalah 1,753 (satu sisi) dan 2,131 (dua sisi). Perhatikan koefisien X5 , yakni perubahan
belanja iklan. Karena belanja iklan dan permintaan akan minuman beralkohol diharapkan
berkorelasi seca positif (kalau tidak, maka akan merupakan berita buruk bagi industri
periklanan), kita dapat mengu hipotesis bahwa HO: B5 = 0 vs. HJ: B5 > 0, dan karenanya dapat
menggunakan uji t satu sisi. Nilai hitung t sebesar 1,73 sangat mendekati signifikan pada tingkat
signifikansi 5%.

Contoh 8.4. Meninjau kembali kasus tingkat partisipasi angkatan kerja sipil, angka
pengangguran, dan rata-rata pendapatan per jam

Dalam Bab l kita menyajikan regresi (1.5) tanpa membahas tentang signilikansi statistik
dari hasil regresi tersebut. Sekarang kita telah memiliki peralatan yang diperlukan untuk
melakukannya. Hasil regresinya secara lengkap adalah sebagai berikut:
Sebagaimana yang ditunjukkan oleh hasil regresi ini, masing-masing koefisien regresi
yang ditaksir secara sendiri-sendiri sangat signifikan secara statistik, karena nilai p sangatlah
kecil. Dalam hal ini, tiap-tiap koefisien nyata tidak sama dengan nol. Secara bersama-sama, baik
APS maupun RPJ82 juga sangat signifikan secara statistik, karena nilai p dari nilai hitung F
(untuk d.k. 2 'dan 20) sebesar 40 sangatlah kecil.
Sebagaimana yang kita harapkan, angka pengangguran sipil memiliki pengaruh negatif
terhadap tingkat partisipasi angkatan kerja sipil, yang menunjukkan bahwa mungkin saja
hipotesis efek tenaga kerja berkurang lebih dominan ketimbang efek tenaga kerja
benambah.A1asanteoretis yang mendasarinya telah dijelaskan dalam Bab 1. Nilai RPJ82 yang
negatif menunjukkan bahwa mungkin efek pendapatan lebih menonjol ketimbang efek substitusi.

SOAL

1. Jelaskan pengertian dari :


a. Koefisien regresi parsial
b. Koefisien determinasi berganda, R2
c. Kolineritas sempurna
Jawab:
a. Koefisien regresi parsial mencerminkan pengaruh (parsial) dari sebuah variabel penjelas
terhadap nilai rata-rata variabel tak bebas apabila nilai variabel-variabel penjelas lainnva
yang terdapat dalam model dipertahankan konstan. Sifat unik dari regresi berganda ini
memungkinkan kita bukan hanya untuk memasukkan lebih dari satu variabel penjelas ke
dalam model, melainkan juga untuk “memisahkan" atau "melepaskan" pengaruh masing-
masing variabel X terhadap Y dari variabel-varisbei X lain yang masuk di dalam model.
a. Koefisien determinasi berganda, R2
b. Koefisien determinasi berganda, R2 atau r2 menyatakan proporsi atau persentase dari total
varisi variabel tak bebas Y yang dijelaskan oleh sebuah variabel penjelas X. Konsep r 2 ini
dapat diperluas sehingga mencakup model regresi yang memuat lebih dari satu variabel
penjelas. Jadi, dalam kasus regresi tiga variabel kita ingin mengetahui proporsi total
variasi Y (=Σ y 2t ) yang dijelaskan oleh X2 dan X3 secara bersama-sama. Ukuran yang
memberikan informasi ini disebut sebagai koefisien dererminasi berganda dan
dinotasikan dengan symbol R2; secara konseptual, R2 sama saja dengan r2.
c. Kolinearitas sempurna merupakan hubungan linear yang sempurna antara variabel satu
dengan sisa variabel lainnya secara keseluruhan atau bagaimana hubungan tersebut dapat
diturunkan dari suatu kombinasi linear terhadap variabel lainnya.

2. Anda memperoleh data di bawah ini yang didasarkan atas 15 observasi:

Ý =367,693; X́ 2 =402,760; X́ 3 =8,0; ∑ y2i =66.042,269; ∑ x 22 i=84.855,096;


∑ x 23 i=280,0; ∑ yi x 2i =74.778,346; ∑ yi x 3 i=4.250,9; ∑ x 2 i x 3 i=4.796,0

Dimana notasi dengan huruf kecil menyatakan deviasi dari nilai rata-rata sampel.
a. Taksirlah ketiga koefisien regresi berganda tersebut
b. Taksirlah kesalahan standar untuk ketiga koefisien tersebut

Jawab :
a. b1 = Y – b2 X 2 – b3 X 3
= 367,693 – b2 (402,760) – b3 (8,0)
b1 = 367,693 – 402,760 b2 - 8,0 b3 ,
maka b1 = 367,693 – 402,760 (0,73) – 8,0 (2,67) = 52,3182
( Σ y t x 2 t ) ( Σ x 23t )−(Σ y t x 3 t )( Σ x2 t x 3 t )
b2 =
( Σ x 22 t )( Σ x 23 t )−(Σ x 2t x 3 t )2
74.778,346(280)−4.250,9 ( 4.796,0 )
=
84.855,096 ( 280,0 )−( 4.796,0 )2
20.937 .936−20.387 .316,4
b2 =
757.810,88
= 0,73

( Σ y t x 3 t ) ( Σ x 22t )−( Σ yt x 2 t )( Σ x 2 t x 3 t )
b3 ¿
( Σ x 22 t )( Σ x 23 t )−(Σ x2 t x 3 t )2
4.250,9 ( 84.855,096 )−74.778,346 (4.796,0)
=
84.855,096 ( 280 ) −( 4.796)2
360.710.527,6−358.684 .907,4
=
23.759 .426,88−23.001 .616
2.025.620,186
=
757.810,88
b3 = 2,67

b. Σ e2t =Σ y 2t −b 2 Σ y t x 2t −b3 Σ y t x 3 t
= 66.042,269 – 0,73 (74.778.346) – 2,67 (4.250,9)
= 104,17342
Σ e2t
σ2 =
n−3
104,17342
= 15−3
= 8,68
2 2 2
1 X 2 Σ x 3 t + X 2t −2 X 2 X 3 Σ x 2t x 3 t
var (b1) = +
n [ 2 2
Σ x2 t Σ x3 t −( Σ x 2 t x3 t )2 . σ2
]
2
1 402,760 ( 280 )−2(402,760)(8,0)( 4.796,0)
= [ 15
+
84.855,096 ( 280 )−(4.796,0)2 ]
. 8,68

= ( 0,067 + 177,1271931) 8,68


= 1.538,045589

se (b1) = √ var ( b 1 )
= √ 1.538,045589=39,22

∑ x23 t
var (b2) = 2 2 2 . σ2
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t

280
= x
2 8,68
84.855,096 ( 280 )−4.796,0
= 0,0032

se (b2) = √ var (b2 )


= √ 0,0032=0,0547

∑ x22 t
var (b3) = . σ2
( Σ x 22 t )( ∑ x32t )−( Σ x 2 t x3 t )2
84.855,096
= 2
x 8,68
84.855,096 ( 280 )−( 4.796,0)
= 0,9719

se (b3) = √ var ( b3 )
= √ 0,9719=0,9859

3. Tentukan nilai t kritis dalam situasi berikut ini :


Derajat Kebebasan Tingkat Signifikansi H0
( d.k ) (%)
12 5 Dua sisi
20 1 Sisi kanan
30 5 Sisi kiri
200 5 Dua sisi

Jawab :

1) Karena Hipotesis Alternatifnya memiliki dua sisi, maka kita harus mencari nilai t kritis
pada α/2 = 2,5 % yang dimana d.k nya ialah 12. Kemudian dari tabel t kita ketahui bahwa
untuk d.k 12 adalah ,
(-2,179 ≤ t ≤ 2,179 ) = 0,95
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam batas -2,179
dan +2,179 ( yakni nilai kritis t ) adalah 95 %.
2) Karena Hipotesis Alternatifnya memiliki satu sisi yaitu sisi kanan, maka kita harus mencari
nilai t kritis pada α = 1 % yang dimana d.k nya ialah 20. Kemudian dari tabel t kita ketahui
bahwa untuk d.k 20 adalah ,
(-2,528 ≤ t ≤ 2,528 ) = 0,99

Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam sisi kanan yaitu
-2,528 ( yakni nilai kritis t ) adalah 99 %.

3) Karena Hipotesis Alternatifnya memiliki satu sisi yaitu sisi kiri, maka kita harus mencari
nilai t kritis pada α = 5 % yang dimana d.k nya ialah 30. Kemudian dari tabel t kita ketahui
bahwa untuk d.k 30 adalah ,
(-1,697 ≤ t ≤ 1,697 ) = 0,95

Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam sisi kiri yaitu
-1,697 ( yakni nilai kritis t ) adalah 95 %.

4) Karena Hipotesis Alternatifnya memiliki dua sisi, maka kita harus mencari nilai t kritis
pada α/2 = 2,5 % yang dimana d.k nya ialah 200. Kemudian dari tabel t kita ketahui bahwa
untuk d.k 200 adalah ,
(-1,972 ≤ t ≤ 1,972 ) = 0,95
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam batas -1,972 dan
+1,972 ( yakni nilai kritis t ) adalah 95 %.

2
4. Berapakah nilai σ^ dalam masing-masing kasus berikut ini?

a. ∑ e 2i =880 , n=25 , k =4

b. ∑ e 2i =1220 , n=14, k =3

Jawab:

σ 2 merupakan varians (yang homoskedastis) dari factor kesalahan populasi ui . Penaksir


OLS dari varians yang tak diketahui ini adalah

2 ∑ e 2i
σ^ =
n−3

880
σ^ 2 = =41 ,904
a. 25−4

Dengan ∑ e 2i =880 , dan d.k (25-4), maka varians yang tak diketahui adalah sebesar
41,904
1220
σ^ 2 = =110, 909
b. 14−3

Dengan ∑ e 2i =1220 , dan d.k. (14-3), maka varians yang tak diketahui adalah sebesar
110,909

5. Untuk menjelaskan faktor apa yang menentukan harga alat pendingin udara (AC), B. T.
Ratchford, memperoleh hasil regresi di bawah ini berdasarkan sampel sebanyak 19 buah
AC :

Ŷi = -68,236 + 0,023 X2i + 19,729 X3i + 7,653 X4i R2= 0,84

se = (0,005) (8,992) (3,082)

dimana :
Y = harga, dalam dolar AS

X2= peringkat BTU untuk AC

X3= rasio efisiensi energi

X4= jumlah pemasangan

se = kesalahan standar

a. Tafsirkanlah hasil regresi tersebut.


b. Apakah hasil regresi ini masuk akal dari segi ekonomi?

Jawab:

a. Ŷi = -68,236 + 0,023 X2i + 19,729 X3i + 7,653 X4i

se = (0,005) (8,992) (3,082)

t= -1,03019 + 4,6 + 2,19406 + 2,48312


R2 = 0,84 Ŕ2= 0,802 F= 26,24991

b. Sebgaimana yang ditunjukkan oleh hasil regresi ini, masing-masing


koefisien memiliki hubungan yang positif antara Y dan X2, X3, dan X4.

Anda mungkin juga menyukai

  • Ekonometrika
    Ekonometrika
    Dokumen22 halaman
    Ekonometrika
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Laporan Ebp
    Laporan Ebp
    Dokumen57 halaman
    Laporan Ebp
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Modul Otokorelasi
    Modul Otokorelasi
    Dokumen25 halaman
    Modul Otokorelasi
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Model Persamaan Simultan
    Model Persamaan Simultan
    Dokumen25 halaman
    Model Persamaan Simultan
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Modul Ekonometrika KLP 3
    Modul Ekonometrika KLP 3
    Dokumen31 halaman
    Modul Ekonometrika KLP 3
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Peta Konsep Bell
    Peta Konsep Bell
    Dokumen1 halaman
    Peta Konsep Bell
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Kasus CKD
    Kasus CKD
    Dokumen1 halaman
    Kasus CKD
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Leaflet Glomerulonefritis
    Leaflet Glomerulonefritis
    Dokumen2 halaman
    Leaflet Glomerulonefritis
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat
  • Kasus TB Paru
    Kasus TB Paru
    Dokumen4 halaman
    Kasus TB Paru
    Nurfitri Rahmawati 1611110637
    Belum ada peringkat