Anda di halaman 1dari 36

EKONOMETRIKA

“Analisis Regresi Berganda : Further Issue”


Dosen Pengampu : Prof. Dr. Dra. Ida Ayu Nyoman Saskara, M.Si.

Oleh :
KOMANG DEA AYU MAHESWARI (2007511098)

MOHAMAD SURYADI (2007511100)

SHERINA EKNANDA JULIANTIKA (2007511104)

PROGRAM STUDI EKONOMI PEMBANGUNAN


FAKULTAS EKONOMI DAN BISNIS
UNIVERSITAS UDAYANA
2022
KATA PENGANTAR

Puji Syukur kami panjatkan kepada Tuhan Yang Maha Esa yang telah melimpahkan
rahmat dan karunia-Nya kepada kita semua, sehingga melalui proses yang begitu singkat dan
kerjasama yang baik, tugas makalah yang berjudul “Analisis Regresi Berganda : Further Issues”
ini dapat diselesaikan.
Makalah ini dibuat dengan maksud untuk menyelesaikan tugas Ekonometrika, disamping
itu makalah ini juga memberikan manfaat pengetahuan kepada kita semua tentang Analisis Regresi
Berganda : Further Issues.
Terlepas dari semua itu, kami menyadari seutuhnya bahwa makalah ini masih jauh dari
kata sempurna baik dari segi susunan kalimat maupun tata bahasanya. Oleh karena itu, kami
terbuka untuk menerima segala masukan dan kritik yang bersifat membangun dari pembaca
sehingga kami bisa melakukan perbaikan makalah ini sehingga menjadi makalah yang baik dan
benar. Akhir kata kami meminta semoga makalah ini dapat memberi manfaat untuk masyarakat
atau pun inpirasi dan menambah pengetahuan pada pembaca.

Denpasar, 19 Maret 2022

Penulis,

i
DAFTAR ISI

Cover
KATA PENGANTAR................................................................................................................ i
DAFTAR ISI ........................................................................................................................... ii
BAB I .......................................................................................................................................1
PENDAHULUAN .....................................................................................................................1
1.1 Latar Belakang ...........................................................................................................1
1.2 Rumusan Masalah .......................................................................................................1
1.3 Tujuan .......................................................................................................................1
BAB II .....................................................................................................................................2
PEMBAHASAN........................................................................................................................2
2.1 Pengaruh Penskalaan Data pada Statistik OLS...................................................................2
2.2 Lebih Lanjut tentang Bentuk Fungsional ...........................................................................7
2.3 Goodness-of-Fit dan pemilihan Regressor ................................................................... 18
2.4 Prediksi dan Analisis Residual......................................................................................... 22
BAB III .................................................................................................................................. 32
PENUTUP .............................................................................................................................. 32
3.1 Kesimpulan............................................................................................................... 32
DAFTAR PUSTAKA............................................................................................................... 33

ii
BAB I
PENDAHULUAN

1.1 Latar Belakang


Analisis regresi merupakan salah satu bagian statistika yang paling banyak aplikasinya.
Analisis regresi berguna bagi peneliti untuk mengetahui hubungan atau pengaruh beberapa
variabel bebas terhadap variabel terikat, bahkan digunakan untuk meramalkan pada kondisi
berikutnya. Gujarati (2006) mendefinisikan analisis regresi sebagai kajian terhadap
hubungan satu variabel yang diterangkan (the explained variable) dengan satu atau dua
variabel yang menerangkan (the explanatory variable). Variabel pertama disebut juga
sebagai variabel terikat dan variabel kedua disebut juga sebagai variabel bebas. Jika
variabel bebas lebih dari satu, maka analisis regrsi disebut regresi linear barganda disebut
berganda karena pengaruh beberapa variabel bebas akan dikenakan kepada variabel
terikat.1 Analisis regresi linier berganda mempunyai lebih dari satu variabel bebas, sering
menimbulkan masalah karena terjadinya hubungan kuat antara dua variabel bebasnya yang
mengakibatkan terjadinya kolenieritas ganda (multikolenierity). Gejala ini menimbulkan
masalah dalam pemodelan regresi. Kolerasi yang sangat tinggi akan menghasilkan
penaksiran yang berbias, tidak stabil dan mungkin jauh dari nilai sasaran Gonst dan Mason
(1997) sehingga galat yang dihasilkan menjadi besar dan variansi parameternya menjadi
tak hingga. Metode kuadrat terkecil akan memberikan efek dari kolenieritas yaitu tingginya
nilai koefisien determinasi tetapi tidak diikuti dengan hasil uji hipotesis yang signifikan.

1.2 Rumusan Masalah


1.2.1 Bagaimana Pengaruh Penskalaan Data Pada Statistik OLS?
1.2.2 Bagaimanakah Lanjutan dari Bentuk Fungsional pada statistik OLS?
1.2.3 Apakah goodness-of-Fit dan Pemilihan Reggressor itu?
1.2.4 Bagaimanakah Prediksi dan Analisis Residual dalam statistik OLS?

1.3 Tujuan
1.3.1 Untuk mengetahui pengaruh dari penskalaan data pada statistik OLS.
1.3.2 Untuk mengetahui bentuk-bentuk fungsional lanjutan pada stastistik OLS.
1.3.3 Untuk mengetahui pengertian goodness-of-Fit dan pemilihan reggressor.
1.3.4 Untuk mengetahui prediksi dan analisis residual dalam statistik OLS.

1
BAB II
PEMBAHASAN

2.1 Pengaruh Penskalaan Data pada Statistik OLS


Kita mulai dengan persamaan yang menghubungkan berat lahir bayi dengan
merokok dan pendapatan keluarga
𝑏̂𝑤𝑔ℎ𝑡 = ̂𝛽+ ̂𝑐𝛽𝑖𝑔𝑠 + ̂𝑓
𝛽𝑎𝑚𝑖𝑛𝑐 [6-1]
0 1 2

Bwght = kelahiran anak berat, dalam ons.


Cigs = jumlah rokok yang dihisap oleh ibu saat hamil, per hari.
Faminc = pendapatan keluarga tahunan, dalam ribuan dollar
Perkiraan persamaan ini, diperoleh dengan menggunakan data di BWGHT,
diberikan di kolom pertama Tabel 6.1. Kesalahan standar dicantumkan dalam tanda
kurung. Perkiraan pada rokok mengatakan bahwa jika seorang wanita merokok lima batang
lagi per hari, berat lahir diperkirakan menjadi sekitar .4634 (5) = 2.317 ons lebih sedikit.
Statistik t pada rokok adalah −5.06, jadi variabel ini sangat signifikan secara statistik.
Sekarang, anggaplah kita memutuskan untuk mengukur berat lahir dalam pound,
bukan dalam ons. Misalkan bwghtlbs = bwght/16 menjadi berat lahir dalam pound. Apa
yang terjadi pada statistik OLS kami jika kami menggunakan ini sebagai variabel dependen
di dalam persamaan kita? Sangat mudah untuk menemukan efek pada estimasi koefisien
dengan manipulasi sederhana persamaan (6.1). Bagi seluruh persamaan ini dengan 16
𝑏̂𝑤𝑔ℎ𝑡⁄16 = ̂/𝛽16 + (̂𝛽 /16)𝑐𝑖𝑔𝑠 + (𝛽̂/16)𝑓𝑎𝑚𝑖𝑛𝑐
0 1 2

Karena sisi kiri adalah berat lahir dalam pound, maka setiap koefisien baru akan
menjadi koefisien lama yang sesuai dibagi dengan 16. Untuk memverifikasi ini, regresi
bwghtlbs pada cigs, dan faminc dilaporkan dalam kolom (2) tabel 6.1. Hingga digit yang
dilaporkan (dan digit apa pun di luar), perpotongan dan kemiringan dalam kolom (2)
hanyalah yang ada di kolom (1) dibagi dengan 16. Sebagai contoh, koefisien pada cigs
sekarang adalah −.0289; ini berarti bahwa jika rokok lebih tinggi dari lima, berat lahir akan
menjadi .0289 (5) = 0.1445 pon lebih rendah. Dalam satuan ons, kami memiliki 0,1445 (5)
= 2.312, yang sedikit berbeda dari 2.317 yang kami peroleh sebelumnya karena kesalahan
pembulatan. Intinya adalah, begitu efeknya diubah menjadi unit yang sama, kita dapatkan
jawaban yang persis sama, terlepas dari bagaimana variabel dependen diukur.
Bagaimana dengan signifikansi statistik? Seperti yang kita harapkan, mengubah
variabel dependen dari ons ke Pound tidak berpengaruh pada seberapa penting secara
statistik variabel independen. Standar kesalahan dalam kolom (2) adalah 16 kali lebih kecil

2
daripada yang ada di kolom (1). Beberapa perhitungan cepat menunjukkan bahwa statistik
t dalam kolom (2) memang identik dengan statistik t dalam kolom (1). Titik akhir untuk
interval kepercayaan dalam kolom (2) hanyalah titik akhir dalam kolom (1) dibagi dengan
16. Ini karena CIs berubah dengan faktor yang sama dengan kesalahan standar. [Ingat
bahwa CI 95% di sini adalah 𝛽̂± 1.96 𝑠𝑒𝛽̂]
𝑦 𝑦

Dalam hal kecocokan, R-kuadrat dari kedua regresi adalah identik, sebagaimana
seharusnya. Perhatikan bahwa jumlah residu kuadrat, SSR, dan kesalahan standar regresi,
SER, berbeda di seluruh persamaan. Perbedaan-perbedaan ini mudah dijelaskan. Biarkan
𝑢𝑖̂ menunjukkan residual untuk pengamatan i dalam persamaan asli (6.1). Maka residual
ketika bwghtlbs adalah variabel dependen hanyalah ̂𝑢𝑖/16. Jadi, sisa kuadrat dalam
̂𝑢
persamaan kedua ( 𝑖)2 = ̂𝑢 /2562 . Inilah sebabnya mengapa jumlah residu kuadrat di
16 𝑖
kolom (2) sama dengan SSR di kolom (1) dibagi 256.
Karena SER = 𝜎̂= √𝑆𝑆𝑅/(𝑛 − 𝑘 − 1) = √𝑆𝑆𝑅/1,385 di kolom (2) lebih kecil
16 kali dari kolom (1). Cara lain untuk memikirkan hal ini adalah bahwa galat dalam
persamaan dengan bwghtlbs sebagai variabel terikat memiliki simpangan baku 16 kali lebih
kecil dari simpangan baku galat awal. Ini tidak berarti bahwa kami telah mengurangi
kesalahan dengan mengubah cara pengukuran berat badan lahir; SER yang lebih kecil
hanya mencerminkan perbedaan dalam satuan pengukuran. Selanjutnya, mari kita
kembalikan variabel dependen ke unit aslinya: bwght diukur dalam ons. Sebagai gantinya,
mari kita ubah unit pengukuran salah satu variabel independen, cigs. Definisikan bungkus
adalah jumlah bungkus rokok yang dihisap per hari. Jadi, bungkus = batang/20. Apa yang
terjadi dengan koefisien dan statistik OLS lainnya sekarang? Nah, kita bisa menulis
𝑐𝑖𝑔𝑠
𝑏̂𝑤𝑔ℎ𝑡 = 𝛽̂ + (20𝛽̂ ) ( ) + 𝛽̂ 𝑓𝑎𝑚𝑖𝑛𝑐 = 𝛽̂ + (20𝛽̂ )𝑝𝑎𝑐𝑘𝑠 + 𝛽̂ 𝑓𝑎𝑚𝑖𝑛𝑐
0 1 2 0 1 2
20
Dengan demikian, koefisien intersep dan kemiringan pada faminc tidak berubah,
tetapi koefisien pada bungkusan adalah 20 kali lipat dari pada cigs. Ini secara intuitif
menarik. Hasil regresi bbm on packs dan faminc terdapat pada kolom (3) Tabel 6.1.
Kebetulan, ingatlah bahwa tidak masuk akal untuk memasukkan cigs dan bungkus dalam

3
persamaan yang sama; ini akan menyebabkan multikolinearitas sempurna dan tidak
memiliki arti yang menarik.
Selain koefisien pada kemasan, terdapat satu statistik lain pada kolom (3) yang
berbeda dengan kolom (1): standar error pada kemasan adalah 20 kali lebih besar dari pada
rokok pada kolom (1). Ini berarti bahwa statistik t untuk menguji signifikansi merokok
adalah sama apakah kita mengukur merokok dalam bentuk rokok atau bungkus. Ini hanya
alami.
Contoh sebelumnya menjelaskan sebagian besar kemungkinan yang muncul ketika
variabel dependen dan independen diskalakan ulang. Rescaling sering dilakukan dengan
jumlah dolar dalam ekonomi, terutama ketika jumlah dolar sangat besar. Dalam Bab 2,
kami berpendapat bahwa, jika variabel dependen muncul dalam bentuk logaritmik,
mengubah unit pengukuran tidak mempengaruhi koefisien kemiringan. Hal yang sama
berlaku di sini: mengubah unit pengukuran variabel dependen, ketika muncul dalam bentuk
logaritmik, tidak mempengaruhi estimasi kemiringan apa pun. Ini mengikuti dari fakta
sederhana bahwa log(𝑐1 𝑦𝑖) = log(𝑐1 ) + log(𝑦1 )untuk setiap konstanta 𝑐1 > 0. Intersep
baru akan menjadi log(𝑐1 ) + 𝛽̂ 0 . Demikian pula, mengubah unit pengukuran 𝑥𝑗 apa pun,
di mana log(𝑥𝑗) muncul dalam regresi, hanya memengaruhi intersep. Hal ini sesuai dengan
apa yang kita ketahui tentang perubahan persentase dan khususnya, elastisitas: perubahan
tersebut invarian terhadap unit pengukuran baik y atau 𝑥𝑗. Sebagai contoh, jika kita telah
menetapkan variabel dependen pada (6.1) menjadi log (bwght), estimasi persamaan, dan
kemudian estimasi ulang dengan log (bwghtlbs) sebagai variabel dependen, koefisien pada
rokok dan faminc akan sama dalam kedua regresi; hanya intersep yang akan berbeda.

2.1 a Koefisien Beta


Kadang-kadang, dalam aplikasi ekonometrik, variabel kunci diukur pada skala
yang sulit untuk ditafsirkan. Ekonom tenaga kerja sering memasukkan skor tes dalam
persamaan upah, dan skala penilaian tes ini sering berubah-ubah dan tidak mudah untuk
ditafsirkan (setidaknya untuk ekonom). Dalam hampir semua kasus, kami tertarik pada
bagaimana skor individu tertentu dibandingkan dengan populasi. Jadi, daripada bertanya
tentang pengaruh upah per jam jika, katakanlah, skor tes 10 poin lebih tinggi, lebih masuk
akal untuk menanyakan apa yang terjadi ketika skor tes satu standar deviasi lebih tinggi.
Tidak ada yang menghalangi kita untuk melihat apa yang terjadi pada variabel dependen
ketika variabel independen dalam model yang diestimasi meningkat dengan sejumlah
standar deviasi tertentu, dengan asumsi bahwa kami telah memperoleh sampel standar
deviasi dari variabel independen (yang mudah di sebagian besar paket regresi). Ini sering
kali merupakan ide yang bagus. Jadi, misalnya, ketika kita melihat pengaruh skor tes
standar, seperti skor SAT, pada IPK perguruan tinggi, kita dapat menemukan standar
deviasi SAT dan melihat apa yang terjadi ketika skor SAT meningkat satu atau dua standar
deviasi. Terkadang, berguna untuk mendapatkan hasil regresi ketika semua variabel yang
terlibat, variabel dependen dan juga semua variabel independen, telah distandarisasi. Suatu

4
variabel dibakukan dalam sampel dengan mengurangkan rata-ratanya dan membaginya
dengan simpangan bakunya (lihat Lampiran C). Ini berarti bahwa kita menghitung z-score
untuk setiap variabel dalam sampel. Kemudian, kami menjalankan regresi menggunakan
z-score. Mengapa standardisasi berguna? Cara termudah untuk memulai dengan persamaan
OLS asli, dengan variabel dalam bentuk aslinya:
𝑦𝑖 = 𝛽̂ 0 + 𝛽̂ 1𝑥 𝑖1 + 𝛽̂ 2 𝑥𝑖2 + ⋯ + 𝛽̂ 𝑘 𝑥𝑖𝑘 + 𝑢𝑖̂ [6.2]
Kami telah menyertakan subskrip pengamatan i untuk menekankan bahwa
standarisasi kami diterapkan pada semua nilai sampel. Sekarang, jika kita rata-rata (6.2),
gunakan fakta bahwa 𝑢̂𝑖 memiliki rata-rata sampel nol, dan kurangi hasilnya dari (6.2), kita
mendapatkan
𝑦𝑖 − 𝑦̅= 𝛽̂ (1𝑥 𝑖1 − 𝑥1 ) + 𝛽̂ 2 (𝑥 𝑖2 − 𝑥2) + ⋯ + 𝛽̂ 𝑘 (𝑥 𝑖𝑘 − 𝑥𝑘 ) + 𝑢̂𝑖 .
Sekarang, misalkan 𝜎𝑦̂ menjadi sampel deviasi standar untuk variabel dependen,
misalkan 𝜎1̂ menjadi sampel sd untuk 𝑥1 , misalkan 𝜎2̂ menjadi sampel sd untuk 𝑥2 , dan
seterusnya. Kemudian, aljabar sederhana memberikan persamaan
(𝑥 −𝑥̅ ) ̂ 𝜎 (𝑥 −𝑥̅ )
𝑦𝑖 −𝑦̅ ̂1 ̂
𝜎 [ 𝑖1 1 ] + ⋯ + (𝑘 ) 𝛽̂ [ 𝑖𝑘 𝑘 ] + 𝑢̂/𝜎̂ . [6.3]
=( )𝛽
1 1 𝑖 𝑦
̂𝑦
𝜎 ̂𝑦
𝜎 ̂𝑦
𝜎 ̂𝑦
𝜎 ̂𝑦
𝜎
Setiap variabel dalam (6.3) telah distandarisasi dengan menggantinya dengan skor-
z, dan ini menghasilkan koefisien kemiringan yang baru. Misalnya, koefisien kemiringan
(𝑥 −𝑥̅ ) ̂ 𝜎
pada [ 𝑖1 1 ]adalah(1 ) 𝛽̂ .Ini hanyalah koefisien awal 𝛽̂ , dikalikan dengan rasio
̂𝑦
𝜎 ̂𝑦
𝜎 1 1

simpangan baku 𝑥1 terhadap simpangan baku y. Intersep telah putus sama sekali. Hal ini
berguna untuk menulis ulang (6.3), menghilangkan subskrip i, karena z
𝑧𝑦 = 𝑏̂1 𝑧1 + 𝑏̂2 𝑧2 + ⋯ + 𝑏̂𝑘 𝑧𝑘 + 𝑒𝑟𝑟𝑜𝑟 [6.4]
di mana 𝑧𝑦 menunjukkan skor-z dari y, 𝑧𝑙 adalah z -skor 𝑥1 , dan seterusnya.
Koefisien baru adalah
𝜎̂𝑗
𝛽̂ = ( ) 𝛽̂ 𝑢𝑛𝑡𝑢𝑘 𝑗 = 1,2, … , 𝑘
𝑗 𝑗
𝜎̂𝑦
𝛽̂ 𝑗 ini secara tradisional disebut koefisien standar atau koefisien beta. (Nama
terakhir lebih umum, yang disayangkan karena kami telah menggunakan topi beta untuk
menunjukkan perkiraan OLS yang biasa.)
Koefisien beta menerima makna yang menarik dari persamaan (6.4): Jika 𝑥1
meningkat satu standar deviasi, maka 𝑦̂berubah dengan 𝛽̂ 1 standar deviasi. Jadi, kita
mengukur efek bukan dalam satuan asli y atau 𝑥𝑗, tetapi dalam satuan simpangan baku.
Karena membuat skala regresi tidak relevan, persamaan ini menempatkan variabel penjelas
pada pijakan yang sama. Dalam persamaan OLS standar, tidak mungkin hanya melihat
ukuran koefisien yang berbeda dan menyimpulkan bahwa variabel penjelas dengan
koefisien terbesar adalah “yang paling penting”. Kita baru saja melihat bahwa besaran
koefisien dapat diubah sesuka hati dengan mengubah satuan pengukuran 𝑥𝑗. Tetapi, ketika
setiap 𝑥𝑗 telah distandarisasi, membandingkan besaran koefisien beta yang dihasilkan lebih

5
menarik. Ketika persamaan regresi hanya memiliki satu variabel penjelas 𝑥1 , koefisien
standarnya hanyalah koefisien korelasi sampel antara y dan 𝑥1 , yang berarti harus berada
dalam kisaran -1 hingga 1. Bahkan dalam situasi di mana koefisien mudah ditafsirkan —
katakanlah, variabel dependen dan variabel independen yang diminati berada dalam bentuk
logaritmik, sehingga koefisien OLS yang diminati adalah elastisitas yang diperkirakan —
masih ada ruang untuk menghitung koefisien beta. Meskipun elastisitas bebas dari satuan
pengukuran, perubahan dalam variabel penjelas tertentu dengan, katakanlah, 10% dapat
mewakili perubahan yang lebih besar atau lebih kecil pada rentang variabel daripada
mengubah variabel penjelas lain sebesar 10%. Misalnya, di negara bagian dengan variasi
pendapatan yang luas tetapi variasi pembelanjaan yang relatif sedikit per siswa, mungkin
tidak masuk akal untuk membandingkan elastisitas kinerja sehubungan dengan pendapatan
dan pembelanjaan. Membandingkan besaran koefisien beta dapat membantu. Untuk
mendapatkan koefisien beta, kita selalu dapat menstandarisasi y,𝑥1 ,…,𝑥𝑘 dan kemudian
menjalankan regresi OLS dari z-skor y pada skor-z dari𝑥1 ,…,𝑥𝑘 —di mana tidak perlu
menyertakan mencegat, karena akan menjadi nol. Ini bisa membosankan dengan banyak
variabel independen. Banyak paket regresi menyediakan koefisien beta melalui perintah
sederhana. Contoh berikut mengilustrasikan penggunaan koefisien beta.

❖ Contoh 6.1 Pengaruh Polusi pada Harga Perumahan


Kami menggunakan data dari Contoh 4.5 (dalam file HPRICE2) untuk
menggambarkan penggunaan koefisien beta. Ingatlah bahwa variabel independen utama
adalah nox, ukuran nitrogen oksida di udara di setiap komunitas. Salah satu cara untuk
memahami ukuran efek polusi—tanpa masuk ke dalam ilmu yang mendasari efek nitrogen
oksida terhadap kualitas udara—adalah dengan menghitung koefisien beta. (Pendekatan
alternatif terdapat dalam Contoh 4.5: kita memperoleh elastisitas harga terhadap nox
dengan menggunakan harga dan nox dalam bentuk logaritma).
Persamaan populasi adalah model tingkat harga
𝑝𝑟𝑖𝑐𝑒 = 𝛽0 + 𝛽1 𝑛𝑜𝑥 + 𝛽2 𝑐𝑟𝑖𝑚𝑒 + 𝛽3 𝑟𝑜𝑜𝑚𝑠 + 𝛽4 𝑑𝑖𝑠𝑡 + 𝛽5 𝑠𝑡𝑟𝑎𝑡𝑖𝑜 + 𝑢
di mana semua variabel kecuali kejahatan didefinisikan dalam Contoh 4.5;
kejahatan adalah jumlah kejahatan yang dilaporkan per kapita. Koefisien beta dilaporkan
dalam persamaan berikut (jadi setiap variabel telah dikonversi ke nilai-z):
𝑧𝑝
̂𝑟𝑖𝑐𝑒 = −.340𝑧𝑛𝑜𝑥 − .143𝑧𝑥𝑐𝑟𝑖𝑚𝑒 + .514𝑧𝑟𝑜𝑜𝑚𝑠 − .235𝑧𝑑𝑖𝑠𝑡 − .270𝑧𝑠𝑡𝑟𝑎𝑡𝑖𝑜.
Persamaan ini menunjukkan bahwa kenaikan satu standar deviasi pada nox
menurunkan harga sebesar .34 standar deviasi; peningkatan satu standar deviasi dalam
kejahatan mengurangi harga sebesar .14 standar deviasi. Dengan demikian, pergerakan
relatif polusi yang sama dalam populasi memiliki efek yang lebih besar pada harga
perumahan daripada kejahatan. Ukuran rumah, yang diukur dengan jumlah kamar (rooms),
memiliki efek standar terbesar. Jika kita ingin mengetahui pengaruh masing-masing
variabel independen terhadap nilai dolar dari harga rumah rata-rata, kita harus
menggunakan variabel tidak terstandarisasi. Apakah kita menggunakan variabel standar

6
atau tidak standar tidak mempengaruhi signifikansi statistik: statistik t adalah sama dalam
kedua kasus.

2.2 Lebih Lanjut tentang Bentuk Fungsional


Dalam beberapa contoh sebelumnya, kita telah menemukan perangkat paling
populer dalam ekonometrika untuk memungkinkan hubungan nonlinier antara variabel
yang dijelaskan dan variabel penjelas: menggunakan logaritma untuk variabel dependen
atau independen. Kami juga telah melihat model yang mengandung kuadrat dalam
beberapa variabel penjelas, tetapi kami belum memberikan perlakuan sistematis
terhadapnya. Pada bagian ini, kami membahas beberapa variasi dan ekstensi pada bentuk
fungsional yang sering muncul dalam pekerjaan terapan.

2.2a Lebih lanjut tentang Menggunakan Bentuk Fungsional Logaritma


Kita mulai dengan meninjau bagaimana menginterpretasikan parameter dalam
model
log(𝑝𝑟𝑖𝑐𝑒) = 𝛽0 + 𝛽1 log(𝑛𝑜𝑥) + 𝛽2 𝑟𝑜𝑜𝑚𝑠 + 𝑢 [6.6]
dimana variabel-variabel ini diambil dari Contoh 4.5. Ingatlah bahwa seluruh teks
log(x) adalah log natural dari x. Koefisien 𝛽1 adalah elastisitas harga terhadap nox (polusi).
Koefisien 𝛽2 adalah perubahan log(price), ketika ∆𝑟𝑜𝑜𝑚𝑠 = 1 seperti yang telah kita lihat
berkali-kali, ketika dikalikan dengan 100, ini adalah perkiraan persentase perubahan harga.
Ingat bahwa 100 ∙ 𝛽2 kadang-kadang disebut semi elastisitas harga sehubungan dengan
kamar (rooms)

Ketika diperkirakan menggunakan data di HPRICE2, kami memperoleh


log(̂𝑝𝑟𝑖𝑐𝑒) = 9.23 − .718 log(𝑛𝑜𝑥) + .306 𝑟𝑜𝑜𝑚𝑠
(0.19) (. 066) (.019)
2
𝑛 = 506, 𝑅 = .514

Jadi, ketika nox naik 1%, harga turun .718%, hanya mempertahankan kamar tetap.
Ketika kamar bertambah satu, harga naik sekitar 100(.306) = 36%
Perkiraan bahwa satu kamar lagi menaikkan harga sekitar 30,6% ternyata agak
tidak akurat untuk aplikasi ini. Kesalahan aproksimasi terjadi karena, saat perubahan log(y)
menjadi semakin besar, aproksimasi %∆𝑦 ≈ 100 ∙ ∆ log(𝑦) menjadi semakin tidak akurat.
Untungnya, perhitungan sederhana tersedia untuk menghitung persentase perubahan yang
tepat. Untuk menjelaskan prosedurnya, kita pertimbangkan model estimasi umum
lôg(𝑦) = ̂𝛽+ ̂𝛽log(𝑥 ) + ̂𝑥
𝛽
0 1 1 2 2
(Menambahkan variabel independen tambahan tidak mengubah prosedur.)
Sekarang, memperbaiki x 1, kita memiliki ∆l̂og(𝑦) = ̂∆
𝛽 2 𝑥2 Menggunakan sifat aljabar
sederhana dari fungsi eksponensial dan logaritma memberikan persentase perubahan yang
tepat pada y yang diprediksi sebagai

7
%∆𝑦̂= 100 ∙ [exp(𝛽 ̂∆ 2 𝑥2) − 1] [6.8]
dimana perkalian dengan 100 mengubah perubahan proporsional menjadi
perubahan persentase. Ketika ∆𝑥2 = 1
%∆𝑦̂= 100 ∙ [exp(𝛽 ̂) −2 1] [6.9]
Diterapkan pada contoh harga perumahan dengan x 2 5 kamar dan𝛽2 = .306,
%∆𝑝̂𝑟𝑖𝑐𝑒 = 100 [exp(. 306) − 1] = 35.8% , yang lebih besar dari perkiraan persentase
perubahan, 30,6%, diperoleh langsung dari (6.7). {Kebetulan, ini bukan penaksir tak bias
karena exp(·) adalah fungsi nonlinier; namun merupakan estimator yang konsisten dari
100[exp(𝛽2 − 1]. Hal ini karena batas probabilitas melewati fungsi kontinu, sedangkan
operator nilai yang diharapkan tidak. Lihat Lampiran C.}
Penyesuaian dalam persamaan (6.8) tidak begitu penting untuk perubahan
persentase kecil. Misalnya, ketika kita memasukkan rasio siswa-guru dalam persamaan
(6.7), koefisien estimasinya adalah .052, yang berarti bahwa jika stratio naik satu, harga
turun sekitar 5,2%. Perubahan proporsional yang tepat adalah exp(−.052) − 1 ≈ −.051,
or -5.1%. Sebaliknya, jika kita meningkatkan stratio sebesar lima, maka perkiraan
persentase perubahan harga adalah -26%, sedangkan perubahan eksak yang diperoleh dari
persamaan (6.8) adalah 100[exp(−.26) − 1] ≈ −22.9%
Pendekatan logaritmik terhadap perubahan persentase memiliki keuntungan yang
membenarkan pelaporannya bahkan ketika persentase perubahannya besar. Untuk
menggambarkan keuntungan ini, pertimbangkan kembali efek pada harga perubahan
jumlah kamar per satu. Pendekatan logaritmik hanyalah koefisien pada kamar dalam
persamaan (6,7) dikalikan dengan 100, yaitu 30,6%. Kami juga menghitung perkiraan
perubahan persentase yang tepat untuk meningkatkan jumlah kamar sebanyak satu per satu
sebesar 35,8%. Tetapi bagaimana jika kita ingin memperkirakan persentase perubahan
untuk mengurangi jumlah kamar sebanyak satu? Dalam persamaan (6.8) kita ambil∆𝑥2 =
−1 𝑑𝑎𝑛 2𝛽 ̂ = .306 , jadi %∆𝑝̂𝑟𝑖𝑐𝑒 = 100[exp(−.306) − 1] = −26.4, atau turun 26,4%.
Perhatikan bahwa perkiraan berdasarkan penggunaan koefisien pada ruangan adalah antara
26,4 dan 35,8—hasil yang selalu terjadi. Dengan kata lain, hanya menggunakan koefisien
(dikalikan dengan 100) memberi kita perkiraan yang selalu berada di antara nilai absolut
perkiraan untuk kenaikan dan penurunan. Jika kita secara khusus tertarik pada kenaikan
atau penurunan, kita dapat menggunakan perhitungan berdasarkan persamaan (6.8).
Poin yang baru saja dibuat tentang menghitung perubahan persentase pada dasarnya
adalah poin yang dibuat dalam ekonomi pengantar ketika menyangkut komputasi,
katakanlah, elastisitas harga permintaan berdasarkan perubahan harga yang besar: hasilnya
tergantung pada apakah kita menggunakan harga dan kuantitas awal atau akhir dalam
komputasi persentasenya berubah.
Menggunakan pendekatan logaritmik serupa dalam semangat untuk menghitung
elastisitas busur permintaan, di mana rata-rata harga dan jumlah digunakan dalam penyebut
dalam menghitung persentase perubahan. Kita telah melihat bahwa menggunakan log
alami mengarah ke koefisien dengan interpretasi yang menarik, dan kita dapat

8
mengabaikan unit pengukuran variabel yang muncul dalam bentuk logaritmik karena
koefisien kemiringan tidak berubah terhadap penskalaan ulang. Ada beberapa alasan lain
mengapa log banyak digunakan dalam pekerjaan terapan. Pertama, ketika y > 0, model
yang menggunakan log(y) sebagai variabel dependen seringkali memenuhi asumsi CLM
lebih dekat daripada model yang menggunakan level y. Variabel yang benar-benar positif
sering kali memiliki distribusi bersyarat yang heteroskedastis atau miring; mengambil log
dapat mengurangi, jika tidak menghilangkan, kedua masalah.
Manfaat potensial lain dari menggunakan log adalah bahwa mengambil log dari
suatu variabel sering mempersempit jangkauannya. Hal ini terutama berlaku untuk variabel
yang dapat berupa nilai moneter yang besar, seperti penjualan tahunan perusahaan atau gaji
pemain bisbol. Variabel populasi juga cenderung sangat bervariasi. Mempersempit rentang
variabel dependen dan independen dapat membuat estimasi OLS kurang sensitif terhadap
outlying (atau nilai ekstrim); kita membahas masalah pengamatan terluar di Bab 9.
Namun, seseorang tidak boleh sembarangan menggunakan transformasi logaritmik
karena dalam beberapa kasus hal itu benar-benar dapat menciptakan nilai ekstrem.
Contohnya adalah ketika variabel y berada di antara nol dan satu (seperti proporsi) dan
memiliki nilai yang mendekati nol. Dalam hal ini, log(y) (yang tentu saja negatif) bisa
sangat besar besarnya sedangkan variabel aslinya, y, dibatasi antara nol dan satu.
Ada beberapa aturan praktis untuk mengambil kayu gelondongan, meskipun tidak
ada yang tertulis di atas batu. Ketika suatu variabel adalah jumlah dolar positif, log sering
diambil. Kita telah melihat ini untuk variabel seperti upah, gaji, penjualan perusahaan, dan
nilai pasar perusahaan. Variabel-variabel seperti jumlah penduduk, jumlah pegawai, dan
partisipasi sekolah seringkali muncul dalam bentuk logaritma; ini memiliki fitur umum
menjadi nilai integer besar.
Variabel yang diukur dalam tahun—seperti pendidikan, pengalaman, masa kerja,
usia, dan sebagainya—biasanya muncul dalam bentuk aslinya. Variabel yang merupakan
proporsi atau persentase—seperti tingkat pengangguran, tingkat partisipasi dalam program
pensiun, persentase siswa yang lulus ujian standar, dan tingkat penangkapan atas kejahatan
yang dilaporkan—dapat muncul dalam bentuk asli atau logaritmik, meskipun ada
kecenderungan untuk menggunakannya dalam bentuk level. Ini karena setiap koefisien
regresi yang melibatkan variabel asli—apakah itu variabel dependen atau independen—
akan memiliki interpretasi perubahan poin persentase. (Lihat Lampiran A untuk tinjauan
perbedaan antara perubahan persentase dan perubahan poin persentase.) Jika kita
menggunakan, katakanlah, log(unem) dalam regresi, di mana unem adalah persentase
individu yang menganggur, kita harus sangat berhati-hati untuk membedakan antara
perubahan persentase poin dan perubahan persentase. Ingat, jika unem berubah dari 8 ke
9, ini adalah peningkatan satu poin persentase, tetapi peningkatan 12,5% dari tingkat
pengangguran awal. Menggunakan log berarti kita melihat persentase perubahan tingkat
pengangguran: log(9) − log( 8) ≈ .118 atau 11,8%, yang merupakan pendekatan
logaritmik untuk kenaikan 12,5% yang sebenarnya.

9
Salah satu batasan log adalah tidak dapat digunakan jika variabel mengambil nilai
nol atau negatif. Dalam kasus di mana variabel y tidak negatif tetapi dapat mengambil nilai
0, log(1+ y) kadang-kadang digunakan. Interpretasi perubahan persentase seringkali
dipertahankan dengan ketat, kecuali untuk perubahan yang dimulai pada y = 0 (di mana
persentase perubahan bahkan tidak ditentukan). Umumnya, menggunakan log(1+y) dan
kemudian menafsirkan perkiraan seolah-olah variabelnya adalah log(y) dapat diterima bila
data pada y berisi nol yang relatif sedikit. Contohnya mungkin di mana y adalah jam
pelatihan per karyawan untuk populasi perusahaan manufaktur, jika sebagian besar
perusahaan memberikan pelatihan kepada setidaknya satu pekerja. Secara teknis,
bagaimanapun, log (1+y) tidak dapat terdistribusi secara normal (walaupun mungkin
kurang heteroskedastis dari y). Alternatif yang berguna, meskipun lebih maju, adalah
model Tobit dan Poisson di Bab 17.
Salah satu kelemahan menggunakan variabel dependen dalam bentuk logaritmik
adalah lebih sulit untuk memprediksi variabel asli. Model aslinya memungkinkan kita
untuk memprediksi log(y), bukan y. Namun demikian, cukup mudah untuk mengubah
prediksi untuk log(y) menjadi prediksi untuk y (lihat Bagian 6 -4). Poin terkait adalah
bahwa tidak sah untuk membandingkan R-squareds dari model di mana y adalah variabel
dependen dalam satu kasus dan log(y) adalah variabel dependen dalam kasus lain.
Langkah-langkah ini menjelaskan variasi dalam variabel yang berbeda. Kami membahas
bagaimana menghitung ukuran kesesuaian yang sebanding di Bagian 6-4.

2.2b Model dengan Kuadrat


Fungsi kuadrat juga cukup sering digunakan dalam ekonomi terapan untuk
menangkap penurunan atau peningkatan efek marjinal. Anda mungkin ingin meninjau
sifat-sifat fungsi kuadrat dalam Lampiran A. Dalam kasus yang paling sederhana, y
bergantung pada satu faktor x yang diamati, tetapi ia melakukannya dengan cara kuadrat:
𝑦 = 𝛽0 + 𝛽1 𝑥 + 𝛽2𝑥2 + 𝑢
Misalnya, ambil y = upah dan x = pengalaman. Seperti yang telah kita bahas di Bab
3, model ini berada di luar analisis regresi sederhana tetapi mudah ditangani dengan regresi
berganda. Penting untuk diingat bahwa 𝛽1 tidak mengukur perubahan y terhadap x; tidak
masuk akal untuk menahan x 2 tetap saat mengubah x. Jika kita menulis persamaan taksiran
sebagai
̂+𝛽
𝑦̂= 𝛽 ̂𝑥 + 𝛽
̂𝑥 2 . [6. 10]
0 1 2
maka kita memiliki aproksimasi
∆𝑦̂≈ (𝛽 ̂𝑥 )∆𝑥, 𝑗𝑎𝑑𝑖 ∆𝑦̂ ≈ 𝛽
̂ + 2𝛽 ̂ + 2𝛽
̂𝑥 [6.11]
0 2 ∆𝑥 1 2

Ini menyatakan bahwa kemiringan hubungan antara x dan y bergantung pada nilai
x; perkiraan kemiringannya adalah 𝛽 ̂ + 2𝛽
̂𝑥. Jika kita memasukkan x = 0, kita melihat
1 2
bahwa 𝛽̂dapat
1 diartikan sebagai perkiraan kemiringan dari x = 0 ke x = 1. Setelah itu,
suku kedua, 2𝛽̂ 2 , harus diperhitungkan.
𝑥

10
Jika kita hanya tertarik untuk menghitung prediksi perubahan y yang diberikan nilai
awal untuk x dan perubahan x, kita dapat menggunakan (6.10) secara langsung: tidak ada
alasan untuk menggunakan pendekatan kalkulus sama sekali. Namun, kami biasanya lebih
tertarik untuk meringkas efek x pada y dengan cepat, dan interpretasi 𝛽 ̂dan 𝛽
̂dalam
1 2
persamaan (6.11) memberikan ringkasan tersebut. Biasanya, kita mungkin memasukkan
nilai rata-rata x dalam sampel, atau beberapa nilai menarik lainnya, seperti median atau
nilai kuartil bawah dan atas nilai-nilai artileri.
Dalam banyak aplikasi, 𝛽 ̂ positif dan 𝛽̂ negatif. Sebagai contoh, dengan
1 2
menggunakan data upah di WAGE1, kita memperoleh
𝑊̂𝑎𝑔𝑒 = 3.73 + .298𝑒𝑥𝑝𝑒𝑟 − .0061𝑒𝑥𝑝𝑒𝑟 2
(. 35) (. 041) (.0009)
2
𝑛 = 526, 𝑅 = .093 [6.12]
Persamaan perkiraan ini menyiratkan bahwa pengalaman memiliki efek yang
semakin berkurang terhadap upah. Pengalaman tahun pertama bernilai sekitar 30¢ per jam
($.298). Pengalaman tahun kedua bernilai kurang [sekitar . 298 −
2(. 0061)(1). 286 𝑎𝑡𝑎𝑢 28.6 ¢, menurut perkiraan dalam (6.11) dengan x = 1]. Dalam
pengalaman 10 sampai 11 tahun, upah diperkirakan akan meningkat sekitar . 298 −
2(. 0061)(10) = .176 𝑎𝑡𝑎𝑢 17,6¢. Dan seterusnya.
Jika koefisien pada x adalah positif dan koefisien pada x 2 adalah negatif, maka
kuadrat tersebut berbentuk parabola. Selalu ada nilai positif dari x di mana pengaruh x
terhadap y adalah nol; sebelum titik ini, x memiliki efek positif pada y; setelah titik ini, x
memiliki efek negatif pada y.
Dalam praktiknya, penting untuk mengetahui di mana titik balik ini. Dalam estimasi
persamaan (6.10) dengan ̂𝛽> 0 dan ̂𝛽< 0, titik balik (atau maksimum fungsi) selalu
1 2
dicapai pada koefisien pada x lebih dari dua kali nilai absolut koefisien pada x 2 :
̂ /(2𝛽̂)|
𝑥 ∗ = |𝛽 [ 6.13]
1 2
Dalam contoh wage (upah) = 𝑒𝑥𝑝𝑒𝑟∗𝑖𝑠 .298/[2(. 0061) ] ≈ 24.4 (Perhatikan
𝑥∗
bagaimana kita hanya menghilangkan tanda minus pada .0061 dalam melakukan
perhitungan ini.) Hubungan kuadrat ini diilustrasikan pada Gambar 6.1.
Dalam persamaan upah (6.12), pengembalian pengalaman menjadi nol pada sekitar
24.4 tahun. Apa yang harus kita lakukan ini? Setidaknya ada tiga kemungkinan penjelasan.
Pertama, mungkin beberapa orang dalam sampel memiliki pengalaman lebih dari 24 tahun,
sehingga bagian kurva di sebelah kanan 24 dapat diabaikan. Biaya menggunakan kuadrat
untuk menangkap efek yang semakin berkurang adalah bahwa kuadrat akhirnya harus
berbalik. Jika titik ini melampaui semua kecuali sebagian kecil dari orang-orang dalam
sampel, maka ini tidak terlalu menjadi perhatian. Namun dalam kumpulan data WAGE1,
sekitar 28% orang dalam sampel memiliki pengalaman lebih dari 24 tahun; persentase ini
terlalu tinggi untuk diabaikan.
Ada kemungkinan bahwa kembali ke pengalaman benar-benar menjadi negatif di
beberapa titik, tetapi sulit untuk percaya bahwa ini terjadi pada 24 tahun pengalaman.

11
Kemungkinan yang lebih mungkin adalah bahwa perkiraan pengaruh keahlian terhadap
upah menjadi bias karena kita tidak mengontrol faktor lain, atau karena hubungan
fungsional antara upah dan keahlian dalam persamaan (6.12) tidak sepenuhnya benar.
Latihan Komputer C2 meminta Anda untuk mengeksplorasi kemungkinan ini dengan
mengontrol pendidikan, selain menggunakan log(upah) sebagai variabel dependen. Ketika
sebuah model memiliki variabel dependen dalam bentuk logaritma dan variabel penjelas
yang masuk sebagai kuadrat, beberapa perhatian diperlukan dalam melaporkan efek
parsial. Contoh berikut juga menunjukkan bahwa kuadrat dapat memiliki bentuk U, bukan
bentuk parabola. Bentuk U muncul dalam persamaan (6.10) ketika 𝛽 ̂ negatif
1 dan
̂𝛽positif;
2 ini menangkap efek peningkatan x pada y.

❖ Contoh 6.2 Pengaruh Polusi pada Harga Perumahan


Kami memodifikasi model harga rumah dari Contoh 4.5 untuk memasukkan suku
kuadrat dalam ruangan:
log(𝑝𝑟𝑖𝑐𝑒) = 𝛽0 + 𝛽1 log(𝑛𝑜𝑥) + 𝛽2 log(𝑑𝑖𝑠𝑡) + 𝛽3 𝑟𝑜𝑜𝑚𝑠 + 𝛽4 𝑟𝑜𝑜𝑚𝑠2 +
𝛽5 𝑠𝑡𝑟𝑎𝑡𝑖𝑜 + 𝑢 [6.14]

Suku kuadrat ruangan2 memiliki statistik sekitar 4.77, dan karenanya sangat
signifikan secara statistik. Tapi bagaimana dengan menafsirkan efek kamar pada
log(harga)? Awalnya, efeknya tampak aneh. Karena koefisien pada kamar adalah negatif
dan koefisien pada kamar2 adalah positif, persamaan ini secara harfiah menyiratkan bahwa,
pada nilai kamar yang rendah, sebuah kamar tambahan memiliki efek negatif pada
log(harga). Pada titik tertentu, efeknya menjadi positif, dan bentuk kuadrat berarti bahwa
semi-elastisitas harga terhadap kamar meningkat dengan meningkatnya kamar. Situasi ini
ditunjukkan pada Gambar 6.2.
Kami memperoleh nilai turnaround kamar menggunakan persamaan (6.13)
(walaupun ̂𝛽negatif dan ̂𝛽positif). Nilai absolut dari koefisien pada ruangan, .545,
1 2
dibagi dua kali koefisien pada rooms 2, .062, memberikan rooms * . 545/[2(. 062)] ≈ 4.4;
titik ini diberi label pada Gambar 6.2.
Apakah kita benar-benar percaya bahwa mulai dari tiga kamar dan meningkat
menjadi empat kamar benar-benar mengurangi nilai yang diharapkan dari sebuah rumah?
Mungkin tidak. Ternyata hanya lima dari 506 komunitas sampel yang

12
memiliki rumah rata-rata 4.4 kamar atau kurang, sekitar 1% dari sampel. Ini sangat
kecil sehingga kuadrat di sebelah kiri 4.4 dapat, untuk tujuan praktis, diabaikan. Di sebelah
kanan 4.4, kita melihat bahwa penambahan kamar lain memiliki efek peningkatan pada
persentase perubahan harga:
∆log(̂𝑝𝑟𝑖𝑐𝑒) ≈ {[. 545 + 2(. 062)]𝑟𝑜𝑜𝑚𝑠}∆𝑟𝑜𝑜𝑚𝑠
jadi
%∆𝑝̂𝑟𝑖𝑐𝑒 ≈ 100{[−.545 + 2(. 062)]𝑟𝑜𝑜𝑚𝑠}∆𝑟𝑜𝑜𝑚𝑠
= (−54.5 + 12.4 𝑟𝑜𝑜𝑚𝑠)∆𝑟𝑜𝑜𝑚𝑠
Jadi, kenaikan kamar dari, katakanlah, lima menjadi enam meningkatkan harga
sekitar −54.5 + 12.4(5 ) = 7.5% kenaikan dari enam menjadi tujuh menaikkan harga
sekitar −54.5 + 12.4(6) = 19.9% . Ini adalah efek peningkatan yang sangat kuat.
Efek peningkatan yang kuat dari kamar pada log(harga) dalam contoh ini
menggambarkan pelajaran penting: seseorang tidak bisa begitu saja melihat koefisien pada
suku kuadrat— dalam hal ini, .062— dan menyatakan bahwa itu terlalu kecil untuk
dipusingkan, berdasarkan hanya pada besarnya. Dalam banyak aplikasi dengan kuadrat,
koefisien pada variabel kuadrat memiliki satu atau lebih nol setelah titik desimal: lagi pula,
koefisien ini mengukur bagaimana kemiringan berubah ketika x (ruangan) berubah.
Koefisien yang tampaknya kecil dapat memiliki konsekuensi yang praktis penting, seperti
yang baru saja kita lihat. Sebagai aturan umum, kita harus menghitung efek parsial dan
melihat bagaimana pengaruhnya terhadap x untuk menentukan apakah suku kuadrat secara
praktis penting. Dalam melakukannya, akan berguna untuk membandingkan perubahan
kemiringan yang ditunjukkan oleh model kuadrat dengan kemiringan konstan yang
diperoleh dari model hanya dengan suku linier. Jika kita menurunkan rooms2dari
persamaan, koefisien kamar menjadi sekitar 0.255, yang menyiratkan bahwa setiap kamar
tambahan— mulai dari sejumlah kamar apa pun—meningkatkan harga rata-rata sekitar
25,5%. Ini sangat berbeda dengan model kuadrat, di mana efeknya menjadi 25,5% dirooms
=6.45 tetapi berubah dengan cepat ketika ruang menjadi lebih kecil atau lebih besar.
Misalnya, di kamar = 7, kembali ke kamar berikutnya adalah sekitar 32,3%.
Apa yang terjadi secara umum jika koefisien pada tingkat dan istilah kuadrat
memiliki tanda yang sama (baik positif atau keduanya negatif) dan variabel penjelas harus
nonnegatif (seperti dalam kasus kamar atau ahli)? Dalam kedua kasus, tidak ada titik balik
untuk nilai x > 0. Misalnya, jika ̂𝛽dan ̂𝛽keduanya positif, nilai harapan terkecil dari y
1 2
adalah pada x = 0, dan peningkatan x selalu berpengaruh positif dan meningkat pada y.

13
̂ = 0 dan 𝛽
(Hal ini juga berlaku jika 𝛽 ̂ > 0 yang berarti bahwa efek parsial adalah no l
1 2
pada x = 0 dan meningkat dengan meningkatnya x.) Demikian pula, jika ̂𝛽dan
1
̂𝛽keduanya
2 negatif, nilai harapan terbesar dari y adalah di x = 0, dan peningkatan x
memiliki efek negatif pada y, dengan besarnya efek meningkat ketika x semakin besar.
Rumus umum untuk titik balik kuadrat apa pun adalah 𝑥 ∗ = −𝛽 ̂/(2𝛽̂, yang
1 2)
menghasilkan nilai positif jika ̂𝛽dan ̂𝛽memiliki tanda yang berlawanan dan bernilai
1 2
̂ dan 𝛽
negatif ketika 𝛽 ̂ memiliki tanda yang sama. Mengetahui rumus sederhana ini
1 2
berguna dalam kasus di mana x dapat mengambil nilai positif dan negatif; seseorang dapat
menghitung titik balik dan melihat apakah itu masuk akal, dengan mempertimbangkan
kisaran x dalam sampel.
Ada banyak kemungkinan lain untuk menggunakan kuadrat bersama dengan
logaritma. Misalnya, perpanjangan (6.14) yang memungkinkan elastisitas nonkonstan
antara harga dan nox adalah
log(𝑝𝑟𝑖𝑐𝑒) = 𝛽0 + 𝛽1log(𝑛𝑜𝑥) + 𝛽2 [log(𝑛𝑜𝑥)] 2 + 𝛽3 𝑐𝑟𝑖𝑚𝑒 + 𝛽4 𝑟𝑜𝑜𝑚𝑠 +
𝛽5 𝑟𝑜𝑜𝑚𝑠2 + 𝛽6 𝑠𝑡𝑟𝑎𝑡𝑖𝑜 + 𝑢
[6.15]
Jika 𝛽2 = 0, maka 𝛽1 adalah elastisitas harga terhadap nox. Jika tidak, elastisitas ini
tergantung pada tingkat nox. Untuk melihat ini, kita dapat menggabungkan argumen untuk
efek parsial dalam model kuadrat dan logaritma untuk menunjukkan bahwa
%∆𝑝𝑟𝑖𝑐𝑒 ≈ [𝛽1 + 2𝛽2 log(𝑛𝑜𝑥)]%∆𝑛𝑜𝑥 [6.16]
Oleh karena itu, elastisitas harga terhadap nox adalah b1 1 2b2log1nox2, sehingga
bergantung pada log(nox)
Akhirnya , istilah polinomial lainnya dapat dimasukkan dalam model regresi. Tentu
saja, kuadrat paling sering terlihat, tetapi istilah kubik dan bahkan kuartik muncul sesekali.
Bentuk fungsional yang sering masuk akal untuk fungsi biaya total adalah
𝐶𝑜𝑠𝑡 = 𝛽0 + 𝛽1 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑦 + 𝛽2 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑦2 + 𝛽3 𝑞𝑢𝑎𝑛𝑡𝑖𝑡𝑦3 + 𝑢
Memperkirakan model seperti itu tidak menyebabkan komplikasi. Menafsirkan
parameter lebih terlibat (meskipun langsung menggunakan kalkulus); kami tidak
mempelajari model ini lebih lanjut.

2.2c. Model dengan Istilah Interaksi


Kadang-kadang, wajar untuk efek parsial, elastisitas, atau semi-elastisitas variabel
dependen sehubungan dengan variabel penjelasan untuk bergantung pada besarnya
variabel penjelasan lainnya. Misalnya, dalam model

𝑝𝑟𝑖𝑐𝑒 = 𝛽0 + 𝛽1 ̅ 𝑠𝑞𝑟𝑓𝑡 + 𝛽2 ̅ 𝑏𝑑𝑟𝑚𝑠2 + 𝛽3̅ 𝑠𝑞𝑟𝑓𝑡. 𝑏𝑑𝑟𝑚𝑠3 + 𝑢


Efek parsial bdrms pada harga (memegang semua variabel lain tetap) adalah
∆𝑝𝑟𝑖𝑐𝑒
∆𝑏𝑑𝑟𝑚𝑠
= 𝛽2 + 𝛽3 𝑠𝑞𝑟𝑓𝑡 [6.17]

14
Jika 𝛽3 > 0 maka (6,17) menyiratkan bahwa kamar tidur tambahan menghasilkan
kenaikan harga perumahan yang lebih tinggi untuk rumah yang lebih besar. Dengan kata
lain, ada efek interaksi antara rekaman persegi dan jumlah kamar tidur. Dalam meringkas
efek bdrms pada harga, kita harus mengevaluasi (6,17) pada nilai yang menarik dari sqrft,
seperti nilai rata-rata, atau kuartil bawah dan atas dalam sampel. Apakah 𝛽3 adalah nol atau
tidak adalah sesuatu yang dapat kita uji dengan mudah.
Parameter pada variabel asli bisa sulit untuk ditafsirkan ketika kita memasukkan
istilah interaksi. Misalnya, dalam persamaan harga perumahan sebelumnya, persamaan
(6,17) menunjukkan bahwa 𝛽3 adalah efek bdrms pada harga untuk rumah dengan nol kaki
persegi! Efek ini jelas tidak terlalu menarik. Sebaliknya, kita harus berhati-hati untuk
menempatkan nilai-nilai menarik sqrft, seperti nilai rata-rata atau median dalam sampel,
ke dalam versi perkiraan persamaan (6,17).
Seringkali, berguna untuk re parameter ukuran model sehingga koefisien pada
variabel asli memiliki makna yang menarik. Pertimbangkan model dengan dua variabel
penjelasan dan interaksi:

𝑦 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + 𝛽3 𝑥3 + 𝑢
Seperti yang baru saja disebutkan, 𝛽2 adalah efek parsial dari 𝑥2 pada y ketika 𝑥1 =
0. Seringkali, ini tidak menarik. Sebagai gantinya, kita dapat memparakan kembali model
sebagai
𝑦 = 𝛼0 + 𝛿1𝛿1 + 𝛿2 𝛿2 (𝑥1 − 𝜇1 )(𝑥2 − 𝜇2 ) + 𝑢
di mana 𝜇1 adalah rata-rata populasi 𝑥1 dan 𝜇2 adalah rata-rata populasi x2. Kita
dapat dengan mudah melihat bahwa sekarang koefisien pada 𝑥2, 𝛿2 , adalah efek parsial 𝑥1
pada y pada nilai rata-rata 𝑥1 . (Dengan mengalikan interaksi dalam persamaan kedua dan
membandingkan koefisien, kita dapat dengan mudah menunjukkan bahwa 𝛿2 = 𝛽2 +
𝛽3 𝜇1 . Parameter 𝛿1 memiliki interpretasi yang sama.) Oleh karena itu, jika kita mengurangi
sarana variabel - dalam praktiknya, ini biasanya akan menjadi contoh - sebelum membuat
istilah interaksi, koefisien pada variabel asli memiliki interpretasi yang berguna. Plus, kami
segera mendapatkan kesalahan standar untuk efek parsial pada nilai rata -rata. Tidak ada
yang mencegah kita mengganti 𝜇1 atau 𝜇2 dengan nilai-nilai lain dari variabel penjelasan
yang mungkin menarik. Contoh berikut menggambarkan bagaimana kita dapat
menggunakan istilah interaksi.
❖ Contoh 6.3: Efek Kehadiran pada Kinerja Ujian Akhir
Sebuah model untuk menjelaskan hasil standar pada ujian akhir (stndfnl ) dalam hal
persentase kelas yang dihadiri, rata-rata nilai perguruan tinggi sebelumnya, dan skor ACT
adalah

𝑠𝑡𝑛𝑑𝑓𝑛𝑙 = 𝛽0 + 𝛽1 𝑎𝑡𝑛𝑑𝑟𝑡𝑒 + 𝛽2 𝑝𝑟𝑖𝐺𝑃𝐴 + 𝛽3𝐴𝐶𝑇 + 𝛽4 𝑝𝑟𝑖𝐺𝑃𝐴2 [6.18]

15
+𝛽5 𝐴𝐶𝑇2 + 𝛽6 𝑝𝑟𝑖𝐺𝑃𝐴. 𝑎𝑡𝑛𝑑𝑟𝑡𝑒 + 𝑢
(Kami menggunakan skor ujian standar untuk alasan yang dibahas dalam Bagian
6-1: lebih mudah untuk menafsirkan kinerja siswa relatif terhadap sisa kelas.) Selain
quadratics di priGPA dan ACT, model ini mencakup interaksi antara priGPA dan tingkat
kehadiran. Idenya adalah bahwa kehadiran kelas mungkin memiliki efek yang berbeda bagi
siswa yang telah melakukan secara berbeda di masa lalu, yang diukur dengan priGPA.
Kami tertarik pada efek kehadiran pada skor ujian akhir: ∆𝑠𝑡𝑛𝑑𝑓𝑛𝑙 = 𝛽 + 𝛽 𝑝𝑟𝑖𝐺𝑃𝐴
∆𝑎𝑡𝑛𝑑𝑟𝑡𝑒 1 6

Dengan menggunakan 680 pengamatan di ATTEND, untuk siswa dalam kursus


tentang prinsip-prinsip ekonomi mikro, persamaan yang diperkirakan adalah

𝑠𝑡̂𝑛𝑑𝑓𝑙𝑛 = 2.05 − .0067 𝑎𝑡𝑛𝑑𝑟𝑡𝑒 − 1.63𝑝𝑟𝑖𝐺𝑃𝐴 − .128𝐴𝐶𝑇


(1.36) (. 0102) (. 48) (.098)

+.296𝑝𝑟𝑖𝐺𝑃𝐴2 + .0045𝐴𝐶𝑇2 + .0056𝑝𝑟𝑖𝐺𝑃𝐴. 𝑎𝑡𝑛𝑑𝑟𝑡𝑒 [6.19]


(. 101) (. 0022) (. 0043)

𝑛 = 680, 𝑅̂2 = .222.


Kita harus menafsirkan persamaan ini dengan sangat hati-hati. Jika kita hanya
melihat koefisien pada atndrte, kita akan salah menyimpulkan bahwa kehadiran memiliki
efek negatif pada skor ujian akhir. Tetapi koefisien ini seharusnya mengukur efek ketika
priGPA = 0, yang tidak menarik (dalam sampel ini, IPK terkecil sebelumnya adalah sekitar
0,86). Kita juga harus berhati-hati untuk tidak melihat secara terpisah perkiraan 𝛽1 dan
𝛽6 dan menyimpulkan bahwa, karena setiap statistik t tidak signifikan, kita tidak dapat
menolak 𝐻0 : 𝛽1 = 0, 𝛽6 = 0. Bahkan, nilai p untuk tes F hipotesis bersama ini adalah
0,014, jadi kami tentu menolak 𝐻0 pada tingkat 5%. Ini adalah contoh yang baik di mana
melihat statistik t terpisah ketika menguji hipotesis bersama dapat menyebabkan satu jauh
tersesat.
Bagaimana kita harus memperkirakan efek parsial atndrte pada stndfnl ? Kita harus
memasukkan nilai-nilai priGPA yang menarik untuk mendapatkan efek parsial. Nilai rata-
rata priGPA dalam sampel adalah 2.59, jadi pada priGPA rata-rata, efek atndrte pada
stndfnl adalah −.0067 + .0056(2.59) ≈ .0078. Apa artinya ini? Karena atndrte diukur
sebagai persentase, itu berarti bahwa peningkatan 10 poin persentase dalam atndrte
meningkat 𝑠𝑡̂𝑛𝑑𝑓𝑛𝑙 sebesar 0,078 standar deviasi dari skor ujian akhir rata-rata.
Bagaimana kita bisa tahu apakah perkiraan .0078 secara statistik berbeda dari nol?
Kita perlu menjalankan kembali regresi, di mana kita mengganti priGPA ·atndrte dengan
(priGPA − 2.59)·atndrte. Ini memberikan, sebagai koefisien baru pada atndrte, perkiraan
efek pada priGPA = 2.59, bersama dengan kesalahan standarnya; Tidak ada yang lain
dalam perubahan regresi. (Kami menjelaskan perangkat ini di Bagian 4.4.) Menjalankan
16
regresi baru ini memberikan kesalahan standar b 𝛽̂ 1 + 𝛽̂ 6(2.59) = .0078 sebagai .0026,
.0078
yang menghasilkan 𝑡 = = 3. Oleh karena itu, pada priGPA rata-rata, kami
.0026
menyimpulkan bahwa kehadiran memiliki efek positif yang signifikan secara statistik pada
skor ujian akhir.
Hal-hal yang bahkan lebih rumit untuk menemukan efek priGPA pada stndfnl
karena istilah kuadrat priGPA2. Untuk menemukan efek pada nilai rata-rata priGPA dan
tingkat kehadiran rata-rata, 82, kami akan mengganti priGPA2 dengan (𝑝𝑟𝑖𝐺𝑃𝐴 −
2.59)2 dan priGPA.atndrte dengan 𝑝𝑟𝑖𝐺𝑃𝐴. (𝑎𝑡𝑛𝑑𝑟𝑡𝑒 − 82)Koefisien priGPA menjadi
efek parsial pada nilai rata-rata, dan kita akan memiliki kesalahan standarnya. (Lihat
Latihan Komputer C7.)
2.2 d. Efek Parsial Rata-rata Komputasi

Ciri khas model dengan quadratics, interaksi, dan bentuk fungsional nonlinier
lainnya adalah bahwa efek parsial tergantung pada nilai-nilai dari satu atau lebih variabel
penjelasan. Misalnya, kita hanya melihat dalam Contoh 6.3 bahwa efek atndrte tergantung
pada nilai priGPA. Sangat mudah untuk melihat bahwa efek parsial priGPA dalam
persamaan (6,18) adalah

𝛽2 + 2𝛽4 𝑝𝑟𝑖𝐺𝑃𝐴 + 𝛽6 𝑎𝑡𝑛𝑑𝑟𝑡𝑒


(sesuatu yang dapat diverifikasi dengan kalkulus sederhana atau hanya dengan
menggabungkan rumus kuadrat dan interaksi). Hiasan dalam persamaan (6,18) dapat
berguna untuk melihat bagaimana kekuatan asosiasi antara stndfnl dan setiap variabel
penjelasan berubah dengan nilai-nilai semua variabel penjelasan. Fleksibilitas yang
diberikan oleh model seperti (6,18) memang memiliki biaya: sulit untuk menggambarkan
efek parsial dari variabel penjelasan pada stndfnl dengan satu nomor.
Seringkali, seseorang menginginkan nilai tunggal untuk menggambarkan hubungan
antara variabel dependen dan setiap variabel penjelasan. Salah satu ukuran ringkasan
populer adalah efek parsial rata-rata (APE), juga disebut efek marjinal rata-rata. Ide di balik
APE sederhana untuk model seperti (6,18). Setelah menghitung efek parsial dan
mencolokkan parameter yang diperkirakan, kami rata-rata efek parsial untuk setiap unit di
seluruh sampel. Jadi, perkiraan efek parsial atndrte pada stndfnl adalah

𝛽1 + 𝛽6 𝑝𝑟𝑖𝐺𝑃𝐴𝑖
Kami tidak ingin melaporkan efek parsial ini untuk masing-masing dari 680 siswa
dalam sampel kami. Sebaliknya, kita rata-rata efek parsial ini untuk mendapatkan

𝐴𝑃𝐸𝑠𝑡𝑛𝑑𝑓𝑙𝑛 = 𝛽̂1 + 𝛽̂ 6̅𝑟𝑝𝑖̅𝐺̅𝑃̅𝐴̅,

di mana priGPA adalah rata-rata sampel priGPA. Nomor tunggal APEstndfnl


adalah (perkiraan) APE. Kera priGPA hanya sedikit lebih rumit:

17
𝐴𝑃𝐸𝑠𝑡𝑛𝑑𝑓𝑙𝑛 = 𝛽̂ 2 + 2𝛽̂4̅𝑝̅𝑟𝑖̅𝐺̅𝑃̅𝐴̅+ 𝛽̂ ̅ ̅ ̅̅
6𝑡
𝑎𝑛𝑑𝑡𝑟.𝑒

Baik APEstndfnl dan APEpriGPA memberi tahu kami ukuran efek parsial rata-rata
Pemusatan variabel penjelasan tentang rata-rata sampel mereka sebelum membuat
quadratics atau interaksi memaksa koefisien pada tingkat menjadi APE s. Ini bisa rumit
dalam model yang rumit. Untungnya, beberapa paket regresi yang umum digunakan
menghitung APEs dengan perintah sederhana setelah estimasi OLS. Sama pentingnya,
kesalahan standar yang tepat dihitung dengan menggunakan fakta bahwa APE adalah
kombinasi linier dari koefisien OLS. Misalnya, APE s dan kesalahan standar mereka untuk
model dengan quadratics dan interaksi, seperti pada Contoh 6.3, mudah diperoleh.
APEs juga berguna dalam model yang secara inheren nonlinier dalam parameter,
yang kita perlakukan dalam Bab 17. Pada saat itu kita akan meninjau kembali definisi dan
perhitungan APEs.
2.3 Goodness-of-Fit dan pemilihan Regressor
2.3a Adjusted R-squared
Statistik yang disebut 𝑅2 yang disesuaikan. Karena Adjusted R-squared dilaporkan
di banyak aplikasi dan memiliki beberapa fitur yang berguna. Untuk melihat bagaimana
𝑅2 biasa dapat disesuaikan, fungsinya ditulis sebagai
𝑆𝑆𝑅 𝑆𝑆𝑇
𝑅̅2 = 1 − ( ) /( ) [6.20]
𝑛 𝑛
dimana SSR adalah jumlah kuadrat residual dan SST adalah jumlah total kuadrat;
dibandingkan dengan persamaan (3.28), yang harus kita lakukan hanyalah membagi
SSR dan SST dengan 𝑛. Ekspresi ini mengungkapkan apa yang sebenarnya diperkirakan
𝑅2 . Definisikan 𝜎2 , sebagai varians populasi dari y dan misalkan 𝜎2 menunjukkan
𝑦 𝑢
populasi varian dari suku kesalahan 𝑢. Population R-Squared didefinisikan sebagai
𝜌2 = 1 − 𝜎2 /𝜎2 ini adalah proporsi variasi y dalam populasi yang dijelaskan oleh
𝑢 𝑦
variabel bebas. Inilah yang seharusnya mengestimasikan 𝑅2.

𝑅2 mengestimasikan 𝜎𝑢2 dengan 𝑆𝑆𝑅/𝑛, yang kita tahu bias. Jadi mengapa tidak
mengganti 𝑆𝑆𝑅/𝑛 dengan 𝑆𝑆𝑅/(𝑛 − 𝑘 − 1)? Juga, dapat menggunakan 𝑆𝑆𝑇/(𝑛 − 1)
ditempatkan pada 𝑆𝑆𝑇/𝑛, sebagai yang pertama adalah penduga yang tidak bias
estimator dari 𝜎𝑦2 . Dengan menggunakan estimasi ini, sampai pada Adjusted R-Squared:
𝑆𝑆𝑅
[ ]
𝑅̅2 = 1 − 𝑛−𝑘−1 = 1 − 𝜎 2 /[ 𝑆𝑆𝑇
] [6.21]
𝑆𝑆𝑇 𝑛−1
[𝑛−1]

karena 𝜎̂2 = 𝑆𝑆𝑅/(𝑛 − 𝑘 − 1). Notasi yang digunakan untuk menunjukkan Adjusted
R-Squared yang telah disesuaikan, maka kadang-kadang disebut R-bar kuadrat.

Terkadang berguna untuk memiliki rumus untuk 𝑅̅2 dalam kaitannya dengan 𝑅2 .
Aljabar sederhana memberikan

18
2 )(𝑛−1)
(1−𝑅
𝑅̅2 = 1 − [6.22]
𝑛−𝑘−1
.70(50)
Misalnya, jika 𝑅2 = .30, 𝑛 = 51, dan 𝑘 = 10, maka 𝑅 = 1 − ̅2 = .125 Jadi,
40
untuk yang kecil 𝑛 dan 𝑘 besar, 𝑅̅2 bisa jauh di bawah 𝑅2 . Padahal, jika R-kuadrat biasa
kecil, dan 𝑛 − 𝑘 − 1 kecil, 𝑅̅2 sebenarnya bisa menjadi negatif! Misalnya,
memasukkan 𝑅2 = .10, 𝑛 = 51, dan k = 10 untuk memverifikasi bahwa 𝑅̅2 = −.125 .
𝑅̅2 negatif menunjukkan kesesuaian model yang sangat buruk dibandingkan dengan
jumlah derajat kebebasan.

R-kuadrat yang disesuaikan kadang-kadang dilaporkan bersama dengan R-


kua drat bia sa dalam regresi, dan terkadang 𝑅 ̅ 2 dilaporkan di tempat 𝑅2 . Penting
untuk diingat bahwa itu adalah 𝑅 2 , bukan 𝑅̅2. Rumusnya sama dengan 𝑅̅2 dan
𝑟
𝑅̅2 tidak
𝑢𝑟
valid.

2.3b Menggunakan Adjusted R-Squared untuk memilih antara model Non Nested

Membandingkan 𝑅̅2 untuk memilih di antara kumpulan variabel independen yang


Non Nested dapat bernilai ketika variabel-variabel ini mewakili bentuk fungsional yang
berbeda. Pertimbangkan dua model yang berkaitan dengan R&D intensitas untuk
penjualan perusahaan:
𝑟𝑑𝑖𝑛𝑡𝑒𝑛𝑠 = 𝛽0 + 𝛽1 log(𝑠𝑎𝑙𝑒𝑠) + 𝑢 [6.23]
2
𝑟𝑑𝑖𝑛𝑡𝑒𝑛𝑠 = 𝛽0 + 𝛽1 𝑠𝑎𝑙𝑒𝑠 + 𝛽2 𝑠𝑎𝑙𝑒𝑠 + 𝑢 [6.24]
Model pertama menangkap keuntungan yang semakin berkurang dengan
memasukkan penjualan dalam bentuk logaritmik sementara model kedua melakukan
dengan menggunakan kuadrat. Jadi, model kedua berisi satu parameter lebih banyak
dari yang pertama.

Ket:
Ketika persamaan (6.23) diestimasi menggunakan 32 observasi pada perusahaan
kimia RDCHEM, 𝑅2 adalah 0,061, dan 𝑅 2 untuk persamaan (6.24) adalah 0,148. Oleh
karena itu, tampaknya kuadrat lebih cocok. Namun, perbandingan 𝑅2 biasa tidak adil
untuk model pertama karena berisi satu parameter lebih sedikit dari (6.24). Artinya,
(6.23) adalah model yang lebih pelit daripada (6.24).
Semua yang lain dianggap sama, model yang lebih sederhana lebih baik. Karena R-
squared biasa tidak menghukum model yang lebih rumit, lebih baik menggunakan 𝑅̅2 .
𝑅̅2 untuk (6.23) adalah 0.030, sedangkan 𝑅̅2 untuk (6.24) adalah 0.090. Jadi, bahkan
setelah menyesuaikan perbedaan derajat kebebasan, model kuadrat menang. Model
kuadrat juga lebih disukai ketika margin keuntungan ditambahkan ke setiap regresi.

19
❖ Example: Kompensasi CEO dan Kinerja Perusahaan
Pertimbangkan dua model perkiraan yang berkaitan dengan kompensasi CEO
terhadap kinerja perusahaan:
𝑠𝑎̂𝑙𝑎𝑟𝑦 = 830.63 + .0163𝑠𝑎𝑙𝑒𝑠 + 19.62𝑟𝑜𝑒
(223.90) (.0089) (11.08) [6.25]
2 ̅ 2
𝑛 = 209, 𝑅 = .029, 𝑅 = ,020
dan
𝐼𝑠̂𝑎𝑙𝑎𝑟𝑦 = 4.36 + .275𝐼𝑠𝑎𝑙𝑒𝑠 + .0179𝑟𝑜𝑒
(0.29) (0.33) (.0040) [6.26]
𝑛 = 209, 𝑅 = .282, 𝑅̅ = ,275
2 2

dibahas dalam Bab 2. Untuk kesederhanaan, lsalary dan lsales menunjukkan log alami
gaji dan penjualan. Kita sudah tahu bagaimana menafsirkan persamaan perkiraan yang
berbeda ini. Tapi bisakah kita mengatakan bahwa satu model lebih cocok dari yang lain?
R-kuadrat untuk persamaan (6,25) menunjukkan bahwa penjualan dan roe hanya
menjelaskan sekitar 2,9% dari variasi gaji CEO dalam sampel. Baik penjualan dan roe
memiliki signifikansi statistik marjinal.
Persamaan (6,26) menunjukkan bahwa log (sales) dan roe menjelaskan sekitar
28,2% dari variasi dalam log (salary). Dalam hal goodness-of-fit, R-kuadrat yang jauh
lebih tinggi ini tampaknya menyiratkan bahwa model (6,26) jauh lebih baik, tetapi ini
belum tentu terjadi. Jumlah total kotak untuk gaji dalam sampel adalah 391.732.982,
sedangkan jumlah total kotak untuk log (salary) hanya 66,72. Dengan demikian, ada
jauh lebih sedikit variasi dalam log (salary) yang perlu dijelaskan.
Pada titik ini, kita dapat menggunakan fitur selain 𝑅 2 atau 𝑅̅2 untuk memutuskan
antara model-model ini. Misalnya, log (sales) dan roe jauh lebih signifikan secara
statistik (6,26) daripada penjualan dan roe di (6,25), dan koefisien dalam (6,26) mungkin
lebih menarik. Yang pasti, bagaimanapun, kita perlu membuat perbandingan kebaikan -
of-fit yang valid.

2.3c Mengontrol Terlalu Banyak Faktor dalam Analisis Regresi


Menghilangkan faktor-faktor penting dari model yang mungkin berkorelasi dengan
variabel bebas, dimungkinkan juga untuk mengontrol terlalu banyak variabel dalam
regresi analisis. Jika terlalu menekankan kecocokan, dapat membuka diri untuk
mengendalikan faktor-faktor dalam regresi model yang seharusnya tidak dikontrol.

Contoh:
Misalkan kita sedang melakukan penelitian untuk menilai dampak pajak bir negara
bagian terhadap kematian lalu lintas. Idenya adalah bahwa pajak bir yang lebih tinggi

20
akan mengurangi konsumsi alkohol, dan juga mengemudi dalam keadaan mabuk,
menghasilkan lebih sedikit kematian lalu lintas. Untuk mengukur pengaruh ceteris
paribus pajak terhadap kematian, dapat memodelkan kematian sebagai fungsi dari
beberapa faktor, termasuk pajak bir:
𝑓𝑎𝑡𝑎𝑙𝑖𝑡𝑖𝑒𝑠 = 𝛽0 + 𝛽1 𝑡𝑎𝑥 + 𝛽2 𝑚𝑖𝑙𝑒𝑠 + 𝛽3 𝑝𝑒𝑟𝑐𝑚𝑎𝑙𝑒 + 𝛽4 𝑝𝑒𝑟𝑐16_21 + ⋯
Ket: miles: total jarak tempuh
Percmale: persentase populasi berjenis kelamin laki laki
Perc16_21: persentase populasi antara usia 16-21 dan seterusnya
Perhatikan bagaimana kami tidak memasukkan variabel yang mengukur konsumsi bir
per kapita. Perlu di ingat tidak boleh melakukan kesalahan variabel yang dihilangkan.
Jika kita mengontrol konsumsi bir dalam hal ini persamaan, lalu bagaimana pajak bir
mempengaruhi kematian lalu lintas? Dalam persamaan
𝑓𝑎𝑡𝑎𝑙𝑖𝑡𝑖𝑒𝑠 = 𝛽0 + 𝛽1 𝑡𝑎𝑥 + 𝛽2 𝑏𝑒𝑒𝑟𝑐𝑜𝑛𝑠 + ⋯
𝛽1 mengukur perbedaan dalam kematian karena kenaikan satu poin persentase dalam
pajak, memegang beercons tetap. Sulit untuk memahami mengapa ini menarik. Kita
seharusnya tidak mengontrol perbedaan dalam bir di seluruh negara bagian, kecuali jika
kita ingin menguji semacam efek tidak langsung dari pajak bir. Faktor-faktor lain,
seperti jenis kelamin dan distribusi usia, harus dikontrol.

Contoh diatas adalah apa yang bisa disebut over controlling untuk faktor-faktor
dalam regresi berganda. Seringkali ini disebabkan oleh kegugupan tentang potensi bias
yang mungkin muncul dengan mengabaikan hal-hal penting variabel penjelas. Tetapi
penting untuk mengingat sifat ceteris paribus dari regresi berganda. Dalam beberapa
kasus, tidak masuk akal untuk menahan beberapa faktor dengan tepat karena seharusnya
diperbolehkan berubah ketika variabel kebijakan berubah.

2.3 d Menambahkan Regresor untuk Mengurangi Varians Kesalahan

Terdapat 1 kasus yang jelas yaitu selalu memasukkan variabel independen yang
mempengaruhi y dan tidak berkorelasi dengan semua variabel independen yang
diminati. Karena menambahkan variabel seperti itu tidak menginduksi multikolinearitas
dalam populasi (dan karenanya multikolinearitas dalam sampel harus diabaikan), tetapi
akan mengurangi varians kesalahan. Dalam ukuran sampel yang besar, kesalahan
standar semua penduga OLS akan berkurang.

Sebagai contoh, pertimbangkan untuk memperkirakan permintaan bir individu


sebagai fungsi dari rata-rata harga bir kabupaten. Mungkin masuk akal untuk
mengasumsikan bahwa karakteristik individu tidak berkorelasi dengan harga tingkat
kabupaten, dan regresi sederhana konsumsi bir pada harga kabupaten akan cukup untuk
memperkirakan pengaruh harga pada permintaan individu. Tetapi, mungkin untuk

21
mendapatkan perkiraan yang lebih tepat elastisitas harga permintaan bir dengan
memasukkan karakteristik individu, seperti usia dan jumlah pendidikan. Jika faktor-
faktor ini mempengaruhi permintaan dan tidak berkorelasi dengan harga, maka
kesalahan standar koefisien harga akan lebih kecil, setidaknya dalam sampel besar.

Poin terkait adalah ketika memiliki penetapan kebijakan secara acak, tidak perlu
khawatir tentang apakah beberapa variabel penjelas adalah "endogen"—asalkan
variabel-variabel ini sendiri tidak terpengaruh oleh kebijakan tersebut.

Sayangnya, kasus memiliki informasi tentang variabel penjelas tambahan yang


tidak berkorelasi dengan variabel penjelas yang menarik agak jarang dalam ilmu -ilmu
sosial. Tetapi perlu diingat bahwa ketika variabel-variabel ini tersedia, dapat
dimasukkan ke dalam model untuk mengurangi varians kesalahan tanpa menyebabkan
multikolinearitas

2.4 Prediksi dan Analisis Residual


Dalam Bab 3, kami mendefinisikan nilai ols yang diprediksi atau pas dan residu
OLS. Prediksi adalah tentu berguna, tetapi mereka tunduk pada variasi sampling, karena
mereka diperoleh dengan menggunakan OLS estimator. Dengan demikian, pada bagian ini,
kami menunjukkan bagaimana mendapatkan interval kepercayaan diri untuk prediksi dari
Garis regresi OLS.
Dari Bab 3 dan 4, kita tahu bahwa residu digunakan untuk mendapatkan jumlah
residu kuadrat dan R-squared, sehingga mereka penting untuk kecocokan (kesesuaian) dan
pengujian. Terkadang, para ekonom mempelajari residu untuk pengamatan khusus untuk
belajar tentang individu (atau perusahaan, rumah, dll) di sampel.
2.4a Interval Kepercayaan untuk Prediksi
Misalkan kita telah memperkirakan persamaan
̂ +𝛽
𝑦̂= 𝛽 ̂ +𝛽
𝑥 ̂ + .... + 𝛽
𝑥 ̂𝑥 [6.27]
0 1 1 2 2 𝑘 𝑘

Kita memasukkan nilai-nilai tertentu dari variabel independen, kita mendapatkan


prediksi untuk y, dimana merupakan perkiraan nilai yang diharapkan dari y mengingat
nilai-nilai tertentu untuk variabel penjelasan. Untuk penekanan, biarkan c1, c2,...., ck
menunjukkan nilai-nilai tertentu untuk masing-masing variabel independen k; ini mungkin
atau mungkin tidak sesuai dengan titik data aktual dalam sampel kami. Parameter yang
ingin kita perkiraan adalah

𝜃0 = 𝛽0 + 𝛽1 𝑐1 + 𝛽2 𝑐2 + ... + 𝛽𝑘 𝑐𝑘 [6.28]
= E(y|𝑥1 = 𝑐1 , 𝑥2 = 𝑐2 , .... , 𝑥𝑘 = 𝑐𝑘 ).
Estimator dari 𝜃0 adalah

22
̂0𝜃 = ̂𝛽+ 0̂𝑐𝛽 1 1
̂𝑐 2
+𝛽 2 ̂ 𝑐𝑘
+ .... + 𝛽 𝑘 [6.29]
Dalam prakteknya, ini mudah untuk dihitung. Tetapi bagaimana jika kita
menginginkan beberapa ukuran ketidakpastian dalam nilai yang diprediksi ini? Wajar
untuk membangun interval kepercayaan untuk 𝜃0 yang berpusat pada ̂0𝜃.
Untuk mendapatkan interval kepercayaan untuk 𝜃0 , kita perlu standard error untuk
̂0𝜃. Kemudian, dengan df besar, kita dapat membangun interval kepercayaan 95%
menggunakan aturan praktis, 𝜃 ̂0 ± 2.se(𝜃̂). 0(Seperti biasa, kita dapat menggunakan
persentil yang tepat dalam distribusi t).

Bagaimana kita mendapatkan standard error 𝜃 ̂0 ? Ini adalah masalah yang sama
yang kita temui di Bagian 4-4: kita perlu mendapatkan standard error untuk kombinasi
linier dari estimator OLS. Di sini masalahnya bahkan lebih rumit, karena semua estimator
OLS umumnya muncul di 𝜃 ̂0 (kecuali beberapa cj adalah no l). Namun demikian, trik yang
sama di Bagian 4-4 akan kita gunakan di sini.
Tulis 𝛽0 = 𝜃0 - 𝛽1 𝑐1 - ... - 𝛽𝑘 𝑐𝑘 dan masukan ini ke dalam persamaan
y = 𝛽0 + 𝛽1 𝑥1 + ... + 𝛽𝑘 𝑥𝑘 + u
untuk mendapatkan

y = 𝜃0 + 𝛽1 (𝑥1 -𝑐1 ) + 𝛽2(𝑥2 -𝑐2) + .... + 𝛽𝑘 (𝑥𝑘 -𝑐𝑘 ) + u [6.30]


Dengan kata lain, kita mengurangi nilai 𝑐𝑗 dari setiap pengamatan pada 𝑥𝑗, dan kemudian
kita menjalankan regresi dari
𝑦𝑖 pada (𝑥𝑖1 -𝑐1 ), ..., (𝑥𝑖𝑘 -𝑐𝑘 ), i = 1,2,...,n [6.31]
Nilai yang diprediksi dalam (6.29) dan, yang lebih penting, standard error diperoleh
dari dari intersep (atau konstan) dalam regresi (6.31). Sebagai contoh, kita mendapatkan
interval kepercayaan dari regresi IPK perguruan tinggi, di mana kita menggunakan
informasi sekolah menengah.
❖ Contoh 6.5 Interval Kepercayaan untuk Perguruan Tinggi yang Diprediksi
Dengan menggunakan data dalam IPK2, kita mendapatkan persamaan berikut
untuk memprediksi IPK perguruan tinggi:
𝒄𝒐̂̂𝒍𝒈𝒑𝒂 = 1.493 + .00149 sat - .01386 hsperc - .06088 hsize + .00546 hsize2 [6.32]

(0.075) (.00007) (.00056) (.01650) (.00227)

n = 4,137, R2 = .278, 𝑅̅2 = .277, 𝜎̂= .560,


di mana kita telah melaporkan perkiraan ke beberapa digit untuk mengurangi
round-off error. Apa yang diprediksi IPK perguruan tinggi, ketika sat = 1,200, hsperc =
30, and hsize = 5 (yang berarti 500)? Hal ini mudah didapat dengan memasukkan nilai-

23
nilai ini ke dalam persamaan (6.32): 𝒄𝒐̂̂𝒍𝒈𝒑𝒂 = 2.70 (dibulatkan menjadi dua digit).
Sayangnya, kita tidak dapat menggunakan persamaan (6.32) secara langsung untuk
mendapatkan interval kepercayaan untuk colgpa yang diharapkan pada nilai yang
diberikan dari variabel independen. Salah satu cara sederhana untuk mendapatkan interval
kepercayaan adalah dengan mendefinisikan kumpulan variabel independen: sat0 = sat -
1,200, hsperc0 = hsperc - 30, hsize0 = hsize - 5, dan hsizesq0 = hsize2 - 25. Ketika kita
mengalami kemunduran colgpa pada variabel independen baru ini, kita mendapatkan

𝒄𝒐̂̂𝒍𝒈𝒑𝒂 = 2.700 + .00149 sat0 - .01386 hsperc0 - .06088 hsize0 + .00546 hsizesq0
(0.020) (.00007) (.00056) (.01650)(.00227)

n = 4,137, R2 = .278, ̅𝑅2 = .277, 𝜎̂= .560,


Satu-satunya perbedaan antara regresi ini dan yang di (6,32) adalah intersepsi, yang
merupakan prediksi yang kita inginkan bersama dengan standard errornya, .020. Bukan
kebetulan bahwa slope coefficients (koefisien kemiringan), standard error, R-squared, dan
seterusnya sama seperti sebelumnya. Ini menyediakan cara untuk memeriksa bahwa
transformasi yang tepat telah dilakukan. Kita dapat dengan mudah membangun interval
kepercayaan 95% untuk IPK perguruan tinggi yang diharapkan: 2.70 ± 1.96(.020) atau
tentang 2.66 to 2.74. Interval kepercayaan ini agak sempit karena ukuran sampel yang
sangat besar.
Karena varians dari estimator interseptor terkecil ketika setiap variabel pen jelasan
memiliki nol sampel rata-rata (lihat Pertanyaan 2.5 untuk kasus regresi sederhana), berikut
dari regresi dalam (6,31) bahwa varians dari prediksi terkecil pada nilai rata -rata xj. (yaitu
cj = 𝑥̅j untuk semua j). Hasil ini tidak terlalu mengejutkan, karena kita memiliki keyakinan
paling besar pada garis regresi kita di dekat bagian tengah data. Sebagai nilai cj
mendapatkan lebih jauh dari , 𝑥̅ j, Var(𝑦̂ ) menjad i lebih besar dan lebih besar.
Metode sebelumnya memungkinkan kita untuk menempatkan interval kepercayaan
di sekitar perkiraan OLS E(y|𝑥1 , ,𝑥𝑘 ) untuk setiap nilai variabel penjelasan. Dengan kata
lain, kita mendapatkan interval kepercayaan untuk nilai rata-rata y untuk subpopulasi
dengan satu set kovariat tertentu. Tetapi interval kepercayaan untuk rata -rata orang dalam
subpopulasi tidak sama dengan interval kepercayaan untuk unit tertentu (individu,
keluarga, perusahaan, dan sebagainya) dari populasi. Dalam membentuk interval
kepercayaan untuk hasil yang tidak diketahui pada tahun y, kita harus memperhitungkan
sumber variasi lain yang sangat penting: varians dalam kesalahan yang tidak teramati, yang
mengukur ketidaktahuan kita tentang faktor-faktor yang tidak teramati. yang
mempengaruhi y.

Misalkan 𝑦0 menunjukkan nilai yang ingin kita buat interval kepercayaannya, yang
biasa kita sebut dengan interval prediksi. Misalnya, 𝑦0 dapat mewakili seseorang atau
perusahaan yang tidak dalam sampel asli. Biarkan 𝑥0 , ...., 𝑥0 menjadi nilai baru dari
1 𝑘

24
variabel independen yang kita asumsikan kita amati, dan biarkan 𝑢0 menjadi unobserved
error. Oleh karena itu, kita memiliki
𝑦0 = 𝛽0 + 𝛽1 𝑥0 + 𝛽2 𝑥0 + ... + 𝛽𝑘 𝑥0 + u [6.33]
1 2 𝑘

Seperti sebelumnya, prediksi terbaik kami tentang 𝑦0 adalah nilai yang diharapkan dari 𝑦0
mengingat variabel penjelasan, yang kami perkirakan dari garis regresi OLS ̂0𝑦 = 𝛽 ̂ +0
̂𝑥 0 + 𝛽
𝛽 ̂𝑥 0 + ... + 𝛽̂𝑥 0 . Predik si error dalam menggunakan 0̂𝑦 untuk memprediksi 𝑦 0
1 1 2 2 𝑘 𝑘
adalah
̂0𝑒 = 𝑦 0 − ̂0𝑦 = (𝛽0 + 𝛽1 𝑥 0 + ... + 𝛽𝑘 𝑥 0 ) + 𝑢0 - 0̂𝑦 [6.34]
1 𝑘
̂0 ) = E(𝛽
Now, E(𝑦 ̂) + E(𝛽
̂) 𝑥 0 + E(𝛽
̂) 𝑥 0 + ... + E(𝛽
̂) 𝑥0 = 𝛽 + 𝛽 𝑥0 + ... + 𝛽 𝑥0 ,
0 1 1 2 2 𝑘 𝑘 0 1 1 𝑘 𝑘
karena 𝛽̂𝑦tidak bias. (Seperti sebelumnya, harapan ini semua tergantung pada nilai sampel
variabel independen). Karena u 0 memiliki rata-rata nol E(𝑒0̂ ) = 0. Kami telah
menunjukkan bahwa prediksi error yang diharapkan adalah nol.

Dalam menemukan varians dari 𝑒̂0 perhatikan bahwa u 0 tidak berkorelasi dengan
masing-masing 𝛽̂𝑦, karena u 0 tidak berkorelasi dengan error dalam sampel yang digunakan
̂ 𝑦. Dengan sifat dasar kovarians (lihat lampiran B), u 0 dan 0̂𝑦 tidak berkorelasi. Oleh
untuk 𝛽
karena itu, varians dari prediksi error (bersyarat pada semua nilai insample dari variabel
independen) adalah jumlah varians:

Var(𝑒̂0 ) = Var(𝑦̂0 ) + Var(u 0 ) = Var(𝑦̂0 ) + 𝜎 2 [6.35]

dimana 𝜎 2 = Var(u 0 ) adalah v arian s error. Ada dua sumber variasi dalam ̂0𝑒. Yang pertama
adalah sampling error di 0̂𝑦, yang muncul karena kita telah memperkirakan 𝛽𝑗 . Karena
masing-masing 𝛽̂𝑦 memiliki varian s yang sebanding dengan 1/n, dimana n adalah ukuran
sampel, Var(𝑦̂0 ) sebanding dengan 1/n. Ini berarti untuk sampel besar, Var(𝑦̂0 ) bisa sangat
kecil. Sebaliknya, 𝜎2 adalah varians dari error dalam populasi: tidak berubah dengan
ukuran sampel. Dalam banyak contoh, 𝜎2 akan menjadi istilah dominan dalam (6,35).

Di bawah asumsi model linear klasik,𝑦 𝛽̂ dan u 0 terdistribusi normal dan 𝑒̂0 juga
terdistribusi normal (tergantung pada semua nilai sampel dari variabel penjelas).
̂0 ), dan kami
Sebelumnya, kami menjelaskan cara mendapatkan penaksir tak bias dari Var(𝑦
memperoleh estimator kami yang tidak bias dari 𝜎2 dalam Bab 3. Dengan menggunakan
estimator ini, kita dapat menentukan standard error 0̂𝑒 sebagai

se(𝑒̂0 ) = {[se(𝑦
̂0 )]2 + 𝜎
̂2 }1/2 [6.36]
̂0
Menggunakan alasan yang sama untuk statistik t dari 𝛽̂, (𝑒)
memiliki distribusi t dengan
𝑦 se(𝑒̂0 )

n - (k + 1) derajat kebebasan, jadi

25
(𝑒̂0 )
P[-t.025 ≤ se(𝑒̂0 ) ≤ t.025 ] =.95,

Dimana t.025 adalah 97.5 th persentil dalam tn-k-1 distribusi. Untuk besar n - k – 1, ingatlah
bahwa t. 0 2 5 ≈ 1.96. Memasukkan dalam ̂0𝑒 = 𝑦 0 - ̂0𝑦 dan menata ulang memberikan interval
prediksi 95% untuk 𝑦0 :
̂0𝑦 ± t.025· se(𝑒̂0 ); [6.37]

seperti biasa, kecuali untuk df kecil, aturan praktis yang baik adalah 0̂𝑦± 2 se(𝑒0̂ ). Ini lebih
luas dari interval kepercayaan untuk ̂0𝑦 itu sendiri karena ̂2𝜎 dalam (6.36); seringkali jauh
lebih luas untuk mencerminkan faktor-faktor dalam u 0 yang kita belum diperhitungkan.

❖ Contoh 6.6 Interval Kepercayaan untuk IPK Kuliah Masa Depan


Misalkan kita ingin CI 95% untuk IPK perguruan tinggi masa depan
seorang siswa SMA dengan sat = 1,200, hsperc = 30, and hsize = 5. Dalam Contoh
6.5, kami memperoleh interval kepercayaan 95% untuk rata-rata IPK perguruan
tinggi di antara semua siswa dengan karakteristik tertentu sat = 1,200, hsperc = 30,
and hsize = 5. Sekarang, kami menginginkan interval kepercayaan 95% untuk
setiap siswa tertentu dengan ini karakteristik. Interval prediksi 95% harus
memperhitungkan variasi pada individu, karakteristik yang tidak teramati yang
mempengaruhi kinerja perguruan tinggi. Kita memiliki semua yang kita butuhkan
untuk mendapatkan CI untuk colgpa. se(𝑦 ̂0 ) = .020 and 𝜎̂ = .560 and so, from
(6.36), se(𝑒̂0 ) = [(.020)2 + (.560)2]1/2 ≈ .560.

Perhatikan seberapa kecil se(𝑦̂ ) relatif terhadap 𝜎̂: hampir semua variasi
0

dalam ̂0𝑒 berasal dari variasi dalam u 0. 95% CI adalah 2.70 ± 1.96(.560) atau
tentang 1.60 to 3.80. Ini adalah interval kepercayaan yang luas dan menunjukkan
bahwa, berdasarkan faktor-faktor yang kita sertakan dalam regresi, kita tidak dapat
secara akurat menentukan rata-rata nilai kuliah masa depan. (Di satu sisi, ini adalah
kabar baik, karena itu berarti bahwa peringkat sekolah menengah dan kinerja pada
SAT tidak preordain kinerja seseorang di perguruan tinggi.) Terbukti, karakteristik
yang tidak teramati yang mempengaruhi IPK perguruan tinggi sangat bervariasi di
antara individu dengan skor SAT yang diamati sama dan peringkat sekolah
menengah.
2.4b Analisis Residual
Kadang-kadang, berguna untuk memeriksa pengamatan individu untuk
melihat apakah nilai sebenarnya dari variabel dependen berada di atas atau di
bawah nilai yang diprediksi; yaitu, untuk memeriksa residu untuk pengamatan
individu. Proses ini disebut analisis residual. Para ekonom telah dikenal untuk
memeriksa residu dari regresi untuk membantu dalam pembelian rumah. Berikut

26
ini contoh harga perumahan menggambarkan analisis residual. Harga perumahan
terkait dengan berbagai pengamatan karakteristik rumah. Kita dapat
mencantumkan semua karakteristik yang kita anggap penting, seperti ukuran,
jumlah kamar tidur, jumlah kamar mandi, dan sebagainya. Kita dapat menggunakan
sampel rumah untuk memperkirakan hubungan antara harga dan atribut, di mana
kita berakhir dengan nilai yang diprediksi dan nilai aktual untuk setiap rumah.
Kemudian, kita dapat membangun residu, 𝑢𝑖̂ = 𝑦1 - 1𝑦
̂ . Rumah dengan residu paling
negatif, setidaknya berdasarkan faktor-faktor yang telah kami kendalikan adalah
uang paling murah relatif terhadap karakteristik yang diamati. Tentu saja, harga
jual secara substansial di bawah harga yang diprediksi dapat menunjukkan
beberapa fitur yang tidak diinginkan dari rumah yang telah gagal kita
pertanggungjawabkan, dan karena demikian. yang terkandung dalam unobserved
error. Selain mendapatkan prediksi dan residu, membuat akal untuk menghitung
interval kepercayaan untuk berapa harga jual rumah di masa depan, menggunakan
metode yang dijelaskan dalam persamaan (6.37).
Dengan menggunakan data di HPRICE1, kami menjalankan regresi harga
pada lotsize, sqrft, and bdrms. Dalam sampel dari 88 rumah, residu yang paling
negatif adalah -120.206, untuk rumah ke-81. Oleh karena itu, harga yang diminta
untuk rumah ini adalah $ 120.206 di bawah harga yang diprediksi.
Ada banyak kegunaan lain dari analisis residual. Salah satu cara untuk
menentukan peringkat sekolah hukum adalah dengan meregresi median gaji awal
pada berbagai karakteristik siswa (seperti median nilai LSAT masuk kelas, median
IPK perguruan tinggi saat masuk kelas, dan sebagainya) dan untuk memperoleh
nilai prediksi dan residual untuk masing-masing fakultas hukum. Fakultas hukum
dengan residual terbesar memiliki prediksi nilai tambah tertinggi. (Tentu saja,
masib ada banyak ketidakpastian tentang bagaimana gaji awal individu akan
dibandingkan dengan median untuk sekolah hukum secara keseluruhan). Residu ini
dapat digunakan bersama dengan biaya menghadiri setiap sekolah hukum untuk
menentukan nilai terbaik: ini akan membutuhkan pendiskontoan yang tepat atas
pendapatan masa depan.
Analisis residual juga berperan dalam keputusan hukum. Sebuah artikel
New York Times berjudul "Hakim Mengatakan Kemiskinan Murid, Bukan
Segregasi, Skor Menyakitkan" (28/6/95) menggambarkan kasus hukum yang
penting. Masalahnya adalah apakah kinerja yang buruk pada tes standar di Hartford
School District, relatif terhadap kinerja di pinggiran kota sekitarnya. Hal ini
disebabkan oleh kualitas sekolah yang buruk di sekolah-sekolah yang sangat
terpisah. Hakim menyimpulkan bahwa "perbedaan dalam nilai tes tidak
menunjukkan bahwa Hartford melakukan pekerjaan yang tidak memadai atau
buruk dalam mendidik siswa atau bahwa sekolah-sekolahnya gagal, karena skor

27
yang diprediksi berdasarkan faktor sosial ekonomi yang relevan adalah tentang
pada tingkat yang akan mengharapkan." Kesimpulan ini didasarkan pada analisis
regresi skor rata-rata atau median pada karakteristik sosial ekonomi dari berbagai
distrik sekolah di Connecticut. Kesimpulan hakim menunjukkan bahwa, mengingat
tingkat kemiskinan siswa di sekolah Hartford, nilai tes yang sebenarnya mirip
dengan yang diprediksi dari analisis regresi: sisa untuk Hartford tidak cukup negatif
untuk menyimpulkan bahwa sekolah itu sendiri adalah penyebab nilai tes rendah.
2.4c Memprediksi y Ketika log (y) adalah Variabel Dependen
Karena transformasi log natural digunakan begitu sering untuk variabel
dependen dalam ekonomi empiris, kita mencurahkan subbagian ini untuk masalah
memprediksi y ketika log (y) adalah variabel dependen. Sebagai produk sampingan,
kita akan mendapatkan ukuran kecocokan untuk model log yang dapat
dibandingkan dengan R-squared dari model level.
Untuk mendapatkan prediksi, berguna untuk mendefinisikan logy = log(y);
ini menekankan bahwa itu adalah log dari y yang diprediksi dalam model
Logy = 𝛽0 + 𝛽1𝑥1 + 𝛽2 𝑥2 + ... + 𝛽𝑘 𝑥𝑘 + u [6.38]
Dalam persamaan ini, xj mungkin merupakan transformasi dari variabel
lain; misalnya, kita bisa memiliki 𝑥1 5= log(sales), 𝑥2 = log(mktval), 𝑥3 = ceoten
dalam contoh gaji CEO.
Mengingat estimator OLS, kita tahu bagaimana memprediksi logy untuk
setiap nilai variabel independen:
𝑙̂𝑜𝑔𝑦 = ̂𝛽+ ̂𝑥 ̂𝑥 + .... + ̂𝛽
𝛽 +𝛽 𝑥 [6.39]
0 1 1 2 2 𝑘 𝑘

Sekarang, karena eksponensial membatalkan log, tebakan pertama kami


untuk memprediksi y adalah hanya mengeksponenkan nilai prediksi untuk log(y):
𝑦̂= exp (𝑙̂𝑜𝑔𝑦). Ini tidak berhasil: pada kenyataannya, ini akan secara sistematis
meremehkan nilai yang diharapkan dari y. Bahkan, jika model (6.38) mengikuti
asumsi CLM MLR.1 hingga MLR.6 dapat ditunjukkan bahwa
2
E(y|x) = exp 𝜎 . exp (𝛽 + 𝛽 𝑥 + 𝛽 𝑥 + ... + 𝛽 𝑥 ),
2 0 1 1 2 2 𝑘 𝑘

di mana x menunjukkan variabel independen dan 𝜎2 adalah varians dari u.


2
[Jika u, Normal(0, 𝜎2 ), kemudian nilai yang diharapkan dari exp(u) adalah exp 𝜎
2
.] Persamaan ini menunjukkan bahwa penyesuaian sederhana diperlukan untuk
prediksi y:
𝜎2
𝑦̂= exp ( 2 )exp (𝑙̂𝑜𝑔𝑦), [6.40]

di mana 𝜎̂2 hanyalah estimator yang tidak bias dari 𝜎 2 . Karena 𝜎 2 , standard
error dari regresi selalu dilaporkan, mendapatkan nilai yang diprediksi untuk y itu
28
2
mudah. Sebab 𝜎2̂ > 0, exp(𝜎 ) > 1. Untuk besar 𝜎̂2, faktor penyesuaian ini bisa jauh
2
lebih besar dari persatuan.
Prediksi dalam (6,40) tidak bias, tetapi konsisten. Tidak ada prediksi yang
tidak bias tentang y, dan dalam banyak kasus, (6,40) bekerja dengan baik. Namun,
itu bergantung pada normalitas istilah error, u. Dalam Bab 5, kami menunjukkan
bahwa OLS memiliki sifat yang diinginkan, bahkan ketika u biasanya tidak
didistribusikan. Oleh karena itu, berguna untuk memiliki prediksi yang tidak
bergantung pada normalitas. Jika kita hanya berasumsi bahwa u adalah independen
dari variabel penjelasan, maka kita memiliki

E(y|x) = 𝛼0 exp (𝛽0 + 𝛽1𝑥1 + 𝛽2 𝑥2 + ... + 𝛽𝑘 𝑥𝑘 ), [6.41]


di mana 𝛼0 adalah nilai yang diharapkan dari exp(u), yang harus lebih besar
dari persatuan. Dengan perkiraan 𝛼̂0 , kita bisa memprediksi y sebagai

̂0 exp (𝑙̂𝑜𝑔𝑦),
𝑦̂= 𝛼 [6.42]
yang sekali lagi hanya membutuhkan eksponensial nilai prediksi dari model
log dan mengalikan hasilnya dengan 𝛼
̂0 .
Dua pendekatan menyarankan diri mereka untuk memperkirakan 𝛼0 tanpa
asumsi normalitas. Yang pertama didasarkan pada 𝛼0 = E[exp(u)]. Untuk
memperkirakan 𝛼0 , kami mengganti harapan populasi dengan rata-rata sampel dan
kemudian kami mengganti unobserved errors, u i, dengan residual OLS 𝑢𝑖̂ = log(y i)
- ̂𝛽-0 ̂𝑥𝛽 -1 ...-𝑖1 ̂𝛽𝑥 𝑖 . Hal ini menyebabkan metode estimator momen (lihat
𝑘 𝑘
Lampiran C).
̂0 = 𝑛−1 ∑𝑛 𝑖=1 exp(𝑢̂𝑖 ).
𝛼 [6.43]
Tidak mengherankan, 𝛼 ̂0 adalah estimator yang konsisten dari 𝛼0 , tapi itu
tidak bias karena kita telah menggantikan 𝑢𝑖 dengan 𝑢̂𝑖 dalam fungsi nonlinier.
Versi ini dari 𝛼
̂ A\adalah kasus khusus dari apa yang Duan (1983) sebut perkiraan
0
yang smearing. Karena residu OLS memiliki rata-rata sampel nol, dapat
ditunjukkan bahwa, untuk setiap kumpulan data, 𝛼 ̂ > 1. (Secara teknis, 𝛼
0 ̂ akan
0
sama dengan satu jika semua residu OLS adalah nol, tapi ini tidak pernah terjadi
dalam aplikasi yang menarik). 0𝛼 ̂ tentu saja lebih besar dari satu yang cocok karena
itu harus 𝛼0 > 1.
Perkiraan yang berbeda dari 𝛼0 didasarkan pada regresi sederhana melalui
asal. Untuk melihat cara kerjanya, definisikan, 𝑚𝑖 = exp (𝛽0 + 𝛽1 𝑥𝑖1 + ... + 𝛽𝑘 𝑥𝑖𝑘),
sehingga, dari persamaan (6.41), E(𝑦𝑖|𝑚𝑖) = 𝛼0 𝑚𝑖. Jika kita dapat mengamati 𝑚𝑖,
kita bisa mendapatkan estimator yang tidak bias dari 𝛼0 dari regresi 𝑦𝑖 pada 𝑚𝑖
tanpa intersepsi. Sebagai gantinya, kita mengganti 𝛽𝑗 dengan perkiraan OLS

29
mereka dan mendapatkan 𝑚 ̂𝑖 = exp(𝑙̂𝑜𝑔𝑦 ),𝑖 di mana, tentu saja, 𝑙̂𝑜𝑔𝑦 𝑖 adalah nilai
yang pas dari regresi 𝑙𝑜𝑔𝑦𝑖 pada 𝑥𝑖1 ,...., 𝑥𝑖𝑘 (dengan intersep). Kemudian, 𝛼 ̌0
[untuk membedak anny a dari 0𝛼 ̂ dalam persamaan (6.43)] adalah perkiraan
kemiringan (slope) OLS dari regresi sederhana, 𝑦𝑖 pada 𝑚 𝑖̂ (tidak ada intersep):

̌0 = (∑𝑛 𝑚
𝛼 ̂ )-1 (∑𝑛
2 𝑚̂ 𝑦 ). [6.44]
𝑖=1 𝑖 𝑖=1 𝑖 𝑖

Kita akan memanggil 𝛼 ̌0 perkiraan regresi dari 𝛼0 . Seperti 𝛼


̂0 , 𝛼
̌0 konsisten
tetapi tidak bias. Menariknya, 𝛼 ̌0 tidak dijamin lebih besar dari satu, meskipun akan
berada di sebagian besar aplikasi. Jika 𝛼 ̌0 , kurang dari satu dan terutama jika itu
jauh lebih sedikit dari satu, kemungkinan asumsi kebebasan antara u dan 𝑥𝑗
dilanggar. Jika, 𝛼 ̌ 0 < 1, salah satu kemungkinan adalah hanya menggunakan
perkiraan di (6.43), meskipun ini mungkin hanya menutupi masalah dengan model
linier untuk log (y). Kami merangkum langkah-langkah:
2.4d Memprediksi y Ketika Variabel Dependen adalah log(y)
1. Dapatkan fitted values, 𝑙̂𝑜𝑔𝑦 , dan residu, 𝑢̂, dari logy regresi pada 𝑥 , ..., 𝑥 .
𝑖 𝑖 𝑖 𝑘
2. Dapatkan 𝛼̂0 seperti dalam persamaan (6.43) atau 𝛼 ̌0 dalam persamaa (6.44).
3. Untuk nilai yang diberikan dari 𝑥𝑖,..., 𝑥𝑘 , dapatkan 𝑙̂𝑜𝑔𝑦 dari (6.42).
4. Dapatkan prediksi 𝑦̂dari (6.42) (dengan 𝛼 ̂0 atau 𝛼
̌0 ).
Kita sekarang menunjukkan cara memprediksi gaji CEO menggunakan prosedur
ini.

❖ Contoh 6.7 Memprediksi Gaji CEO


Model yang menarik adalah
log(salary) = 𝛽0 + 𝛽1 log(sales) + 𝛽2 log(mktval) + 𝛽3 log(ceoten) + u,

sehingga 𝛽1 dan 𝛽2 elastisitas dan 100. 𝛽3 adalah semi-elastisitas. Persamaan yang


diperkirakan menggunakan CEOSAL2 adalah

𝑙𝑠̂𝑎𝑙𝑎𝑟𝑦 = 4.504 + .163 lsales + .109 lmktval + .0117 ceoten


(.257) (.039) (.050) (.0053) [6.45]
n = 177, R2 = .318,
di mana, untuk kejelasan, kita membiarkan lsalary menunjukkan log salary,
dan juga untuk lsales dan lmktval. Selanjutnya, kita mendapatkan, 𝑚 ̂𝑖 =
̂𝑙𝑎𝑟𝑦𝑖) untuk setiap pengamatan dalam sampel.
exp(𝑙𝑠𝑎
Perkiraan Duan smearing dari (6,43) adalah tentang 𝛼 ̂0 = 1.136, dan
perkiraan regresi dari (6.44) adalah 𝛼
̌0 = 1.117. Kita dapat menggunakan perkiraan
untuk memprediksi salary untuk setiap nilai dari sales, mktval, and ceoten. Mari

30
kita temukan prediksi untuk sales = 5.000 (yang berarti $ 5 miliar karena sales
dalam jutaan), mktval = 10,000 (or $10 billion), and ceoten = 10. Dari (6.45),
prediksi untuk lsalary adalah 4.504 + .163·log(5,000) + .109·log(10,000) +
.0117(10) ≈ 7.013, dan exp (7.013) ≈ 1,110.983. Menggunakan perkiraan 𝛼0 dari
(6.43), gaji (salary) yang diprediksi adalah sekitar 1.262.077, atau $ 1.262.077.
Menggunakan perkiraan dari (6.44) memberikan perkiraan gaji sekitar $ 1.240.968.
Ini berbeda satu sama lain jauh lebih sedikit daripada masing-masing berbeda dari
prediksi naif $1,110,983.

31
BAB III
PENUTUP

3.1 Kesimpulan
Pengaruh penskalaan data pada statistik ols pada intinya begitu efeknya diubah
menjadi unit yang sama, maka akan didapatkan jawaban yang sama persis, terlepas dari
bagaimana variabel dependen tersebut diukur. Menemukan perangkat paling populer
dalam ekonometrika untuk memungkinkan hubungan nonlinier antara variabel yang
dijelaskan dan variabel penjelas: menggunakan logaritma untuk variabel dependen atau
independen. Memilih satu set variabel penjelas berdasarkan ukuran R-kuadrat dapat
menyebabkan model yang tidak masuk akal. Varians kesalahan yang besar dapat diimbangi
dengan ukuran sampel yang besar: jika kami memiliki data yang cukup, kami mungkin
dapat untuk secara tepat memperkirakan efek parsial meskipun kami tidak mengontrol
banyak faktor yang tidak teramati. perubahan relatif dalam R-kuadrat ketika variabel
ditambahkan ke persamaan ini sangat berguna: statistik F dalam (4.41) untuk menguji
signifikansi bersama sangat bergantung pada perbedaan R-kuadrat antara model terbatas
dan terbatas. Prediksi adalah tentu berguna, tetapi mereka tunduk pada variasi sampling,
karena mereka diperoleh dengan menggunakan OLS estimator. Dengan demikian, pada
bagian ini, kami menunjukkan bagaimana mendapatkan interval kepercayaan diri untuk
prediksi dari Garis regresi OLS.

32
DAFTAR PUSTAKA

Wooldridge, J.M. (2016), Introductory Econometrics A Modern Approach, 6th Ed. Boston:
Cengage Learning.

33

Anda mungkin juga menyukai