Anda di halaman 1dari 29

RESUM

MASALAH ESTIMASI REGRESI BERGANDA

Untuk Memenuhi Tugas Mata Kuliah Ekonometrika

Dosen Pengampu :
Galih Pradananta, M.Si

Disusun Oleh Kelompok 02:

1. Putri Sekar Nadilla ( 12402193248)


2. Ayu Bina Lestari (12402193253)
3. Anis Tina Saputri (12402193257)
4. M. Rizqy Wahyu Pratama (12402193258)
5. Febila Qurrotu Ainina (12402193261
6. Ica Wahyu Trisnawati ( 12402193276)
7. Laila Rizqi Amala (12402193289)

JURUSAN EKONOMI SYARIAH


FAKULTAS EKONOMI DAN BISNIS ISLAM
UNIVERSITAS ISLAM NEGERI SAYYID ALI RAHMATULLAH TULUNGAGUNG
OKTOBER 2021
RESUME

( MASALAH ESTIMASI REGRESI BERGANDA)

A. Model Tiga Variabel : Notasi Dan Asumsi


Menggeralisasikan fungsi regresi populasi dua variabel, kita dapat menulis
tiga variabel.
Yi = β1 + β2X2i + β3X3i + սi (1.1.1)

dimana Y adalah variabel terikat, X2 dan X3 variabel penjelas (atau regresi), ս istilah
gangguan stokastik, dan i observasi , dalam hal data adalah deret waktu.

β1adalah istilah intersepsi. Ini memberikan efek rata-rata atau rata-rata pada Y
dari semua variabel yang dikecualikan dari model, meskipun interpretasi mekaniknya
adalah nilai rata-rata Y ketika X2 dan X3 diatur sama dengan nol. Koefisien β 2 dan β3
disebut koefisien regresi parsial.

Kami terus beroperasi dalam kerangka model regresi linier klasik pertama kali
diperkenalkan dalam bab 3. Secara khusus, kami menganggap sebagai berikut:

Nilai nol rata-rata սi

E (սi | X2i, X3i) = 0 for each i (1.1.2)

Tidak ada korelasi serial, atau

cov (սi, սi) = 0 i ≠ i (1.1.3)

Homoskedastisitas, atau

var (սi) = σ2 (1.1.4)

Nol kovarians antara ui dan masing-masing variabel X, atau

cov (սi , X2i) = cov (սi, X3i) = 0 (1.1.5)

Tidak ada spesifikasi bias.

Model ditentukan dengan benar (1.1.6)

Tidak ada collinearitas yang tepat antara variabel X, atau

1
Tidak ada hubungan linear yang tepat antara X2 dan X3 (1.1.7)

model regresi linier berganda dalam parameter, bahwa nilai regresi tetap
dalam pengambilan sampel berulang, dan bahwa ada variabilitas yang cukup dalam
nilai regresi.
Alasan untuk asumsi 1.1.2 melalui 1.1.6 anggapan 1.1.7 bahwa tidak ada
hubungan linear yang tepat antara X2 dan X3, secara teknis dikenal sebagai asumsi
tidak ada collinearity atau tidak ada multikolinieritas jika lebih dari satu hubungan
linear yang tepat terlibat, adalah hal baru dan membutuhkan penjelasan.

Secara informal, tidak ada collinearity yang berarti tidak ada regresi yang
dapat ditulis sebagai kombinasi linear yang tepat dari regresor yang tersisa dalam
model.

Secara formal, tidak ada collinearity berarti ada tidak ada set angka,λ2 dan λ3,
tidak keduanya nol sedemikian rupa.

λ2X2i + λ3 X3i = 0 (1.1.8)

Jika ada hubungan linear yang tepat, maka X2 dan X3 dikatakan sebagai collinear
atau tergantung linearly. Di sisi lain, jika (1.1.8) hanya berlaku saat λ 2 = λ3 = 0
kemudian X2 dan X3 dikatakan independen secara linear.

Jadi, jika

X2i = −4X3i atau X2i + 4X3i = 0 (1.1.9)

Dua variabel bergantung secara linear, dan jika keduanya termasuk dalam
model regresi, kami akan memiliki collinearity yang sempurna atau hubungan linear
yang tepat antara kedua regresor.

secara intuitif logika di balik asumsi tidak ada multikolinieritas tidak terlalu
sulit untuk dipahami. Misalkan dalam (1.1.1) Y, X2, dan X3 Mewakili pengeluaran
konsumsi, penghasilan, dan kekayaan konsumen, masing-masing. Dalam menyatakan
bahwa pengeluaran konsumsi secara linear terkait dengan pendapatan dan kekayaan,
teori ekonomi mengandaikan bahwa kekayaan dan pendapatan mungkin memiliki
pengaruh independen pada konsumsi. Jika tidak, tidak ada gunanya memasukkan
variabel pendapatan dan kekayaan dalam model. Dalam ekstrem, jika ada hubungan

2
linear yang tepat antara pendapatan dan kekayaan, kami hanya memiliki satu variabel
independen, bukan dua, dan tidak ada cara untuk menilai pengaruh pendapatan dan
kekayaan yang terpisah pada konsumsi. Untuk melihat ini dengan jelas, biarkan X3i =
2X2i dalam konsumsi regresi kekayaan pendapatan. Kemudian regresi (1.1.1) menjadi

Yi = β1 + β2 X2i + β3(2X2i) + սi

= β1 + (β2 + 2β3)X2i + սi (1.1.10)

= β1 + αX2i + սi

Dimana α = (β2 + 2β3) Artinya, sebenarnya memiliki dua variabel dan bukan tiga
regresi variabel. Apalagi jika kita menjalankan regresi (1.1.10) dan dapatkan α, tidak
ada cara untuk memperkirakan pengaruh terpisah X2 ( = β2 ) dan X3 ( = β3) pada Y,
untuk α memberikan pengaruh gabungan dari X2 dan X3 pada Y.

Singkatnya asumsi tidak ada multikolinieritas mensyaratkan bahwa dalam


fungsi regresi populasi kami hanya menyertakan variabel-variabel yang bukan fungsi
linear yang tepat dari satu atau lebih variabel dalam model.
Pertama, asumsi tidak ada multikolinieritas berkaitan dengan teoretis model.
Dalam praktiknya, ketika kita mengumpulkan data untuk analisis empiris, tidak ada
jaminan bahwa tidak akan ada korelasi di antara regresor. Faktanya, dalam
kebanyakan pekerjaan yang diterapkan hampir tidak mungkin untuk menemukan dua
atau lebih variabel (ekonomi) yang mungkin tidak berkorelasi sampai batas tertentu,
seperti yang akan kita tunjukkan dalam contoh ilustrasi kita nanti dalam bab ini. Apa
yang kita butuhkan adalah itu tidak ada hubungan yang tepat di antara regresor.
Kedua, perlu diingat bahwa kita hanya berbicara tentang hubungan linear yang
sempurna antara dua atau lebih variabel. Multicollinearity tidak mengesampingkan
hubungan nonlinear antar variabel.
B. Interpretasi Persamaan Regresi Ganda
Analisis Regresi Linier Berganda adalah analisis yang mengukur pengaruh
variabel bebas terhadap variabel terikat. Pengukuran pengaruh ini melibatkan satu
variabel bebas (X) dan variabel terikat (Y), yang dinamakan analisis regresi linier
berganda sederhana dengan rumus Y= a+bX.
Mengingat asumsi model regresi klasik, maka, pada harapan bersyarat dari Y
di kedua sisi kita memperoleh,

E (Yi | X2i, X3i) = β1 + β2 X2i + β3i X3i

3
Dengan kata lain, memberikan mean bersyarat atau nilai yang diharapkan dari
Y bersyarat pada nilai yang diberikan atau tetap dari X2 dan X3 . Oleh karena itu,
seperti pada kasus dua variabel, analisis regresi berganda adalah analisis regresi yang
bergantung pada nilai-nilai tetap dari regresi, dan apa yang kita peroleh adalah nilai
rata-rata atau rata-rata dari Y atau respons rata-rata dari Y untuk nilai-nilai yang
diberikan dari para regressor.

C. Makna Koefisien Regresi Parsial


Seperti disebutkan sebelumnya, koefisien regresi 2 dan 3 dikenal sebagai
regresi parsial atau koefisien kemiringan parsial. Arti dari koefisien regresi parsial
adalah sebagai berikut: β2 mengukur perubahan nilai rata-rata Y, E(Y), per unit
perubahan X2, dengan mempertahankan nilai X3 konstan. Dengan kata lain, ini
memberikan efek "langsung" atau "bersih" dari perubahan satuan X 2 pada nilai rata-
rata Y, setelah dikurangi efek apa pun yang mungkin dimiliki X3 pada rata-rata Y.
Demikian juga, β3 mengukur perubahan dalam nilai rata-rata Y per unit berubah
dalam X3, dengan mempertahan kan nilai X2 konstan. Artinya, memberikan efek
"langsung" atau "bersih" dari suatu unit perubahan X3 pada nilai rata-rata Y, setelah
dikurangi pengaruh apa pun yang mungkin dimiliki X2 pada rata-rata Y.

Bagaimana kita benar-benar memegang pengaruh konstan taregressor? Untuk


menjelaskan hal ini, mari kita kembalike contoh kematian anak. Ingat bahwa dalam
contohitu, Y = kematian anak (CM), X2 = GNP per kapita (PGNP), dan X 3 = tingkat
melek huruf perempuan (FLR). Misalkan kita ingin mempertahankan pengaruh
konstanta FLR. Karena RENTANG mungkin memiliki beberapa efek pada CM serta
PGNP dalam data konkret yang diberikan, yang dapat kita lakukan adalah
menghilangkan pengaruh (linier) RENTANG dari CM dan PGNP dengan menjalan
kanregresi CM pada RENTANG dan PGNP pada FLR secara terpisah kemudian
melihat residual yang diperoleh dari regresi tersebut. Menggunakan data yang
diberikan pada Tabel 6.4, kami memperoleh regresi berikut:

CMi = 263.8635 − 2.3905 FLRi + û1i

se= (12.2249) (0.2133) r2 = 0.6695

dimana û1i mewakili istilah residual dari regresi ini.

PGNPi = −39.3033 + 28.1427 FLRi + û2i

se= (734.9526) (12.8211) r2 = 0.0721

4
dimana û2i mewakili istilah residual dari regresi ini. Sekarang

û1i= (CMi − 263.8635 + 2.3905 FLRi )

mewakili bagian CM yang tersisa setelah menghilangkan pengaruh (linier)


dari nya dari RENTANG. Juga, û2i= (PGNPi + 39.3033 − 28.1427 FLR i ) mewakili
bagian PGNP yang tersisa setelah menghilangkan pengaruh (linier) RENTANG
darinya. Oleh karena itu, jika kita sekarang melakukan regresi û1i pada û2i, yang
“dimurnikan” dari pengaruh (linier) RENTANG, bukan kah kita akan memperoleh
efek bersih PGNP pada CM? Memang benar demikian. Hasil regresinya adalah
sebagai berikut:

Catatan: Regresi ini tidak memiliki istilah intersep karena nilai rata-rata dari
Residu OLS uˆ1i dan uˆ2i adalah nol (mengapa?)

Koefisien kemiringan 0,0056 sekarang memberikan efek "benar" atau bersih


dari perubahan satuan di PGNP pada CM atau kemiringan sebenarnya dari CM
terhadap PGNP. Artinya, memberikan koefisien regresi parsial CM terhadap PGNP,
β2. Pembaca yang ingin mendapat kan koefisien regresi parsial CM sehubungan
dengan FLR dapat mereplikasi prosedur di atas dengan terlebih dahulu meregresi CM
pada PGNP dan mendapatkan residual dari regresi ini (û 1i), kemudian meregresi FLR
pada PGNP dan memperoleh residual dari regresi ini (û2i), dan kemudian melakukan
regresi û1i pada û2i. Saya yakin pembaca mengerti.

Apakah kita harus melalui prosedur multi step ini setiap kali kita ingin
mengetahui koefisien regresi parsial yang sebenarnya? Untungnya, kita tidak perlu
melakukan itu, karena pekerjaan yang sama dapat diselesaikan dengan cukup cepat
dan rutin dengan prosedur OLS yang dibahas di bagian selanjutnya. Prosedur multi
langkah yang baru saja digariskan hanyalah untuk tujuan pedagogis untuk
menunjukkan arti dari koefisien regresi “sebagian”.

D. Koefisien Regresi Parsial Estimasi OLS dan ML Penaksir OLS

5
Untuk memperkirakan parameter model regresi tiga variable, pertama-tama
kita pertimbangkan metode kuadrat terkecil biasa (OLS) yang diperkenalkan pada
Bab 3 dan kemudian pertimbangkan secara singkat metode kemungkinan maksimum
(ML) yang dibahas dalam Bab 4.

Penaksir OLS

Untuk memperkirakan parameter model regresi tiga variabel (7.1.1), pertama-


tama kita pertimbangkan metode kuadrat terkecil biasa (OLS) yang diperkenal kan
pada Bab 3 dan kemudian pertimbangkan secara singkat metode kemungkinan
maksimum (ML) yang dibahas dalam Bab 4.Untuk menemukan estimator OLS,
pertama-tama marikita tulis fungsi regresi sampel (SRF) yang sesuai dengan PRF dari
(7.1.1) sebagai berikut:

Dimana ûi adalah suku residual, pasangan sampel dari suku gangguan


stokastik ui. Seperti disebutkan dalam Bab 3, prosedur OLS terdiri dari pemilihan
nilai parameter yang tidak diketahui sehingga jumlah sisa kuadrat (RSS)
ûi2sekecilmungkin.Secarasimbolis,

Dimana ekspresi untuk RSS diperoleh dengan manipulasi aljabar sederhana


dari (7.4.1).

Prosedur paling mudah untuk mendapatkan penduga yang akan meminimalkan


(7.4.2) adalah dengan membedakan nya terhadap yang tidak diketahui, mengatur
ekspresi yang dihasilkan kenol, dan menyelesaikannya secara bersamaan. Seperti
ditunjukkan dalam Lampiran 7A, Bagian 7A.1, prosedur ini memberikan persamaan
normal berikut :

6
Dari Persamaan. (7.4.3) kita langsung melihat bahwa

Yang merupakan penduga OLS dari intersep populasi 1.

Mengikuti konvensi membiarkan huruf kecil menunjukkan penyimpangan dari


nilai rata-rata sampel, seseorang dapat menurunkan rumus berikut dari persamaan
normal (7.4.3) sampai (7.4.5):

Yang memberikan estimator OLS dari koefisien regresi parsial populasi 2 dan
3, masing-masing.

Secara sepintas, perhatikan hal-hal berikut: (1) Persamaan (7.4.7) dan (7.4.8)
sifatnya simetris karena yang satu dapat diperoleh dari yang lain dengan menukar
peran X2 dan X3; (2) penyebut kedua persamaan ini identik; dan (3) kasus tiga variable
merupakan perpanjangan alami dari kasus dua variabel.

Varians dan Kesalahan Standar Penaksir OLS

Setelah memperoleh estimator OLS dari koefisien regresi parsial, kita dapat
menurunkan varians dan kesalahan standar dari estimator ini.Seperti dalam kasus dua
variabel, kita memerlukan kesalahan standar untuk dua tujuan utama: untuk
menetapkan interval kepercayaan dan untuk menguji hipotesis statistik. Rumus yang
relevana dalah sebagaiberikut:

7
Atau setara,

dimana r23 adalah koefisien korelasi sampel antara X2 dan X3 sebagai


didefinisikan dalam Bab 3.]

Atau setara,

Dalam semua rumus ini σ2 adalah varians (homoscedastic) dari gangguan populasiui .

Mengikuti argument Lampiran 3A, Bagian 3A.5, pembaca dapat


memverifikasi bahwa penaksir tak bias dari σ2 diberikan oleh

Sifat Penaksir OLS

Sifat penduga OLS model regresi berganda sejajar dengan sifat penduga dua
variabel.Secara khusus:

8
1. Garis regresi tigavariabel (permukaan) melewati rata-rata Ŷ , X^2 , dan X^ 3 , yang
terbukti dari (7.4.3) [ lih. Persamaan. (3.1.7) dari model dua variabel]. Properti ini
berlaku secara umum. Dengan demikian pada model regresi linier k-variabel [a
regresidan (k 1) regresi]

Kita punya,

2. Nilai rata-rata dari perkiraan Yi ( = Yˆi ) sama dengan nilai rata-rata dari Yi yang
sebenarnya, yang mudah dibuktikan:

Dimana seperti biasa huruf kecil menunjukkan nilai variable sebagai


penyimpangan dari artinya masing-masing.
3. Ʃûi= û = 0, yang dapat diverifikasi dari (7.4.24). [Petunjuk: Jumlahkan keduanya
sisi (7.4.24) di atas nilai sampel.]
4. Residu uˆ i tidak berkorelasi dengan X2i dan X3i , yaitu, uˆ i X2i = uˆ i X3i = 0
(lihat Lampiran 7A.1 untuk bukti)
5. Residu uˆ i tidak berkorelasi denganYi ; yaitu, uˆ i Yi = 0. Mengapa? [Petunjuk:
Kalikan (7.4.23) di kedua sisi dengan uˆ i dan jumlah kan nilai sampel.]
6. Dari (7.4.12) dan (7.4.15) terbukti bahwa sebagai r23, koefisien korelasi antara X2
dan X3, meningkat menuju 1, varians dari 2 dan 3 meningkat untuk nilai 2 dan x2i
atau x32i yang diberikan. Dalam limit, ketika r2 3 = 1 (yaitu, kolinearitas
sempurna), varians ini menjadi tak terhingga. Implikasi dari hal ini akan
dieksplorasi sepenuhnya dalam Bab 10, tetapi secara intuitif pembaca dapat
melihat bahwa dengan meningkatnya r2 3 akan semakin sulit untuk mengetahui

9
nilai sebenarnya dari 2 dan 3. [Lebih lanjut tentang ini di bab berikutnya, tetapi
lihatPersamaan. (7.1.10).]
7. Juga jelas dari (7.4.12) dan (7.4.15) bahwa untuk nilai r2 3 .yang diberikan
danƩx2i2 atau x32i , varians dari penduga OLS berban dinglurus dengan 2; yaitu,
mereka meningkat ketika 2 meningkat. Demikian pula, untuk nilai 2 dan r2 3 yang
diberikan, varians dari 2 berbanding terbalik dengan x2i ; yaitu, semakin besar
variasi dalam nilai sampel X2, semakin kecil varians 2 dan oleh karena itu 2 dapat
diestimasi dengan lebih tepat. Pernyataan serupa dapat dibuat tentang varians dari
3.
8. Dengan asumsi model regresi linier klasik, yang diuraikan dalam Bagian 7.1,
dapat dibuktikan bahwa penduga OLS dari koefisien regresi parsial tidak hanya
linier dan tidak bias tetapi juga memiliki varians minimum di kelas semua tidak
bias linier penduga. Singkatnya, mereka BIRU: Dengan kata lain, mereka
memenuhi teorema Gauss-Markov.

Penaksir Kemungkinan Maksimum

Kami mencatat di Bab 4 bahwa di bawah asumsi bahwa ui, populasi


gangguan, terdistribusi normal dengan rata-rata nol dan variable konstan. Ance 2,
penduga kemungkinan maksimum (ML) dan penduga OLS koefisien regresi model
dua variable adalah identik. Ini kesetaraan meluas ke model yang berisi sejumlah
variabel.(Sebagai bukti, lihat Lampiran 7A, Bagian 7A.4.) Namun, ini tidak benar
untuk penduga 2 2 2 dari . Dapat ditunjukkan bahwa estimator ML dari adalah uˆi/n
terlepas dari banyaknya variable dalam model, sedangkan estimator OLS dari 2
adalah 2 2 uˆ /(n 2) dalam kasus dua variabel, uˆ /(n 3) dalam kasus tiga variabel, saya
2 saya dan uˆi/(n−k) dalam kasus model k-variabel (7.4.20). Singkatnya, Penaksir
OLS dari 2 memperhitungkan jumlah derajat kebebasan, sedangkan penaksir ML
tidak.Tentu saja, jika n sangat besar, penduga ML dan OL dari 2 akan cenderung
saling berdekatan.

E. Koefisien Penentuan Berganda R2 Dan Koefisien Korelasi Ganda R


Dalam kasus dua variabel kita melihat bahwa r 2 seperti yang didefinisikan dalam
(3.5.5) mengukur kebaikan kecocokan persamaan regresi; yaitu, memberikan proporsi
atau persentase total variasi variabel dependen Y dijelaskan oleh variabel penjelas
(tunggal) X. Notasi r 2 ini dapat dengan mudah diperluas untuk model regresi yang

10
mengandung lebih dari dua variabel. Dengan demikian, dalam tiga- model variabel
kami ingin mengetahui proporsi variasi dalam Y dijelaskan oleh variabel X2 dan X3
secara bersama-sama. Kuantitas yang memberikan ini informasi tersebut dikenal
sebagai koefisien determinasi berganda dan dilambangkan dengan R2; secara
konseptual itu mirip dengan r 2.

Untuk menurunkan R2, kita dapat mengikuti turunan dari r2 yang diberikan dalam
Bagian 3.5.

Ingat itu

dimana Yi adalah perkiraan nilai Yi dari garis regresi yang dipasang dan adalah

penduga E(Yi | X2i, X3i) sejati. Setelah beralih ke huruf kecil ke

menunjukkan penyimpangan dari nilai rata-rata, Persamaan. (7.5.1) dapat ditulis


sebagai

Mengkuadratkan (7.5.2) di kedua sisi dan menjumlahkan nilai sampel, kita


memperoleh

Secara lisan, Persamaan. (7.5.3) menyatakan bahwa jumlah kuadrat total (TSS) sama
dengan menjelaskan jumlah kuadrat (ESS) + jumlah sisa kuadrat (RSS). Sekarang
menggantikan uˆ2 i dari (7.4.19), kita peroleh

yang, pada pengaturan ulang, memberikan

11
Sekarang, menurut definisi

Karena jumlah yang masuk (7.5.5) umumnya dihitung secara rutin, R2 dapat
dihitung dengan mudah. Perhatikan bahwa R2, seperti r 2, terletak antara 0 dan 1. Jika
1, garis regresi yang pas menjelaskan 100 persen variasi dalam Y. Pada sisi lain, jika
0, model tidak menjelaskan salah satu variasi dalam Y. Biasanya, bagaimanapun, R2
terletak di antara nilai-nilai ekstrim ini. Kesesuaian model dikatakan “lebih baik”
semakin dekat R2 ke 1. Ingat bahwa dalam kasus dua variabel kita mendefinisikan
kuantitas r sebagai koefisien korelasi dan menunjukkan bahwa itu mengukur tingkat
(linier) hubungan hubungan antara dua variabel. Analog tiga-atau-lebih-variabel dari r
adalah koefisien korelasi ganda, dilambangkan dengan R, dan merupakan ukuran dari
derajat hubungan antara Y dan semua variabel penjelas secara bersama-sama. Al-
meskipun r bisa positif atau negatif, R selalu dianggap positif. Dalam praktek- tice,
bagaimanapun, R adalah sedikit penting. Besaran yang lebih berarti adalah R2.
Sebelum melangkah lebih jauh, mari kita perhatikan hubungan berikut antara R2 dan
varians dari koefisien regresi parsial dalam k-variabel multi- model regresi tiple
diberikan dalam (7.4.20):

dimana Bj adalah koefisien regresi parsial regressor Xj dan R2 j adalah R2


dalam regresi Xj pada regresi yang tersisa (k - 2). [Catatan: Ada (k - 1) regresi dalam
model regresi k-variabel.] Meskipun utilitas dari Persamaan. (7.5.6) akan menjadi
jelas dalam Bab 10 tentang multikolinearitas, amati bahwa persamaan ini hanyalah

12
perpanjangan dari rumus yang diberikan dalam (7.4.12) atau (7.4.15) untuk model
regresi tiga variabel, satu regresi dan dua regresi.

F. Contoh A: Kematian Anak Terkait Dengan GNP Per Kapita Dan Tingkat Akhir
Perempuan
Dalam Bab 6 kami mempertimbangkan perilaku kematian anak (CM) dalam
hubungannya terhadap GNP per kapita (PGNP). Di sana kami menemukan bahwa
PGNP memiliki dampak negatif pada CM, seperti yang diharapkan. Sekarang mari
kita bawa keaksaraan perempuan yang terukur.

dengan tingkat melek huruf perempuan (FLR). Secara apriori, kami berharap
bahwa FLR juga akan memiliki dampak negatif bagi CM. Sekarang ketika kita
memperkenalkan kedua variabel dalam model, kita perlu menjaring pengaruh masing-
masing regressor. Artinya, kita perlu memperkirakan koefisien regresi (sebagian) dari
setiap regresi. Dengan demikian model kami adalah:

Data yang diperlukan disajikan pada Tabel 6.4. Perlu diingat bahwa CM
adalah bilangan ber kematian anak balita per 1000 kelahiran hidup, PGNP adalah per
kapita GNP pada tahun 1980, dan RENTANG diukur dalam persen. Sampel kami
terdiri dari 64 negara. Menggunakan paket statistik Eviews3, kami memperoleh hasil
berikut:

di mana angka dalam tanda kurung adalah perkiraan kesalahan standar.


Sebelum kita menginterpretasikan regresi ini, mengamati koefisien kemiringan parsial
PGNP, yaitu, 0,0056. Bukankah itu persis sama dengan yang diperoleh dari prosedur
tiga langkah yang dibahas di bagian sebelumnya [lihat Persamaan. (7.3.5)]? Tetapi
haruskah itu mengejutkanmu? Tidak hanya itu, tetapi dua kesalahan standar adalah
pra- persis sama, yang sekali lagi tidak mengejutkan. Tapi kami melakukannya tanpa

13
prosedur rumit tiga langkah. Mari kita sekarang menafsirkan koefisien regresi ini:
0,0056 adalah parsial koefisien regresi PGNP dan memberi tahu kita bahwa dengan
pengaruh FLR tetap konstan, karena PGNP meningkat, katakanlah, rata-rata satu
dolar, kematian anak ity turun 0,0056 unit. Untuk membuatnya lebih ekonomis
ditafsirkan, jika GNP per kapita naik seribu dolar, rata-rata, jumlahnya kematian anak
di bawah usia 5 tahun turun sekitar 5,6 per seribu hidup kelahiran. Koefisien 2.2316
memberitahu kita bahwa memegang pengaruh PGNP konstan, rata-rata, jumlah
kematian anak di bawah 5 tahun turun sebesar sekitar 2,23 per seribu kelahiran hidup
karena tingkat melek huruf perempuan meningkat sebesar satu poin persentase. Nilai
intersep sekitar 263, secara mekanis inter- sudah ditentukan, artinya jika nilai PGNP
dan rate RENTANG ditetapkan nol, maka berarti kematian anak akan menjadi sekitar
263 kematian per seribu kelahiran hidup. Dari Tentu saja, interpretasi seperti itu harus
diambil dengan sebutir garam. Semua satu dapat disimpulkan adalah bahwa jika dua
regressor ditetapkan pada nol, kematian anak akan cukup tinggi, yang masuk akal
secara praktis. Nilai R2 sekitar 0,71 berarti bahwa sekitar 71 persen variasi kematian
anak dijelaskan oleh PGNP dan RENTANG, nilai yang cukup tinggi mengingat nilai
maksimum dari R2 paling banyak bisa 1. Semua mengatakan, hasil regresi masuk
akal.

Bagaimana dengan signifikansi statistik dari koefisien yang diperkirakan? Kita


akan mengangkat topik ini di Bab 8. Seperti yang akan kita lihat di sana, dalam
banyak hal ini bab akan menjadi perpanjangan dari Bab 5, yang membahas dua
variabel model. Seperti yang juga akan kami tunjukkan, ada beberapa perbedaan
penting dalam statistik inferensi (yaitu, pengujian hipotesis) antara dua-variabel dan
multi- model regresi variabel.

Regresi pada Variabel Standar

Dalam bab sebelumnya kami memperkenalkan topik regresi pada standar-


variabel dan menyatakan bahwa analisis dapat diperluas ke multivariabel regresi.
Ingatlah bahwa suatu variabel dikatakan terstandarisasi atau dalam standar unit
deviasi jika dinyatakan dalam deviasi dari mean dan di- dibuktikan dengan simpangan
bakunya. Untuk contoh kematian anak kami, hasilnya adalah sebagai berikut:

14
Catatan: Variabel berbintang adalah variabel standar. Perhatikan juga bahwa
ada tidak ada intersep dalam model karena alasan yang sudah dibahas sebelumnya
Bab. Seperti yang Anda lihat dari regresi ini, dengan FLR tetap konstan, standar
peningkatan deviasi dalam lead PGNP, rata-rata, ke standar deviasi 0,2026 penurunan
CM. Demikian pula, memegang PGNP konstan, standar deviasi tion peningkatan
RENTANG, rata-rata, mengarah ke 0,7639 standar deviasi de- lipatan di CM. Secara
relatif, literasi perempuan lebih berdampak pada anak kematian dibandingkan GNP
per kapita. Di sini Anda akan melihat keuntungan menggunakan variabel standar,
untuk standarisasi menempatkan semua variabel pada kaki yang sama ing karena
semua variabel standar memiliki rata-rata nol dan varians unit.

G. Regresi Sederhana Dalam Konteks Regresi Ganda: Pendahuluan Untuk Bias


Spesifikasi
Ingatlah bahwa asumsi (7.1.6) dari model regresi linier klasik menyatakan bahwa model
regresi yang digunakan dalam analisis ditentukan dengan “benar”; yaitu, tidak ada bias
spesifikasi atau kesalahan spesifikasi. Contoh ilustrasi yang diberikan di bagian sebelumnya
memberikan kesempatan yang bagus tidak hanya untuk menjelaskan pentingnya asumsi
(7.1.6) tetapi juga untuk menjelaskan makna tambahan koefisien regresi parsial dan
memberikan sedikit pengantar informal untuk topik bias spesifikasi.
Asumsikan bahwa (7.6.1) adalah model “benar” yang menjelaskan mengenail
perilaku kematian anak yang berkaitan dengan GNP per kapita dan tingkat melek huruf
perempuan (Female Literacy Rate/FLR). Tetapi misalkan kita mengabaikan FLR dan
memperkirakan regresi sederhana berikut :
Yi = α1 + α2 X2i + µ1i (7.7.1)
Dimana Y = CM dan X2 = PGNP
Karena (7.6.1) adalah model yang sebenarnya, estimasi (7.7.1) merupakan
kesalahan spesifikasi (galat), kesalahan di sini tampak
denganmenghilangkanvariabel X3 , tingkat melek huruf perempuan. Perhatikan
bahwa kita menggunakan simbol parameter yang berbeda (alpha) dalam (7.7.1)
untuk membedakannya dari parameter sebenarnya (beta) yang diberikan dalam
(7.6.1).
Sekarang a2 akan memberikan estimasi objektif tentang dampak sebenarnya
dari PGNP, yang diberikan oleh β2 dalam model (7.6.1). Dengan kata lain, E(ἀ2) akan
= β2, di mana α2 adalah nilai estimasi dari α2. Dengan kata lain, akan kah koefisien

15
PGNP di (7.7.1) memberikan perkiraan yang tidak bias dari dampak sebenarnya dari
PGNP pada CM, mengetahui bahwa kita telah menghilangkan variabelX3 (FLR) dari
model. Seperti yang Anda duga, pada umunya α2 tidak akan menjadi estimator
objektif atau tanpa bias dariβ2 yang benar.Untuk memberikan gambaran bias,
marikita lakukan regresi (7.7.1), yang memberikan hasil sebagai berikut :

CMi = 157.4244 − 0.0114 PGNPi (7.7.2)


se = (9.8455)(0.0032) r2 = 0.1662
Amati beberapa hal tentang regresi ini dibandingkan dengan “benar” regresi berganda
(7.6.1):
1. Secara mutlak, (yaitu, mengabaikan tanda), koefisien PGNP telah meningkat dari 0,0056
menjadi 0,0114, hampir meningkat dua kali lipat.
2. Kesalahan standar nya berbeda.
3. Nilai penangkapannya berbeda.
4. Nilai r2 sangat berbeda, meskipun secara umum terjadi, bahwa jumlah regresi
dalam model meningkat, maka nilair2 juga meningkat.
Sekarang, anggaplah Anda menurunkan angka kematian anak pada tingkat
melek huruf perempuan, dengan mengabaikan pengaruh PGNP. Maka, anda akan
mendapat kan hasil sebagai berikut:

CMi= 263.8635 − 2.3905 FLRi (7.7.3)


se = (21.2249) (0.2133) r2 = 0.6696

Sekali lagi, jika Anda membandingkan hasil (misspecified) regresi ini


dengan “benar” ke beberapa regresi, maka anda akan melihat bahwa hasilnya
berbeda, meskipun perbedaan di sini tidak begitu terlihat seperti dalam kasus
regresi (7.7.2). Hal penting yang perlu diperhatikan adalah bahwa konsekuensi
serius dapat terjadi jika Anda tidak cocok dengan model.

H. R2 DAN R2 YANG DISESUAIKAN

Sifat dari R2 adalah fungsi tak menurun dari banyaknya variabel penjelas atau
regresor yang ada dalam model tersebut. Saat jumlah regressors meningkat, R2
hampir selalu meningkatkan dan tidak pernah menurun. Dengan kata lain, tambahan

16
X variabeltidak akan menurunkan R2. Bandingkan, misalnya, regresi (7.7.2) atau
(7.7.3) dengan (7.6.2). Untuk melihat ini, ingat kembali definisi koefisisen
determinasi :
ESS
R2 =
TSS
RSS
=1-
TSS
∑𝑢2𝑖
= 1-
∑𝑦𝑖2

Sekarang ∑𝑦𝑖2 tidak bergantung pada jumlah variabel X dalam model karena hanya
∑(Yi – Y)2.Untuk RSS ∑𝑢𝑖2 , bagaimanapun tergantung pada jumlah regressor yang
hadir dalam model. Secara intuitif jelas, bahwa sebagai jumlah variabel X
meningkat.∑𝑢𝑖2 cenderung menurun setidaknya tidak meningkat.Mengingat hal ini,
dalam membandingkandua model regresi dengan variabel dependen yang sama tetapi
jumlah variabel X yang berbeda, seseorang harus sangat berhati-hati dalam memilih
model dengan nilai R2 tertinggi. Untuk membandingkan R2, hal yang dapat dilakukan
yaitu salah satunya memperhitungkan jumlah Xvariabel yang hadir dalam model. Hal
ini dapat dilakukan dengan mudah jika kita mempertimbangkan koefisien alternatif
determinasi yang sebagai berikut:

Dimana k = jumlah parameter dalam model termasuk suku intersep (Dalam


regresi tiga variabel, k = 3). R2 disini dikenal sebagai R2 disesuaikan, dilambangkan
dengan ̅̅
𝑅̅̅2 . Istilah disesuaikanberarti disesuaikan untuk df yang terkait dengan
jumlah kuadrat yang masuk ke ∑𝑢𝑖2 memiliki n - kdf dalam model yang melibatkan
k.
Selain R2 dan R2 yang disesuaikansebagai langkah-langkah kebaikan, kriteria
lain yang sering digunakan untuk menilai kecukupan model regresi. Dua di
antaranya adalah kriteria Informasi Akaike dan kriteria Prediksi Amemiya, yang
digunakan untuk memilih di antara model-model yang bersaing.
R2 memiliki peran yang sangat sederhana dalam analisis regresi, menjadi
ukuran kebaikan kecocokan sampel regresi linier LS [kuadrat terkecil] dalam
kumpulan data. Dalam model CR [CLRM] tidak ada yang mengharuskan R2

17
Menjadi tinggi. Oleh karena itu, R2 yang tinggi bukanlah bukti yang mendukung
model dan R2 yang rendah bukanlah bukti yang menentangnya.
Sebenarnya hal terpenting tentang R2 adalah tidak penting dalam model
CR.Model CR berkaitan dengan parameter dalam suatu populasi, bukan dengan
kebaikan kecocokan dalam sampel.Jika seseorang bersikeras pada ukuran
keberhasilan prediktif (atau lebih tepatnya kegagalan), maka σ2 kekuatan
mencukupi: setelah semua, parameter σ2 adalah kesalahan perkiraan kuadrat yang
diharapkan yang akan terjadi jika CEF [PRF] populasi adalah digunakan sebagai
prediktor atau kesalahan standar kuadrat dari perkiraan nilai relevan dari x [regresor]
mungkin informatif.
Membandingkan Dua Nilai R2
Salah satu sifat penting dari R2 adalah bahwa semakin banyak jumlah
variabel penjelas dalam suatu model, akan semakin tinggi pula nilai R 2 . Jadi, jika
kita ingin menjelaskan sebagian besar variabel dari variabel tak bebas, kita harus
terus menambah jumlah variabel penjelasnya. Akan tetapi jangan terlalu serius
dalam menambahankan variabel penjelasnya, karena difinisi R 2 = ESS/TSS yang
tidak mempertimbangkan besarya d.k. Tetapi, dalam rumus konvensional untuk R 2
tidak memperhitungkan perbedaan d.k dalam berbagai model regresi. Oleh karena
itu, dalam membandingkan nilai-nilai R2 dari dua model dengan variabel tak bebas
yang sama namun dengan jumlah variabel penjelas yang berbeda pada dasarnya
sama saja dengan membandingkan antara apel dan jeruk.
Dengan demikian, yang kita perlukan adalah mengukur kecocokan yang
disesuaikan (dalam hal ini, mempertimbangkan secara eksplisit) dengan jumlah
variabel penjelas dalam model. Ukuran semacam ini telah ditemukan dan disebut
sebagai R 2 yang disesuaikan dan dinontasika dengan lambang ̅̅
𝑅̅̅2 .
Sifat-sifat dari R2 yang disesuaikana adalah :
1. Jika k > 1, ̅̅
𝑅̅̅2 ≤R2, dalam hal ini, sejalan dengan makin bertambahnya jumlah
variabel penjelas dalam model, R2 yang disesuaikan makin lama akan makin lebih
kecil daripada R2 yang belum disesuaikan. Tampaknya ada semacam “pinalti” bila
kita menambahkan variabel penjelas ke dalam model regresi.
2. Meskipun R2 yang belum disesuaikan selalu bernilai posistif. R 2 yang disesuaikan
kadang-kadang berubah menjadi negatif.
Mengalokasikan R2 di antara Regressor

18
Mari kita kembali ke contoh kematian anak. Dapat dilihat pada (7.6.2) bahwa kedua
regresi PGNP dan FLR menjelaskan bahwa 70,77 persen terdapat variasi kematian
anak. Lalu perhatikan pula pada regresi (7.7.2), di mana kita menghilangkan variabel
FLR dan hasilnya nilai r2 turun menjadi 0,1662. Berarti selisih nilai r 2 sebesar
0,5415yang disebabkan oleh variabel FLR yang dihilangkan. Di sisi lain, jika kita
mempertimbangkan regresi (7.7.3), di mana kita juga menghilangkan variabel PGNP,
maka nilai r2 akanturun menjadi 0,6696. Kemudian bisakah kita mengalokasikan
kelipatan R sebesar 0,7077 antara dua regressor, PGNP dan FLR, dengan cara ini?
Sayangnya, kita tidak dapat melakukannya, karena alokasinya bergantung pada urutan
dimana regressor diperkenalkan. Sebagian besar diterapkan bekerja dengan beberapa
regresi, korelasi di antara mereka adalah masalah umum. Tentu saja, masalahnya akan
sangat serius jika ada kolinearitas yang sempurna di antara regressor. Saran praktis
terbaik adalah tidak ada gunanya mencoba mengalokasikan nilai R 2 ke regressor
konstitusinya.
“Permainan” Memaksimalkan ̅̅̅̅
𝑹𝟐
̅̅̅̅2 , yaitu, memilih model
Terkadang peneliti memainkan permainan memaksimalkan𝑅
yang memberikan ̅̅
𝑅̅̅2 tertinggi.Tetapi ini mungkin berbahaya, karena dalam analisis
regresi tujuan kami adalah bukan untuk mendapatkan ̅̅̅̅2 yang tinggi, melainkan
𝑅
untuk mendapatkan perkiraan yang dapat diandalkan dari koefisien regresi populasi
yang sebenarnya dan menarik kesimpulan statistik tentang mereka.Dalam analisis
empiris, bukan hal yang aneh untuk mendapatkan ̅̅
𝑅̅̅2 yang sangat tinggi, tetapi
ditemukan bahwa beberapa koefisien regresi tidak signifikan secara statistik atau
memiliki tanda-tanda yang bertentangan dengan harapan apriori. Oleh karena itu,
peneliti harus lebih memperhatikan relevansi logis atau teoritis dari variabel penjelas
terhadap variabel dependen dan signifikansi statistiknya.
I. FUNGSI PRODUKSI LABA-LABA DOUGLAS : LEBIH PADA BENTUK
FUNGSIONAL
Di bagian 6.4 kami menunjukkan bagaimana transformasi yang sesuai agar
kita bisa Mengkonversi hubungan nonlinear menjadi linear sehingga kita dapat
bekerja dalam kerangka dari model regresi klasik. Berbagai transformasi yang dibahas
di sana dalam konteks dua variabel kasus dapat mudah diperpanjang ke beberapa
model regresi. Kami menunjukkan transformasi di bagian ini dengan mengambil

19
perluasan multivariabel dari model log-linear dua variabel. Spesifik Contoh yang kita
diskusikan adalah fungsi produksi laba-laba-douglas teori produksi.
Fungsi produksi laba-douglas, dalam bentuk stokastik, mungkin Terungkap sebagai :

(7.9.1)
Dimana Y = output
X2 = input tenaga kerja
X3 = input modal
u = gangguan stokastik
e = dasar logaritma natural

Dari Eq. (7.9.1) jelas bahwa hubungan antara keluaran dan dua masukan adalah
nonlinear. Namun, jika kita log-mengubah model ini, kita Dapatkan:
ln Yi = ln β1 + β2 ln X2i + β3 ln X3i + ui
= β0 + β2 ln X2i + β3 ln X3i + ui (7.9.2)
Ke mana β0 = ln β1.
Dengan demikian tertulis, model linear ini dalam parameter terbalik β 0, β2, dan
β3 dan Oleh karena itu model ini adalah regresi linear. Perhatikan, meskipun nonlinear
di Variabel Y dan X tapi linear dalam log ini variabel. Singkatnya, (7,9.2) adalah Log-
log, double-log, atau model log-linear, mitra regresi ganda Dari model log-linear dua
variabel (6.5.3).
Properti produksi Cobb-Douglas cukup baik Dikenal:
1. β2 adalah elastisitas keluaran (sebagian) sehubungan dengan masukan tenaga
kerja, yaitu mengukur persentase perubahan keluaran untuk 1 persen
Perubahan dalam masukan tenaga kerja untuk mempertahankan masukan
modal konstan.
2. Demikian pula, β3 adalah elastisitas keluaran (sebagian) sehubungan dengan
modal masukan, memegang input tenaga kerja konstan.
3. Jumlah (β2 + β3) memberikan informasi tentang skala pengembalian, yaitu
respon keluaran untuk perubahan proporsional dalam masukan. Jika jumlah
ini 1, maka ada konstan kembali ke skala, yaitu menggandakan masukan akan
Double output tiga kali lipat masukan dengan tiga kali output, dan seterusnya.
Jika Jumlah itu kurang dari 1, ada pengembalian yang berkurang menjadi

20
skala — dua kali lipat masukan maka akan kurang dari dua kali output.
Akhirnya, jika jumlah lebih besar dari 1, apakah ada peningkatan laba ke
skala — penggandaan masukan maka akan lebih dari dua kali lipat jalan
keluar.
Sebelum melangkah lebih jauh, perhatikan bahwa setiap kali Anda memiliki
log–linear model regresi yang melibatkan sejumlah variabel koefisien masing-masing
variabel X mengukur elastisitas (sebagian) dari variabel terikat Y sehubungan dengan
variabel itu. Jadi, jika anda memiliki model k-variable log-linear:
ln Yi = β0 + β2 ln X2i + β3 ln X3i + · · · + βk ln Xki + ui
(7.9.3)
Tiap koefisien regresi (sebagian), β2 melalui βk , adalah (sebagian) elastisitas Y
terhadap variabel X2 melalui Xk.
Untuk menggambarkan fungsi produksi laba-laba douglas, kami mendapatkan
Data pada tabel 7.3; Data ini untuk sektor pertanian Taiwan Untuk tahun 1958-1972.
Dengan asumsi bahwa model (7,9.2) memuaskan asumsi klasik Model regresi
linear, kita mendapatkan regresi berikut oleh OLS

metode (lihat Lampiran 7A, Bagian 7A.5 untuk cetakan komputer):

(7.9.4)

21
Dari Eq. (7.9.4) kita melihat hal itu di sektor pertanian taiwan periode 1958-
1972 elastisitas keluaran tenaga kerja dan modal adalah 1.4988 dan 0,4899, masing-
masing. Dengan kata lain, selama periode studi, memegang modal masukan konstan,
1 persen peningkatan masukan tenaga kerja yang dipimpin pada rata-rata sampai
sekitar 1,5 persen peningkatan output. Demikian pula, memegang Masukan tenaga
kerja konstan, kenaikan 1 persen dalam masukan modal yang dipimpin pada rata-rata
sampai sekitar 0,5 persen peningkatan output. Menambahkan dua keluaran Elastisitas,
kita mendapatkan 1.9887, yang memberikan nilai pengembalian ke skala daerah.
Sebagai bukti, selama periode penelitian, sektor pertanian taiwan dikarakterisasikan
dengan meningkatnya laba ke skala. Dari sudut pandang pandang statistik, garis
regresi diperkirakan pencocokan data cukup baik. Nilai R 2 0.8890 berarti sekitar 89
persen Variasi dalam (log of) keluaran dijelaskan oleh (log of) tenaga kerja dan
modal.
J. MODEL REGRESI POLINOMIAL
Kami sekarang mempertimbangkan kelas model regresi berganda, polynomial
model regresi, yang telah banyak digunakan dalam penelitian ekonometrik berkaitan
dengan biaya dan fungsi produksi. Dalam memperkenalkan model-model ini, kami
memperluas jangkauan model yang regresi linier klasik model dapat dengan mudah
diterapkan.
Untuk memperbaiki ide, perhatikan Gambar 7.1, yang menghubungkan
marginal jangka pendek biaya (MC) produksi (Y) suatu komoditi terhadap tingkat
outputnya (X). Kurva MC yang digambar secara visual pada gambar, kurva berbentuk
U buku teks, menunjukkan bahwa hubungan antara MC dan output adalah nonlinier.
Jika kita untuk mengukur hubungan ini dari titik sebar yang diberikan, bagaimana kita
akan pergi ? tentang itu? Dengan kata lain, jenis model ekonometrik apa yang akan
ditangkap pertama penurunan dan kemudian peningkatan sifat biaya marjinal ?
Secara geometris, kurva MC yang digambarkan pada Gambar 7.1 mewakili
parabola. Secara matematis, parabola diwakili oleh persamaan berikut:
Y = β0 + β1 X + β2 X2 (7.10.1)
Yang disebut fungsi kuadrat, atau lebih umum, polinomial derajat kedua
dalam variabel X — pangkat tertinggi dari X mewakili derajat polinomial (jika X3
ditambahkan ke fungsi sebelumnya, itu akan menjadi polinomial derajat tiga, dan
seterusnya).

22
Versi stokastik (7.10.1) dapat ditulis sebagai:

(7.10.2)
yang disebut regresi polinomial derajat dua. Regresi polinomial derajat k umum dapat
ditulis sebagai:

(7.10.3)
Perhatikan bahwa dalam jenis regresi polinomial ini hanya ada satu variabel penjelas
di sisi kanan tetapi muncul dengan berbagai kekuatan, sehingga menjadikannya model
regresi berganda. Kebetulan, perhatikan bahwa jika X i diasumsikan tetap atau tidak
stokastik, suku-suku bertenaga dari Xi juga menjadi tetap atau nonstochastic.
Apakah model ini menyajikan masalah estimasi khusus ? Sejak polinomial
derajat kedua (7.10.2) atau polinomial derajat ke-k (7.10.13) adalah linier dalam
parameter β ’s mereka dapat diestimasi dengan OLS biasa atau metodologi ML. Tapi
bagaimana dengan masalah collinearity? Bukankah berbagai X’s sangat berkorelasi
karena semuanya adalah kekuatan X? Ya, tapi ingat bahwa suku-suku seperti X2, X3,
X4 , dll., semuanya adalah fungsi nonlinier dari X dan karenanya, tegas, tidak
melanggar asumsi tidak ada multikolinearitas. Di dalam pendek, model regresi
polinomial dapat diperkirakan dengan teknik disajikan dalam bab ini dan tidak
menyajikan masalah estimasi baru.
K. KOEFISIEN KORELASI PARSIAL
a. Penjelasan Koefisien Korelasi Sederhana dan Parsial
Dalam bab 3 memperkenalkan koefisien r sebagai ukuran derajat atau hubungan
linier antara dua variabel
𝑑𝐺𝐷𝑃𝐺
= 0.062 – 0.122 RGDP
𝑑𝑅𝐺𝐷𝑃

23
Menunjukkan bahwa laju perubahan GDPG terhadap RGDP menurun. Jika
menetapkan turunan ini ke nol, maka akan mendapatkan RGDP 0.5082. Jadi, jika
GDP suatu Negara mencapai 51 persen dari GDP U.S, maka tingkat pertumbuhan
GDPG aka nmerangkak ke nol.

Opsional

Dalam model regresi kita dapat menghitung tiga koefisien korelasir 12


(korelasi antara Y dan X2), r13 ( korelasi koefisien antara Y dan X3), dan r23
(koefisien korelasi antara X2 dan X3).Perhatikan kita memberikan subscript 1
mewakili Y untuk kesamaa nnotasi.Koefisien korela siini disebut koefisien kasar atau
sederhana atau korelasi koefisien orde nol. Koefisien ini dapat dihitung dengan nilai
koefisien korelasi yang diberikan dalam (3.5.13).

Sekarang pertimbangkan pertanyaan ini, apakah r12 mengukur derajat


hubungan (linier) antara Y dan X2 ketika variabel X3 atau mungkin terkait dengan
keduanya? Misalkan model regresi yang benar adalah (7.1.1) tetapi kita
menghilangkan dari model variabel X3 dan regresi Y pada X2 diperoleh koefisien
kemiringan b12. Akankah koefisien ini sama dengan koefisien sebenarnya?
Jawabannya harus jelas pada diskusi di bagian 7.7.Secara umum, r12 tidak
mencerminkan derajat hubungan yang sebenarnya antara Y dan X2 dengan adanya
X3.Hal itu memberikan kesan yang salah tentang hubungan antara Y dan X2.Oleh
karena itu, yang dibutuhkan adalah koefisien korelasi yang bebas dari pengaruh X3
terhadap X2 dan Y. Koefisien seperti itu dikenal sebagai koefisien parsial. Secara
konseptual, korelasi ini mirip dengan koefisien regresi parsial. Kami mendefinisikan

r 1 2. 3 = koefisien korelasi parsial antara Y dan X2, dengan menganggap X3 konstan

r 1 3. 2 = koefisien korelasi parsial antara Y dan X3, dengan menganggap X2 konstan

r 2 3. 1 = koefisien korelasi parsial antara X2 dan X3, dengan menganggap Y konstan

Korelasi parsial diperoleh dari koefisien korelas isederhana atau ordenolya itu sebagai
berikut:

𝑟12−𝑟13𝑟23
r 1 2. 3 = (7.11.1)
√(1−𝑟213)(1−𝑟223)

24
𝑟13−𝑟12𝑟23
r 1 3. 2 = (7.11.2)
√(1−𝑟212)(1−𝑟223)

𝑟23−𝑟12𝑟13
r 2 3. 1 = (1−𝑟212)(1−𝑟213)
(7.11.3)

Korelasi parsial yang diberikan dalam persamaan (7.11.1) sampai (7.11.3) disebut
koefisien korelasi orde pertama.Dengan urutan jumlah nomor subscripts sekunder.
Jadi r 1 2.3 4 menjadi koefisien korelasi orde dua, r 1 2. 3 4 5 akan menjadi koefisien
korelasi orde tiga dan seterusnya. Sebelumnya disebutkan ,bahwa r12, r13, dan
seterusnya disebut korelasi sederhana atau orde nol. Katakanlah r 1 2. 3 4 interprestasi
dari koefisien korelasi antara Y dan X2, dengan menganggap X3 dan X4 konstan.

b. Interpretasi Koefisien Korelasi Sederhana dan Parsial


Dalam kasus dua variabel, r sederhana memiliki arti langsung untuk mengukur
derajat hubungan (linier) bukan sebab akibat antara variable dependen Y dan
variable penjelas tunggal X. Tapi diluar kasus dua variabel, kita perlu
memperhatikan interpretasi koefisien korelasi sederhana. Dari (7.11.1), untuk
contoh, kita amati sebagai berikut:
1. Jika r12 = 0, r 1 2.3 tidak akan menjadi nol kecuali r13 atau r23 sama -sama
nol.
2. Jika r12 = 0 dan r13 dan r23 bukan nol maka r 1 2.3 akan menjadi negatif,
sedangkan jika tanda-tanda nya berlawanan maka akan menjadi positif.
Misalkan Y = hasil panen, X2 = curah hujan, dan X3 = suhu. Asumsikan r12 =
0, tidak ada asosiasi antara hasil panen dan curah hujan. Asumsikan r13
positifdan r23 negatif. Pada (7.11.1) menunjukkan, r 1 2.3 bernilai positif yaitu
mempertahankan suhu konstan, adahubungan positif antara hasil dan curah
hujan. Sepertinya ini hasil paradox karena suhu X3 mempengaruhi keduanya
menghasilkan Y dan curah hujan X2. Untuk mengetahui hubungan antara hasil
panen dan curah hujan perlu menghilangkan pengaruh “penganggu” suhu
variabel. Contoh ini menunjukkan bahwa bias disesatkan oleh koefisien
korelasi sederhana.
3. Istilah r 1 2. 3 dan r12 tidak memiliki tanda yang sama.
4. Dalam kasus dua variable telah dilihat 𝑟 2 terletak antara 0 dan 1. Itu
duavariabel yang sama berlaku untuk koefisien korelasi parsial kuadrat.

25
Dengan fakta ini maka harus memverifikasi dengan perolehan hasil dari
(7.11.1) yaitu sebagai berikut:

0 < r212 + r213 + r223 – 2r12r13r23 < 1 (7.11.4)

Memberikan hubungan timbale balik antara tiga koefisien korelasi orde nol.
Contoh serupa dapat diturunkan dari persamaan (7.9.3) dan (7.9.4).

5. Misalkan r13 = r23 = 0. Apakah ini berarti r12 juga nol? Jawabannya jelas
dari (7.11.4) .fakta bahwa Y dan X3 dan X2 dan X3 adalah tidak berkorelasi
terhadap Y dan X2.
Perhatikan bahwa r1 2.3 bisa disebut koefisien penentuan parsial dan dapat
diartikan sebagai proporsivariasi Y tidak dijelaskan oleh variabel X3 yang
telah dijelaskan dengan cara memasukkan X2 kedalam model (lihat contoh
7.5). Secara konsep tual mirip dengan𝑅2 .
L. RINGKASAN DAN KESIMPULAN
1. Bab ini memperkenalkan model regresi linier berganda yang paling sederhana,
yaitu model regresi tiga variabel. Hal ini dapatdipahami bahwa istilah linier
mengacu pada linealitas dalam parameter dant idak harus dalam variabel.
2. Meskipun model regresi tiga variable merupakan perpanjangan dari model dua
variabel, ada beberapa konsep yang terlibat seperti koefisien regresi parsial,
koefisien korelasi parsial, kelipatan koefisien korelasi, untuk derajat kebebasan
bisadisesuaikan dan bias juga tidak disesuaikan sesuai dengan multikolinearitas
dan juga spesifikasinya.
3. Bab ini juga mempertimbangkan bentuk fungsional dari model regresi berganda,
seperti fungsi produksi Cobb-Douglass dan Model Regresi Polinomial.
4. Meskipun 𝑅 2 sudah disesuaikan dengan 𝑅2 namun ukuran keseluruhan yang dipilih
model dengan kumpulan data tertentu. Yang terpenting adalah harap anteoritis
yang mendasari tentang teori model ini.
5. Hasil yang disajikan dalam bab ini denga nmudah dapatdigeneralisasikan kedalam
model regresi linier berganda yang melibat kan sejumlah regresi. Aljabar menjadi
hal yang sangat membosankan, kebosanan ini dapat dihindari dengan reso
rmenjadi aljabar matriks. Bagi yang tertarik, perluasan model regresi kevariabel
menggunakan aljabar matriks disajikan pada Lampiran C, yaitu opsional. Namun

26
pembaca dapat membaca sisa teks tanpa mengetahui banyak tentang aljabar
matriks.

27
DAFTAR PUSTAKA
Damonar N. Gujarati, Basic Economtric Fourth Edition, (Gary Burke :2003).
Anwar Hidayat, 2013, diakses pada tanggal 29 oktober 2021, pada pukul 10.00
https://www.statistikian.com/2013/08/interprestasi-regresi-linear.html

28

Anda mungkin juga menyukai