Anda di halaman 1dari 7

Tugas Mata Kuliah Ekonometrika (MT529) Semester Genap 2015

REGRESI DUA VARIABEL DAN CNLRM


dirangkum dari buku
DASAR-DASAR EKONOMETRIKA | Penulis : Damodar N. Gujarati dan Dawn C. Porter
oleh
AGUNG ANGGORO ( 1200053 )

DEPARTEMEN PENDIDIKAN MATEMATIKA FPMIPA


UNIVERSITAS PENDIDIKAN INDONESIA
2015
BAB 2 | Analisis Regresi Dua Variabel
 Analisis regresi dua variabel (bivariat) merupakan analisis regresi yang paling sederhana.
Model regresi ini terdiri atas sebuah variabel dependen (regresan) dengan satu variabel
penjelas (regresor).
 Model CEF (Conditional Expectation Function) atau fungsi ekspektasi (rerata) kondisional :
𝐸(𝑌|𝑋𝑖 ) = 𝑓(𝑋𝑖 )
 Model CEF ini menyatakan bagaimana rerata respons 𝑌 yang bervariasi mengikuti 𝑋.
 Pendekatan awal terhadap CEF adalah
𝐸(𝑌|𝑋𝑖 ) = 𝛽1 + 𝛽2 𝑋𝑖 (𝑓𝑢𝑛𝑔𝑠𝑖 𝑟𝑒𝑔𝑟𝑒𝑠𝑖 𝑝𝑜𝑝𝑢𝑙𝑎𝑠𝑖 𝑙𝑖𝑛𝑖𝑒𝑟)
dimana parameter 𝛽1 dikenal sebagai intercept dan parameter 𝛽2 dikenal sebagai kemiringan
(slope).
 Linearitas dalam Variabel
contoh model : 𝐸(𝑌|𝑋𝑖 ) = 𝛽1 + 𝛽2 𝑋𝑖
 Linearitas dalam Parameter
contoh model : 𝐸(𝑌|𝑋𝑖 ) = 𝑒 𝛽1 +𝛽2 𝑋𝑖
 Berbagai kemungkinan model regresi

Model Linear dalam Model Linear dalam Variabel ?


Parameter ? Ya Tidak
Ya MRL MRL
Tidak MRNL MRNL

Keterangan :
MRL : Model Regresi Linear
MRNL : Model Regresi Nonlinear
Catatan : dengan demikian, terminologi regresi “linear” adalah linear dalam parameter-
parameternya.
 [ faktor kesalahan stokastik ] Model regresi linear ditulis kembali sebagai
𝑌𝑖 = 𝐸(𝑌|𝑋𝑖 ) + 𝑢𝑖
dimana 𝑢𝑘 adalah sebuah variabel acak yang tidak dapat diamati (tidak dapat dijelaskan
secara sempurna).
 Jika kita bekerja dengan data yang merepresentasikan sampel maka model regresi linear
dua variabel
𝐸(𝑌|𝑋𝑖 ) = 𝛽1 + 𝛽2 𝑋𝑖
analog dengan model
𝑌̂𝑖 = 𝛽̂1 + 𝛽̂2 𝑋𝑖 + 𝑢̂𝑖
dimana 𝑌̂𝑖 mengestimasi 𝐸(𝑌|𝑋𝑖 ), 𝛽̂1 mengestimasi 𝛽1 , dst. Kemudian disebut sebagai
Fungsi Regresi Sampel (FRS).
BAB 3 | Model Regresi Dua Variabel
 Kita bekerja dengan fungsi regresi yang linear pada parameter maupun variabel.
 Kita bertujuan untuk mengestimasi Fungsi Regresi Populasi (FRP) berdasarkan Fungsi
Regresi Sampel (FRS) seakurat mungkin.
 Metode OLS (Ordinary Least Squares) atau metode kuadrat terkecil adalah metode yang
paling dikenal dalam analisis regresi.
 Metode OLS menyarankan bahwa FRS dapat ditetapkan sedemikian rupa sehingga
2 2
∑ 𝑢̂𝑖 2 = ∑(𝑌𝑖 − 𝑌̂𝑖 ) = ∑(𝑌𝑖 − 𝛽̂1 − 𝛽̂2 𝑋𝑖 )

menghasilkan kemungkinan nilai terkecil, dimana 𝑢̂𝑖 secara sederhana adalah perbedaan
antara nilai aktual/nyata dan nilai estimasi dari 𝑌.
 Metode OLS menghasilkan kalkulasi nilai 𝛽̂1 dan 𝛽̂2 , yaitu :
𝑛 ∑ 𝑋𝑖 𝑌𝑖 − ∑ 𝑋𝑖 ∑ 𝑌𝑖
𝛽̂2 =
𝑛 ∑ 𝑋𝑖 2 − (∑ 𝑋𝑖 )2
𝛽̂1 = 𝑌̅ − 𝛽̂2 𝑋̅
 𝑌̂𝑖 , 𝛽̂1 , dan 𝛽̂2 disebut estimator OLS, memiliki karakteristik numerik sebagai berikut :
1. Estimator OLS secara individu dinyatakan sebagai ‘jumlah’ yang dapat diobservasi.
2. Estimator-estimator tersebut merupakan estimator titik.
3. Jika estimator-estimator tersebut telah dihasilkan dari data sampel, maka garis regresi
didapatkan dan memiliki sifat-sifat sebagai berikut :
a. Garis tersebut melewati rerata sampel dari 𝑌 dan 𝑋.
b. Nilai rerata 𝑌 yang destinasi sama dengan nilai dari rerata 𝑌 aktual untuk
𝑌̂𝑖 = 𝛽̂1 + 𝛽̂2 𝑋𝑖
 [ Classical Linear Regression Model (CLRM) ] Asumsi yang mendasari metode kuadrat
terkecil adalah sebagai berikut :
1. Model regresi ini linear dalam parameter-parameternya.
2. Nilai 𝑋 selalu tetap dalam pengambilan sampel yang berulang, dengan kata lain 𝑋
independen terhadap Faktor Kesalahan.
3. Nilai ekspektasi dari Faktor Gangguan Acak 𝑢𝑖 adalah 0.
4. Homoskedastisitas : Nilai varian faktor kesalahan (𝑢𝑖 ) pada setiap nilai 𝑋 adalah
konstan.
5. Tidak adanya otokorelasi di antara gangguan-gangguan.
6. Jumlah observasi 𝑛 harus lebih besar daripada jumlah parameter yang akan destinasi.
7. Tidak ada pencilan (outlier) dari variabel 𝑋.
 Standard error (se) dari estimasi OLS dapat dicari dengan formula sebagai berikut :
𝜎2
1. var(𝛽̂2 ) =
∑(𝑋𝑖 −𝑋̅)2

𝜎2
2. se(𝛽̂2 ) = √ 2
̅̅̅
∑(𝑋𝑖−𝑋 )

𝜎 2 ∑ 𝑋𝑖 2
3. var(𝛽̂1 ) =
𝑛 ∑(𝑋𝑖 −𝑋̅)2

2
𝜎2 ∑ 𝑋 𝑖
4. se(𝛽̂1 ) = √ 2
̅̅̅
𝑛 ∑(𝑋𝑖−𝑋 )

dengan 𝜎 2 adalah varians yang homoskedastik dari 𝑢𝑖 (berdasarkan asumsi 4). 𝜎 2 dapat

2
̂𝑖 2
∑𝑢
destinasi dengan 𝜎̂ = , sedangkan berdasarkan metode OLS diperoleh sebuah
𝑛−2
2
(∑(𝑋̅ −𝑋𝑖 )(𝑌̅−𝑌𝑖 ))
perhitungan untuk ∑ 𝑢̂𝑖 2 , yaitu ∑ 𝑢̂𝑖 2 = ∑(𝑌̅ − 𝑌𝑖 )2 − .
∑(𝑋̅ −𝑋𝑖 )2

 [ Teori Gauss – Markov ] Sebuah estimator, misalkan 𝛽̂2 merupakan BLUE (Best Linear
Unbiased Estimator) dari 𝛽2 jika memiliki sifat-sifat sebagai berikut :
1. Merupakan fungsi linear dari sebuah variabel acak.
2. Bersifat tidak bias, dimana E(𝛽̂2 ) = 𝛽2 .
3. Memiliki varians minimum dari semua kelompok estimator-estimator yang linear dan
tidak bias lainnya.

Teori Gauss – Markov : Mengacu pada asumsi-asumsi CLRM, estimator-estimator OLS


bersifat BLUE (Mengapa ?)

 𝑟 2 disebut sebagai koefisien determinasi (sampel), berikut yang perlu menjadi perhatian
tentang 𝑟 2 :
1. Besarannya selalu positif.
̂ 𝑖 , untuk setiap
2. 0 ≤ 𝑟 2 ≤ 1, jika bernilai 1 artinya kesesuaian garisnya tepat, yaitu 𝑌𝑖 = 𝑌
nilai 𝑖, jika bernilai 0 maka tidak ada hubungan antara regresan dengan regresor.
 Banyak cara menentukan 𝑟 2 , salah satunya dengan formula koefisien korelasi (𝑟), yaitu
2
̅ − 𝑋 )(𝑌
(∑(𝑋 ̅ − 𝑌 ))
2 𝑖 𝑖
𝑟 =
̅ − 𝑌 )2 ∑(𝑋
∑(𝑌 ̅ − 𝑋 )2
𝑖 𝑖

 𝑟 2 sebagai goodnes of fit, memberikan informasi mengenai seberapa dekat nilai 𝑌 yang
destinasi dengan nilai sebenarnya, yaitu
2
̅ − 𝑌 )(𝑌
(∑(𝑌 ̅ −𝑌
̂ ))
2 𝑖 𝑖
𝑟 = 2
̅ − 𝑌 )2 ∑(𝑌
∑(𝑌 ⏞)
̅ −𝑌
𝑖 𝑖

 Percobaan Monte Carlo telah menunjukkan bahwa estimator-estimator pada OLS adalah
estimator-estimator yang tak bias.

BAB 4 | CNLRM
 Classical Normal Linear Regression Model (CNLRM) mengasumsikan bahwa setiap 𝑢𝑖
terdistribusi secara normal dengan :
1. Rerata : 𝐸(𝑢𝑖 ) = 0
2. Varians : 𝐸[𝑢𝑖 − 𝐸(𝑢𝑖 )]2 = 𝐸(𝑢𝑖 2 ) = 𝜎 2
3. 𝑐𝑜𝑣(𝑢𝑖 , 𝑢𝑗 ) ∶ 𝐸{[𝑢𝑖 − 𝐸(𝑢𝑖 )][𝑢𝑗 − 𝐸(𝑢𝑗 )]} = 𝐸(𝑢𝑖 , 𝑢𝑗 ) = 0, 𝑖 ≠ 𝑗

Lebih sederhana ditulis 𝑢𝑖 ~𝑁(0, 𝜎 2 ) atau 𝑢𝑖 ~𝑁𝐼𝐷(0, 𝜎 2 ) yang artinya setiap 𝑢𝑖 terdistribusi
secara sendiri-sendiri dan tidak saling mempengaruhi.

 Dengan asumsi bahwa 𝑢𝑖 mengikuti distribusi normal maka estimator-estimator OLS


mengikuti sifat-sifat berikut :
1. Estimator-estimator tersebut tidak bias
2. Memiliki varians minimum.
3. Bersifat konsisten, artinya semakin besar ukuran sampel, estimator-estimator tersebut
cenderung konvergen menuju nilai populasi yang sebenarnya.
4. 𝛽̂1 ~ 𝑁(0, 𝜎 2 )
Kemudian berdasarkan sifat dari distribusi normal, variabel Z didefinisikan:
𝛽̂1 − 𝛽1
𝑍=
𝜎𝛽1
Mengikuti distribusi standar normal, yang merupakan distribusi normal dengan rerata
nol dan varians unit (=1) atau
𝑍~ 𝑁(0, 1)
5. 𝛽̂2 yang merupakan fungsi linear dari 𝑢1 terdistribusi normal dengan
Rerata : 𝐸(𝛽̂2 ) = 𝛽2
𝜎2
Var 𝛽̂2 : 𝜎𝛽22 = Σ𝑥 2
𝑖

Atau lebih sederhananya


𝛽1 ~ 𝑁(𝛽2 , 𝜎𝛽22 )

Kemudian berdasarkan sifat dari distribusi normal, variabel Z didefinisikan:


𝛽̂2 − 𝛽2
𝑍=
𝜎𝛽2

dengan
𝑍~ 𝑁(0, 1)
̂2
𝜎
6. (𝑛 − 2) terdistribusi secara 𝜒 2 (chi kuadrat) dengan derajat bebas (df) sebesar
𝜎2
(𝑛 − 2)
7. (𝛽̂1 , 𝛽̂2 ) terdistribusi secara independen dari 𝜎̂ 2
8. 𝛽̂1 dan 𝛽̂2 memiliki varians minimum dari keseluruhan kelas estimator-estimator yang
tidak bias, apakah linear atau tidak.
 Asumsi kenormalan ini membolehkan untuk menurunkan distribusi probabilitas atau
distribusi sampling dari 𝛽̂1 dan 𝛽̂2 (yang keduanya normal) dan 𝜎̂ 2 yang berhubungan dengan
distribusi chi square.
 Sebuah metode dari estimasi titik (point estimation) dengan sifat-sifat teoritis yang lebih kuat
daripada metode OLS adalah metode Maximum Likelihood (ML). Estimator dari 𝜎̂ 2 nya
̂2
𝜎
adalah Σ yang bersifat bias. Jika dibandingkan dengan estimator OLS yang tak bias, kita
𝑛
dapat menemukan kesamaan yaitu semakin besar ukuran sampel 𝑛, kedua estimator dari 𝜎̂ 2
cenderung menjadi sama.
 Metode ML ini umumnya dikenal sebagai metode sampel besar. Metode ini merupakan
aplikasi yang lebih luas, artinya bisa diaplikasikan dalam model regresi yang tidak linear
dalam suatu parameter.

Anda mungkin juga menyukai