Anda di halaman 1dari 34

Applied Econometrics

Econometrics

Muhammad Sjahid Akbar


Applied Econometrics

HETEROSKEDASTISITAS

1. Apa itu Heteroskedastisitas ?


2. Konsekuensi Heteroskedastisitas
3. Mendeteksi Heteroskedastisitas
4. Mengatasi Heteroskedastisitas
Applied Econometrics
Learning Objectives
1. Pahami pengertian heteroskedastisitas dan homoskedastisitas
(melalui contoh-contoh).
2. Pahami konsekuensi heteroskedastisitas pada perkiraan OLS.
3. Deteksi heteroskedastisitas melalui pemeriksaan grafik.
4. Deteksi heteroskedastisitas melalui uji.
5. Membedakan berbagai macam uji untuk mendeteksi
heteroskedastisitas.
6. Melakukan uji heteroskedastisitas.
7. Mengatasi heteroskedastisitas.
Applied Econometrics

Heteroskedasticity
Hetero (berbeda atau tidak sama) adalah kebalikan
dari Homo (sama)…

Skedastic artinya menyebar …

Homoskedasticity = penyebaran yang sama


Heteroskedasticity = penyebaran yang tidak merata
Applied Econometrics

Heteroskedasticity
Asumsi 5 dari CLRM menyatakan bahwa
residual harus memiliki varians konstan
(sama) independen dari t
Var(ut)=σ2

Oleh karena itu, memiliki varian yang sama


berarti residual tersebut bersifat
homoskedastik.
Applied Econometrics

Heteroskedasticity
Jika asumsi homoskedastisitas dilanggar, maka
Var(ut)=σt2

satu-satunya perbedaan adalah indeks t, pada


σt2, yang berarti varians dapat berubah untuk
setiap pengamatan berbeda pada sampel
t=1, 2, 3, 4, …, n.
Lihat grafik berikut…
Applied Econometrics
Heteroskedasticity
Applied Econometrics
What is Heteroskedasticity
Applied Econometrics
What is Heteroskedasticity
Applied Econometrics

Heteroskedasticity
Grafik pertama: Trend pada residuals
Second graph: Pola pendapatan-konsumsi, untuk
tingkat pendapatan rendah tidak banyak pilihan,
sebaliknya untuk tingkat tinggi.
Third graph: Perbaikan teknik pengumpulan data
(bank besar) atau model pembelajaran kesalahan
(pengalaman mengurangi kemungkinan membuat
kesalahan besar).
Applied Econometrics

Konsekuensi Heteroskedasticity
1. Estimator OLS adl estimator tdk bias dan konsisten. Sebab tidak
ada variabel bebas yg berkorelasi dengan residual. Jadi
persamaan yang dipostulatkan dgn benar akan memberi kita nilai
koefisien taksiran sangat dekat dgn parameter.
2. Varians estimasi parameter model menjadi lebih besar ari
sebenarnya. Hal ini penduga OLS tidak efisien.
3. Underestimates the variances of the estimators, yang mengarah
ke nilai statistik t dan F. yang lebih tinggi
Applied Econometrics

Deteksi Heteroskedasticity
secara umum, ada dua cara.
Yang pertama adalah cara informal, yaitu dilakukan melalui
grafik dan disebut metode grafis.
Yang kedua adalah melalui uji untuk heteroskedastisitas,
yaitu:

1. The Breusch–Pagan–Godfrey Test


2. White’s General Heteroscedasticity Test (NRP Ganjil)
3. The Glesjer LM Test dan The Park LM Test (NRP Ganjil)
4. The Harvey-Godfrey LM Test (NRP Genap)
5. The Goldfeld-Quandt Tets (NRP Genap)
Applied Econometrics

Deteksi Heteroskedasticity
Plot residual kuadrat terhadap Y taksiran. hasil plot seperti
berikut:
Applied Econometrics

Deteksi Heteroskedasticity
Applied Econometrics
Deteksi Heteroskedasticity
Applied Econometrics

Deteksi Heteroskedasticity
Applied Econometrics
Deteksi Heteroskedasticity
Applied Econometrics

Penanggulangan Heteroskedasticity
Ada tiga cases:

(a) Generalized Least Squares


(b) Weighted Least Squares (NRP Genap)
(c) Heteroskedasticity-Consistent Estimation
Methods (NRP Ganjil)
Generalized Least Squares Approach
Aitken theorem. The Generalized Least Squares
estimator, GLS. Tentukan P sedemikian hingga
Py = PX + P
y* = X* + *.
E[**’|X*]= σ2I
Gunakan kuadrat terkecil biasa dalam transformasi
model. Memenuhi the Gauss – Markov
theorem.
b* = (X*’X*)-1X*’y*

14-19/59 Part 14: Generalized Regression


Generalized Least Squares – Menentukan P

Transformasi model :
P = -1/2. PP = -1
Py = PX + P or
y* = X* + *.

Kami membutuhkan matriks non-integer : -1/2.

14-20/59 Part 14: Generalized Regression


(Penyimpangan) Powers of a Matrix
 Characteristic Roots dan Vectors
  = CC
 C = Orthogonal matrix of
characteristic vectors.
  = Diagonal matrix of
characteristic roots
 Untuk matriks positive definite, element - element dari  semuanya
positif.
 Hasil umum untuk a power of a matrix : a = CaC.
Akar karakteristik adl powers of elements of . C is the same.
 Kasus – kasus Penting:
 Inverse: -1 = C-1C
 Square root: 1/2 = C1/2C
 Inverse of square root: -1/2 = C-1/2C
 Matrix to zero power: 0 = C0C = CIC = I

14-21/59 Part 14: Generalized Regression


Generalized Least Squares – Finding P

(Using powers of the matrix)


E[**’|X*] = PE[ | X*]P
= PE[ |X]P
= σ2PP = σ2 -1/2  -1/2 = σ2 0
= σ2I

14-22/59 Part 14: Generalized Regression


Generalized Least Squares
Efficient estimasi untuk  and, implikasi,
inefficiency dari least squares b.

β̂ = (X*’X*)-1X*’y*
= (X’P’PX)-1 X’P’Py
= (X’Ω-1X)-1 X’Ω-1y

β̂ ≠ b. β̂ effisien, so by construction, b tidak.

14-23/59 Part 14: Generalized Regression


Asymptotics for GLS
Distribusi Asymptotik untuk GLS. (catatan. Kami
menerapkan model yang ditransformasi.)
Unbiasedness
Konsisten - “well behaved data”
Asymptotic distribution
uji statistics

14-24/59 Part 14: Generalized Regression


Unbiasedness

ˆ  ( X'Ω-1 X ) 1 X'Ω-1 y
β
 β  ( X'Ω-1 X ) 1 X'Ω-1ε

ˆ | X ]=β  ( X'Ω-1 X )1 X'Ω-1E[ε | X ]


E[β

= β if E[ε | X]  0

14-25/59 Part 14: Generalized Regression


Consistency
Use Mean Square
1

ˆ|X ]= 
2
 X'Ω -1
X
Var[β   0?
n  n 
 X'Ω-1 X 
Requires   to be "well behaved"
 n 
Either converge to a constant matrix or diverge.
Heteroscedasticity case: Easy to establish
X'Ω-1 X 1 n 1 n 1
  i1 (Ω-1 )ii x i x i'   i1 ii x i x i'
n n n 
Autocorrelation case: Complicated. Need assumptions
X'Ω-1 X 1 n
  i1  j1 (Ω-1 )ij x i x j'. n2 terms.
n

n n

14-26/59 Part 14: Generalized Regression


Asymptotic Normality

1

ˆ  β)  n  X ' Ω 1
X 1
n(β  X ' Ω 1ε
 n  n
Converge to normal with a stable variance O(1)?
1
 X ' Ω 1 X 
   a constant matrix? Assumed.
 n 
1
X ' Ω 1ε  a mean to which we can apply the central limit theorem?
n
Heteroscedasticity case?
1 1 n x i  i     xi
n
X ' Ω 1ε =   
n i1 i  i 
. Var  i
  
   2
,
i
is just data.
 i 

Apply Lindeberg-Feller.
Autocorrelation case? More complicated.

14-27/59 Part 14: Generalized Regression


Jika  tidak diketahui
  biasanya tidak diketahui. Untuk saat ini, kami akan
mempertimbangkan dua metode estimasi

 Two step, or feasible estimation. Pertama estimasi , lalu


lakukan GLS.

 Full information estimation of , 2, dan  secara


bersamaan. Joint estimation of all parameters. Fairly rare.
Some generalities.

14-28/59 Part 14: Generalized Regression


Specification
  harus ditentukan terlebih dahulu..
  terdiri n(n+1)/2 - 1 parameter.

14-29/59 Part 14: Generalized Regression


Generalized (Weighted) Least Squares
Heteroscedasticity Case
1 0 ... 0
 
2 2  0 2 ... 0 
Var[  X ]     
0 0 ... 0 
 
0 0 ... n 
1 / 1 0 ... 0 
 
 0 1 / 2 ... 0 
-1/2  
 0 0 ... 0 
 0 0 ... 1 / n 

1
ˆ  ( X'Ω-1 X )1 ( X'Ω-1 y )    n 1 x x     n 1 x y 
β

i1
i i i   i1 i i i 
2
 y  x βˆ
 i1   
n i i

 2  i 
ˆ 
nK

14-30/59 Part 14: Generalized Regression


Estimation: WLS form of GLS
General result - mechanics of weighted least squares.
Generalized least squares - efficient estimation. Assuming
weights are known.
Two step generalized least squares:
 Step 1: Use least squares, then the residuals to
estimate the weights.
 Step 2: Weighted least squares using the estimated
weights.
 (Iteration: After step 2, recompute residuals and return to
step 1. Exit when coefficient vector stops changing.)

14-31/59 Part 14: Generalized Regression


Applied Econometrics

Generalized Least Squares

Consider the model

Yt=β1+β2X2t+β3X3t+β4X4t+…+βkXkt+ut

where
Var(ut)=σt2
Applied Econometrics

Generalized Least Squares


If we divide each term by the standard deviation of the
error term, σt we get:
Yt=β1 (1/σt) +β2X2t/σt +β3X3t/σt +…+βkXkt/σt +ut/σt
or
Y*t= β*1+ β*2X*2t+ β*3X*3t+…+ β*kX*kt+u*t
Where we have now that:
Var(u*t)=Var(ut/σt)=Var(ut)/σt2=1
Applied Econometrics

Weighted Least Squares


The GLS procedure is the same as the WLS where
we have weights, wt, adjusting our variables.
Define wt=1/σt, and rewrite the original model as:
wtYt=β1wt+β2X2twt+β3X3twt+…+βkXktwt+utwt
Where if we define as wtYt-1=Y*t and Xitwt=X*it
we get
Y*t= β*1+ β*2X*2t+ β*3X*3t+…+ β*kX*kt+u*t

Anda mungkin juga menyukai