Anda di halaman 1dari 61

EKONOMETRIKA

pengukuran ekonomi

LITERATUR
1. Ekonometrika Dasar: Damodar Gujarati: Penerbit Erlangga
Jakarta.
2. Ekonometrika : Untuk Analisis Ekonomi dan Keuangan, Oleh :
Nachrowi D. Nachrowi dan Hardius Usman, LPFE-UI, Jakarta.
3. Ekonometrika Terapan Oleh: Catur Sugianto, BPFE-UGM,
Jogjakarta.
4. R.S. Pindyck and D.L. Rubinfel (1998) Econometrics, Models, and
Economic Forecasts
5. Mudrajad Kuncoro, Metode Kuantitatif.
6. Nurimansyah Hasibuan, Pengantar Ekonometrika.
7. Jurnal-jurnal terkait
LITERATUR
Basic Econometrics, Fourth Edition, Gujarati, The McGrow-Hill Companies,
2004.
Introductory Econometrics, A.Modern Approach-2E, Jeffrey M.Wooldridge.
Econometric Analysis of Panel Data, Third Edition, Badi H. Baltagi, John Wiley
& Sons, Ltd, 2005.
RUANG LINGKUP
1. Dasar model regresi linear.
2. Interpretasi geometrik dari metode kuadrat terkecil.
3. Analisis dasar hasil regresi.
4. Koefisien signifikansi dan selang kepercayaan.
5. Problem dalam model regresi linear.

6. Multikolonearitas, heteroskedastisitas, serial correlation.


7. Generalized less aquares estimators.
8. Variabel dependen kualitatif.
9. Lagged variabel dan distributed lags.

10. Persamaan simultan.


11. Problem dalam identifikasi.
12. Sistem rekursif.
13. Estimasi dari sistem persamaan simultan.
14. Kuadrat terkecil dwitingkat.
15. Variabel instrumental.
Ekonometrika

Teori
Ekonomi Statistik

Matematika
METODOLOGI EKONOMETRIKA

1. HIPOTESIS: Pernyataan teori ( +, -, ?)


2. Menduga Model Ekonometrika untuk menguji
hipotesis yang telah dibuat
3. Mengestimasi Parameter Model
4. Melakukan Verifikasi Model (0<β>1)
5. Membuat Prediksi
6. Menggunakan Model untuk membuat kebijakan
(Nachrowi Jalal dkk, hal.3)
METOOLOGI EKONOMETRIKA

1.Hipotesis: Ada Sebuah Teori Ekonomi mengatakan:Secara rata-rata,


apabila pendapatan seseorang meningkat, maka konsumsinya
meningkat pula, akan tetapi peningkatan konsumsinya tidak
sebesar peningkatan pendapatan
2.Model: C = βo + β1Y + є
C = konsumsi
Y = pendapatan;
βo = konstanta
β1 = koefisien
є = error term/kesalahan
3.Estimasi parameter model: menaksir βo β1 ect.
4.Verifikasi: menganalsis apakah βo, β1 sesuai dengan teori ekonomi.
5.Prediksi
1. MODEL REGRESI
DATA = MODEL + ERROR

Yi = β1 + β2Xi + ui ; i= 1, 2, ……., N
β0 : intercept Yi : variabel endogen ui : error term
βi : koefisien Xi : variabel eksogen N : observasi

Metode untuk mencapai penyimpangan/error term


(ui) minimum adalah metode kuadrat terkecil
(Ordinary Least Square/OLS).
Yi = b0 + b1Xi + ui
Yi
ui

dy b0 + b1Xi

b0 dx

Xi
Langkah-langkah secara matematis untuk
meminimalkan nilai penyimpangan/error term
(ui) sbb:
ui = Yi - β1 + β2Xi
ui dapat bernilai positif, negatif atau nol, karena
metode OLS sesungguhnya mencari jumlah
penyimpangan kuadrat (Σui 2), maka diperlukan
ui2, sehingga:
ui2 = (Yi - β1 + β2Xi) 2
Σui2 = Σ(Yi - β1 + β2Xi) 2
Kalau masing-masing ui2 terkecil,
maka Σui2 akan terkecil.
Prinsip OLS : kita perlu menaksir β1 dan β2 ,
sehingga Σui2 minimum.
Agar Σui2 minimum bila:

 u12  0  2 (Y1  1   2 X 1 )  0
1

 u12  0  2 (Y1  1   2 X 1 )  0
 2

Setelah disederhanakan, β1 dan β2 ,yang memenuhi


syarat adalah :
( X i  X )(Yi  Y )
b2  ˆ2  b1  ˆ1  Y  ˆ2 X
( X 1  X ) 2
Dimana: 1
X   X1
N
1
Y   Y1
N
Contoh: 1.
Berikut ini data hipotetis tentang belanja konsumsi (X) dan
Pendapatan mingguan (Y)
Y X Dependent Variable: Y
Method: Least Squares
70 80
Date: 03/01/09 Time: 15:36
65 100 Sample: 1 10
90 120 Included observations: 10
95 140 Variable Coefficient Std. Error t-Statistic Prob.
110 160
C 24.45455 6.413817 3.812791 0.0051
115 180
X 0.509091 0.035743 14.24317 0.0000
120 200
140 220 R-squared 0.962062 Mean dependent var 111.0000
155 240 Adjusted R-squared 0.957319 S.D. dependent var 31.42893
150 260 S.E. of regression 6.493003 Akaike info criterion 6.756184
Sum squared resid 337.2727 Schwarz criterion 6.816701
1110 1700
Log likelihood -31.78092 F-statistic 202.8679
Durbin-Watson stat 2.680127 Prob(F-statistic) 0.000001
Contoh : 2
Y X1 X2
2 5 2
Dari data Y dan X1 dan X2 di 5 6 4
samping, dimana
Y = f(X1;X2): 8 8 5
1) Apakah secara parsial X1 8 9 6
dan X2 signifikan
mempengaruhi Y? 9 8 8
2) Buatlah analisa persamaan
regresinya. 7 6 7
6 5 6
5 4 8
4 2 9
6 3 5
Regression Output

Confidence
Coefi- Interval
Variable SE t (df = 7)
cient
Lower Upper

Intercept -1.0526 1.7484 -0.6020 -5.1869 3.0818

X1 0.7222 0.1849 3.9054 0.2869 1.1595

X2 0.5014 0.1992 2.5174 0.0304 0.9723


Contoh
Dari data Y dan X1 dan X2 diatas,
dimana Y = f(X1;X2):
1) Apakah secara parsial X1 dan X2
signifikan mempengaruhi Y?
2) Buatlah analisa persamaan
regresinya.
• Dependent Variable: Y
• Method: Least Squares
• Date: 03/02/09 Time: 10:28
• Sample: 1 10
• Included observations: 10

• Variable Coefficient Std. Error t-Statistic Prob.

• C -1.052573 1.748428 -0.602011 0.5661
• X1 0.722191 0.184921 3.905416 0.0059
• X2 0.501384 0.199165 2.517422 0.0400

• R-squared 0.729662 Mean dependent var 6.000000
• Adjusted R-squared 0.652423 S.D. dependent var 2.108185
• S.E. of regression 1.242894 Akaike info criterion 3.516088
• Sum squared resid 10.81350 Schwarz criterion 3.606863
• Log likelihood -14.58044 F-statistic 9.446776
• Durbin-Watson stat 1.593215 Prob(F-statistic) 0.010272

2. PEMERIKSAAN MODEL
SIFAT-SIFAT TAKSIRAN YANG UTAMA
1. Tidak bias/tepat (tidak melenceng), kalaupun ada penyimpangan diusahakan
sekecil mungkin.
Bila b adalah taksiran dari β,
jika E(b)= β. Contoh:
X = tinggi mahasiswa FE
μ = mean (rata-rata populasi) dari X
Misalnya sampel sebesar n, taksiran μ disebut μ,
dirumuskan:
μ = 1/n ∑ Xi
Yang perlu dicari, apakah μ tidak bias ?
maka:
E(μ) = E {1/n ∑ Xi} = 1/n∑E(Xi) = 1/n.nμ = μ
Definisi bahwa : E(X) = μ
Karena E(u) = μ, maka u merupakan taksiran tak bias untuk μ .
2. Efisien
Jika β ̂ dan β‫ ־‬keduanya merapukan taksiran tak
bias untuk β , maka β ̂ dikatakan lebih efisien dari β‫־‬
jika var (β)̂ ≤ var β‫־‬
3. Terbaik dan tidak bias (BUE:best unbiased
estimator).
Bila β ̂ merupakan taksiran tak bias untuk β, maka β
dikatakan̂ sebagai taksiran terbaik dan tak bias
untuk β bila untuk setiap taksiran tak bias untuk β,
sebut β, berlaku :
̂
var (β) ≤ (β).
̂ ‫־‬
4. BLUE (best linier unbiased estimator)
Bila b mepunyai hubungan yang linier terhadap
nilai sampel, misalkan:
b = a0 + a1X1 + ……… + anXn
b dikatakan BLUE bila:
var (b) ≤ var (β) untuk setiap β linier unbiased
estimator untuk‫־‬β ‫־‬
KESALAHAN YANG MUNGKIN TERJADI DALAM
MEMBUAT MODEL

• KESALAHAN DALAM MENENTUKAN VARIABEL


• KESALAHAN DALAM DATA
• KESALAHAN DALAM MODEL MATEMATIS
Jika Model Regresi linier memenuhi asumsi-asumsi
berikut, maka taksiran yang diperoleh dengan metode
OLS mempunyai sifat BLUE:
1. E(ui) = 0
2. Cov (ui, uj) = 0; i≠j
3. Var (ui | xi) = σ2 sama untuk setiap i
(homoscedaticity)
4. Cov (ui , xi) = 0
5. Model Regresi dispesifikasi secara benar
2. URAIAN TEOREMA
Gauss-Markov
1. E(ui)=0 atau E(ui | xi) = 0 atau E(Yi)= β1+β2Xi
ui menyatakan variabel-variabel lain yang
mempengaruhi Yi akan tetapi tidak terwakili di dalam
model.
misalnya: Yi = β1 + β2 Xi + ui
dimana: Yi (pendapatan), Xi (pendidikan) dan ui
adalah variabel lain selain pendidikan yang
mempengaruhi pendapatan.

ASUMSI: jika Xi diketahui, maka pengaruh ui terhadap


Yi diabaikan atau ui tidak mempengaruhi E(Yi) secara
sistimatis
URAIAN TEOREMA
Gauss-Markov
2. Tidak ada korelasi antara ui dan uj [cov(ui, uj)] = 0; i≠j. Artinya
pada saat Xi sudah terobservasi, deviasi Yi dari meannya tidak
menunjukan adanya pola [E(ui,uj)=0]
3. Homoscedasticity, varaiasi ui sama; var (ui) = σ2 untuk setiap i.
misalnya: Y = konsumsi/minggu dan X= pendapatan/ minggu.
Disini terdapat hubungan positif antara X dan Y.
artinya semakin kaya seseorang makin besar konsumsinya,
tetapi bagaimana varaiannya?
a. Variance konsumsi orang kaya lebih besar dari varian
konsumsi orang miskin dikatakan heteroscedaticity,
b. Variance konsumsi orang kaya sama dengan varian
konsumsi orang miskin dikatakan homoscedasticity
URAIAN TEOREMA
Gauss-Markov

4. Kovariansi antara ui dan xi nol [cov(ui, xi)=0]


Tidak ada korelasi antara ui dan xi Artinya:
bila xi adalan non random, maka E(Xi, ui) = 0
Jika Xi meningkat, ui akan meningkat pula.
Jika Xi menurun, ui akan menurun pula, kondisi ini menunjukan
adanya korelasi antara ui dan Xi
5. Model Regrresi Dispesifikasi secara benar, artinya
sebelum membuat model perlu diperhatikan:
* Teori apa yang akan digunakan
* Variabel apa saja yang dperlukan oleh teori
* Bagaimana bentuk modelnya.
3. Standar Error dari Taksiran Least Square
• Menaksir suatu model dilandasi pada prinsip minimalkan Error. Karenanya
ketepatan takssiran ditentukan oleh standard error dari masing-masing
taksiran, Standard Error dirumuskan:
σ2 ΣXi2
SE(b2) ={ --------------------- }1/2 SE(b1) ={ --------------------- }1/2 σ
Σ(Xi – X)2 N Σ(Xi – X)2

• Karena σ merupakan penyimpangan yang terjadi dalam populasi yang


nilainya tidak diketahui, maka σ biasanya ditaksir berdasarkan data sampel,
adapun taksirannya:
Σui2
s = ( -------- )2
N-2

ui2 = (Yi – Ŷi)2


4. Ukuran Goodness of Fit (R2)

• Setelah menaksir parameter dan Standar Error, perlu memeriksa apakah


model regresi yang diestimasi cukup baik atau tidak. Untuk itu harus
dilakukan mendekatkan garis regresi diestimasi dengan data. Ukuran yang
biasa digunakan adalah Ukuran Goodness of Fit (R2), yaitu mencerminkan
seberapa besar variasi dari regressand (Y) dapat diterangkan oleh
Regressor (X).
• R2 didefinisikan berdasarkan langka-langkah sbb:
Observasi : Yi = β1 + β2 Xi + ui
Regresi : Ŷi = b1 + b2 Xi ;(Ŷi merupakan estimasi dari yi)
Yi = Ŷi + ei
Yi – Ῡ = Ŷi – Ῡ + ei
Σ (Yi - Ῡ )2 = Σ (Ŷi –Ῡ + ei)2
Σ (Yi - Ῡ )2 = Σ (Ŷi –Ῡ )2 + Σ ei2
TSS = ESS + RSS
• TSS = Total Sum of Squares ESS
R2 = --------
• ESS = Explaned of Sum Squared TSS
• RSS = Residual of Sum Squared
Bila tidak ada penyimpangan tentu tidak akan ada ESS
R2 = --------
Error. Sehingga RSS = 0, yang berarti ESS=TSS
TSS
atau R2 = 1 atau dengan kata lain semua titik
Observasi yang berada tepat digaris regresi.

Jadi TSS = sesungguhnya adalah variasi dari data,


ESS = variasi dari garis regresi yag dibuat.

Masalah di dalam regresi berganda lihat buku:


1. Nachrowi Jalal: penggunaan teknik ekonometrika: (Hal.121-
146)
2. Gujarati
Coefficient of Determination (R2)
• R2 disebut juga koefisien korelasi ganda, yaitu
statistik yang sering digunakan untuk mengukur
sampai seberapa besar model regresi linear yang
diestimasi sesuai (fit) dengan data observasi
• Jika R2 mendekati 1, maka Xi menjelaskan sebagian
besar variasi di Yi
• Sebaliknya, jika R2 mendekati 0, maka
Xi kurang atau tidak menjelaskan variasi Yi
• Nilai R2 yang tinggi disukai oleh peneliti
4. UJI t
1) Uji t, digunakan untuk melihat signifikansi
variabel bebas mempengaruhi variabel
terikat secara parsial atau individu.
2) Lower dan Upper merupakan batas bawah
dan batas atas nilai peramalan dari
koefisien.

Lihat Nachrowi hal.25-29.


Gujarati : hal. 73-80.
Regression Output
Confidence Interval
Coefi- t
Variable SE
cient (df=n-k-1)
Lower Upper

Intercept b0  2 b0 / SE(b0) b0 – t /2 . SE(b0) b0 + t /2 . SE(b0)


(b0)

X1 b1  2 b1 / SE(b1) b1 – t /2 . SE(b1) b1 + t /2 . SE(b1)


(b1)

X2 b2  2 b2 / SE(b2) b2 – t /2 . SE(b2) b2 + t /2 . SE(b2)


(b2)

SE : Standard Error
t (df) : t-statistic
t /2 : t-table
C. Asumsi Klasik
1. Model regresi adalah linear.  Y = b0 + biXi + Ui
2. Nilai yang diharapkan dari variabel pengganggu (error
term) adalah nol.  E (Ui | Xi) = 0
3. Kovarian antara variabel pengganggu (Ui) dan variabel
Xi adalah nol.  Cov (UiXi) = 0
4. Varian variabel residu (pengganggu) adalah sama atau
homokedastisitas.  Var (Ui | Xi) = 2
5. Tidak ada autokorelasi antar variabel pengganggu. 
Cov (UiUj | XiXj) = 0
6. Tidak ada korelasi sempurna atau mendekati
sempurna antar variabel bebas.  Xi  Xj
PENYIMPANGAN ASUMSI KLASIK

1) Multikolinearitas, yaitu terjadinya korelasi


sempurna atau mendekati sempurna antara
variabel bebas.
2) Heteroskedastisitas, yaitu varian dari variabel
residu (pengganggu) adalah tidak sama atau
tidak konstan.
3) Autokorelasi, yaitu korelasi sempurna atau
mendekati sempurna antar variabel
penggangu pada pengamatan satu dengan
pengamatan yang lain.
Dampak secara umum bila terjadi
Penyimpangan Asumsi Klasik

1. Model regresi menjadi bias.


2. Tidak efisien.
3. Tidak konsisten.
4. Bukan merupakan model terbaik.
Goodness of Fit
• t-statistic yg signifikan
• F-statistic yg signifikan
• R2 atau Adjusted R2 yg tinggi
ANALISIS DATA
ANALISIS TIME SERIES
DATA TIME SERIES ADALAH DATA RUNTUTAN WAKTU DIMANA,
DAPAT BERUPA DATA TAHUNAN, KUARTALAN, BULANAN,
MINGGUAN HARIAN, BAHKAN DATA PER JAM.
ANALISIS TIME SERIES BIASANYA MENGASUMSIKAN BAHWA
DATA MASA LALU DAPAT MEMPENGARUHI MASA DEPAN,
TETAPI TIDAK SEBALIKYA.
DALAM ANALISIS TIME SERIES TERDAPAT DUA MODEL YANG
UMUM DIGUNAKAN:
1. MODEL STATIK: MODEL YANG MENGHUBUNGAN SECARA
BERSAMAAN VARIABEL INDEPENEN DAN VARIABEL DE
DEPENEN DALAM SATU WAKTU:
MIS: MODEL UNTUK MENGETAHUI TRADE OFF SECARA
BERSAMAAN ANTARA INFLASI (Inft) DENGAN
PENGANGGURAN (Unemt) (MANKIW: 1994) : Inft = βt +
Unemt + ut
2. MODEL DINAMIK
Biasa disebut Model Finite distributed Lag Model (FDL),
yaitu model yang memiliki satu atau lebih variabel
independen yang mempengaruhi veriabel dependen
tetapi dengan lag tertentu.
CONTOH: yt = a + bXt + cXt-1 + dXt-3 + ut
Ada beberapa syarat dalam menganalisis data time series:
diantaranya masalah stasionaritas
DATA time series dikatakan stasioner jika: rata-rata,
varians dan covarian (pada berbagai lag) tetap sama tidak
masalah pada titik waktu mana dihitungnya, yang berarti
tidak bervariasi antar waktu. Atau:
- Mean : E(Yt) = µ
- Variance : Var(Yt) = E(Yt- µ)2 = σ2
- Covariance : Yk = E[(Yt - µ)(Yt+k- µ)]
k adalah lag variabel
Uji stasioner

1. Graphical Analysis : dalam eviews dengan


correlogram
2. Pengujian Unit Root: Dickey-Fuller Test (DF-test),
dengan asumsi tidak adanya hubungan antar variabel
gangguan.
kriteria: ADF Test < dari nilai kritisnya: maka
stasioner.
JIKA DATA TIME SERIES STASIONER PADA TINGKAT
BERAPA SAJA, MAKA KITA DAPAT MEMODELKAN DATA
TERSEBUT DENGAN BERBAGAI CARA

1. Model Autoregresif (AR) process


2. Model Moving Average (MA) process
3. Model ARMA process
4. Model Autoregresif Integrated Moving Average
(ARIMA).
1. Model Autoregresif (AR) process
Misalkan kita memodelkan Yt sebagai:
(Yt – δ) = αt ( Yt-1 – δ) + ut
δ = rata-rata Y dan ut adalah nilai error yang tidak
saling berhubungan dengan rata-rata nol dan variance
yang konstan σ2, maka kita bisa mengatakan Yt
mengikuti first-order autoregresive atau AR(1),
stochastic process. Artinya: pada model tersebut Yt
sangat tergantung pada nilai periode sebelumnya dan
nilai error random-nya.
MULTIKOLINIERITAS
yaitu terjadinya korelasi sempurna atau
mendekati sempurna antara variabel bebas.

Asumsi yang harus dipenuhi agar taksiran parameter dalam


model bersifat BLUE:
1. E(ui) = 0
2. Cov (ui, uj) = 0; i≠j
3. Var (ui | xi) = σ2 sama untuk setiap i (homoscedaticity)
4. Cov (ui , xi) = 0
5. Model Regresi dispesifikasi secara benar
6. Tidak ada hub.linier (kolinieritas) antar regresor
misalnya: X1 dan X2 dapat dinyatakan sebagai fungsi linier atau
sebalikya. Contoh:
Y = β0 + β1X1 + β2X2 + β3X3 + ui
Y=konsumsi, X1=total pendapatan; X2=pendapatan dari upah;
X3=pendapatan bukan dari upah, maka β1 tidak dapat diperoleh
karena X1 = X2 + X3 perfect multicollinearity.
Contoh sifat-sifat multikolinearitas Variabel Regressor
• Nilai x1 dan x2 mempunyai hubungan
x2=4x1. hubungan seperti ini disebut
X1 x2 X3
Perfect Multicolinearity.
• Demikian pula x1 dan x3, yang 12 48 5
mempunyai hubungan x3=4x1 + bilangan 16 64 65
random (3, 1, 6, 4, 2).
19 76 82
• Adan hubungan positif antara kekayaan
dan pendapatan, artinya seseorang yang 23 92 96
kaya cenderung berpendapatan tinggi
(sebaliknya). 29 116 118
Kons Pend Kekayaan
AKIBAT DARI MULTIKOLINEARITAS: (X2)
(Y) (X1)
• Varian besar (dari taksiran OLS) 40 50 500
• Standar error besar 50 65 659
• Uji t menjadi tidak signifikan, biasanya diikuti 65 80 856
oleh variansi besar standar error.
90 110 1136
• R2 tinggi, tetapi tidak banyak variabel yang
signifikan dari uji t. 85 100 1023
• Umumnya taksiran koefisien yang didapat 100 120 1234
akan mempunyai nilai yang tidak sesuai 110 140 1456
dengan substansi, sehingga dapat 135 190 1954
menyesatkan interpretasi.
140 210 2129
160 220 2267

• Umumnya makin banyak regressor, maka goodness of fit (R2) cenderung semakin
tinggi, dan tidak banyak regressor yang signifikan, bila dalam model terjadi
kolinearitas. Tetapi secara bersama-sama regressor tersebut dapat signifikan.
• Contoh di atas, terjadi hubungan x2 dan x1 adalah x2=10x1 + bilangan random.
Misalnya model yang ditaksir menghasilkan :
Y = 12,8 – 1,414x1 + 0,202 x2 + ui
Standar error (SE) (4,696) (1,199) (0,117)
t =(2,726) (-1,179) (1,721)
R2 = 0,982
Contoh di atas, terjadi hubungan x2 dan x1 adalah x2=10x1 + bilangan random.
Misalnya model yang ditaksir menghasilkan :
Y = 12,8 – 1,414x1 + 0,202 x2
Standar error (SE) (4,696) (1,199) (0,117)
t =(2,726) (-1,179) (1,721)
R2 = 0,982

• R2 cukup tinggi, berarti, pendapatan dan kekayaan secara bersama sama


mampu menerangkan variasi konsumsi sebesar 98,2%.
• Namun secara individu uji t menunjukan koefisien X1 dan X2 tidak signifikan
secara statistik pada  = 5%. Ini akibat dari relatif besarnya nilai standar
error.
• Interpretasi koefisien dapat menyesatkan, terutama pada koefisien X1 yang
bertanda negatif, adalah sesuatu yang tidak mungkin.
• Walau secara individu X1 dan X2 tidak signifikan, tetapi secara bersama-
sama X1 dan X2 signifikan. ( F test : signifikan)
• Tetapi bila di analisis secara terpisah,
Y = 14,148 + 0,6494x1
Y = 13,587 + 0,0635x2
• Masalah kolinier menjadi tidak ada lagi.
Cara mengatasi Kolinearitas

• Tidak ada cara yang spesifik untuk mengatasi kolinearitas, tetapi ada
beberapa cara dapat dilakukan:
1. Informasi Apriori. Misalnya: Y = 0 + 1X1 + 2X2 + u
di mana Y = konsumsi, X1 = pendapatan dan X2 = kekayaan, X1 dan X2
cenderung sangat kolinear.
MISALNYA ada teori atau studi empiris yang mengatakan bahwa dampak
dampak X2 terhadap Y lebih kecil dibanding dampak X1 terhadap Y atau
lebih spesifik lagi misalnya ΔY terhadap X2 25% ΔY terhadap X1.
Akibatnya dalam model kita dapat tambahkan informasi:
2 = 0,25 1, sehingga kita dapat melakukan perubahan regresi sebagai
berikut:
Y = 0 + 1X1 + 0,251X2 + u
Y = 0 + 1 (X1 + 0,25X2) + u
Y = 0 + 1X + u
Di mana X = X1+ 0,25X2
setelah 1 ditaksir, maka 2 dapat dicari melalui hubungan formula berikut:
2 = 0,251.
CONTOH ILUSTRATIF: Kons Pend Kekayaan
(Y) (X2) (X3)
• Dari tabel sebelah diperoleh regresi:
40 50 500
Ỳ = 24,77 + 0,94X2i - 0,04X3i 50 65 659
65 80 856
(SE) = (6,75) (0,82) (0,08)
t = (3,67) (1,14) (-0,52) 90 110 1136

R2 = 0,9635 df = 7. 85 100 1023


Sumber variasi SS df MSS 100 120 1234
110 140 1456
Akibat regresi 8565,5541 2 4282,777 135 190 1954
Akibat residual 324,4459 7 46,3494 140 210 2129
160 220 2267

CONTOH ini menunjukan apa itu Multikol. 4282,777


• Uji F penting, tetapi nilai t dari X2 dan X3 secara F = ------------
individual tidak penting berarti kedua variabel itu 46,3494
berkorelasi sangat tinggi.
• Untuk pengujian regres: = 92,4019
1. Ỳi = 0 + 1X2i + u
2. Ỳi = 0 + 1X3i + u
Cara mengatasi Kolinearitas

2. Tidak mengikutsertakan salah satu vaiabel yang kolinier


3. Menstranformasikan variabel, yang biasanya digunakan pada data time series,
misalnya regresi berganda:
a. Yt = β1 + β2X2t + β3X3t + ut
kemudian dibuat persamaan lain pada saat t-1 ( lag variabel), maka
b. Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1
kemudian mengurangkan data pada tahun t dengan data pada tahun
t-1, sehingga model regresi menjadi:
c. (Yt-Yt-1) = β2(X2t-X2t-1)+β3(X3t-X3t-1) + (ut-ut-1)
kemudian model tersebut didefinisikan kembali, sehingga menjadi:
Yt*= β2X2t* + β3X3t* + ut* Model Regresi yang baru.
di mana: Yt* = (Yt-Yt-1)
X2t* = (X2t-X2t-1)
X3t* = (X3t-X3t-1)
ut* = (ut-ut-1)
Cara ini terdapat beerapa kelemahan: yaitu kehilangan satu observasi
4. Mencari data tambahan, dengan data tambahan kolinieritas dapat berkurang, tetapi
dalam praktek tidak mudah mencari tambahan data.
5. Cara lain adalah dengan tranformasi eksponensial
OTOKORELASI
Yaitu korelasi sempurna atau mendekati sempurna antar variabel penggangu
pada pengamatan satu dengan pengamatan yang lain

Asumsi yang harus dipenuhi agar taksiran parameter dalam model bersifat BLUE:
1. Cov ( ui, uj ) = 0; i≠j artinya tidak ada korelasi antara uidan uj untuk i≠j ( E (ui, uj) =
i≠ j ).
jadi otokorelasi adalah korelasi antara variabel itu sendiri, pada pengamatan yang
berbeda waktu atau individu. Otokorelasi sering terjadi pada data time series.
2. Cara mendeteksi, dapat dilakukan dengan melihat pola hubungan antara residu (ui)
dan variabel bebas atau waktu (X)

(ui) (ui)

` (Waktu/X) (Waktu/X)
DAMPAK DARI OTOKORLASI YANG DIPEROLEH DENGAN MENGGUNAKAN OLS
TIDAK LAGI BLUE, NAMUN MASIH TAK BIAS, DAN KONSISTEN. SEHINGGA
INTERVAL KEPERCAYAAN MENJADI LEBIH LEBAR, DAN UJI SIGNIFIKAN KURANG
KUAT. AKIBATNYA UJI t DAN UJI F TIDAK DAPAT DILAKUKAN, ATAU HASILNYA
TIDAK AKAN BAIK. SECARA KONSEPTUAL:
* Ada otokorelasi bila E (ui, uj) ≠ 0; i≠j
* Tidak ada otokorelasi bila E (ui, uj) = 0; i≠j

MENDETEKSI OTOKORLASI
Uji Durbin-Watson merupakan yang paling populer, cara :
1. hitung d dengan formula:

N
Σ (ût– ût-1)2
t=2 PERLU DIINGAT MODEL:
d = --------------- Yt = β1 + β2X1 + ut SEHINGGA:
N Ût = Yt – β1 – β2 Xt SELANJUTNYA:
Σ ût 2
t=2
Σ ût– ût-1
d = 2 (1 - -------------)= 2(1-ρ) ρ = koefisien otokorelasi
Σût2 -1≤ ρ ≤1. SEHINGGA -0 ≤ d ≤ 4
di mana :
Σ (ût– ût-1) 1. Pada saat ρ= 0, d=2; tidak ada korelasi
ρ = ---------------- 2. Pada saat ρ= 1, d=0; ada korelasi positif
Σ(ût2 ) 3. Pada saat ρ=-1, d=4; ada korelasi positif

PENGAMATAN KASAR:
Bila d dekat dengan 2, ρ akan dekat dengan 0, jadi tidak ada korelasi.
Ada uji yang lebih spesifik, menggunakan tabel Durbin-Watson dengan
melihat dU dan dL
Langka-langkah uji Durbin-Watson
1. Run OLS sehingga diperoleh ûi
2. Hitung d. (dalam paket program statistik, nilai d sudah dihitung)
3. Bila besar n dan k diketahui, dU dan dL dapat dicari dalam tabel
4. Gunakan aturan uji Durbin-Watson sbb:
HIPOTESIS Ho : ρ ≠ 1
Ho* : ρ ≠ -1
Bandingkan nilai d yang dihitung dengan nilai dU dan dL dari tabel dengan aturan sbb :
1. Bila d < dL tolak Ho ; berarti d korelasi positif atau kecenderungannya ρ = 1
2. Bila dL ≤ d ≤ dU ; kita tidak akan mengambil keputusan apa-apa
3. Bila dU <d ≤ 4 – dU ; jangan tolak Ho maupun Ho*
4. Bila 4 - dU ≤ d ≤ 3 - dL ; kita tidak dapat mengambil keputusan apa.
5. Bila d > 4 – dL ; tolak Ho* ; berarti ada korelasi negatif

SECARA GRAFIK BENTUK KORELASI DITENTUKAN SEBAGAI BERIKUT:


JIKA DW-hitung 1,43; N=50; K=4;
Tidak Tahu Tidak Tahu
Korelasi (+) Tidak ada Korelasi Korelasi (-)

d dL dU 4-dU 4-dL 4
Cara pengobatan Otokorelasi
Secara umum otokorelasi sulit untuk mengatasinya. Transfprmasi
logaritma dapat mengurangi korelasi. Bila terdapat data negatif
yang menyulitkan untuk ditransformasi logaritma.
HASIL REGRESI Y = ∫(X1, X2)
• Dependent Variable: Y
• Method: Least Squares
• Date: 11/03/07 Time: 14:35
• Sample: 1 30
• Included observations: 30

• Variable Coefficient Std. Error t-Statistic Prob.

• C -1.052573 1.748428 -0.602011 0.5661
• X1 0.722191 0.184921 3.905416 0.0059
• X2 0.501384 0.199165 2.517422 0.0400

• R-squared 0.729662 Mean dependent var 6.000000
• Adjusted R-squared 0.652423 S.D. dependent var 2.108185
• S.E. of regression 1.242894 Akaike info criterion 3.516088
• Sum squared resid 10.81350 Schwarz criterion 3.606863
• Log likelihood -14.58044 F-statistic 9.446776
• Durbin-Watson stat 1.593215 Prob(F-statistic) 0.010272

CONTOH: MENDETEKSI OTOKORELASI


Berdasarkan hasil estimasi di atas, diketahui D-W hitung d = 1,59.
 N = 30; K = 2. Dari tabel diperoleh:

PERTANYAAN: Apakah HASIL REGRESI Y = ∫(X1, X2) terkena


otokorelasi?
HETEROSKEDASTISITAS
VARIAN DARI VARIABEL RESIDU (PENGGANGGU)
ADALAH TIDAK SAMA ATAU TIDAK KONSTAN.

• Asumsi yang harus dipenuhi agar taksiran parameter


dalam model bersifat BLUE:
Var (ui|xi) = σ2 sama/konstan untuk setiap i
(homoscedatiscity)
• Heteroskedastisitas: secara grafis terlihat adanya
hubungan positif antara X dan Y, tetapi dari sebaran data
menunjukan bahwa semakin besar nilai variabel X dan Y,
semakin jauh kordinat (x,y) dari garis regresi; artinya
variasi data yang digunakan untuk membuat model tidak
konstan.
SIFAT HETEROSKEDASTISITAS

• Karena tidak konstannya varians maka lebih besarnya variansi


dari taksiran
• Lebih besarnya varian taksiran, akan berpengaruh terhadap uji
hipotesis yang dilakukan (uji F dan uji t), karena kedua uji
tersebut menggunakan besaran variansi taksiran. Sehingga
kedua uji tersebut tidak akurat.
• Lebih besarnya varian taksiran akan menyebabkan standar error
taksiran juga lebih besar, sehingga interval kepercayaan menjadi
sangat besar.
• Akibat bebrapa dampak tersebut, maka kesimpulan yang
diambil dari persamaan regresi yang dibuat dapat menyesatkan
• Contoh: HETEROSKEDASTISITAS

1. Model Tabungan. Secara umum jika pendapatan meningkat,


tabungan juga meningkat, sehingga keluarga yang memiliki
pendapatan besar cenderung tabungannya juga besar
dibanding keluarga yang berpendapatan rendah. Hal ini
menyebabkan lebih besar variabilitiasnya dalam menabung,
sehingga var(ui) tidak konstan.
2. Makin lama seseorang latihan mengetik, ada
kecenderungan makin kecilnya tingkat kelasahan. Hal ini var(ui)
tidak konstan.
CONTOH tersebut terdapat kecenderungan heteroskedastisitas
akan banyak ditemukan pada data cross sectional.
CARA MENDTEKSI ADANYA HETEROSKEDASTISITAS
Pada multikol, permasalahan dapat dideteksi melalui besaran-besaran regresi,
namun pada HETERO, tidak demikian, biasanya dapat dideteksi via grafik,
berdasarkan intuisi, dugaan-dugaan ilmiah atau berdasarkan studi empiris atau
menekankan pada statistikya.
1. Metode Grafik
Melihat pola residual (ui2) terhadap taksiran Yi (Ỳi), di mana hetero terjadi bila
variannya tidak konstan.
CARAnya mengasumsikan bahwa didalam data tidak ada hetero, persamaan regresi
dapat dibuat, dan dilakukan estimasi untuk mendapatkan Ỳi, selanjutnya
menghitung: ui2=(Yi -Ỳi)2 kemudian buat plot antara ui2 dan Ỳi.
(ui2) homoskedastisitas (ui2) heteroskedastisitas (ui2) heteroskedastisitas

(Ỳi) (Ỳi) (Ỳi)


2. UJI PARK
 Pada prinsipnya hampir sama dengan metode grafik. Bedanya Uji Park memanfaatkan
bentuk regresi untuk melihat ada tidaknya heteroskedastisitas: dengan persamaan
regresi berikut:
ln ui2 =  + β ln X1 + vi
ui = error term pada regresi Yi = o + β0Xi + ui
selanjutnya lakukan uji t. Bila β secara statistik signifikan, maka ada heteroskedastisitas
dalam data.
CONTOH: Perusahaan sepatu yang memberikan bonus pada salesman:

Sales X Y Sales X Y Sales X Y Y = rata-rata bonus (Rp)


man man man X = rata-rata sepatu terjual (unit)
1 2 10 11 15 80 21 32 180 1. Hasil Regresi Y terhadap X
2 3 15 12 17 90 22 33 185 Y = -3,147 + 5,565Xs
3 4 20 13 18 95 23 34 190 R = 0,99 t = 0,03
4 5 25 14 19 100 24 37 205 2. Apakah ada hetero?
5 7 35 15 20 105 25 39 215 3. Uji Park diperoleh:
6 8 40 16 22 120 26 40 220
ln ui2 = 6,039+-2,11 lnX1
R = 0,999 t = 0,009
7 10 50 17 23 125 27 42 230
secara statistik β signifikan,
8 11 60 18 25 135 28 43 235 berarti model tersebut ada
9 12 65 19 27 145 29 44 240 heteroskedastisitas
10 13 70 20 30 160 30 45 245
3. Uji Goldfeld – Quandt
metode ini sangat populer untuk digunakan, tapi rumit
bila data cukup besar.

LANGKAH-LANGKAHnya SBB:
• Urutan pengamatan berdasarkan nilai X dari kecil ke besar
• Abaikan beberapa pengamatan sekitar median, katakanlah sebanyak c
pengamatan
• Sisanya, masih ada (N-c) pengamatan.
• Lakukan regresi pada pengamatan (N-c/2) yang pertama, hitung RSS1,
Residual Sum of Squares pertama.
• Lakukan regresi pada pengamatan (N-c/2) yang kedua, hitung RSS2,
Residual Sum of Squares kedua.
1. Hitung λ = (RSS2/df2) / (RSS1/df1) ; df = degree of freedom: banyaknya
pengamatan dikurangi banyaknya parameter yang ditaksir.
2. Lakukan Uji F. Bila λ > F, tolak hipotesis yang menyatakan yang
menyatakan data mempunyai varian yang homoskedastisitas.
Cara mengatasi heteroskedastisitas
1. Metode Generalized Least Squares (GLS)
Model 1/σi
Yi = βo + β1Xi + ui dengan Var (ui ) = σi2
2. Transformasi Logaritma
Cara tersebut di atas cukup rumit, karena memerlukan
pengetahuan matematika dan statistika, cara yang sering
digunakan adalah transformasi logaritma.
Prinsip ini akan membuat perbedaan nilai akan lebih kecil.
Katakanlah angka 10 dan 5, perbedaannya adalah 5. akan
tetapi beda antara ln 10 = 2,3 dan ln5=1,6, perbedaannya
dapat lebih kecil.sehingga diharapkan data yang hetero
dapat menjadi homos.
• TABLE I.1 DATA ON Y (PERSONAL CONSUMPTION EXPENDITURE)

• AND X (GROSS DOMESTIC PRODUCT, 1982–1996), BOTH

• IN 1992 BILLIONS OF DOLLARS

• Year Y X

• 1982 3081.5 4620.3

• 1983 3240.6 4803.7

• 1984 3407.6 5140.1

• 1985 3566.5 5323.5

• 1986 3708.7 5487.7

• 1987 3822.3 5649.5

• 1988 3972.7 5865.2

• 1989 4064.6 6062.0

• 1990 4132.2 6136.3

• 1991 4105.8 6079.4

• 1992 4219.8 6244.4

• 1993 4343.6 6389.6

• 1994 4486.0 6610.7

• 1995 4595.3 6742.1

• 1996 4714.1 6928.4

• Source: Economic Report of the President, 1998, Table B–2, p. 282.