Anda di halaman 1dari 49

METODE KUADRAT TERKECIL

(Ordinary Least Square)

METODE TERBAIK YANG SERING DIGUNAKAN


DALAM MENGESTIMASI MODEL PERSAMAAN
LINEAR MAUPUN NONLINEAR DARI SUATU
VARIABEL MENJELASKAN (independen) KEPADA
VARIABEL YANG DIJELASKAN (dependen)
Goodness of Fit

• t-statistic yg signifikan
• F-statistic yg signifikan
• R2 atau Adjusted R2 yg tinggi
Coefficient of Determination (R2)

R2 disebut juga koefisien korelasi ganda, yaitu


statistik yang sering digunakan untuk mengukur
sampai seberapa besar model regresi linear
yang diestimasi sesuai (fit) dengan data
observasi
Jika R2 mendekati 1, artinya kemampuan
variabel Xi dalam menjelaskan variasi
variabel Yi sangat tinggi.

Sebaliknya, jika R2 mendekati 0, kemampuan


variabel Xi dalam menjelaskan variasi Yi
sangat rendah.

Nilai R2 yang tinggi disukai oleh peneliti


MATERI 3: ANALISIS REGRESI (2)

II.Aplikasi Dengan Data Runtut Waktu


III. Aplikasi Dengan Data Silang Tempat
IV. Aplikasi Dengan Data Pooling
Contoh: 1. STOP 20309
Berikut ini data hipotetis tentang Pengeluaran konsumsi (Y) dan
Pendapatan mingguan (X)
Y X Dependent Variable: Y
Method: Least Squares
70 80
Date: 03/01/09 Time: 15:36
65 100 Sample: 1 10
90 120 Included observations: 10
95 140 Variable Coefficient Std. Error t-Statistic Prob.
110 160
C 24.45455 6.413817 3.812791 0.0051
115 180
X 0.509091 0.035743 14.24317 0.0000
120 200
140 220 R-squared 0.962062 Mean dependent var 111.0000
155 240 Adjusted R-squared 0.957319 S.D. dependent var 31.42893
150 260 S.E. of regression 6.493003 Akaike info criterion 6.756184
Sum squared resid 337.2727 Schwarz criterion 6.816701
1110 1700
Log likelihood -31.78092 F-statistic 202.8679
Durbin-Watson stat 2.680127 Prob(F-statistic) 0.000001
Contoh : 2
Y X1 X2
3 7 3
Dari data Y (konsumsi) dan 6 9 5
X1 (pendapatan) dan X2
(Kekayaan) di samping, 7 9 6
dimana 8 8 8
Y = f(X1;X2):
1) Apakah secara parsial X1 9 8 9
dan X2 signifikan
mempengaruhi Y? 8 7 8
2) Buatlah analisa persamaan
7 6 7
regresinya.
y = a + bX1 + cX2 7 5 9
6 4 9
8 5 7
REGRESION OUTPUT
Stop 14 eks
Dependent Variable: Y
Method: Least Squares
Date: 03/02/09 Time: 10:28
Sample: 1 10
Included observations: 10

Variable Coefficient Std. Error t-Statistic Prob.

C -1.052573 1.748428 -0.602011 0.5661


X1 0.722191 0.184921 3.905416 0.0059
X2 0.501384 0.199165 2.517422 0.0400

R-squared 0.729662 Mean dependent var 6.000000


Adjusted R-squared 0.652423 S.D. dependent var 2.108185
S.E. of regression 1.242894 Akaike info criterion 3.516088
Sum squared resid 10.81350 Schwarz criterion 3.606863
Log likelihood -14.58044 F-statistic 9.446776
Durbin-Watson stat 1.593215 Prob(F-statistic) 0.010272
Regression Output

Confidence
Coefi- Interval
Variable SE t (df = 7)
cient
Lower Upper

Intercept -1.0526 1.7484 -0.6020 -5.1869 3.0818

X1 0.7222 0.1849 3.9054 0.2869 1.1595

X2 0.5014 0.1992 2.5174 0.0304 0.9723


2. PEMERIKSAAN MODEL
SIFAT-SIFAT TAKSIRAN YANG UTAMA
1. Tidak bias/tepat (tidak melenceng), kalaupun ada penyimpangan diusahakan
sekecil mungkin.
Bila b adalah taksiran dari β,
jika E(b)= β. Contoh:
X = tinggi mahasiswa FE
μ = mean (rata-rata populasi) dari X
Misalnya sampel sebesar n, taksiran μ disebut μ,
dirumuskan:
μ = 1/n ∑ Xi
Yang perlu dicari, apakah μ tidak bias ?
maka:
E(μ) = E {1/n ∑ Xi} = 1/n∑E(Xi) = 1/n.nμ = μ
Definisi bahwa : E(X) = μ
Karena E(u) = μ, maka u merupakan taksiran tak bias untuk μ .
2. Efisien
Jika β ̂ dan β‫ ־‬keduanya merupakan taksiran tak
bias untuk β , maka β ̂ dikatakan lebih efisien dari β‫־‬
jika var (β)̂ ≤ var β‫־‬
3. Terbaik dan tidak bias (BUE:best unbiased
estimator).
Bila β ̂ merupakan taksiran tak bias untuk β, maka β ̂
dikatakan sebagai taksiran terbaik dan tak bias
untuk β bila untuk setiap taksiran tak bias untuk β,
sebut β,̂ berlaku :
‫־‬
var (β)̂ ≤ var (β).
4. BLUE (best linier unbiased efficien estimator)
Bila b mepunyai hubungan yang linier
terhadap nilai sampel, misalkan:
b = a0 + a1X1 + ……… + anXn
b dikatakan BLUE bila:
‫ ־‬untuk setiap β‫ ־‬linier
var (b) ≤ var (β)
unbiased estimator untuk β
Jika Model Regresi linier memenuhi asumsi-
asumsi berikut, maka taksiran yang diperoleh
dengan metode OLS mempunyai sifat BLUE:
1. E(ei) = 0
2. Cov (ei, ej) = 0; i≠j autokorelasi
3. Var (ei | xi) = σ2 sama untuk setiap i
(homoscedaticity)
4. Cov (ei , xi) = 0
5. Model Regresi dispesifikasi secara benar
2. URAIAN TEOREMA
Gauss-Markov
1. E(ei)=0 atau E(ei | xi) = 0 atau E(Yi)= β1+β2Xi
ei menyatakan variabel-variabel lain yang
mempengaruhi Yi akan tetapi tidak terwakili di
dalam model.
misalnya: Yi = β1 + β2 Xi + ei
dimana: Yi (pendapatan), Xi (pendidikan) dan ei
adalah variabel lain selain pendidikan yang
mempengaruhi pendapatan.

ASUMSI: jika Xi diketahui, maka pengaruh ei terhadap


Yi diabaikan atau ei tidak mempengaruhi E(Yi) secara
sistimatis
URAIAN TEOREMA
Gauss-Markov
2. Tidak ada korelasi antara ei dan ej [cov(ei, ej)] = 0; i≠j. Artinya
pada saat Xi sudah terobservasi, deviasi Yi dari meannya tidak
menunjukan adanya pola [E(ei,ej)=0]
3. Homoscedasticity, varaiasi ei sama; var (ei) = σ2 untuk setiap i.
misalnya: Y = konsumsi/minggu dan X= pendapatan/ minggu.
Disini terdapat hubungan positif antara X dan Y.
artinya semakin kaya seseorang makin besar konsumsinya,
tetapi bagaimana varaiannya?
a. Variance konsumsi orang kaya lebih besar dari varian
konsumsi orang miskin dikatakan heteroscedaticity,
b. Variance konsumsi orang kaya sama dengan varian
konsumsi orang miskin dikatakan homoscedasticity
URAIAN TEOREMA
Gauss-Markov

4. Kovariansi antara ei dan xi nol [cov(ei, xi)=0]


Tidak ada korelasi antara ei dan xi Artinya:
bila xi adalan non random, maka E(Xi, ei) = 0
Jika Xi meningkat, ei akan meningkat pula.
Jika Xi menurun, ei akan menurun pula, kondisi ini
menunjukan adanya korelasi antara ei dan Xi
5. Model Regrresi Dispesifikasi secara benar, artinya
sebelum membuat model perlu diperhatikan:
* Teori apa yang akan digunakan
* Variabel apa saja yang diperlukan oleh teori
* Bagaimana bentuk modelnya.
3. Standar Error dari Taksiran Least Square
• Menaksir suatu model dilandasi pada prinsip minimalkan Error. Karenanya
ketepatan taksiran ditentukan oleh standard error dari masing-masing
taksiran, Standard Error dirumuskan:
σ2 ΣXi2
SE(b2) ={ --------------------- }1/2 SE(b1) ={ --------------------- }1/2 σ
Σ(Xi – X)2 N Σ(Xi – X)2

• Karena σ merupakan penyimpangan yang terjadi dalam populasi yang


nilainya tidak diketahui, maka σ biasanya ditaksir berdasarkan data
sampel, adapun taksirannya:
Σui2
s = ( -------- )2
N-2

ui2 = (Yi – Ŷi)2


4. Ukuran Goodness of Fit (R2)

• Setelah menaksir parameter dan Standar Error, perlu memeriksa apakah


model regresi yang diestimasi cukup baik atau tidak. Untuk itu harus
dilakukan mendekatkan garis regresi diestimasi dengan data. Ukuran yang
biasa digunakan adalah Ukuran Goodness of Fit (R2), yaitu mencerminkan
seberapa besar variasi dari regressand (Y) dapat diterangkan oleh
Regressor (X).
• R2 didefinisikan berdasarkan langka-langkah sbb:
Observasi : Yi = β1 + β2 Xi + ei
Regresi : Ŷi = b1 + b2 Xi ;(Ŷi merupakan estimasi dari yi)
Yi = Ŷi + ei
Yi – Ῡ = Ŷi – Ῡ + ei
Σ (Yi - Ῡ )2 = Σ (Ŷi –Ῡ + ei)2
Σ (Yi - Ῡ )2 = Σ (Ŷi –Ῡ )2 + Σ ei2
TSS = ESS + RSS
• TSS = Total Sum of Squares ESS
• ESS = Estimation of Sum Squared R2 = --------
• RSS = Residual of Sum Squared TSS
Bila tidak ada penyimpangan tentu tidak akan ada ESS
R2 = --------
Error. Sehingga RSS = 0, yang berarti ESS=TSS
TSS
atau R2 = 1 atau dengan kata lain semua titik
Observasi yang berada tepat digaris regresi.

Jadi TSS = sesungguhnya adalah variasi dari data,


ESS = variasi dari garis regresi yang dibuat.

Masalah di dalam regresi berganda lihat buku:


1. Nachrowi Jalal: penggunaan teknik ekonometrika: (Hal.121-
146)
2. Gujarati
Coefficient of Determination (R2)
• R2 disebut juga koefisien korelasi ganda, yaitu
statistik yang sering digunakan untuk
mengukur sampai seberapa besar model
regresi linear yang diestimasi sesuai (fit)
dengan data observasi
• Jika R2 mendekati 1, maka Xi menjelaskan
sebagian besar variasi di Yi
• Sebaliknya, jika R2 mendekati 0, maka
Xi kurang atau tidak menjelaskan variasi Yi
• Nilai R2 yang tinggi disukai oleh peneliti
4. UJI t
1) Uji t, digunakan untuk melihat signifikansi
variabel bebas mempengaruhi variabel
terikat secara parsial atau individu.
2) Lower dan Upper merupakan batas
bawah dan batas atas nilai peramalan
dari koefisien.

Lihat Nachrowi hal.25-29.


Gujarati : hal. 73-80.
Regression Output
Confidence Interval
Coefi- t
Variable SE
cient (df=n-k-1)
Lower Upper

Intercept b0  2 (b0) b0 / SE(b0) b0 – t /2 . SE(b0) b0 + t /2 . SE(b0)

X1 b1  2 (b1) b1 / SE(b1) b1 – t /2 . SE(b1) b1 + t /2 . SE(b1)

X2 b2  2 (b2) b2 / SE(b2) b2 – t /2 . SE(b2) b2 + t /2 . SE(b2)

SE : Standard Error
t (df) : t-statistic
t /2 : t-table
ANALISIS DATA
 ANALISIS TIME SERIES
DATA TIME SERIES ADALAH DATA RUNTUTAN WAKTU DIMANA,
DAPAT BERUPA DATA TAHUNAN, KUARTALAN, BULANAN,
MINGGUAN HARIAN, BAHKAN DATA PER JAM.
 ANALISIS TIME SERIES BIASANYA MENGASUMSIKAN BAHWA DATA
MASA LALU DAPAT MEMPENGARUHI MASA DEPAN, TETAPI TIDAK
SEBALIKYA.
DALAM ANALISIS TIME SERIES TERDAPAT DUA MODEL YANG UMUM
DIGUNAKAN:
1. MODEL STATIK: MODEL YANG MENGHUBUNGAN SECARA
BERSAMAAN VARIABEL INDEPENEN DAN VARIABEL DE DEPENEN
DALAM SATU WAKTU:
MIS: MODEL UNTUK MENGETAHUI TRADE OFF SECARA
BERSAMAAN ANTARA INFLASI (Inft) DENGAN PENGANGGURAN
(Unemt) (MANKIW: 1994) : Inft = βt + Unemt + ut
2. MODEL DINAMIK
Biasa disebut Model Finite distributed Lag Model
(FDL), yaitu model yang memiliki satu atau lebih
variabel independen yang mempengaruhi veriabel
dependen tetapi dengan lag tertentu.
CONTOH: yt = a + bXt + cXt-1 + dXt-3 + ut
Ada beberapa syarat dalam menganalisis data time
series: diantaranya masalah stasionaritas
DATA time series dikatakan stasioner jika: rata-rata,
varians dan covarian (pada berbagai lag) tetap sama
tidak masalah pada titik waktu mana dihitungnya,
yang berarti tidak bervariasi antar waktu. Atau:
- Mean : E(Yt) = µ
- Variance : Var(Yt) = E(Yt- µ)2 = σ2
- Covariance : Yk = E[(Yt - µ)(Yt+k- µ)]
k adalah lag variabel
Uji stasioner

1. Graphical Analysis : dalam eviews dengan correlogram


2. Pengujian Unit Root: Dickey-Fuller Test (DF-test),
dengan asumsi tidak adanya hubungan antar variabel
gangguan.
kriteria: ADF Test < dari nilai kritisnya: maka stasioner.
JIKA DATA TIME SERIES STASIONER PADA TINGKAT
BERAPA SAJA, MAKA KITA DAPAT MEMODELKAN DATA
TERSEBUT DENGAN BERBAGAI CARA

1. Model Autoregresif (AR) process


2. Model Moving Average (MA) process
3. Model ARMA process
4. Model Autoregresif Integrated Moving
Average (ARIMA).
1. Model Autoregresif (AR) process
Misalkan kita memodelkan Yt sebagai:
(Yt – δ) = αt ( Yt-1 – δ) + et
δ = rata-rata Y dan et adalah nilai error yang
tidak saling berhubungan dengan rata-rata nol
dan variance yang konstan σ2, maka kita bisa
mengatakan Yt mengikuti first-order
autoregresive atau AR(1), stochastic process.
Artinya: pada model tersebut Yt sangat
tergantung pada nilai periode sebelumnya dan
nilai error random-nya.
MULTIKOLINIERITAS
yaitu terjadinya korelasi sempurna atau
mendekati sempurna antara variabel bebas.

Asumsi yang harus dipenuhi agar taksiran parameter dalam


model bersifat BLUE:
1. E(ei) = 0
2. Cov (ei, ej) = 0; i≠j
3. Var (ei | xi) = σ2 sama untuk setiap i (homoscedaticity)
4. Cov (ei , xi) = 0
5. Model Regresi dispesifikasi secara benar
6. Tidak ada hub.linier (kolinieritas) antar regresor
misalnya: X1 dan X2 dapat dinyatakan sebagai fungsi linier atau
sebalikya. Contoh:
Y = β0 + β1X1 + β2X2 + β3X3 + ei
Y=konsumsi, X1=total pendapatan; X2=pendapatan dari upah;
X3=pendapatan bukan dari upah, maka β1 tidak dapat diperoleh
karena X1 = X2 + X3 perfect multicollinearity.
Contoh sifat-sifat multikolinearitas Variabel Regressor
• Nilai x1 dan x2 mempunyai hubungan
x2=4x1. hubungan seperti ini disebut
Perfect Multicolinearity. X1 x2 X3

• Demikian pula x1 dan x3, yang 12 48 5


mempunyai hubungan x3=4x1 +
bilangan random (3, 1, 6, 4, 2). 16 64 65
• Adanya hubungan positif antara 19 76 82
kekayaan dan pendapatan, artinya
seseorang yang kaya cenderung 23 92 96
berpendapatan tinggi (sebaliknya). 29 116 118
Kons Pend Kekayaan
AKIBAT DARI MULTIKOLINEARITAS: (Y) (X1) (X2)

• Varian besar (dari taksiran OLS) 40 50 500


50 65 659
• Standar error besar 65 80 856
• Uji t menjadi tidak signifikan, 90 110 1136
biasanya diikuti oleh variansi besar 85 100 1023
standar error. 100 120 1234

• R2 tinggi, tetapi tidak banyak 110 140 1456


135 190 1954
variabel yang signifikan dari uji t.
140 210 2129
• Umumnya taksiran koefisien yang 160 220 2267
didapat akan mempunyai nilai
yang tidak sesuai dengan
substansi, sehingga dapat
menyesatkan interpretasi.
• Umumnya makin banyak regressor, maka
goodness of fit (R2) cenderung semakin tinggi,
namun tidak banyak regressor yang signifikan,
bila dalam model terjadi kolinearitas. Tetapi
secara bersama-sama regressor tersebut
dapat signifikan.
• Contoh di atas, terjadi hubungan x2 dan x1
adalah x2=10x1 + bilangan random. Misalnya
model yang ditaksir menghasilkan :
Y = 12,8 – 1,414x1 + 0,202 x2 + ei Standar error
(SE) (4,696) (1,199) (0,117)
• t =(2,726) (-1,179) (1,721)
• R2 = 0,982
Contoh di atas, terjadi hubungan x2 dan x1 adalah x2=10x1 + bilangan random. Misalnya
model yang ditaksir menghasilkan :
Y = 12,8 – 1,414x1 + 0,202 x2
Standar error (SE) (4,696) (1,199) (0,117)
t =(2,726) (-1,179) (1,721)
R2 = 0,982

• R2 cukup tinggi, berarti, pendapatan dan kekayaan secara bersama sama


mampu menerangkan variasi konsumsi sebesar 98,2%.
• Namun secara individu uji t menunjukan koefisien X1 dan X2 tidak
signifikan secara statistik pada  = 5%. Ini akibat dari relatif besarnya nilai
standar error.
• Interpretasi koefisien dapat menyesatkan, terutama pada koefisien X1
yang bertanda negatif, adalah sesuatu yang tidak mungkin.
• Walau secara individu X1 dan X2 tidak signifikan, tetapi secara bersama-
sama X1 dan X2 signifikan.
• Tetapi bila di analisis secara terpisah,
Y = 14,148 + 0,6494x1
Y = 13,587 + 0,0635x2
• Masalah kolinier menjadi tidak ada lagi.
Cara mengatasi Kolinearitas

• Tidak ada cara yang spesifik untuk mengatasi kolinearitas, tetapi ada
beberapa cara dapat dilakukan:
1. Informasi Apriori. Misalnya: Y = 0 + 1X1 + 2X2 + u
di mana Y = konsumsi, X1 = pendapatan dan X2 = kekayaan, X1 dan X2
cenderung sangat kolinear.
MISALNYA ada teori atau studi empiris yang mengatakan bahwa dampak
dampak X2 terhadap Y lebih kecil dibanding dampak X1 terhadap Y atau
lebih spesifik lagi misalnya ΔY terhadap X2 25% ΔY terhadap X1.
Akibatnya dalam model kita dapat tambahkan informasi:
2 = 0,25 1, sehingga kita dapat melakukan perubahan regresi sebagai
berikut:
Y = 0 + 1X1 + 0,251X2 + u
Y = 0 + 1 (X1 + 0,25X2) + u
Y = 0 + 1X + u
Di mana X = X1+ 0,25X2
setelah 1 ditaksir, maka 2 dapat dicari melalui hubungan formula
berikut: 2 = 0,251.
CONTOH ILUSTRATIF: Kons Pend Kekayaan
(Y) (X2) (X3)
• Dari tabel sebelah diperoleh regresi:
40 50 500
Ỳ = 24,77 + 0,94X2i - 0,04X3i 50 65 659
65 80 856
(SE) = (6,75) (0,82) (0,08)
t = (3,67) (1,14) (-0,52) 90 110 1136

R2 = 0,9635 df = 7. 85 100 1023


Sumber variasi SS df MSS 100 120 1234
110 140 1456
Akibat regresi 8565,5541 2 4282,777 135 190 1954
Akibat residual 324,4459 7 46,3494 140 210 2129
160 220 2267

CONTOH ini menunjukan apa itu Multikol. 4282,777


• Uji F penting, tetapi nilai t dari X2 dan X3 secara F = ------------
individual tidak penting berarti kedua variabel itu 46,3494
berkorelasi sangat tinggi.
• Untuk pengujian regres: = 92,4019
1. Ỳi = 0 + 1X2i + u
2. Ỳi = 0 + 1X3i + u
Cara mengatasi Kolinearitas

2. Tidak mengikutsertakan salah satu vaiabel yang kolinier


3. Menstranformasikan variabel, yang biasanya digunakan pada data time series,
misalnya regresi berganda:
a. Yt = β1 + β2X2t + β3X3t + ut
kemudian dibuat persamaan lain pada saat t-1 ( lag variabel), maka
b. Yt-1 = β1 + β2X2t-1 + β3X3t-1 + ut-1
kemudian mengurangkan data pada tahun t dengan data pada tahun
t-1, sehingga model regresi menjadi:
c. (Yt-Yt-1) = β2(X2t-X2t-1)+β3(X3t-X3t-1) + (ut-ut-1)
kemudian model tersebut didefinisikan kembali, sehingga menjadi:
Yt*= β2X2t* + β3X3t* + ut* Model Regresi yang baru.
di mana: Yt* = (Yt-Yt-1)
X2t* = (X2t-X2t-1)
X3t* = (X3t-X3t-1)
ut * = (ut-ut-1)
Cara ini terdapat beerapa kelemahan: yaitu kehilangan satu observasi
4. Mencari data tambahan, dengan data tambahan kolinieritas dapat berkurang,
tetapi dalam praktek tidak mudah mencari tambahan data.
5. Cara lain adalah dengan tranformasi eksponensial
OTOKORELASI
Yaitu korelasi sempurna atau mendekati sempurna antar variabel penggangu
pada pengamatan satu dengan pengamatan yang lain

Asumsi yang harus dipenuhi agar taksiran parameter dalam model bersifat BLUE:
1. Cov ( ei, ej ) = 0; i≠j artinya tidak ada korelasi antara eidan ej untuk i≠j ( E (ei, ej)
= i≠ j ).
jadi autokorelasi adalah korelasi antara variabel itu sendiri, pada pengamatan yang
berbeda waktu atau individu. Otokorelasi sering terjadi pada data time series.
2. Cara mendeteksi, dapat dilakukan dengan melihat pola hubungan antara residu
(eii) dan variabel bebas atau waktu (X)

(ei) (ei)

` (Waktu/X) (Waktu/X)
DAMPAK DARI OTOKORLASI YANG DIPEROLEH DENGAN MENGGUNAKAN OLS
TIDAK LAGI BLUE, NAMUN MASIH TAK BIAS, DAN KONSISTEN. SEHINGGA
INTERVAL KEPERCAYAAN MENJADI LEBIH LEBAR, DAN UJI SIGNIFIKAN
KURANG KUAT. AKIBATNYA UJI t DAN UJI F TIDAK DAPAT DILAKUKAN, ATAU
HASILNYA TIDAK AKAN BAIK. SECARA KONSEPTUAL:
* Ada otokorelasi bila E (ui, uj) ≠ 0; i≠j
* Tidak ada otokorelasi bila E (ui, uj) = 0; i≠j

MENDETEKSI OTOKORLASI
Uji Durbin-Watson merupakan yang paling populer, cara :
1. hitung d dengan formula:

N
Σ (ût– ût-1)2
t=2 PERLU DIINGAT MODEL:
d = --------------- Yt = β1 + β2X1 + ut SEHINGGA:
N Ût = Yt – β1 – β2 Xt SELANJUTNYA:
Σ ût 2
t=2
Σ ût– ût-1
d = 2 (1 - -------------)= 2(1-ρ) ρ = koefisien otokorelasi
Σût2 -1≤ ρ ≤1. SEHINGGA -0 ≤ d ≤ 4
di mana :
Σ (ût– ût-1 1. Pada saat ρ= 0, d=2; tidak ada korelasi
ρ = ---------------- 2. Pada saat ρ= 1, d=0; ada korelasi positif
Σ(ût2 3. Pada saat ρ=-1, d=4; ada korelasi positif

PENGAMATAN KASAR:
Bila d dekat dengan 2, ρ akan dekat dengan 0, jadi tidak ada korelasi.
Ada uji yang lebih spesifik, menggunakan tabel Durbin-Watson
dengan melihat dU dan dL
Langka-langkah uji Durbin-Watson
1. Run OLS sehingga diperoleh ûi
2. Hitung d. (dalam paket program statistik, nilai d sudah dihitung)
3. Bila besar n dan k diketahui, dU dan dL dapat dicari dalam tabel
4. Gunakan aturan uji Durbin-Watson sbb:
HIPOTESIS Ho : ρ ≠ 1
Ho* : ρ ≠ -1
Bandingkan nilai d yang dihitung dengan nilai dU dan dL dari tabel dengan aturan sbb :
1. Bila d < dL tolak Ho ; berarti d korelasi positif atau kecenderungannya ρ = 1
2. Bila dL ≤ d ≤ dU ; kita tidak akan mengambil keputusan apa-apa
3. Bila dU <d ≤ 4 – dU ; jangan tolak Ho maupun Ho*
4. Bila 4 - dU ≤ d ≤ 3 - dL ; kita tidak dapat mengambil keputusan apa.
5. Bila d > 4 – dL ; tolak Ho* ; berarti ada korelasi negatif

SECARA GRAFIK BENTUK KORELASI DITENTUKAN SEBAGAI BERIKUT:


JIKA DW-hitung 1,43; N=50; K=4;

Tidak Tahu Tidak Tahu


Korelasi (+) Tidak ada Korelasi Korelasi (-)

d dL dU 4-dU 4-dL 4
Cara pengobatan Otokorelasi
Secara umum otokorelasi sulit untuk mengatasinya. Transfprmasi
logaritma dapat mengurangi korelasi. Bila terdapat data negatif
yang menyulitkan untuk ditransformasi logaritma.
HASIL REGRESI Y = ∫(X1, X2)
• Dependent Variable: Y
• Method: Least Squares
• Date: 11/03/07 Time: 14:35
• Sample: 1 30
• Included observations: 30

• Variable Coefficient Std. Error t-Statistic Prob.

• C -1.052573 1.748428 -0.602011 0.5661
• X1 0.722191 0.184921 3.905416 0.0059
• X2 0.501384 0.199165 2.517422 0.0400

• R-squared 0.729662 Mean dependent var 6.000000
• Adjusted R-squared 0.652423 S.D. dependent var 2.108185
• S.E. of regression 1.242894 Akaike info criterion 3.516088
• Sum squared resid 10.81350 Schwarz criterion 3.606863
• Log likelihood -14.58044 F-statistic 9.446776
• Durbin-Watson stat 1.593215 Prob(F-statistic) 0.010272

CONTOH: MENDETEKSI OTOKORELASI


Berdasarkan hasil estimasi di atas, diketahui D-W hitung d = 1,59.
 N = 30; K = 2. Dari tabel diperoleh:

PERTANYAAN: Apakah HASIL REGRESI Y = ∫(X1, X2) terkena


otokorelasi?
HETEROSKEDASTISITAS
VARIAN DARI VARIABEL RESIDU (PENGGANGGU)
ADALAH TIDAK SAMA ATAU TIDAK KONSTAN.

• Asumsi yang harus dipenuhi agar taksiran parameter


dalam model bersifat BLUE:
Var (ui|xi) = σ2 sama/konstan untuk setiap i
(homoscedatiscity)
• Heteroskedastisitas: secara grafis terlihat adanya
hubungan positif antara X dan Y, tetapi dari sebaran data
menunjukan bahwa semakin besar nilai variabel X dan Y,
semakin jauh kordinat (x,y) dari garis regresi; artinya
variasi data yang digunakan untuk membuat model tidak
konstan.
SIFAT HETEROSKEDASTISITAS

• Karena tidak konstannya varians maka lebih besarnya variansi


dari taksiran
• Lebih besarnya varian taksiran, akan berpengaruh terhadap uji
hipotesis yang dilakukan (uji F dan uji t), karena kedua uji
tersebut menggunakan besaran variansi taksiran. Sehingga
kedua uji tersebut tidak akurat.
• Lebih besarnya varian taksiran akan menyebabkan standar
error taksiran juga lebih besar, sehingga interval kepercayaan
menjadi sangat besar.
• Akibat beberapa dampak tersebut, maka kesimpulan yang
diambil dari persamaan regresi yang dibuat dapat menyesatkan
• Contoh: HETEROSKEDASTISITAS

1. Model Tabungan. Secara umum jika pendapatan meningkat,


tabungan juga meningkat, sehingga keluarga yang memiliki
pendapatan besar cenderung tabungannya juga besar
dibanding keluarga yang berpendapatan rendah. Hal ini
menyebabkan lebih besar variabilitasnya dalam menabung,
sehingga var(ei) tidak konstan.
2. Makin lama seseorang latihan mengetik, ada kecenderungan
makin kecilnya tingkat kelasahan. Hal ini var(ei) tidak konstan.
CONTOH tersebut terdapat kecenderungan heteroskedastisitas
akan banyak ditemukan pada data cross sectional.
CARA MENDTEKSI ADANYA HETEROSKEDASTISITAS
Permasalahan hetero biasanya dapat dideteksi via grafik, berdasarkan intuisi,
dugaan-dugaan ilmiah atau berdasarkan studi empiris atau menekankan pada
statistikya.
1. Metode Grafik
Melihat pola residual (ei2) terhadap taksiran Yi (Ỳi), di mana hetero terjadi bila
variannya tidak konstan.
CARAnya mengasumsikan bahwa didalam data tidak ada hetero, persamaan
regresi dapat dibuat, dan dilakukan estimasi untuk mendapatkan Ỳi, selanjutnya
menghitung: ei2=(Yi -Ỳi)2 kemudian buat plot antara ei2 dan Ỳi.

(ei2) homoskedastisitas (ei2) heteroskedastisitas (ei2) heteroskedastisitas

(Ỳi) (Ỳi) (Ỳi)


2. UJI PARK
 Pada prinsipnya hampir sama dengan metode grafik. Bedanya Uji Park memanfaatkan
bentuk regresi untuk melihat ada tidaknya heteroskedastisitas: dengan persamaan
regresi berikut:
ln ei2 =  + β ln X1 + vi
ei = error term pada regresi Yi = o + β0Xi + ei
selanjutnya lakukan uji t. Bila β secara statistik signifikan, maka ada heteroskedastisitas
dalam data.
CONTOH: Perusahaan sepatu yang memberikan bonus pada salesman:

Sales X Y Sales X Y Sales X Y Y = rata-rata bonus (Rp)


man man man X = rata-rata sepatu terjual (unit)
1 2 10 11 15 80 21 32 180 1. Hasil Regresi Y terhadap X
2 3 15 12 17 90 22 33 185 Y = -3,147 + 5,565Xs
3 4 20 13 18 95 23 34 190 R = 0,99 t = 0,03
4 5 25 14 19 100 24 37 205 2. Apakah ada hetero?
5 7 35 15 20 105 25 39 215 3. Uji Park diperoleh:
6 8 40 16 22 120 26 40 220
ln ei2 = 6,039+-2,11 lnX1
R = 0,999 t = 0,009
7 10 50 17 23 125 27 42 230
secara statistik β signifikan,
8 11 60 18 25 135 28 43 235 berarti model tersebut ada
9 12 65 19 27 145 29 44 240 heteroskedastisitas
10 13 70 20 30 160 30 45 245
3. Uji Goldfeld – Quandt
metode ini sangat populer untuk digunakan, tapi rumit
bila data cukup besar.

LANGKAH-LANGKAHnya SBB:
• Urutan pengamatan berdasarkan nilai X dari kecil ke besar
• Abaikan beberapa pengamatan sekitar median, katakanlah sebanyak c
pengamatan
• Sisanya, masih ada (N-c) pengamatan.
• Lakukan regresi pada pengamatan (N-c/2) yang pertama, hitung RSS1,
Residual Sum of Squares pertama.
• Lakukan regresi pada pengamatan (N-c/2) yang kedua, hitung RSS2,
Residual Sum of Squares kedua.
1. Hitung λ = (RSS2/df2) / (RSS1/df1) ; df = degree of freedom: banyaknya
pengamatan dikurangi banyaknya parameter yang ditaksir.
2. Lakukan Uji F. Bila λ > F, tolak hipotesis yang menyatakan yang
menyatakan data mempunyai varian yang homoskedastisitas.
Cara mengatasi heteroskedastisitas
1. Metode Generalized Least Squares (GLS)
Model 1/σi
Yi = βo + β1Xi + ei dengan Var (ei ) = σi2
2. Transformasi Logaritma
Cara tersebut di atas cukup rumit, karena memerlukan
pengetahuan matematika dan statistika, cara yang sering
digunakan adalah transformasi logaritma.
Prinsip ini akan membuat perbedaan nilai akan lebih kecil.
Katakanlah angka 10 dan 5, perbedaannya adalah 5. akan
tetapi beda antara ln 10 = 2,3 dan ln5=1,6, perbedaannya
dapat lebih kecil.sehingga diharapkan data yang hetero
dapat menjadi homos.
• TABLE I.1 DATA ON Y (PERSONAL CONSUMPTION EXPENDITURE)
• AND X (GROSS DOMESTIC PRODUCT, 1982–1996), BOTH
• IN 1992 BILLIONS OF DOLLARS
• Year Y X
• 1982 3081.5 4620.3
• 1983 3240.6 4803.7
• 1984 3407.6 5140.1
• 1985 3566.5 5323.5
• 1986 3708.7 5487.7
• 1987 3822.3 5649.5
• 1988 3972.7 5865.2
• 1989 4064.6 6062.0
• 1990 4132.2 6136.3
• 1991 4105.8 6079.4
• 1992 4219.8 6244.4
• 1993 4343.6 6389.6
• 1994 4486.0 6610.7
• 1995 4595.3 6742.1
• 1996 4714.1 6928.4
• Source: Economic Report of the President, 1998, Table B–2, p. 282.
ESTIMASI PERSAMAAN ECM
(ERROR CORRECTION MODELS)

DLPt = a0 + a1DLMt + a2BLPt + a3V


Dimana,
LPt = Log(Pt)
LMt = Log(LMt)
DLM = LMt – BLMt
DLM = LPt – BLPt
V = (BLMt - BLPt ) =variabel koreksi (ECM)
M = jumlah uang beredar
P = tingkat harga
t = menunjukan waktu
B = lag atau operasi kelambanan keudik
Koefisien jk.panjang model ECM: (a2+a3)/a3

Anda mungkin juga menyukai