Anda di halaman 1dari 34

RANGKUMAN

EKONOMETRIKA KEUANGAN

DIKERJAKAN OLEH:

042114153008 Antonius Arya Hadiputra


042114153024 Arian Muhammad Raihan
042114153001 Rofidah Salsabila
042114153012 Saraswati Kuntum Widuri
042114153025 Tita Saraswati

MAGISTER SAINS MANAJEMEN


FAKULTAS EKONOMI DAN BISNI
UNIVERSITAS AIRLANGGA
2021
10.1 NATURE OF MULTICOLLINEARITY
Istilah multikolinearitas disebabkan oleh Ragnar Frisch. Awalnya ini
berarti adanya hubungan linier yang “sempurna” atau eksak, diantara variable
penjelas dari model regresi.
a. multikolinearitas sempurna

b. korelasi tidak sempurna

c. perbedaan multikolinearitas sempurna dan tidak sempurna

d. X2 bukan kombinasi linear sempurna combinas xs

Pendekatan aljabar sebelumnya untuk multikolinearitas dapat


digambarkan secara ringkas oleh:
The Ballentine

Mengapa model regresi linier klasik asumsikan tidak ada


multikolinearitas antara X? Jika multikolinearitas sempurna dalam arti
Persamaan. (10.1.1), koefisien regresi dari Variabel X tidak tentu dan
kesalahan standar tidak terbatas. Jika multikolinearitas kurang sempurna,
seperti pada Persamaan. (10.1.2), koefisien regresi, meskipun determinate,
memiliki standar yang besar kesalahan (dalam kaitannya dengan koefisien
sendiri), yang berarti koefisien tidak dapat diperkirakan dengan presisi
ketepatan.
Ada beberapa sumber multikolinearitas :
a. metode pengumpulan data yang digunakan
b. Kendala pada model atau populasi dijadikan sampel
c. Spesifikasi model
d. Model yang terlalu ditentukan.

10.2 ESTIMATION IN THE PRESENCE OF PERFECT MULTICOLLINEARITY


Model regresi 3 variabel :

dari chapter 7 :

Asumsikan bahwa X3i = λX2i adalah konstanta bukan nol (misalnya, 2,


4, 1,8, dll.). Mengganti ini ke dalam Persamaan. (7.4.7), kita peroleh :

Yang merupakan ekspresi tak tentu. Pembaca dapat memverifikasi yang


juga tak tentu, Mengapa kita mendapatkan hasil yang ditunjukkan pada
Persamaan. (10.2.2)? Ingat arti dari 2: Ini memberikan laju perubahan nilai rata-
rata Y saat X2 berubah satu unit, dengan mempertahankan X3 konstan. Tetapi
jika X dan X₂ adalah kolinear sempurna, tidak mungkin X dapat dijaga konstan.
Ketika X₂ berubah, X₂ juga berubah oleh faktor A. Artinya, tidak ada cara untuk
menghilangkan kekusutan pengaruh X dan X₁ yang terpisah dari sampel yang
diberikan: Untuk tujuan praktis, X dan Xy tidak dapat dibedakan. Dalam
ekonometrika terapan masalah ini paling merusak karena seluruh tujuannya
adalah untuk memisahkan efek parsial dari setiap X pada variabel dependen.

Menerapkan rumus OLS biasa ke Persamaan. (10.2.3), kita


mendapatkan:

Hasil dari diskusi sebelumnya mengungkap bahwa dalam kasus


multikolinearitas sempurna, seseorang tidak dapat memperoleh solusi unik
untuk koefisien regresi individual. Tetapi perhatikan bahwa seseorang dapat
memperoleh solusi unik untuk kombinasi linier dari koefisien-koefisien ini.
Kombinasi linier (β2 + λβ3) diestimasi secara unik dengan α, memberi nilai
pada λ “estimable function”

10.3 ESTIMATION IN THE PRESENCE OF PERFECT MULTICOLLINEARITY

Situasi multikolinearitas yang sempurna adalah ekstrim patologis.


Umumnya, tidak ada hubungan linier yang tepat antara variabel X, terutama
dalam data yang melibatkan waktu ekonomi seri. Jadi, beralih ke model tiga
variabel dalam bentuk deviasi yang diberikan dalam Persamaan. (10.2.1),
alih-alih multikolinearitas yang tepat, kita mungkin memiliki

di mana λ = 0 dan di mana vi, adalah stokastik error term sehingga


(Mengapa?)
Kebetulan, Ballentines yang ditunjukkan pada Gambar 10.1tb sampai 10.1e
mewakili kasus kolinearitas tidak sempurna.
Dalam hal ini, estimasi koefisien regresi β2 dan β3 dimungkinkan. contoh
menggantikan Persamaan. (10.3.1) ke dalam Persamaan. (7.4.7), kita peroleh
:

di mana penggunaan dibuat dari A Ekspresi serupa dapat diturunkan


untuk β3.
Dalam literatur ekonometrik, fungsi seperti (β2+ λβ3) dikenal sebagai fungsi
yang dapat diestimasi.

10.4 ESTIMATION IN THE PRESENCE OF PERFECT MULTICOLLINEARITY

Konsekuensi Teoritis dari Multikolinearitas


• Pertama, memang benar bahwa bahkan dalam kasus dekat
multikolinearitas, penduga OLS tidak bias.
• Kedua, benar juga bahwa kolinearitas tidak menghancurkan properti
varians minimum: Dalam kelas dari semua penduga tak bias linier,
OLS penduga memiliki varians minimum; yaitu mereka efisien.
• Ketiga, multikolinearitas pada dasarnya adalah sampel (regresi)
fenomena dalam arti bahwa, bahkan jika Variabel X tidak berhubungan
linier dalam populasi, mereka mungkin sangat terkait dalam sampel
tertentu di tangan: Ketika kita mendalilkan teori atau
fungsi regresi populasi (PRF), kami percaya bahwa semua variabel X
yang termasuk dalam model memiliki pengaruh terpisah atau
independen pada dependen variabel Y.

10.5 PRACTICAL CONSEQUENCES OF MULTICOLLINEARITY


Konsekuensi Praktis dari Multikolinearitas
a. Meskipun BLUE, penduga OLS memiliki besar varians dan kovarians,
sulit membuat estimasi yang tepat.
b. Karena konsekuensi 1, interval kepercayaan cenderung jauh lebih
luas, yang mengarah pada penerimaan "hipotesis nol nol" (yaitu,
populasi sebenarnya koefisien adalah nol) lebih mudah.
c. Juga karena konsekuensi 1, rasio t satu or lebih banyak koefisien
cenderung secara statistik tidak signifikan.
d. Meskipun rasio t dari satu atau lebih koefisien adalah secara statistik
tidak signifikan, R2, ukuran keseluruhan kecocokan, bisa sangat tinggi.
e. Penaksir OLS dan kesalahan standarnya dapat peka terhadap
perubahan kecil dalam data.

Large Variances and Covariances of OLS Estimators

untuk melihat varian dan covarian dari (β2+ β3)

Kecepatan peningkatan varians dan kovarians dapat dilihat


dengan varians-inflating factor (VIF), yang didefinisikan sebagai berikut
:

VIF menunjukkan bagaimana varians dari estimator meningkat


dengan adanya multikolinearitas saat r223 mendekati 1, VIF mendekati
tak terhingga. jika tidak ada collinearity antara X2 dan X3, VIF akan
menjadi 1. Dengan menggunakan definisi ini, kita dapat
mengungkapkan Persamaan. (7.4.12) dan (7.4.15) sebagai
yang menunjukkan bahwa varians dari β2 dan β3 berbanding
lurus dengan VIF.

Hasil yang baru saja dibahas dapat dengan mudah diperluas ke


model k-variabel. Dalam model seperti itu, varians dari koefisien kth,
seperti dicatat dalam Persamaan. (7.5.6), dapat dinyatakan sebagai:

dimana βj = (perkiraan) koefisien regresi parsial dari regressor


Xj
R2j = R2 dalam regresi Xj pada sisa (k-2) regresi (Catatan: Ada [k-1]
regresi dalam model regresi k-variabel.)

Kita juga dapat menulis Persamaan. (7.5.6) sebagai :


kebalikan dari VIF disebut toleransi. (TOL). Itu adalah,

Interval Keyakinan Lebih Luas


Dalam kasus multikolinearitas tinggi, data sampel mungkin kompatibel
dengan serangkaian hipotesis yang beragam. . Oleh karena itu,
kemungkinan menerima hipotesis yang salah (yaitu kesalahan tipe II)
meningkat.

Rasio t "Tidak Signifikan"


Kasus kolinearitas tinggi, kesalahan standar yang diperkirakan
meningkat secara dramatis, sehingga membuat nilai t semakin kecil.
Oleh karena itu, dalam kasus seperti itu, seseorang akan semakin
menerima hipotesis null bahwa nilai populasi sebenarnya yang relevan
adalah nol.

R² Tinggi tapi Sedikit Signifikan t Rasio


Pertimbangkan model regresi linier k-variabel:

Sensitivitas Penaksir OLS dan Kesalahan Standarnya terhadap


Perubahan Kecil pada Data
Selama multikolinearitas tidak sempurna, estimasi koefisien regresi
adalah mungkin tetapi perkiraan dan kesalahan standarnya menjadi
sangat sensitif bahkan terhadap perubahan sekecil apa pun dalam
data.
Konsekuensi Mikronumerositas
Goldberger mengutip konsekuensi yang persis sama dari
micronumerosity, yaitu berdasarkan analisis pada ukuran sampel yang
kecil. Pembaca disarankan untuk membaca analisis Goldberger untuk
melihat mengapa dia menganggap mikronumerositas sama pentingnya
dengan multikolinearitas.

10.6 AN ILLUSTRATIVE EXAMPLE


10.7 DETECTION OF MULTICOLLINEARITY

Deteksi Multikolinearitas

Setelah mempelajari sifat dan konsekuensi dari multikolinearitas,


pertanyaan alaminya adalah Bagaimana seseorang mengetahui bahwa
kolinearitas terdapat dalam model yang melibatkan lebih dari dua variabel
penjelas?

1. Multikolinearitas adalah masalah derajat dan bukan jenis.


Perbedaan yang berarti adalah bukan antara ada dan tidaknya
multikolinearitas, tetapi antara berbagai derajatnya.
2. Karena multicollincenty mengacu pada kondisi variabel penjelas
yaitu sebagai dijumlahkan dia nonstochastic, itu adalah fitur dari sampel dan
bukan dari populasi.
1. R2 Tinggi tetapi sedikit rasio t yang signifikan. Sebagaimana
dicatat, ini adalah gejala "klasik" dari multikolinieritas. kelemahannya adalah
bahwa "itu terlalu kuat dalam arti bahwa multikolinearitas dianggap berbahaya
hanya ketika semua pengaruh variabel penjelas pada Y tidak dapat
dipisahkan"

2. Korelasi berpasangan yang tinggi di antara regressor. Aturan


praktis lain yang disarankan adalah jika koefisien korelasi berpasangan atau
orde nol antara dua regresi tinggi. Secara teknis, korelasi orde nol yang tinggi
adalah kondisi yang cukup tetapi tidak diperlukan untuk keberadaan
multikolinearitas karena dapat ada meskipun korelasi orde nol atau korelasi
sederhana relatif rendah (katakanlah, kurang dari 0,50). Untuk melihat
hubungan. misalkan kita memiliki model empat variabel:

3. Pemeriksaan korelasi parsial. Karena masalah yang baru saja


disebutkan mengandalkan korelasi zero-order, Farrar dan Glauber
menyarankan bahwa orang harus melihat koefisien korelasi parsial. Jadi,
dalam regresi Y pada X2, X3, dan X4, menemukan bahwa R21234 sangat
tinggi tetapi r1234, r1324, dan r1432 relatif rendah dapat menunjukkan bahwa
variabel X2, X3, dan X4 sangat saling berhubungan dan bahwa setidaknya
satu dari variabel ini berlebihan.

4. Auxuliary regressions. Karena multikolinearitas muncul karena


satu atau lebih regressor adalah eksak atau kombinasi linear dari regressor
lainnya, salah satu cara untuk mengetahui variabel X mana yang terkait
dengan variabel X lainnya adalah dengan meregresi setiap Xi, pada variabel
X yang tersisa dan menghitung yang sesuai R2, yang kami tunjuk sebagai
R2i; salah satu regresi ini disebut auxuliary regresion, tambahan untuk regresi
utama Y pada X’s. Kemudian, mengikuti hubungan antara F dan R2 didirikan
pada Persamaan. (8.4.11), variabel :

5. Nilai Eigen dan indeks kondisi. Dari EViews dan Stata, kita dapat
menemukan eigen nilai dan indeks kondisi, untuk mendiagnosis
multikolinearitas.

6. Faktor Toleransi dan Varians Inflasi. Kami telah memperkenalkan


TOL dan VIF. Sebagai R, koefisien determinasi dalam regresi regressor Xj,
pada regresi yang tersisa dalam model, meningkat menuju kesatuan, yaitu,
sebagai kolinearitas dari Xj dengan regressor lainnya meningkat. VIF juga
meningkat dan dalam batas itu bisa tak terbatas.

7. Scatterplot. Berfungsi untuk melihat bagaimana berbagai variabel


dalam model regresi terkait.

10.8 REMIDIAL MEASURE


What remedial measures can be taken to alleviate the problem of
multicollinearity?

1. Do Nothing
Blanchard mengatakan bahwa multikolinearitas merupakan masalah
kekurangan data (mikronumerositas, sekali lagi) dan terkadang peneliti
tidak punya pilihan atas data yang kita miliki untuk analisis empiris.
Tidak semua koefisien dalam model regresi secara statistik tidak
signifikan. Jika peneliti tidak dapat memperkirakan satu atau lebih
koefisien regresi dengan presisi yang lebih baik, kombinasi linier dari
mereka (yaitu, estimable function) dapat diperkirakan secara relatif efisien.

Seperti yang kita lihat dalam Persamaan,


kita dapat memperkirakan 𝛼𝛼 secara unik,
bahkan jika kit
a tidak dapat memperkirakan dua
komponennya yang diberikan di sana
secara individual.

Terkadang ini adalah yang terbaik yang


bisa kita lakukan dengan kumpulan data
tertentu.

2. Cara umum lainnya antara lain:


a. Menggabungkan data cross-sectional dan time series
Data cross sectional dan time series cenderung menghasilkan data
yang multikolinear sehingga Tobin menyarankan untuk menyatukan
data tersebut. Contoh :

Dimana :
𝑃𝑃 = 𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎𝑎 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝, 𝐼𝐼 = 𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖𝑖, 𝑡𝑡
𝑙𝑙𝑙𝑙 𝑙𝑙𝑙𝑙 𝑌𝑌𝑡𝑡 = 𝛽𝛽1 + 𝛽𝛽2 𝑙𝑙𝑙𝑙 𝑙𝑙𝑙𝑙 𝑃𝑃𝑡𝑡 + = 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡
𝑙𝑙𝑙𝑙 𝛽𝛽3 𝑙𝑙𝑙𝑙 𝐼𝐼𝑡𝑡 + 𝑢𝑢𝑡𝑡
Dengan tujuan estimasi 𝛽𝛽2 sebagai
elastisitas harga dan 𝛽𝛽3 = elastisitas
income

Ketika membuat estimasi


elastisitas income dengan
data cross-section maka 𝛽𝛽3 =
�3 dengan persamaan
> 𝛽𝛽
disamping ini

Penyatuan ini akan memiliki masalah interpretasi karena asumsi yang


dipakai secara implisit bahwa estimasi cross-sectional akan sama
seperti hasil estimasi time series yang murni. Sehingga pendekatan ini
layak jika estimasi tersebut tidak memiliki perbedaan substansial dari
cross section satu ke yang lainnya.

b. Menghilangkan variable independent yang memiliki hubungan kuat


Contoh di dalam ilustrasi persaman konsumsi,pendapatan dan
kekayaan, kita membuang kekayaan sehingga bisa didapat persamaan
regresi yang tidak signifikan. Akan tetapi hal ini bisa menimbulkan bias
spesifikasi atau specification error. Jadi, jika teori ekonomi
mengatakan bahwa pendapatan dan kekayaan harus dimasukkan
dalam model yang menjelaskan pengeluaran konsumsi,
menghilangkan variabel kekayaan akan merupakan bias spesifikasi.

c. Transformasi pada variable multikolinearitas


Transformasi dilakukan dengan fungsi ln atau mengurangi data ke-t
dengan data periode sebelumnya (data ke-(t-1)).
Kita memiliki sebuah fungsi consumption
expenditure, income, and wealth
Yang dipegang selama 𝑡𝑡 , sehingga
𝑡𝑡 − 1 menjadi

Ketika kita mengurangkan 𝑡𝑡 − (𝑡𝑡 − 1) Dimana 𝑣𝑣𝑡𝑡 = 𝑢𝑢𝑡𝑡 − 𝑢𝑢𝑡𝑡−1


maka,
Model regresi perbedaan pertama sering
mengurangi keparahan multikolinearitas karena,
meskipun tingkat 𝑋𝑋2 dan 𝑋𝑋3 mungkin sangat
berkorelasi, tidak ada alasan apriori untuk
percaya bahwa perbedaan mereka juga akan
sangat berkorelasi.
Ratio Transformation sebagai
alternatif lain:

menjadi,

dengan error

d. Menambahkan Data
Karena multikolinearitas adalah masalah sample, sample data lain
mungkin tidak memiliki masalah yang sama. Terkadang dengan
menambah data masalah multikolinearitas berkurang.
e. Mengurangi Multikolinearitas dengan regresi polynomial
f. Menggunakan analysis multivariate seperti factor analysis, principal
component, ridge regression
Kesimpulan pada Multikolinearitas:
Peran multikolinearitas dalam prediksi dan menunjukkan bahwa kecuali
struktur kolinearitas berlanjut dalam sampel masa depan, berbahaya untuk
menggunakan estimasi regresi yang telah terganggu oleh multikolinearitas
untuk tujuan peramalan.
Meskipun multikolinearitas telah menerima perhatian yang luas dalam banyak
literatur, masalah yang sama pentingnya yang dihadapi dalam penelitian
empiris adalah mikronumerositas, (kecilnya ukuran sampel).
Menurut Goldberger, “Ketika sebuah artikel penelitian mengeluh tentang
multikolinearitas, pembaca harus melihat apakah keluhan tersebut akan
meyakinkan jika “mikronumerositas” diganti dengan “multikolinearitas.”
Goldberger menyarankan bahwa peneliti harus memutuskan seberapa kecil n,
jumlah pengamatan, sebelum memutuskan bahwa seseorang memiliki
masalah sampel kecil, sama seperti seseorang memutuskan seberapa tinggi
nilai 𝑅𝑅 2 dalam regresi tambahan sebelum menyatakan bahwa masalah
kolinearitas adalah sangat parah.

Heteroskedastisitas
Dalam sebuah asumsi regresi, kita berasumsi data bersifat homoskedastisitas
tetapi ada kalanya data bersifat heteroskedastisitas.

11.1. Sifat dasar Heteroskedastisitas


Uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua
pengamatan pada model regresi linear. Uji ini merupakan salah satu dari uji
asumsi klasik yang harus dilakukan pada regresi linear. Apabila asumsi
heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak valid
sebagai alat peramalan.
Heteroskedastisitas adalah kebalikan dari homoskedastisitas, yaitu keadaan
dimana terjadinya ketidaksamaan varian dari error untuk semua pengamatan
setiap variabel bebas pada model regresi. Sebaliknya, pengertian
homoskedastisitas adalah keadaan dimana adanya kesamaan varian dari error
untuk semua pengamatan setiap variabel bebas pada model regresi.

Persamaan Homoscedasticity Persamaan Heteroscedasticity


𝐸𝐸(𝑢𝑢𝑖𝑖2 ) = 𝜎𝜎 2
𝐸𝐸(𝑢𝑢𝑖𝑖2 ) = 𝜎𝜎𝑖𝑖2
𝑖𝑖 = 1,2, … , 𝑛𝑛

11.2 Alasan kenapa Heteroscedasticity sering terjadi.


1. Error-Learning Model
Kesalahan (error) perilaku makin mengecilseiring berjalannya waktu. Dalam
kasus ini, varians akan mengecil.
2. Dengan income meningkat, orang lebih mempunyai kebebasan dan lebih
banyak pilihan utk penggunakan income-nya.Sehingga varians akan
meningkat sejalan dengan peningkatan income.
3. Perbaikan teknik pengumpulan data akan menurunkan varians (𝜎𝜎𝑖𝑖2 ).
4. Kesalahan spesifikasi model:
• Kesalahan spesifikasi model yg dikarenakan menghilangkan variable
penting dlm model.
• Dalam fungsi demand bila tidak dimasukan harga komoditi
complementary sehingga varians tidak konstan.
• Adanya ketidaksimetrian dalam distribusi nilai (skewness) seperti
variable income, wealth dan education yang cenderung tidak rata
• Kesalahan tranformasi data (mis. Rasio / first diff)
• Kesalahan bentuk fungsi (mis. Linier vs log-linier model).
Masalah heteroskedastisitas ini umum ditemukan dalam data cross section dan
time series.
11.3. Dampak dari Heteroskedastisitas
1. Merusak efisiensi estimator OLS
Karena heteroskedastisitas menyebabkan salah satu asumsi metode OLS
tidak terpenuhi.

Rumus umumnya dari OLS estimator


untuk 𝛽𝛽̂2

Sekarang, variansnya menjadi


gambar kiri

Sangat berbeda ketika terjadi asumsi


homoskedastisitas (gambar kanan),

2. Merusak varians
Heteroskedastisitas menyebabkan varians cenderng melebar sehingga tidak
memenuhi salah satu komponen BLUE (Best Linear Unbiased Estimator) yaitu
varians yang minimum
Metode OLS yang biasa tidak menggunakan "informasi" yang
terkandung dalam variabilitas yang tidak setara dari variabel dependen Y,
sehingga memberikan bobot atau kepentingan yang sama untuk setiap
pengamatan. Oleh karena itu muncul sebuah metode estimasi, yang dikenal
sebagai kuadrat terkecil umum (GLS – Generalized Least Square) yang
memperhitungkan informasi tersebut secara eksplisit dan karena itu mampu
menghasilkan estimator BLUE.

𝑌𝑌𝑖𝑖 = 𝛽𝛽1 + 𝛽𝛽2 𝑋𝑋𝑖𝑖 + 𝑢𝑢𝑖𝑖

Yang dimanipulasi dalam bentuk

𝑌𝑌𝑖𝑖 = 𝛽𝛽1 𝑋𝑋0𝑖𝑖 + 𝛽𝛽2 𝑋𝑋𝑖𝑖 + 𝑢𝑢𝑖𝑖


Dimana 𝑋𝑋0𝑖𝑖 = 1 untuk setiap 𝑖𝑖
Dengan mengasumsikan adanya varians 𝑌𝑌𝑖𝑖 𝑋𝑋0𝑖𝑖 𝑋𝑋𝑖𝑖 𝑢𝑢𝑖𝑖
= 𝛽𝛽1 � � + 𝛽𝛽2 � � + � �
heteroskedastisitas 𝜎𝜎𝑖𝑖2 kita mendapatkan 𝜎𝜎𝑖𝑖 𝜎𝜎𝑖𝑖 𝜎𝜎𝑖𝑖 𝜎𝜎𝑖𝑖

Sehingga kitab isa menuliskan sebagai: 𝑌𝑌𝑖𝑖∗ = 𝛽𝛽𝑖𝑖∗ 𝑋𝑋0𝑖𝑖



+ 𝛽𝛽2∗ 𝑋𝑋𝑖𝑖∗ + 𝑢𝑢𝑖𝑖∗

transformasi ini dijelaskan dalam transformasi 𝑢𝑢𝑖𝑖∗ yang akan membuat itu menjadi
𝑌𝑌𝑖𝑖 𝑋𝑋 𝑋𝑋 𝑢𝑢
homoskedastisitas sehingga = 𝛽𝛽1 � 𝜎𝜎0𝑖𝑖 � + 𝛽𝛽2 �𝜎𝜎𝑖𝑖 � + �𝜎𝜎𝑖𝑖 � akan menghasilkan
𝜎𝜎𝑖𝑖 𝑖𝑖 𝑖𝑖 𝑖𝑖
estimator BLUE.

GLS adalah OLS pada variabel yang ditransformasikan yang memenuhi asumsi
kuadrat terkecil standar. Estimator yang diperoleh dikenal sebagai estimator
GLS, dan estimator inilah BLUE.
Perbedaan GLS dan OLS

GLS OLS

meminimalkan jumlah tertimbang dari OLS meminimalkan jumlah kuadrat sisa


kuadrat sisa dengan 𝑤𝑤𝑖𝑖 = 𝜎𝜎2 berfungsi (Residual Sum of Sqyare) yang tidak
1
𝑖𝑖 tertimbang atau (berjumlah sama).
sebagai tertimbangnya
Pengamatan ekstrem titik C akan punya Setiap 𝑢𝑢�𝑖𝑖2 akan diberikan bobot sama
bobot relatif lebih kecil dibanding yang untuk meminimalisir, sehingga 𝑢𝑢�𝑖𝑖2 yang
lain. terkait titik C akan mendominasi

Dalam fungsi PRF (population regression)


bobot yang lebih besar diberikan kepada
titik disekitar rata-rata
GLS ini bisa juga disebut WLS (Weighted Least Square) dengan persamaan
dan

dengan varians,

Apa yang terjadi dengan confidence interval, uji hypothesis dan procedure
�2 ketimbang 𝛽𝛽
lainnya jika menerapkan OLS estimator 𝛽𝛽 �2∗ yang memiliki varians
lebih kecil?
a. Estimasi OLS mengijinkan Heteroskedastisitas
Umumnya tidak bisa menemukan confidence interval dan hasil uji t atau F yang
akurat karena 𝛽𝛽�2 terlalu besar dan koefisien yang tidak signifikan (karena nilai
t lebih kecil dari seharusnya).

b. Estimasi OLS mengabaikan Heteroskedastisitas


Ketika mengabaikan heteroskedastisitas, kesimpulan yang kita ambil bisa
sangat misleading(menyesatkan).
11.4 Cara Mendeteksi Heteroskedastisitas
Ada dua metode untuk mendeteksi Heteroskedastisitas:
1. Metode Informal
Metode informal menggunakan grafik (scatterplot). Apabila plot tersebut
memiliki pola tertentu, dapat diasumsikan bahwa varians error data tersebut
bersifat heteroskedastisitas.
Metode informal lain bisa diasumsikan dari nature data yang cross-sectional.

2. Metode Formal
2.1. Park Test

menunjukkan bahwa ialah metode grafis yang memiliki beberapa fungsi


dari variabel penjelas X. Bentuk fungsional yang disarankan ialah:

Dimana Vi adalah istilah gangguan stokastik. Karna biasanya tidak


diketahui, park menyatakan penggunaan sebagai perantara dan
menjalankan regresi berikutnya:

Jika signifikan secara statistik, akan menunjukkan bahwa


heteroscedasticity hadir dalam data. Jika ternyata tidak signifikan, kita
mungkin akan menerma asumsi heteroscedasticity. Park test adalah dua
prosedur tahap. Pada tahap pertama kita menjalankan regresi
mengabaikan pertanyaan heteroscedasticity. Kita memperoleh dari
regresi ini, dan kemudian pad tahap ke dua kita menjalankan regresi
(11.5.2).
Meskipun menarik secara empiris, park test memiliki beberapa masalah.
Goldfeld dan Quandt telah berpendapat bahwa istilah Vi masuk ke dalam
kesalahan (11.5.2) yang dimana mungkin tidak memuaskan asumsi yang
sama dan bisa jadi heteroscedasticity.

2.2. Glesjer Test


serupa dengan park test.setelah mendapatkan residuals dari regresi
OLS, Glejser menyarankan kemunduran nilai-nilai mutlak pada variabel

X yang diperkirakan berhubungan erat dengan Dalam eksperimennya,


Glejser menggunakan bentuk fungsional berikut:

2.3. Spearman Rank Correlation

Dimana di = perbedaan pangkat yang ditetapkan untuk dua karakteristik


yang berbeda dari ithindividu atau fenomena dan n = jumlah individu atau
peringkat fenomena. Asumsi heteroscedasticity:

Langka pertama, cocokkan regresi ke data Y dan X dan mendapatkan


residual

Langka ke dua, mengabaikan tanda dari yaitu, mengambil nilai mutlak


peringkat dan Xi (atau ) menurut urutan naik atau turun dan
hitunglah Spearman’s Rank correllation koefisien yang diberikan
sebelumnya.

Langka ketiga, dengan asumsi bahwa tingkat koefisien korelasi adalah


nol dan n > 8, sampel yang signifikan rsdapat diuji melalui tes berikut:
Jika nilai t komputerisasi melebih niali krisis, kita mungkin menerima
hipotesis heteroscedasticitas; jika tidak kita bisa menolaknya.jika masa
regresi model mencakup lebih dari satu variabel X, rs dapat dihitung
dan masing-masing X dan dapat diuji untuk tes yang diberikan di (11.5.7).

Garis pasar modal dari teori portofolio menyatakan hubungan linier antara
pengembalian yang diharapkan (Ei) dan risiko (yang diukur dengan SD,
)dari portofolio sebagai berikut:

2.4. Goldfield-Quant
Metode ini berlaku jika seseorang menganggap bahwa variasi
heteroscedastik, secara positif berhubungan dengan salah satu variabel
penjelas dalam model regresi. Untuk kesederhanaan, pertimbangkan model
dua variabel biasa.

Misalkan positif terkait dengan Xi sebagai:

Dimana adalah konstan.


Asumsi (11.5.10) berbentuk bahwa sebanding dengan kuadrat
variabelnya. Jika (11.5.10) adalah tepat, berarti akan lebih besar, lebih
besar nilai X. jika ternyata terjadi, heteroscedasticity yang hadir dalam
model tersebut. Untk menguji hal ini, secara eksplinsit, Goldfeld dan Quandt
menyarankan langkah berikut:

Langkah pertama, urutan atau peringkat pengamatan menurut nilai X,


dimulai dengan nilai X terendah.

Langkah kedua, omit c pusat pengamatan, dimana c ditentukkan a priori,


dan membagi sisanya (n-c) pengamatan menjadi dua kelompok masing-
masing (n-c)/2 pengamatan

Langkah ke tiga, cocokan regresi dengan yang pertama (n-c)/2, dan yang
terakhir (n-c)/2dan dapatkan respective residual sums dari RSS1, dan RSS2.
RSS1 mewakili RSS dari regresi terkait dengan X yang lebih kecil; nilai
(kelompok varians kecil) dan RSS2 bahwa dari X yang lebih besar; nilai
(kelompok varians besar). RSS ini masing-masing memiliki:

Dimana k adalah jumlah paramenter yang harus diperkirakan. Untuk dua


variabel kasus k tentu saja 2.

Langkah keempat, hitunglah perbandingannya

Jika ui, dianggap normal didistribusikan (yang biasa kita lakukan)dan jika
asumsi homoscedasticity adalah sah, maka dapat diperlihatkan bahwa
dari (11.5.10) mengikuti distribusi F dengan numerator dan denominator df
masing-masing (n-c-2k)/2.

2.5. Breusch-Pagan-Godfrey

Kesuksesan Goldfeld-Quand tes tidak hanya bergantung pada nilai c (jumlah


pengamatan putas untuk dihilangkan) tetapi juga mengidentifikasi variabel X
yang benar dengan order pengamatan. Ini pembatasan tes dapat dihindari jika
kita perhatikan tes Breusch-Pagan-Godfrey (BPG).

Untuk menggambarkan tes ini, pertimbangkan model regresi linier k-variabel

Asumsikan bahwa kesalahan variance digambarkan sebagai:

adalah beberapa fungsi dari variabel nonstochastik Z; beberapa atau


semua X’s bisa berfungsi sebagai Z’s. secara spesifik anggaplah demikian.
adalah fungsi linier dari Z’s. jika yang

konstan. Oleh karena itu, untuk menguji apakah adalah homoscedastik,


salah satu dapat menguji hipotesis bahwa ini adalah
ide yang melatar belakangi tes Breusch-Pagan. Prosedur tes yang
sebenarnya adalah sebagai berikut:

Langka pertama, estimasi (11.5.12) menurut OLS dan mendapatkan residual

Langkah kedua, dapatkan

Langkah ketiga, bangun variabel Pi didefinisikan sebagai

Hanya setiap residu yang dibagi oleh

Langka keempat, regresi Pi dibangun di Z’s sebagai

Dimana Vi adala residual masa regresi.

Langkah kelima, dapatkan ESS (jumlah kotak yang dijelaskan) dari (11.5.15)
dan dijelaskan

Dengan asumsi ui biasanya didistribusikan, salah satu yang dapat


menunjukkan bahwa jika ada homoscedasticity dan jika ukuran sampel n
meningkat tanpa batas, maka:

Yang mengikuti chi-squere dengan (m-1) derajat kebebasan. Oleh karena itu,
jika komputerisasi melebihi nilai x2 kritis pada tingkat yang telah
ditentukan, maka dapat menolak hipotesis tentang homoscedasticity; jika
tidak menolaknya.

2.6. White General’s


Tidak seperti tes Goldfeld-Quandt, yeng membutuhkan ulang pengamatan
sehubung dengan variabel X yang diduga menyebabkan timbulnya
heteroscadasticity . atau tes BPG yang sensitif terhadap asumsi normaltes
umum heteroscadasticity yang diusulkan white tidak bergantung pada asumsi
normal dan mudah untuk mengimplementasikan. Sebagai ilustrasi tentang
gagasan dasar, pertimbangan hal berikut tiga variabel model regresi
(generalisasi ke model k-variabel cukup jelas:

Hasil tes white sebagai berikut:

Langkah pertama, berdasarkan data, kami memperkirakan (11.5.21) dan


mendapatkan risidual

Langkah kedua, kami kemudian melakukan regresi berikut (tambahan):

Perhatikan bahwa ada istilah konstan dalam persamaan ini, meskipun regresi
asli mungkin atau tidak mengandung itu. Dapatkan R2 dari regresi ini.

Langkah ketiga, berdasarkan hipotesis kesimpulan bahwa tidak ada


heteroscedasticity, dapat ditunjukkan bahwa ukuran sampel (n), R2
didapatkan dari pendukung regresi aymptotik mengikuti distribusi chisquare
dengan df sama dengan jumlah regresi (tidak termasuk jangka konstan)
dalam pelengkap regresi. Itu adalah

Dimana df didefinisikan sebelumnya. Dalam contoh ada 5 df sejak itu apakah


5 regresi dalam pemulihan.

Langkah keempat, jika chi-squareyang diperoleh dalam (11.5.23) melebihi


nilai kritis chi-square pada tingkat signifikansi, kesimpulannya adalah bahwa
itu heteroscedasticity. Jika tidak melebihi chi-square yang kritis, tidak ada
heteroscedasticity, yang berarti bahwa dalam regresi tambahan (11.5.22),

Other Test of heteroscedasticity


ada beberapa tes lain heteroscedasticity, masing-masing berdasarkan asumsi
tertentu. Ini adalah tes Koenker-Bassett (KB) seperti tes park, breusch-pagan-
Godfret, dan tes white’s heteroscedasticity. Tes KB berdasarkan pada residu

square ,tetapi bukannya menjadi mundur pada satu atau lebih regresi.
Ukuran residual regresi pada ukuran estimasi nilai regresi. Khususnya model
aslinya adalah:

Anda memperkirakan model ini memeperoleh dan kemudian


memperkirakan:

11.5. Remedial Measures

Seperti kita lihat, heteroscedasticity tidak menghancurkan ketidak biasaan dan sifat
konsistensi dari pemilih, tetapi mereka tidak lagi berbentuk, bahkan tidak tampak
(seperti, berukuran sampel besar). Kurangnya efisiensi ini membuat prosedur yang
biasa melakukan tes hipotesis dengan nilai yang meragukan. Oleh karena itu

perbaikan mungkin perlu dilakukan. Ada dua pendekatan untuk perbaikan: ketika

diketahui dan ketika tidak diketahui.

Ketika diketahui : The Method of Weighted Least Squares

Seperti kita lihat pada bagian 11.3, jika adalah dikenal, yang paling sederhana
metode mengoreksi heteroscedasticity adalah yang paling ringan karena estimato
ryang diperoleh dengan cara demikian berwarna biru.

Ketika tidak diketahui: White’s Heteroscedasticity-varians yang konsisten


dan standar eror

White telah menunjukkan bahwa estimasi dapat dilakukan sehingga asymtoticall valid
(misalnya, sampel besar) dapat dibuat nilai paramenter yang benar. metode ini untuk

mendapatkan estimasi baru. Sejak ada yang benar, jarang diketahi apakah ada
cara untuk mendapatkan konsisten (dalam arti statistik) memperkirakan varians dan
kovarians dari estimasi OLS jika terdapat heteroscedasticity? Jawabannya ialah iya.

White heteroscedasticity-variasi yang konsisten dan standart eror. White telah


menunjukkan bahwa estimasi ini dapat dilakukan sehingga valid. (misalnya, sampel
besar) kesimpulan statistik dapat dibuat mengenai nilai paramenter yang benar.
secara keseluruhan paket komputer menyajikan variasi dan standart eror yang telah
diperbaiki tes white. White heteroscedasticity-standart eror yang dikoreksi juga dikenal
sebagai standart eror yang kuat.

Asumsi yang masuk akal tentang pola heteroscedasticity.

Terpisah dari prosedur sampel besar, salah satu kelemahan prosedur white apakah
penilaian yang diperoleh dengan cara ini mungkin tidak seefisien perkiraan yang
dibuat dengan metode yang mengubah data untuk mencerminkan jenis
heteroscedasticity tertentu. Untuk menggambarkan ini, mari kita kembali ke model
regresi dua variabel:

Kita saat ini mempertimbangkan beberapa asumsi tentang pola heteroscedasticity.

Asumsi 1: kesalahan varians sebanding dengan

Jika sebagai masalah “spekulasi”, metode grafis, atau park dan Glejser pendekatan,
diyakini bahwa ui sebanding dengan square dari variabel penjelas X (lihat gambar
11.10) seseorang dapat merubah model asli sebagai berikut. Bagian model asli
melalui Xi :

Dimana Vi mengubah istilah gangguan, sama dengan ui/Xi. sekarang mudah untuk
memverifikasi bahwa:

Maka oleh karena iu varians dari visekarang homoscedasticity, dan sekarang


seseorang dapat melanjutkan OLS ke persamaan ditransformasi (11.6.6), regresi Yi/Xi
ke 1/Xi.
Perhatikan bahwa dalam perubahan regresi istilah adalah koefisien slop dalam

persamaan asli dan koefisien slop adalah istilah pencegatan dalam model asli. Oleh
karena itu, kembali ke aslinya model kita harus mengalikan berdasarkan perkiraan
(11.6.6) oleh Xi.

Asumsi 2: kesalahan varians sebanding dengan Xi. Transformasi akar kuadrat:

Jika dipercaya varians ui, bukannya proporsional dengan kuadrat xi, sebanding
dengan xi itu sendiri, maka model aslinya dapat diubah sebagai berikut:
Dengan asumsi 2, orang langsung dapat memverifikasi situasi
homocedasticity. Oleh karena itu seseorang dapat melanjutkan untuk menggunakan
OLS untul (11.6.8), regresi dan

Asumsi 3: kesalahan varians sebanding dengan kuadrat nilai rata-rata Y.

Persamaan (11.6.9) menyatakan bahwa varians ui sebanding dengan square dari nilai
Y yang diharapkan.

Oleh karena itu, jika kita mengubah persamaan asli sebagai berikut:

Akan tetapi transformasi (11.6.10) sebenarnya tidak berfungsi karena E (Yi)

bergantung pada dan yang tidak diketahui. Tentu saja kita tahu yang
merupakan estimasi dari E (Yi). oleh karena itu kita dapat melanjutkan dalam dua
langkah: perta, kita menjalankan regresi yang biasa, mengabaikan heteroscedasticity
problem dan tinggi kemudian diperkirakan kita mengubah model sebagai
berikut:

Asumsi 4: a log transformation, as:

Sangat sering mengurangi heteroscedasticity ketika dibandingkan dengan regresi.

Hasilnya adalah karena transformasi log menempatkan skala yang digunakan untuk
mengukur variabel-variabel, dengan demikian mengurangi perbedaan sepuluh kali
lipat antara dua nilai menjadi dua perbedaan. Jadi angka 80 sama dengan 10 kali
angka 8, tetapi dalam 80 (-4.3280) kira-kira dua kali lebih besar dari 8 (=2.0794).
Autokorelasi
12.1 The Nature of The Problem
Beberapa penyebab autokorelasi/korelasi serial terjadi:
- Inersia
- Bias pada spesifikasi: kasus pengecualian pada variabel
- Bias pada spesifikasi: Pembentukan fungsi yang kurang tepat
- Fenomena Cobweb
- Lags
- Manipulasi data
- Transformasi data
- Ketidakstasioneran

12.2 OLS Estimation in the Presence of Autocorrelation


Kita dapat mengasumsikan bahwa adanya gangguan atau error, dapat
menggunakan persamaan sebagai berikut:
Dimana ρ diketahui sebagai koefisien autokovariansi dan dimana adalah
gangguan yang bersifat stokastik sehingga memenuhi asumsi standar OLS.
Persamaan tersebut dapat diketahui sebagai skema autoregresi Markov orde satu
atau AR(1). Penggunaan nama autoregresi sesuai karena persamaan tersebut dapat
diinterpretasikan sebagai regresi pada ut¬ ¬¬dengan dirinya mengalami lag satu
periode. Itu menjadi periode pertama karena ut dan nilai sebelumnya terlibat, sehingga
lag maksimum bernilai 1. Jika model memiliki persamaan
akan menjadi AR(2) atau orde kedua, skema autoregresi, dan seterusnya.
Pada persamaan nilai koefisien autokovariansi dapat diinterpretasi
sebagai koefisien autokorelasi orde satu atau koefisien autokorelasi pada lag 1.
Dibawah skema AR(1) dapat ditunjukkan variansi pada estimator pada persamaan

Dimana var artinya variansi pada dibawah skema autoregresi orde satu.
Perlu diingat bahwa penerapan buta pada rumusan OLS untuk mengkomputasi
variansi dan standar error estimator OLS dapat menyebabkan hasil yang
menyesatkan.

12.3 The BLUE Estimator in the Presence of Autocorrelation


Estimator BLUE pada β2 diketahui pada persamaan sebagai berikut:

Dimana C adalah faktor koreksi yang mungkin diabaikan dalam praktiknya. Estimator
diperoleh dengan metode GLS. Pada GLS dapat dimasukkan informasi
tambahan yang dimiliki, misalnya sifat heteroskedastisitas atau korelasi langsung
kedalam prosedur pendugaan untuk mengubah variabel, sedangkan pada OLS
informasi sampingan tersebut tidak langsung diperhitungkan.
Teorema Gauss Markov hanya menyediakan kondisi yang sesuai untuk OLS
menjadi BLUE. Kondisi yang sesuai dan dibutuhkan bagi OLS untuk menjadi BLUE
diberikan oleh teorema Kruskal. Oleh karena itu, dalam beberapa kasus dapat terjadi
bahwa OLS dapat menjadi BLUE meskipun terdapat autokorelasi.

12.4 Consequence of Using OLS in the Presence of Autocorrelation

OLS Estimation Allowing for Autocorrelation


Pada kasus ini, dampak dari temuan untuk menguji hipotesis yaitu peneliti dapat
menyatakan bahwa sebuah koefisien tidak signifikan secara statistik misalnya ketika
tidak berbeda dengan nol) meskipun pada faktanya (berdasarkan prosedur GLS yang
benar itu mungkin terjadi).
Untuk menciptakan interval kepercayaan dan untuk menguji hipotesis, sebaiknya
menggunakan GLS daripada OLS meskipun penaksir diturunkan tidak bias dan
konsisten.

OLS Estimation Disregarding Autocorrelation

Jika terdapat autokorelasi yang diketahui AR(1) dapat menggunakan rumus sebagai
berikut:

Dimana r = dapat diinterpretasikan sebagai koefisien korelasi


antara nilai sukses pada X. Jika ρ dan r bernilai positif dan nilai , rumus
variansi residu akan abaikan nilai σ2 yang sebenarnya. Dengan kata lain, akan
menjadi bias. Bias pada akan dijadikan kepada karena pada praktiknya
kita memperkirakan yang terakhir dengan rumus .

Namun, jika σ2 tidak di-abaikan, dapat menjadi estimator yang bias terhadap
. Faktanya, jika ρ bernilai positif dan nilai X secara positif berkorelasi, dapat

dinyatakan bahwa . Varians OLS dari akan abaikan


variansinya dibawah AR(1). Oleh karena itu, jika kita menggunakan , kita perlu
meningkatkan presisi atau akurasi pada estimator . Sebagaimana hasilnya, dalam
menghitung rasio t sebagai t = (dengan hipotesis = 0), kita harus
menaksir nilai t dan karenanya signifikansi statistik pada yang diestimasi. Situasi
akan memburuk apabila σ2 di-abaikan.
12.5 Relationship Between Wages and Productivity in the Business Sector of
the US 1959-1998
Pada kasus yang dikaji, penelitian dilakukan dengan menguji hubungan index
kompensasi per jam (Y) dan hasil per jam (X) pada sektor bisnis dalam perekonomian
AS periode 1959 hingga 1998, dimana basis index adalah tahun 1992 dengan nilai
100.
Berdasarkan grafik hubungan antara variabel Y dan variabel X memiliki hubungan
positif. Selain itu, hubungan antar kedua variabel tersebut hampir linier. Oleh karena
itu, dapat diputuskan untuk membuat perkiraan sebuah linier sebagaimana model
linier panjang, yaitu sebagai berikut:

Dimana d adalah statistik Durbin Watson dengan persamaan sebagai berikut:

Secara kualitatif, kedua model tersebut memberikan hasil yang sama. Pada kedua
kasus koefisien yang diestimasi adalah signifikan, sebagaimana diindikasikan dengan
nilai t. Pada model linier, jika indeks produktivitas meningkat sebanyak 1 kali, maka
indeks kompensasi meningkat sebesar 0,71 kali. Pada model log-linier, nilai koefisien
menjadi elastis, dimana dapat diperoleh ketika indeks produktivitas meningkat
sebanyak 1 persen, maka indeks kompensasi nyata meningkat sebesar 0,67 persen.
Jika terdapat autokorelasi, standar error yang diperkirakan bersifat bias, sebagaimana
hasil dimana rasio t yang diperkirakan tidak dapat diandalkan.

12.6 Detecting Autocorrelation


I. Metode Grafis

Metode grafis dapat dijadikan sebagai alat pengujian bersifat visual, yang dapat
digunakan untuk mengetahui tanda-tanda keberadaan autokorelasi. Metode grafis
dapat digunakan sebagai alat analisis statistik untuk mempermudah memahami
kesimpulan dari masalah kompleks dan untuk menguji data sebagai agregat yang
secara jelas dapat menampilkan perilaku suatu kasus. Metode grafis dapat
memberikan informasi yang berguna tidak hanya pada hubungan autokorelasi tetapi
juga tentang heteroskedastisitas, ketidakcukupan model, atau bias pada spesifikasi.

Metode grafis memiliki keunggulan yaitu kuat dan sugestif, namun bersifat subyektif
dan kualitatif. Pada metode grafis, beberapa pengujian yang bersifat kuantitatif juga
dapat digunakan sebagai pelengkap bagi pendekatan kualitatif murni.
Residu yang terstandardisasi dapat diplot terhadap waktu. Residu yang
terstandardisasi adalah residu yang dibagi dengan standar error pada regresi. Perlu
diperhatikan bahwa residu dan standar eror regresi diukur dimana regressand Y
diukur. Oleh karena itu, nilai dari residu yang terstandarisasi akan menjadi nilai murni
(tanpa satuan pengukuran) dan daoat dibandingkan dengan nilai resiud yang
terstandardisasi dari regresi lainnya.

II. The Run Test


Run merupakan urutan tak terputus dari satu simbol atau atribut, seperti + dan -.
Length of a run dapat didefinisikan sebagai jumlah dari elemen dalam suatu urutan.
Dengan memeriksa bagaimana run berperilaku dalam urutan pengamatan yang
bersifat acak, seseorang dapat memperoleh tes keacakan run.
Dalam satu keadaan, apabila terlalu banyak run dan residual sering berganti tanda,
dapat menunjukkan autokorelasi negatif. Demikian pula, jika berjalan terlalu sedikit,
dapat dinyatakan memiliki autokorelasi positif.
Di bawah hipotesis null, hasil yang berurutan (residual) adalah independen, dengan
asumsi bahwa N1 > 10 dan N2 > 10, jumlah run secara asimtotik berdistribusi normal
dengan persamaan sebagai berikut:

dengan catatan N = N1 + N2
Pada aturan keputusan, jangan menolak hipotesis nol keacakan dengan kepercayaan
95% jika jumlah run terletak pada interval kepercayaan sebelumnya. Hipotesis nol
dapat ditolak jika jumlah run yang diperkirakan terletak diluar limit tersebut.

Swed dan Einsenhart telah mengembangkan tabel khusus yang memberikan nilai
kritis dari run yang diharapkan dalam urutan acak dari N pengamatan jika N1 atau N2
lebih kecil dari 20.

III. Durbin–Watson d Test

Uji Durbin Watson atau Durbin Watson Test adalah tes atau pengujian yang
digunakan untuk mendeteksi adanya Autokorelasi pada nilai residual atau adanya
kesalahan prediksi dari analisis regresi. Uji Autokorelasi sendiri memiliki pengertian
sebagai hubungan antara nilai-nilai yang dipisahkan satu sama lain dengan interval
waktu tertentu. Meskipun sekarang digunakan secara rutin, penting untuk mencatat
asumsi yang mendasari statistik d.
1. Model regresi mencakup intersep.
2. Variabel penjelas, X, tidak stokastik, atau tetap dalam pengambilan sampel
berulang.
3. Tidak dapat digunakan untuk mendeteksi skema autoregresif tingkat tinggi.
4. Istilah kesalahan ut diasumsikan terdistribusi normal.
5. Variabel dependen bukan merupakan variabel Lag. Dengan demikian, pengujian
tidak dapat diterapkan pada model jenis berikut:
Yt = 1 + 2X2t + 3X3t +···+ k Xkt + Yt−1 + ut di mana Yt−1 adalah nilai lag satu periode
dari Y.
6. Tidak ada pengamatan yang hilang dalam data.

Batas atas 𝑑𝑑𝑢𝑢 adalah batas signifikansi sebenarnya dan oleh karena itu dalam kasus
d terletak di indecisive zone, seseorang dapat menggunakan uji d yang dimodifikasi
berikut ini:
Mengingat tingkat signifikansi ,
1. H0: = 0 versus H1: > 0. Tolak H0 pada level jika d < dU . Artinya, ada autokorelasi
positif yang signifikan secara statistik.
2. H0: = 0 versus H1: < 0. Tolak H0 pada tingkat jika estimasi (− d) < dU , yaitu,
terdapat bukti autokorelasi negatif yang signifikan secara statistik.
3. H0: = 0 versus H1: = 0. Tolak H0 pada level 2α jika d < dU atau (4 d < dU , yaitu,
terdapat bukti autokorelasi yang signifikan secara statistik, positif atau negatif.
Dalam hal ini maka deteksi autokorelasi adalah:
Autokorelasi positif:
● Jika d < dL, maka Autokorelasi positif;
● Jika d > dU, maka tidak ditemukan Autokorelasi positif;
● Jika dL < d < dU, maka pengujian tidak dapat disimpulkan atau tidak konkret.

Anda mungkin juga menyukai