Anda di halaman 1dari 4

64 | EIGEN MATHEMATICS JOURNAL VOL 02 No 02 (Desember 2019)

2. Metode Glejser ∂(𝛆𝐓 𝛆) ∂(𝐘 𝐓 𝐘−𝐘 𝐓 𝐗𝛃


̂ −𝛃̂ 𝐓 𝐗 𝐓 𝐘+𝛃
̂ 𝐓 𝐗 𝐓 𝐗𝛃
̂)
̂𝐓 = ̂𝐓
Uji hetroskedastisitas dengan metode Glejser ∂𝛃 ∂𝛃
∂(𝛆𝐓 𝛆)
dilakukan dengan meregresikan semua variabel ̂
= −𝐗 𝐓 𝐘 + 𝐗 𝐓 𝐗𝛃 (2.4)
̂𝐓
∂𝛃
independen terhadap nilai mutlak errornya. Jika
∂(𝛆𝐓 𝛆)
terdapat pengaruh variabel independen yang ̂𝐓
=0
∂𝛃
signifikan terhadap nilai mutlak errornya maka −𝐗 𝐘 + 𝐗 𝐓 𝐗𝛃
𝐓 ̂=0
dalam model terdapat masalah heteroskedastisitas 𝐓 ̂ 𝐓
𝐗 𝐗𝛃 = 𝐗 𝐘
(Suliyanto, 2011).
̂ = (𝐗 𝐓 𝐗)−𝟏 (𝐗 𝐓 𝐘)
𝛃 (2.5)
2.3 Ordinary Least Square (OLS)
Metode kuadrat terkecil adalah estimasi parameter 2.4 Generalized Least Square (GLS)
yang sering digunakan dalam analisis regresi dengan
tujuan meminimumkan jumlah kuadrat error (sum Menurut (Gujarati, 2004) asumsi-asumsi yang harus
square error) (Andani dan Widodo, 2016). dipenuhi dalam estimasi model regresi linear dengan
Ordinary Least Square antara lain adalah tidak
Menurut Gujarati (2004), estimasi 𝛽̂0 , 𝛽̂1 , adanya autokorelasi yaitu E ( ) = 0 dan
𝛽̂2 ,..., 𝛽̂𝑘 dengan menggunakan kuadrat terkecil
homoskedastisitas yaitu Var( ) =  2 I . Apabila
dapat diperoleh dengan meminimumkan jumlah
kuadrat error asumsi-asumsi mengenai tidak adanya autokolerasi
dan homoskedasitas tidak terpenuhi, maka metode
𝜀𝑖 = 𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋1𝑖 − 𝛽̂2 𝑋2𝑖 − ⋯ − 𝛽̂𝑘 𝑋𝑘𝑖 Ordinary Least Square (OLS) tidak lagi tepat
digunakan untuk mengestimasi parameter pada model
regresi linear. Metode Generalized Least Square
∑ 𝜀𝑖2 = ∑(𝑌𝑖 − 𝛽̂0 − 𝛽̂1 𝑋1𝑖 − 𝛽̂2 𝑋2𝑖 − ⋯ − 𝛽̂𝑘 𝑋𝑘𝑖 )2 (GLS) dapat digunakan untuk mengestimasi
parameter ketika model regresi linear berbentuk :
(2.2) 𝐘 = 𝐗𝛃 + 𝛆 (2.6)

Dalam notasi matriks, meminimumkan jumlah dengan 𝐸(𝜀) = 0, Var(ε) = 𝛔𝟐 𝐕 dan V merupakan
kuadrat error dapat dicapai dengan meminimumkan matriks berukuran 𝑛𝑥𝑛.
∑𝑛𝑖=1 𝜀𝑖 2 .
Pelanggaran asumsi tidak adanya autokolerasi
∑𝑛𝑖=1 𝜀𝑖 2 = 𝜀1 2 + 𝜀2 2 + ⋯ + 𝜀𝑛 2 dan homoskedasitas akan diselesaikan dengan
mentransformasi data pengamatan model regresi
𝜀1 sehingga memenuhi asumsi-asumsi metode ordinary
𝜀2 least square. Matriks kovariansi galat berbentuk 𝛔𝟐 𝐕
= [𝜀1 𝜀2 … 𝜀𝑛 ] [ ]
⋮ dengan 𝐕 merupakan matriks nonsingular dan definit
𝜀𝑛 positif sehingga terdapat matriks 𝐊 simetrik non
singular berukuran 𝑛𝑥𝑛 dengan 𝐊’𝐊 = 𝐊𝐊 = 𝐕.
= 𝛆𝐓 𝛆
Didefinisikan variabel-variabel baru sebagai
̂.
dimana 𝛆 = 𝐘 − 𝐗𝛃 berikut,

Sehingga ∑ni=1 εi 2 = 𝛆𝐓 𝛆 𝐘 ∗ = 𝐊 −𝟏 𝐘 , 𝐗 ∗ = 𝐊 −𝟏 𝐗, 𝛆∗ = 𝐊 −𝟏 𝛆 ,
̂ )𝐓 (𝐘 − 𝐗𝛃
= (𝐘 − 𝐗𝛃 ̂) Sehingga model regresi 𝐘 = 𝐗𝛃 + 𝛆 menjadi 𝐊 −𝟏 𝐘
= 𝐊 −𝟏 𝐗𝛃 + 𝐊 −𝟏 𝛆 atau
̂ 𝐓 𝐗 𝐓 )(𝐘 − 𝐗𝛃
= (𝐘 𝐓 − 𝛃 ̂)
𝐘 ∗ = 𝐗 ∗ 𝛃 + 𝛆∗ (2.7)
𝐓 ̂−𝛃
= 𝐘 𝐘 − 𝐘 𝐗𝛃𝐓̂𝐓𝐗𝐓 𝐘 + 𝛃
̂ 𝐓 𝐗 𝐓 𝐗𝛃
̂
Galat pada model yang ditransformasi memiliki nilai
(2.3) harapan nol, yaitu
Selanjutnya, untuk menentukan estimator 𝐄 (𝛆∗ ) = 𝐊 −𝟏 𝐄 (𝛆) = 𝟎 (2.8)
regresi linear dapat dihitung dari turunan pertama Dengan demikian , matriks kovariansi dari 𝜺∗ dapat
persamaan (2.2) secara parsial terhadap 𝛃 ̂ 𝐓 dan ditulis sebagai berikut
disamakan hasilnya dengan nol.
R, HADIJATI, SWITRAYNI | 65

𝐕𝐚𝐫 (𝛆∗ ) = 𝐄{[𝛆∗ – 𝐄 (𝛆∗ )] [𝛆∗ – 𝐄 (𝛆∗ ) ]T } 3. Metode Penelitian

= 𝐄 (𝛆∗ 𝛆∗ T ) Data yang digunakan pada penelitian ini adalah data


bangkitan galat/error digunakan error yang
= 𝐄 (𝐊 −𝟏 𝛆𝛆T 𝐊 −𝟏 ) mengikuti model autoregressive AR(1) dengan 𝜌
yang digunakan adalah 0,8 , 0,5 dan 0,2 sehingga
= 𝐊 −𝟏 𝐄 (𝛆𝛆T ) 𝐊 −𝟏 model regresi yang diperoleh memiliki sifat yang
tidak independent dan heteroskedastisitas. Sedangkan
= 𝛔𝟐 𝐊 −𝟏 𝐕𝐊 −𝟏 data variabel bebas 𝑋1 dan 𝑋2 yang digunakan
mengikuti sebaran uniform (0,1). Alat yang
= 𝛔𝟐 𝐊 −𝟏 𝐊 𝐊 𝐊 −𝟏
digunakan pada penelitian ini adalah Software
statistika Microsoft Excel 2010 dan R 3.0.3. Software
= 𝛔𝟐 𝐈
tersebut digunakan untuk membantu proses
pengolahan data didalam penelitian.
Setelah ditransformasi ternyata model regresi
Secara singkat langkah-langkah yang dilakukan
memenuhi asumsi regresi klasik tidak adanya
didalam penelitian ini dapat dibagi menjadi beberapa
autokorelasi yaitu E (𝛆∗ ) = 0 dan homoskedasitas
tahap antara lain sebagai berikut:
Var (𝛆∗ ) = σ2 I. Dengan demikian dapat digunakan
1. Persiapan.
langkah-langkah pada metode OLS untuk mencari
2. Kajian Literatur.
parameter model regresi metode GLS.
3. Perbandingan Ekspektasi dan Varian OLS dan
GLS.
Akan dicari estimator dari parameter yang 4. Pengujian sifat estimator OLS dan GLS.
meminimumkan bentuk kuadrat 5. Membangkitkan data
6. Menentukan Variabel Y.
𝐒 (𝛃) = 𝛆∗ T 𝛆∗ = ( 𝐘 ∗ – 𝐗 ∗ 𝛃 )T ( 𝐘 ∗ – 𝐗 ∗ 𝛃 ) 7. Membuat Model awal Regresi Linier dengan
menggunakan OLS.
= (𝐘 ∗ 𝐓 − 𝛃𝐓 𝐗 ∗ 𝐓 )(𝐘 ∗ − 𝐗 ∗ 𝛃) 8. Uji Asumsi Homoskedastisitas dari hasil OLS.
9. Memperbaiki Model Regresi menggunakan
= 𝐘 ∗ 𝐓 𝐘 ∗ − 𝐘 ∗ 𝐓 𝐗 ∗ 𝛃 − 𝛃𝐓 𝐗 ∗ 𝐓 𝐘 ∗ + 𝛃𝐓 𝐗 ∗ 𝐓 𝐗 ∗ 𝛃 Estimasi GLS.
10. Uji Asumsi Homoskedastisitas dari hasil GLS.
(2.9) 11. Membandingkan Model OLS dengan GLS
Analogi dengan metode OLS, diperoleh
persamaan normal metode GLS dalam lambang
matriks berbentuk : 4. Hasil dan Pembahasan
∗T ∗ ̂ ∗T ∗
( 𝐗 𝐗 )𝛃 = 𝐗 𝐘 4.1 Kajian Teoritis Estimator OLS dan GLS
̂ =
( (𝐊 −𝟏 𝐗 )𝐓 (𝐊 −𝟏 𝐗 ) ) 𝛃 (𝐊 −𝟏 𝐗 )𝐓 𝐊 −𝟏 𝐘
Pada bagian ini diuraikan hasil estimator OLS dan
̂ GLS. Ordinary least square adalah estimasi
𝐗 𝐓 (𝐊 −𝟏 ) 𝐓 𝐊 −𝟏 𝐗 𝛃 = 𝐗 𝐓 (𝐊 −𝟏 ) 𝐓 𝐊 −𝟏 𝐘
parameter yang sering digunakan dalam analisis
̂ regresi dengan tujuan meminimumkan jumlah
( (𝐊 𝐓 𝐊)−𝟏 𝐗 ) 𝛃 = 𝐗 𝐓 (𝐊 𝐓 𝐊)−𝟏 𝐘
kuadrat error (sum square error) dengan estimator
̂ menurut persamaan (2.5) yaitu 𝛃 ̂ = (𝐗 𝐓 𝐗)−𝟏 (𝐗 𝐓 𝐘)
( 𝐗 𝐓 𝐕 −𝟏 𝐗 ) 𝛃 = 𝐗 𝐓 𝐕 −𝟏 𝐘
sedangkan GLS (Generalized Least Square) adalah
̂
(𝐗 𝐓 𝐕 −𝟏 𝐗)−𝟏 ( 𝐗 𝐓 𝐕 −𝟏 𝐗 ) 𝛃 sebagai salah satu bentuk dari pengembangan
= (𝐗 𝐕 𝐗)−𝟏 𝐗 𝐓 𝐕 −𝟏 𝐘
𝐓 −𝟏 estimasi least square, merupakan bentuk estimasi
yang dibuat untuk mengatasi sifat heteroskedastisitas
̂
𝐈𝛃 = (𝐗 𝐓 𝐕 −𝟏 𝐗)−𝟏 𝐗 𝐓 𝐕 −𝟏 𝐘 yang memiliki kemampuan untuk mempertahankan
sifat efisiensi estimatornya tanpa harus kehilangan
̂
𝛃 = (𝐗 𝐓 𝐕 −𝟏 𝐗)−𝟏 𝐗 𝐓 𝐕 −𝟏 𝐘 sifat unbiased dan konsistensinya dengan estimator
menurut persamaan (2.10) ̂ 𝑮𝑳𝑺 =
𝜷
Sehingga diperoleh estimator untuk GLS yaitu (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝒀 (Iswati, 2014).

̂ 𝐆𝐋𝐒 = (𝐗 𝐓 𝐕 −𝟏 𝐗)−𝟏 𝐗 𝐓 𝐕 −𝟏 𝐘
𝛃 (2.10) Untuk membandingkan kedua metode dapat
dilakukan dengan melihat sifat-sifat estimator yaitu
66 | EIGEN MATHEMATICS JOURNAL VOL 02 No 02 (Desember 2019)

estimator yang bersifat tak bias, variansi minimum = (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝑬(𝜺𝜺𝑻 )𝑿(𝑿𝑻 𝑿)−𝟏
dan konsisten. Akan dibandingkan kedua estimator = (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝝈𝟐 𝑰𝑿(𝑿𝑻 𝑿)−𝟏
tersebut untuk mengetahui estimator yang terbaik = 𝝈𝟐 (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝑿(𝑿𝑻 𝑿)−𝟏
menurut sifat-sifat estimator. = 𝝈𝟐 (𝑿𝑻 𝑿)−𝟏
̂ 𝑮𝑳𝑺
𝜷 ̂−𝜷
= 𝜷
4.1.1 Perbandingan Sifat-Sifat Estimator OLS dan = (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝒀 − 𝜷
GLS
= (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 (𝑿𝜷 + 𝜺) − 𝜷
Berikut adalah pembuktian sifat-sifat estimator untuk
OLS dan GLS : = (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 (𝑿𝑻 𝑽−𝟏 𝑿)𝜷 +
(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺 − 𝜷
1. Tak Bias
= 𝑰𝜷 + (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺 − 𝜷
𝑬(𝜷 ̂ 𝑶𝑳𝑺 ) = 𝑬[(𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝒀]
= 𝑬 [(𝑿𝑻 𝑿)−𝟏 𝑿𝑻 (𝑿𝜷 + 𝜺)] = (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺
= 𝑬 [(𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝑿𝜷 + (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺]
̂ 𝑮𝑳𝑺 ) = 𝑬[(𝜷
𝒗𝒂𝒓(𝜷 ̂ − 𝜷)𝑻 ]
̂ − 𝜷)(𝜷
= 𝑬 [𝑰𝜷 + (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺]
= 𝑬 (𝜷) + 𝑬[(𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺]
= 𝜷 + (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝑬(𝜺) = 𝑬[((𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺)
=𝜷+𝟎
((𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺)𝑻 ]
=𝜷
𝑬(𝜷 ̂ 𝑮𝑳𝑺 ) = 𝑬[(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝒀]
= 𝑬[(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝜺𝜺𝑻 𝑽−𝟏 𝑿(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 ]
= 𝑬 [(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 (𝑿𝜷 +
𝜺)] = (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑬(𝜺𝜺𝑻 )𝑽−𝟏 𝑿(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏
= 𝑬 [(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝑿𝜷 +
(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺] = (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝝈𝟐 𝑰𝑽−𝟏 𝑿(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏
= 𝑬 [𝑰𝜷 + (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺]
= 𝑬 (𝜷) + = 𝝈𝟐 (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝑿(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏
𝑬[(𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝜺]
= 𝜷 + (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏 𝑿𝑻 𝑽−𝟏 𝑬(𝜺) = 𝝈𝟐 (𝑿𝑻 𝑽−𝟏 𝑿)−𝟏
=𝜷+𝟎
=𝜷 3. Konsisten
̂
Karena 𝑬(𝜷𝑶𝑳𝑺 ) = 𝜷 dan 𝑬(𝜷 ̂ 𝑮𝑳𝑺 ) = 𝜷 maka
Untuk menentukan estimator bersifat konsisten
estimator OLS dan GLS memenuhi sifat tak
menggunakan ketidaksamaan Chebyshev’s yaitu :
bias.
1
2. Variansi 𝑃(|𝑋 − 𝜇𝑥̅ | < 𝑘𝜎𝑥̅ ) ≥ 1 −
𝑘2
̂ 𝑶𝑳𝑺 = 𝜷
𝜷 ̂−𝜷 Diperoleh :

= (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝒀 − 𝜷 a. 𝜇𝑥̅ = 𝐸(𝛽̂𝑂𝐿𝑆 ) = 𝛽


b. 𝜎𝑥̅2 = 𝑣𝑎𝑟(𝛽̂𝑂𝐿𝑆 ) = 𝜎 2 (𝑋 𝑇 𝑋)−1
= (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 (𝑿𝜷 + 𝜺) − 𝜷
1
= (𝑿𝑻 𝑿)−𝟏 (𝑿𝑻 𝑿)𝜷 + (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺 − 𝜷 Jadi: 𝑃(|𝛽̂ − 𝛽| < 𝑘𝜎𝛽̂ ) ≥ 1 −
𝑘2

𝜎
= 𝑰𝜷 + (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺 − 𝜷 Misalkan : 𝜀 = 𝑘
√𝑋 𝑇 𝑋

= (𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺 𝜀 √𝑋 𝑇 𝑋
𝑘=
𝜎
̂ 𝑶𝑳𝑺 ) = 𝑬[(𝜷
𝒗𝒂𝒓(𝜷 ̂ − 𝜷)𝑻 ]
̂ − 𝜷)(𝜷
𝜀 2 (𝑋 𝑇 𝑋)
𝑘2 =
𝑻 −𝟏 𝑻 𝑻 −𝟏 𝑻 𝑻 𝜎2
= 𝑬[((𝑿 𝑿) 𝑿 𝜺)((𝑿 𝑿) 𝑿 𝜺) ]
Sehingga :
= 𝑬[(𝑿𝑻 𝑿)−𝟏 𝑿𝑻 𝜺𝜺𝑻 𝑿(𝑿𝑻 𝑿)−𝟏 ]
R, HADIJATI, SWITRAYNI | 67

1
𝑃(|𝛽̂ − 𝛽| < 𝜀) ≥ 1 − heteroskedastisitas. Sedangkan data variabel bebas 𝑋1
𝜀2 (𝑋𝑇 𝑋)
𝜎2 dan 𝑋2 yang digunakan mengikuti sebaran uniform
(0,1). Adapun data variabel terikat , diperoleh
𝜎2 dengan beberapa persamaan, yaitu 𝑌𝑖 = 𝑋1𝑖 + 𝑋2𝑖 +
𝑃(|𝛽̂ − 𝛽| < 𝜀) ≥ 1 −
𝜀 2 (𝑋 𝑇 𝑋)
𝑒
𝜎2
Data bangkitan yang digunakan merupakan
lim 𝑃(|𝛽̂ − 𝛽| < 𝜀) ≥ lim (1 − )= pasangan data dengan beberapa 𝑛, yaitu 𝑛 = 30 𝑛 =
𝑥→∞ 𝑥→∞ 𝜀 2 (𝑋 𝑇 𝑋)
1 60 dan 𝑛 = 100.

Dengan demikian 𝛽̂𝑂𝐿𝑆 merupakan estimator 4.2.1 Hasil Penerapan untuk Data Simulasi
konsisten bagi 𝛽,sedangkan 𝛽̂𝐺𝐿𝑆 analogi dengan dengan 𝒀𝒊 = 𝑿𝟏𝒊 + 𝑿𝟐𝒊 + 𝒆
OLS didapatkan :
Berdasarkan data bangkitan uniform berukuran 𝑛 =
𝜎2 30 dengan data minimum 0 dan data maksimum 1
lim 𝑃(|𝛽̂ − 𝛽| < 𝜀) ≥ lim (1 − 2 𝑇 −1 ) dengan 𝑌𝑖 = 𝑋1𝑖 + 𝑋2𝑖 + 𝑒 dan error mengikuti
𝑥→∞ 𝑥→∞ 𝜀 (𝑋 𝑉 𝑋)
AR(1) dengan 𝜌 = 0,8 dilakukan estimasi parameter
=1
regresi dengan metode OLS menggunakan persamaan
Sehingga 𝛽̂𝐺𝐿𝑆 juga memenuhi sifat estimator yang normal yang disusun dalam bentuk matriks pada
konsisten. persamaan sebagai berikut:
−1
𝛽̂0 𝑁 ∑ 𝑥1 ∑ 𝑥2 ∑𝑦
4.1.2 Pembahasan Hasil Perbandingan Estimator
OLS dan GLS ̂
[𝛽1 ] = [∑ 𝑥1 ∑ 𝑥1 2 ∑ 𝑥1 𝑥2 ] [∑ 𝑥1 𝑦 ]
𝛽̂2 ∑ 𝑥2 ∑ 𝑥1 𝑥2 ∑ 𝑥2 2 ∑ 𝑥2 𝑦
Dari hasil perbandingan estimator OLS dan GLS
berdasarkan sifat estimator, diketahui bahwa 30 15,97 18,13 −1 20,14
estimator OLS dan GLS memenuhi sifat estimator tak = [15,97 10,08 9.56 ] [15,04]
bias dan konsisten. Namun, jika dibandingkan 18,13 9.56 13,29 17,97
dengan sifat variansi minimum bahwa GLS lebih
efisien karena memliki variansi lebih minimum 0,39 −0,35 −0,27 20,14
sehingga metode GLS lebih dapat digunakan untuk = [−0,35 0,64 0,02 ] [15,04]
melakukan estimasi parameter. GLS (Generalized −0,27 0,02 0,43 17,97
Least Square) sebagai salah satu bentuk dari
pengembangan estimasi least square, merupakan −2,43
bentuk estimasi yang dibuat untuk mengatasi sifat = [ 2,89 ]
heteroskedastisitas yang memiliki kemampuan untuk 2,59
mempertahankan sifat efisiensi estimatornya tanpa
harus kehilangan sifat unbiased dan konsistensinya. Berikut ini adalah hasil estimasi OLS menggunakan
Walaupun metode ini merupakan pengembangan software R dalam bentuk tabel dan diperoleh hasil
Ordinary Least Square untuk mengatasi berikut
heteroskedastisitas, namun metode ini juga bisa
digunakan pada data yang homoskedastisitas. Tabel 4. 1 Hasil OLS untuk bangkitan
𝒀𝒊 = 𝑿𝟏𝒊 + 𝑿𝟐𝒊 + 𝒆
4.2 Penerapan Prosedur Estimasi pada Data
Bangkitan Variabel Estimate Varian
Pada bagian ini diuraikan hasil penerapan estimasi Konstanta -2.43 0.39
𝑋1 2.89 0.64
regresi dengan GLS pada data bangkitan yang diolah
𝑋2 2.59 0.43
menggunakan software matematika R i386 3.4.1.
Data yang dibangkitkan merupakan pasangan data
dari model regresi linier berganda dengan dua Berdasarkan tabel 4.1 didapatkan nilai sebesar
variabel bebas dan satu variabel terikat. Pada -2,43 untuk parameter regresi 𝛽0 , 2,89 untuk
pembangkitan galat/error digunakan error yang parameter 𝛽1 , 2,59 untuk parameter 𝛽2 dengan Varian
mengikuti model autoregressive orde AR(1) dengan masing-masing sebesar 0,39 , 0,64 dan 0,43 sehingga
𝜌 yang digunakan adalah 0.8 , 0.5 dan 0.2 sehingga model yang terbentuk adalah :
memungkinkan model regresi yang diperoleh
memiliki sifat yang tidak independent dan 𝑌 = −2.43 + 2.89𝑋1 + 2.59𝑋2

Anda mungkin juga menyukai