Seperti dalam analisis regresi sederhana, dalam analisis regresi berganda juga ada
beberapa hal yang harus dianalisis sebagai dasar untuk melakukan analisis lebih mendalam dari
sekadar persamaan regresi yang terbentuk. Beberapa hal yang perlu dianalisis berkaitan dengan
analisis regresi adalah sebagai berikut:
1. Persamaan regresi
Persamaan regresi digunakan untuk menggambarkan model hubungan antara variabel bebas
dengan variabel tergantungnya. Persamaan regresi ini memuat nilai konstanta atau intercept
nilai koefisien regresi atau slope dan variabel bebasnya.
2. Nilai prediksi
Nilai prediksi merupakan besarnya nilai variabel tergantung yang diperoleh dari prediksi
dengan menggunakan persamaan regresi yang telah terbentuk.
3. Koefisien determinasi
Koefisien determinasi merupakan besarnya kontribusi variabel bebas terhadap variabel
tergantungnya. Semakin tinggi koefisien determinasi maka semakin tinggi kemampuan
variabel bebas dalam menjelaskan variasi perubahan pada variabel tergantungnya.
4. Kesalahan baku estimasi
Merupakan satuan yang digunakan untuk menentukan besarnya tingkat penyimpanan dari
persamaan regresi yang terbentuk dengan nilai senyatanya. Semakin tinggi kesalahan baku
estimasi maka semakin lemah persamaan regresi tersebut untuk digunakan sebagai alat
proyeksi.
5. Kesalahan baku koefisien regresi
Merupakan satuan yang digunakan untuk menunjukkan tingkat penyimpangan dari masing-
masing koefisien regresi. Semakin tinggi kesalahan baku koefisien regresi maka akan
semakin lemah variabel tersebut untuk diikutkan dalam model persamaan regresi (semakin
tidak berpengaruh).
6. Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
Digunakan untuk menguji pengaruh secara simultan variabel bebas terhadap variabel
tergantungnya. Jika variabel bebas memiliki pengaruh secara simultan terhadap variabel
tergantung maka model persamaan regresi masuk dalam good of fit. Sebaliknya, jika tidak
terdapat pengaruh yang simultan maka masuk dalam kategori lack of fit.
7. Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔
Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 digunakan untuk menguji pengaruh secara parsial (per variabel) terhadap
variabel tergantungnya, apakah variabel tersebut memiliki pengaruh yang berarti terhadap
variabel tergantungnya atau tidak.
8. Kesimpulan
Kesimpulan merupakan penyataan singkat berdasarkan hasil analisis apakah variabel bebas
yang diuji memiliki pengaruh terhadap variabel tergantung atau tidak.
Kesimpulan didasarkan pada nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 dibandingkan dengan nilai 𝑡𝑡𝑎𝑏𝑒𝑙 -nya, atau
dengan membandingkan nilai signifikansi (p-value) dengan tingkat toleransinya.
Untuk lebih memahami analisis regresi linear berganda dalam aplikasi proyeksi bisnis,
perhatikan contoh berikut:
Contoh:
Mr. Wong, manajer Perusahan Kecap "Manis Enak" di Water Gold ingin mengetahui pengaruh
harga dan pendapatan terhadap volume penjualan. Untuk keperluan tersebut Mr. Wong
mengambil data selama 10 tahun sebagai berikut:
a. Pertanyaan penelitian
Apakah terdapat pengaruh negatif harga terhadap volume penjualan?
Apakah terdapat pengaruh positif pendapatan terhadap volume penjualan?
b. Hipotesis
Hipotesis 1
𝐻0 : Tidak terdapat pengaruh negatif harga terhadap volume penjualan.
𝐻𝑎 : Terdapat pengaruh negatif harga terhadap volume penjualan.
Hipotesis 2
𝐻0 : Tidak terdapat pengaruh positif pendapatan terhadap volume penjualan.
𝐻𝑎 : Terdapat pengaruh positif pendapatan terhadap volume penjualan.
c. Kriteria pengujiian
Hipotesis 1
𝐻0 diterima jika:
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 ≥ −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. > 0,05
𝐻𝑎 diterima apabila
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 < −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. ≤ 0,05
Hipotesis 2
𝐻0 diterima jika:
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. > 0,05
𝐻𝑎 diterima apabila
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 > −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. ≤ 0,05
d. Analisis data
1. Mencari Persamaan Regresi
a. Dengan cara manual
Untuk mencari persamaan regresi dengan cara manual, buatlah lembar kerja seperti
berikut ini:
Setelah semua sel diisi lengkap dengan mengopikan formula sel E2 sampai dengan
sel E11, sel F2 sampai dengan sel F11, sel G2 sampai dengan sel G11, sel H2 sampai
dengan sel H11, sel I2 sampai dengan sel I11, sel J2 sampai dengan sel J11,dan sel
B12 sampai dengan sel J12 maka hasilnya adalah sebagai berikut:
Persamaan regresi linear berganda dengan menggunakan dua variabel bebas adalah
sebagai berikut:
𝒀 = 𝒂 + 𝒃𝟏 𝑿𝟏 + 𝒃𝟐 𝑿𝟐 + ⋯ + 𝒃𝒏 𝑿𝒏 + 𝜺
Untuk mencari nilai intercept (𝑎) dan koefisien regresi 𝑏1 dan 𝑏2 dapat digunakan
rumus sebagai berikut:
𝐷𝑒𝑡[𝐴1 ]
𝑎=
𝐷𝑒𝑡[𝐴]
𝐷𝑒𝑡[𝐴2 ]
𝑏1 =
𝐷𝑒𝑡[𝐴]
𝐷𝑒𝑡[𝐴3 ]
𝑏2 =
𝐷𝑒𝑡[𝐴]
𝐷𝑒𝑡 [𝐴] = (10 ∗ 180 ∗ 237) + (40 ∗ 192 ∗ 47) + (47 ∗ 40 ∗ 192)
− (47 ∗ 180 ∗ 47) + (192 ∗ 192 ∗ 18) + (237 ∗ 40 ∗ 40) = 3.060
Untuk menghitung matriks determinan dengan menggunakan program Microsoft
Excel dapat dilakukan dengan langkah-langkah seperti berikut:
Buat matriks yang akan dihitung nilai determinannya, misalnya matriks A
sehingga tampilannya akan menjadi seperti berikut:
Setelah sel E2 dikopikan sampai sel E11 dan sel D12 dikopikan ke sel E12 maka
tampilannya menjadi seperti berikut:
Gambar 8. Hasil Lembar Kerja Mencari Nilai Prediksi Regresi Linear Berganda
Keterangan:
𝑌𝑝𝑟𝑒𝑑 1 = 2,553 − 1,092 (2) + 1,961(3) = 6,252
𝑌𝑝𝑟𝑒𝑑 2 = 2,553 − 1,092 (3) + 1,961(4) = 7,121
𝑌𝑝𝑟𝑒𝑑 3 = 2,553 − 1,092 (3) + 1.961(6) = 8,859
Dan seterusnya ....
3. Mencari Koefisien Determinasi (𝑅 2 )
Formula untuk mengitung besarnya koefisien determinasi adalah sebagai berikut:
∑(𝒀 − 𝒀 ̂ )𝟐
𝟐
𝑹 =𝟏−
∑(𝒀 − 𝒀 ̅ )𝟐
𝑅2 = Koefisien determinasi
2
(𝑌 − 𝑌̂) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi
(𝑌 − 𝑌̅) 2
= Kuadrat selisih nilai Y riil dengan nilai Y rata-rata
Disebabkan untuk menghitung koefisien determinasi diperlukan nilai kuadrat selisih
nilai Y riil dengan nilai Y prediksi dan nilai kuadrat selisih nilai Y riil dengan nilai Y
rata-rata maka dalam lember kerja kita buat formulasi sebagai berikut:
Setelah sel F2 dikopikan sampai sel F11, mengetikkan formula yang sama dari sel G2
sampai dengan sel G11, dan mengopikan sel E12 sampai dengan sel G12 maka
tampilannya menjadi seperti berikut:
∑(𝒀 − 𝒀̂ )𝟐
𝑺𝒆 = √
𝒏−𝒌
𝑆𝑒 = Kesalahan baku estimasi
2
(𝑌 − 𝑌̂) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi
𝑛 = Ukuran sampel
𝑘 = Jumlah variabel yang diamati
Berdasarkan perhitungan dalam lembar kerja di atas maka dapat ditentukan besarnya
penyimpangan baku estimasi, yaitu sebagai berikut:
2
∑(𝑌 − 𝑌̂) 9,777
𝑆𝑒 = √ =√ = 1,182
𝑛−𝑘 10 − 3
Semakin rendah nilai kesalahan baku estimasi semakin baik untuk digunakan sebagai
alat proyeksi. Sebaliknya, semakin tinggi nilai kesalahan baku estimasi maka semakin
lemah kemampuan persamaan regresi tersebut untuk digunakan dalam membuat
proyeksi.
5. Kesalahan Baku Koefisien Regresi
Digunakan untuk mengukur besarnya penyimpangan dari masing-masing koefisien
regresi yang terbentuk. Semakin rendah kesalahan baku koefisien regresi maka semakin
berperan variabel tersebut dalam model. Sebaliknya, semakin tinggi kesalahan baku
koefisien regresi maka semakin tidak berperan variabel tersebut dalam persamaan
regresi. Kesalahan baku koefisien regresi dapat diukur dengan formula sebagai berikut:
𝑺𝒆 𝟐
𝑺𝒃 = √ (𝑲𝒊𝒊)
𝑫𝒆𝒕[𝑨]
Keterangan:
𝑆𝑏 = Kesalahan baku koefisien regresi
𝑆𝑒 = Kesalahan baku estimasi
𝐷𝑒𝑡[𝐴] = Determinasi matriks A
𝐾𝑖𝑖 = Kofaktor matriks A
K11 atau kofaktor 11 Matriks A dapat dicari dengan mencari determinan matriks A,
tetapi baris pertama dan kolom penama matriks A dihapus. Dengan begitu maka
kofaktor K11 dapat dihitung dengan cara sebagai berikut:
(1,182)2
𝑆𝑏1 = √ (161) = 0,271
3060
(1,182)2
𝑆𝑏2 =√ (200) = 0,302
3060
6. Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 digunakan untuk menguji ketepatan model (goodness of fit). Uji F ini
sering disebut sebagai uji simultan yang digunakan untuk menguji apakah variabel
bebas yang digunakan dalam model mampu menjelaskan perubahan nilai variabel
tergantung atau tidak. Untuk menyimpulkan apakah model masuk dalam kategori
good of fit atau tidak, kita harus membandingkan nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 , dengan nilai
𝐹𝑡𝑎𝑏𝑒𝑙 dengan derajat bebas: 𝑑𝑓: 𝛼, (𝑘 − 1), (𝑛 − 𝑘). Untuk menghitung besarnya
nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 digunakan formula sebagai berikut:
𝑹𝟐 /(𝒌 − 𝟏)
𝑭=
𝟏 − 𝑹𝟐 /(𝒏 − 𝒌)
Keterangan:
𝐹 = Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
𝑅 2 = Koefisien determinasi
𝑘 = Jumlah variabel
𝑛 = Jumlah pengamatan (ukuran sampel)
Dengan menggunakan lembar kerja di atas maka besarnya nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 dari
persamaan regresi yang terbentuk dapat dihitung sebagai berikut:
𝑅 2 /(𝑘 − 1) 0,875/(3 − 1)
𝐹= = = 24,567
1 − 𝑅 2 /(𝑛 − 𝑘) 1 − 0,875/(10 − 3)
Dengan 𝑑𝑓: 𝛼, (𝑘 − 1), (𝑛 − 𝑘) atau 0,05, (3 − 1), (10 − 3) diperoleh besarnya
nilai sebesar 4,737.
Karena nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 (24,567) > nilai 𝐹𝑡𝑎𝑏𝑒𝑙 , (4,737) maka dapat disimpulkan bahwa
model persamaan regresi yang terbentuk masuk kriteria good of fit.
Untuk melihat nilai 𝐹𝑡𝑎𝑏𝑒𝑙 dapat dilakukan dengan menggunakan bantuan tabel F
atau menggunakan program Microsoft Excel dengan langkah-langkah sebagai
berikut:
Klik menu Formulas Insert Function. Pada Or select a Category, pilih
Statistical. Pada Select a function, pilih F.INV.RT. Klik OK sehingga
tampilannya menjadi seperti berikut:
Analisis:
1. Multiple R = 0,936
Artinya bahwa korelasi antara variabel bebas dengan variabel tergantungnya
adalah sebesar 0,936. Dalam hal ini karena regresi linear berganda dengan dua
variabel bebas maka dapat dikatakan bahwa korelasi berganda antara harga dan
pendapatan terhadap penjualan adalah sebesar 0,936.
2. R Square = 0,875
R Square atau koefisien determinasi sebesar 0,875 berarti bahwa variasi
penjualan dapat dijelaskan oleh variasi harga dan pendapatan sebesar 87,5 persen
atau variabel harga dan pendapatan mampu mempengaruhi penjualan sebesar
87,5 persen. Koefisien determinasi sebesar 0,875 merupakan kuadrat dari
multiple R (0,936 x 0,936 = 0,875).
3. Adjusted R Square = 0,840
Merupakan koefisien determinasi yang telah dikoreksi dengan jumlah variabel
dan ukuran sampel sehingga dapat mengurangi unsur bias jika terjadi
penambahan variabel maupun penambahan ukuran sampel. Adjusted R Square
sebesar 0,840 berarti variasi penjualan dapat dijelaskan oleh variasi harga dan
pendapatan sebesar 84,0 persen atau variabel harga dan pendapatan
memengaruhi penjualan sebesar 84.0 persen. Koefisien Adjusted R Square
sebesar 84,0 diperoleh dari perhitungan sebagai berikut:
2 2
𝑃(1 − 𝑅 2 ) 2(1 − 0,875)
𝑅 𝑎𝑑𝑗 = 𝑅 − = 0,875 − = 0,840
𝑁−𝑃−1 10 − 2 − 1
4. Standard Error = 1,182
Artinya bahwa penyimpangan antara persamaan regresi dengan nilai dependen
adalah sebesar 1,182 satuan variabel dependen (jika penjualan dalam satuan juta
maka besarnya penyimpangan adalah sebesar 1,182 juta). Semakin kecil nilai
standard error, semakin baik persamaan regresi tersebut sebagai alat prediksi.
5. Observation =10
Nilai observation sebesar 10 berasal dari jumlah pengamatan atau ukuran sampel
yang digunakan. yaitu sebanyak 10
6. Df Regression (Degree of freedom Regression) = 2
Nilai Df regression sebesar 2 berasal dari nilai 𝑘 − 1, jumlah variabel dikurangi
1 (3 − 1 = 2).
7. Df Residual (Degree of freedom Residual) = 7
Nilai Df Residual sebesar 7 berasal dari nilai 𝑛 − 𝑘, jumlah pengamatan
dikurangi jumlah variabel (10 − 3 = 7) .
8. Df Total (Degree of freedom Total) = 9
Nilai Df Total sebesar 11 berasal dari nilai 𝑛 − 1, jumlah pengamatan dikurangi
1 (10 − 1 = 9) atau merupakan penjumlahan dari df regression dengan df
residual (2 + 7 = 9).
9. SS Regression (Sum Square Regression) = 68,624
Nilai SS Regression merupakan nilai yang menunjukkan jumlah kuadrat dari
selisih antara nilai prediksi dengan nilai rata-rata prediksi atau dapat diperoleh
2
dengan formula ∑(𝑌𝑝𝑟𝑒𝑑 − 𝑌̅𝑝𝑟𝑒𝑑 ) .
10. SS Residual (Sum Square Residual) = 9,776
Nilai SS Residual merupakan nilai yang menunjukkan jumlah kuadrat dari
selisih antara nilai riil dengan nilai prediksi atau dapat diperoleh dengan formula
2
∑(𝑌 − 𝑌𝑝𝑟𝑒𝑑 ) . Dalam lembar kerja di atas, lihat pada sel F12.
11. SS Total (Sum Square Total) = 78,400
Nilai SS Total merupakan nilai yang menunjukkan jumlah kuadrat dari selisih
antara nilai riil dengan nilai rata-rata Y riil. Dapat pula diperoleh dengan formula
∑(𝑌 − 𝑌̅)2 . Dalam lembar kerja di atas, lihat pada sel G12.
12. MS Regression (Mean Square Regression) =34,312
Nilai MS Regression diperoleh dari formula berikut:
𝑆𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 68,624
𝑀𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = = = 34,312
𝑑𝑓 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 2
13. MS Residual (Mean Square Residual) = 1,397
Nilai MS Residual diperoleh dari formula sebagai berikut:
𝑆𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 9,776
𝑀𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 = = = 1,397
𝑑𝑓 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 7
14. 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 24,567
Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 diperoleh dari formula sebagai berikut:
𝑀𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 34,312
𝐹= = = 24,567
𝑀𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 1,397
15. Significance F = 0,001
Merupakan nilai yang menunjukkan titik kesalahan yang terjadi jika nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
sebesar 24,567. Ternyata tingkat kesalahan atau probabilitas sebesar 0,001 yang
berarti lebih kecil dari 0,05. Dengan demikian dapat disimpulkan bahwa variabel
bebas secara simultan mampu menjelaskan perubahan pada variabel tergantung
atau model dinyatakan good of fit.
16. Coefficients Intercept = 2,553
Coefficients Intercept merupakan konstanta yang artinya jika harga dan
pendapatan sama dengan 0 maka penjualan akan sebesar 2,553. Nilai koefisien
intercept atau konstanta ini diperoleh dari:
𝐷𝑒𝑡[𝐴1] 7812
𝑎= = = 2,553
𝐷𝑒𝑡[𝐴] 3060
17. Coefficients X Variable 1 = -1,092
Coefficients X Variable 1 merupakan koefisien regresi variabel 𝑋1 yang berarti
jika harga naik sebesar satu satuan maka penjualan akan turun sebesar 1,092.
Nilai koefisien regresi variabel 𝑋1 ini diperoleh dari:
𝐷𝑒𝑡[𝐴2] −3342
𝑏1 = = = −1,092
𝐷𝑒𝑡[𝐴] 3060
18. Coefficients X Variable 2 = 1,961
Coefficients X Variable 2 merupakan koefisien regresi variabel 𝑋2 yang berarti
jika pendapatan meningkat sebesar satu satuan maka penjualan akan meningkat
sebesar 1,961 satuan. Nilai koefisien regresi ini diperoleh dari:
𝐷𝑒𝑡[𝐴3] 6000
𝑏2 = = = 1,961
𝐷𝑒𝑡[𝐴] 3060
19. Standard Error Intercept = 1,626
Standard error intercept merupakan penyimpangan dari konstanta yang ada
dalam model persamaan regresi. Standard err or intercept dicari dengan formula
sebagai berikut:
𝑆𝑒 2 1,1822
𝑆𝑎 = √ (𝐾11) = √ (5796) = 1,626
𝐷𝑒𝑡[𝐴] 3060
20. Standard Error X Variable 1 = 0,271
Standard error X variable 𝑋1 menunjukkan penyimpangan koefisien regresi
variabel 𝑋1. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka
semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya.
Standard error koefisien regresi variabel 𝑋1 dapat dicari dengan formula sebagai
berikut:
𝑆𝑒 2 (1,182)2
𝑆𝑏 = √ (𝐾22) = √ (161) = 0,271
𝐷𝑒𝑡[𝐴] 3060
21. Standard Error X Variable 2 = 0,302
Standard error X variable 𝑋2 menunjukkan penyimpangan koefisien regresi
variabel 𝑋2. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka
semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya.
Standard error koefisien regresi variabel 𝑋2 dapat dicari dengan formula sebagai
berikut:
𝑆𝑒 2 (1,182)2
𝑆𝑏 = √ (𝐾33) = √ (200) = 0,302
𝐷𝑒𝑡[𝐴] 3060
22. t-Stat Intercept
Digunakan untuk mengetahui apakah intercept tersebut signifikan atau tidak,
hanya saja nilai intercept itu biasanya tidak diuji. Yang diuji adalah nilai t-stat
koefisien regresinya. t-stat intercept dihitung dengan formula sebagai berikut:
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 2,553
𝑡 − 𝑆𝑡𝑎𝑡 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 = = = 1,570
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 1,626
23. t-Stat X Variable 1
Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan atau
tidak. Dalam uji satu ujung, dengan ujung sebelah kiri, jika nilat t-stat lebih kecil
dari nilai 𝑡𝑡𝑎𝑏𝑒𝑙 dengan 𝑑𝑓: 𝛼, (𝑛 − 𝑘) maka varibel tersebut memiliki pengaruh
yang signifikan terhadap varibel tergantung.
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋1 −1,092
𝑡 − 𝑆𝑡𝑎𝑡 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 1 = = = −4,029
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋1 0,271
24. t-Stat X Variable 2
Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan apa
tidak. Dalam uji satu ujung, ujung sebelah kanan, jika nilat t-stat lebih besar dari
nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 dengan 𝑑𝑓: 𝛼, (𝑛 − 𝑘) maka varibel tersebut memiliki pengaruh
yang signifikan terhadap varibel tergantung.
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋2 1,961
𝑡 − 𝑆𝑡𝑎𝑡 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 2 = = = 6,490
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋2 0,302
25. P-Value Intercept
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat intercept yang diperoleh (0,160). Jika nilai t-stat intercept semakin besar
maka nilai kesalahan p-value akan semakin kecil. Jika nilai p-value lebih kecil
dari 𝛼 (0,05) maka dikatakan signifikan. Dalam output di atas ternyata p-value
lebih besar dari 0,05 sehingga intercept tidak signifikan, tetapi dalam analisis
regresi hai ini tidak dianalisis karena yang lebih penting adalah signifikansi
variabel bebasnya.
26. P-Value X Variable 1
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat X Variable 1 yang diperoleh (-4,005). Karena nilai p-value X variable 1 lebih
kecil dari 0,05 maka variabel 𝑋1 (harga) memiliki pengaruh negatif yang berarti
terhadap Y (penjualan).
27. P-Value X Variable 2
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat X Variable 2 yang diperoleh (6,490). Karena nilai p-value X variable 2 lebih
kecil dari 0,05 maka variabel (pendapatan) memiliki pengaruh yang berarti
terhadap Y (penjualan).
Keterangan:
Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut
sampai dengan sel G11.
Untuk menghitung nilai skewness, tempatkan kursor pada sel yang kosong,
misalnya G13. Kemudian ketik formula =SKEW(G2:G11) sehingga muncul
koefisien skewness sebesar -0,047.
Untuk menghitung nilai kurtosis, tempatkan kursor pada sel yang kosong, misalnya
G14. Kemudian ketik formula =KURT(G2:G11) sehingga muncul koefisien
kurtosis sebesar -2,412.
Setelah koefisien skewness dan koefisien kurtosis diketahui maka langkah
selanjutnya adalah melakukan standardisasi dengan perhitungan sebagai berikut:
𝑆−0 −0,047
𝑍𝑠𝑘𝑒𝑤 (𝑃𝑒𝑛𝑑𝑎𝑝𝑎𝑡𝑎𝑛) = = = −0,061
√6/𝑁 √6/10
𝐾−0 −2,412
𝑍𝑘𝑢𝑟𝑡 (𝑃𝑒𝑛𝑑𝑎𝑝𝑎𝑡𝑎𝑛) = = = −1,557
√24/𝑁 √24/10
Kesimpulan:
Karena nilai standardisasi skewness (-0,061) dan nilai standardisasi kurtosis (-
1,557) lebih kecil dari 1,65 maka dengan tingkat toleransi 10 persen, variabel
tersebut terdistribusi secara normal.
Uji Lilliefors
Uji ini merupakan uji normalitas dengan menggunakan fungsi distribusi kumulatif.
Uji ini dilakukan dengan menggunakan langkah-langkah:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂ ).
Membuat standardisasi nilai residualnya.
Mengurutkan nilai residual terstandardisasi dari yang terkecil sampai yang
terbesar.
Mencari nilai 𝑍𝑟 relatif kumulatif.
Mencari nilai 𝑍𝑡 teoritis berdasarkan tabel Z.
Menghitung selisih nilai 𝑍𝑟 dengan 𝑍𝑡 pengamatan sebelumnya atau (𝑍𝑟 − 𝑍𝑡−1)
dan diberi simbol 𝐿𝑖 .
Mencari nilai 𝐿𝑖 mutlak terbesar dan beri nama 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 .
Bandingkan nilai 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 dengan tabel Lilliefors (𝐿𝑖𝑡𝑎𝑏𝑒𝑙 ).
Menarik kesimpulan kenormalan data dengan kriteria jika 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 < 𝐿𝑖𝑡𝑎𝑏𝑒𝑙 maka
residual terstandardisasi berdistribusi normal.
Contoh Pengujian Normalitas dengan Uji Lilliefors
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼=10
persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi
dengan uji Lilliefors?
Jawab:
Karena dalam pengujian ini diperlukan banyak kolom maka ditampilkan hasil dari
lembar kerianya saja, sedangkan keterangan dan petunjuk analisis dengan program
Microsoft Excel disajikan di bawahnya.
Gambar 18. Lembar Kerja Uji Normalitas-Lilliefors
Keterangan:
Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut
sampai dengan sel G11.
Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai
yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai
Zresid dapat dilakukan dengan langkah sebagai berikut:
- Blok dan kopi sel G2:G11.
- Letakkan kursor pada sel H2.
- Klik kanan, pilih Paste Special, pilih Value (V).
- Blok dan kopi sel H2:H11.
- Klik menu DataSort, pilih Continue with the current
selectionSortOK.
Gambar 19. Sort Warning
Keterangan:
Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai
dengan sel G11.
Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai
yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai
Zresid dapat dilakukan dengan langkah sebagai berikut:
- Blok dan kopi sel G2:G11.
- Letakkan kursor pada sel H2.
- Klik kanan, pilih Paste Special, pilih Value (V).
- Blok dan kopi sel H2:H11.
- Klik menu DataSort, pilih Continue with the current
selectionSortOK.
Setelah semua sel pada lembar kerja diisi lengkap dengan mengikuti formula pada
lembar kerja di atas maka akan diperoleh hasil sebagai berikut:
Kesimpulan:
Karena koefisien korelasi antara 𝑋1 dengan 𝑋2 (𝑟𝑋1 . 𝑋2 = 0,223) < 0,7 maka tidak
terjadi masalah kolinearitas. d.
d. Konsekuensi
Beberapa akibat yang timbul jika hasil estimasi model empiris mengalami masalah
multikolinearitas adalah sebagai berikut:
Penaksir kuadrat terkecil tidak bisa ditentukan (indeterminate) meskipun hasil
estimasi yang dihasilkan masih BLUE (Best Linear Unbiased Estimator).
Interval kepercayaan (confidence interval) cenderung meningkat lebih besar
sehingga mendorong untuk menerima hipotesis nol (antara lain koefisien populasi
adalah nol).
Nilai t-statistik koefisien dari satu atau beberapa variabel penjelas secara statistik
tidak signifikan sehingga dapat menyebabkan dikeluarkannya suatu variabel
penjelas dalam suatu model regresi, padahal variabel penjelas tersebut memiliki
peran yang sangat penting dalam menjelaskan variabel tergantung.
Penaksir-penaksir OLS dan kesalahan bakunya cenderung tidak stabil dan sangat
sensitif bila terjadi perubahan data, meskipun perubahan itu sangat kecil.
Jika multikolinearitas tinggi maka mungkin 𝑅 2 bisa tinggi, tetapi tidak satu pun
(sangat sedikit) taksiran koefisien regresi yang signifikan secara statistik.
e. Cara Mengatasi
Beberapa cara untuk mengatasi masalah multikolinear adalah:
Memperbesar ukuran sampel.
Masalah multikolinear diharapkan bisa hilang atau berkurang jika ukuran sampel
diperbesar (atau jumlah sampel ditambah). Dengan memperbesar ukuran sampel
maka kovarian di antara parameter-parameter dapat dikurangi. Hal ini karena
kovarian berhubungan terbalik dengan ukuran sampel.
Menghilangkan salah satu atau lehih variabel bebas.
Untuk menghilangkan beberapa variabel bebas dari model dilakukan satu per satu.
Pilih variabel bebas yang memiliki koefisien korelasi paling kecil dengan variabel
tergantungnya.
Menggabungkan data time series dan data cross-section.
Metode penggabungan data time series dengan data cross-section sering dikenal
sebagai metode pool data. Dengan menggunakan metode ini maka jumlah
pengamatan akan bertambah.
Melakukan transformasi data.
Transformasi data merupakan salah satu altematif yang dapat digunakan untuk
mengatasi masalah multikolinearitas. Transformasi ini dapat dilakukan dengan
pembedaan pertama (first difference form). Model regresi dalam bentuk pembedaan
pertama seringkali mengurangi keseriusan multikolinear (Gujarati. 1995).
Dengan menggunakan metode regresi komponen utama (principle-components
regression).
Dengan menggunakan metode regresi komponen utama (principle-components
regression) maka variabel bebas yang memiliki korelasi yang kuat dapat diringkas
menjadi sebuah variabel baru yang mampu mencerminkan variabel pembentuknya.
3. Heteroskedostisitas
a. Pengertian
Dengan adanya heteroskedastisitas berarti ada varian variabel dalam model yang tidak
sama (konstan). Sebaliknya jika varian variabel dalam model memiliki nilai yang sama
(konstan) disebut sebagai homoskedastisitas. Masalah heteroskedastisitas sering terjadi
pada penelitian yang menggunakan data cross-section.
b. Penyebab
Berikut ini diberikan beberapa penyebab terjadinya perubahan nilai varian yang
kemudian berpengaruh terhadap homoskedastisitas residualnya.
Adanya pengaruh dari kurva pengalaman (learning curve).
Dengan semakin meningkatnya pengalaman maka akan semakin menurun tingkat
kesalahannya. Akibatnya, nilai varian makin lama semakin menurun.
Adanya peningkatan perekonomian
Dengan semakin meningkatnya perekonomian maka semakin beragam tingkat
pendapatan. Alternatif pengeluaran juga semakin besar sehingga akan meningkatkan
varian.
Adanya peningkatan teknik pengambilan data
Jika teknik pengumpulan data semakin membaik, nilai varian cenderung mengecil.
Misalnya bank yang menggunakan peralatan Electronic Data Processing (EDP)
akan membuat kesalahan yang relatif kecil dalam laporannya dibanding bank yang
tidak mempunyai peralatan tersebut.
c. Cara Mendeteksi
Untuk menguji adanya masalah heteroskedastisitas dapat dilakukan dengan
menggunakan beberapa metode, yaitu:
Metode Analisis Grafik
Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu
horisontal menggambarkan nilai prediksi sedangkan sumbu vertikal
menggambarkan nilai residual kuadrat. Jika scater plot membentuk pola tertentu
maka hal itu menunjukkan adanya masalah heteroskedastisitas, sedangkan jika
scater plot menyebar secara acak maka hal itu menunjukkan tidak adanya masalah
heteroskedastisitas. Sedangkan untuk mendeteksi lebih lanjut mengenai variabel
bebas mana yang menjadi penyebab terjadinya masalah heteroskedastisitas maka
kita dapat mengamati scater plot di mana variabel bebas sebagai sumbu horisontal
dan nilai residual kuadratnya sebagai sumbu vertikal. Namun, demikian metode ini
dapat bersifat subyektif di mana dengan scater plot yang sama, antara orang yang
satu dengan yang lain dapat memberikan kesimpulan yang berbeda mengenai pola
scater plot yang sama.
Metode Glejser
Uji Glejser dilakukan dengan meregresikan semua variabel bebas terhadap nilai
mutlak residualnya. Jika terdapat pengaruh variabel bebas yang signifikan terhadap
nilai mutlak residualnya maka dalam model terdapat masalah heteroskedastisitas.
Uji Glejser ini dilakukan dengan langkah-langkah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂).
Memutlakkan nilai residualnya.
Meregresikan variabel bebas terhadap nilai mutlak residualnya.
Menarik kesimpulan uji heteroskedatisitas dengan keriteria jika variabel bebas
signifikan terhadap nilai mutlak residualnya maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
Contoh Pengujian Heteroskedastisitas dengan Uji Glejser
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode Glejser, apakah dalam persamaan regresi tersebut terdapat masalah
heteroskedastisitas?
Jawab:
Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Glejser, buatlah
lembar kerja seperti berikut ini:
Langkah berikutnya adalah meregresikan variabel bebas, yaitu 𝑋1 dan 𝑋2, terhadap
nilai mutlak residualnya dengan langkah-langkah sebagai berikut:
Buat data seperti berikut ini:
Kesimpulan:
Karena nilai p-value 𝑋1> 0,05 maka tidak terjadi masalah heteroskedastisitas pada
𝑋1.
Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2.
Metode Park
Uji Park dilakukan dengan meregresikan semua variabel bebas terhadap nilai Ln
residual kuadrat (Ln 𝑒 2 ). Jika terdapat pengaruh variabel bebas yang signifikan
terhadap nilai Ln residual kuadrat (Ln 𝑒 2 ) maka dalam model terdapat masalah
heteroskedastisitas. Uji Park ini dilakukan dengan langkah-langkah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂).
Menguadratkan nilai residualnya.
Mentransformasikan nilai residual kuadrat ke dalam bentuk Ln.
Meregresikan variabel bebas terhadap nilai Ln residual kuadrat.
Menarik kesimpulan uji heteroskedatisitas dengan kriteria jika variabel bebas
signifikan terhadap nilai Ln residual kuadrat maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
Contoh Pengujian Heteroskedastisitas dengan Uji Park
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode Park, apakah dalam persamaan regresi tersebut terdapat masalah
heteroskedastisitas?
Jawab:
Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Park, buatlah
lembar kerja seperti berikut ini:
Gambar 34. Lembar Kerja Uji Heteroskedastisitas-Uji Park
Kesimpulan:
Karena nilai p-value 𝑋1 > 0,05 maka tidak terjadi masalah heteroskedastisitas pada
𝑋1.
Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2.
Metode White
Uji White dilakukan dengan meregresikan semua variabel bebas, variabel bebas
kuadrat, dan perkalian (interaksi) variabel bebas terhadap nilai residual kuadratnya.
Jika terdapat pengaruh variabel bebas yang signifikan terhadap nilai residual
kuadratnya maka dalam model terdapat masalah heteroskedastisitas. Uji White ini
dilakukan dengan langkah-langkah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂ ).
Menguadratkan nilai residualnya.
Menghitung nilai kuadrat variabel bebas dan nilai perkalian (interaksi)
antarvariabel bebas.
Meregresikan variabel bebas, kuadrat variabel bebas, perkalian antarvariabel bebas
terhadap nilai mutlak residualnya.
Menarik kesimpulan uji heteroskedastisitas dengan kriteria jika variabel bebas
signifikan terhadap nilai mutlak residualnya maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
Metode Rank Spearman
Uji Rank Spearman dilakukan dengan mengorelasikan semua variabel bebas terhadap
nilai mutlak residualnya dengan menggunakan korelasi Rank Spearman. Jika terdapat
korelasi variabel bebas yang signifikan terhadap nilai multak residualnya maka dalam
model terdapat masalah heteroskedastisitas. Uji Rank Spearman ini dilakukan dengan
langkah-langkah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂ ).
Memutlakkan nilai residualnya.
Mengorelasikan variabel bebas terhadap nilai mutlak residualnya dengan analisis
korelasi Rank Spearman.
Menarik kesimpulan uji heteroskedastisitas dengan kriteria di mana jika variabel
bebas berkorelasi signifikan terhadap nilai mutlak residualnya maka terjadi
masalah heteroskedastisitas, dan sebaliknya. Untuk melakukan analisis korelasi
Rank Spearman antara variabel bebas dengan nilai mutlak residualnya, dapat
dicoba sendiri dengan menggunakan langkah-langkah analisis korelasi seperti yang
telah diuraikan secara rinci pada bab analisis korelasi.
d. Konsekuensi
Menurut Gujarati (1995) dalam Aliman (1999) ada beberapa konsekuensi sebagai akibat
dari adanya masalah heteroskedastisitas dalam model persamaan regresi adalah:
Walaupun penaksir OLS masih linear dan masih tidak bias, tetapi akan mempunyai
varian yang tidak minimum lagi serta tidak efisien dalam sampel. Lebih lanjut
penaksir OLS juga tidak efisien dalam sampel besar.
Formulasi untuk menaksir varian dari estimasi OLS secara umum adalah bias, di
mana bila menaksir secara apriori, seorang peneliti tidak dapat mengatakan bahwa
bias tersebut akan positif (upward bias) atau negatif (downward bias). Akibatnya,
confidence interval dan uji hipotesis yang didasarkan pada uji t dan nilai distribusi F
tidak dapat dipercaya.
Prediksi (variabel bebas terhadap nilai variabel tergantung) yang didasarkan pada
koefisien parameter variabel bebas dari data awal (data asli) akan mempunyai varian
yang tinggi sehingga prediksi tidak akan efisien. Lebih lanjut, karena prediksi dari
varian meliputi varian dari faktor pengganggu, 𝑢𝑖 , dan dari taksiran parameter
(variabel bebas), tidak akan minimal bila ditemukan adanya masalah
heteroskedastisitas dalam model empiris yang sedang diestimasi.
e. Cara Mengatasi
Menurut Imam Ghozali (2005), perbaikan model jika terjadi masalah heteroskedastisitas
dapat dilakukan dengan beberapa cara, yaitu:
Melakukan transformasi dalam bentuk model regresi dan membagi model regresi
dengan salah satu variabel independen yang digunakan dalam model tersebut.
Misalkan model awal 𝑌𝑖 = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑢𝑡
Maka setelah dilakukan transformasi dengan membagi model tersebut dengan salah
satu variabel bebas, misalnya 𝑋1 , maka modelnya menjadi:
𝑌 𝑏0 𝑏2 𝑋2 𝑢𝑡
= + 𝑏1 + +
𝑋1 𝑋1 𝑋1 𝑋1
Dalam bentuk ini maka 𝑏1 akan menjadi intercept dan 𝑏0 akan menjadi koefisien.
Jika ingin mengembalikan ke model asal, hendaknya model transformasi yang telah
diestimasi dikalikan kembali dengan 𝑋1.
Melakukan transformasi logaritma sehingga model persamaan regresinya menjadi:
𝐿𝑜𝑔 𝑌 = 𝑏0 + 𝑏1 𝐿𝑜𝑔𝑋1 + 𝑏2 𝐿𝑜𝑔𝑋2 + 𝑢𝑡
Melakukan transformasi Ln sehingga model persamaan regresinya menjadi:
𝐿𝑛 𝑌 = 𝑏0 + 𝑏1 𝐿𝑛𝑋1 + 𝑏2 𝐿𝑛𝑋2 + 𝑢𝑡
4. Linearitas
a. Pengertian
Pengujian linearitas ini perlu dilakukan untuk mengetahui model yang dibuktikan
merupakan model linear atau tidak. Dengan uji linearitas ini akan diperoleh informasi
apakah model empiris sebaiknya linear, kuadrat, atau kubik.
b. Cara mcndeteksi
Ada beberapa cara untuk menguji apakah model sebaiknya menggunakan persamaan
linear atau tidak, yaitu:
Metode Analisis Grafik
Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu
horisontal menggambarkan nilai prediksi terstandardisasi sedangkan sumbu vertikal
menggambarkan nilai residual terstandardisasi. Asumsi linearitas terpenuhi jika plot
antara nilai residual terstandardisasi dengan nilai prediksi terstandardisasi tidak
membentuk suatu pola tertentu (acak). Namun, metode ini dapat bersifat subjektif,
di mana dengan scater plot yang sama antara orang satu dengan orang yang lain
dapat memberikan kesimpulan yang berbeda mengenai pola scater plot tersebut.
Metode Uji MWD (Mac Kinnon, White, dan Davidson)
Uji MWD merupakan salah satu metode yang digunakan untuk mengukur linearitas
yang dikembangkan oleh tiga orang, yaitu Mac Kinnon, White, dan Davidson.
Langkah-langkahnya adalah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya dan diberi nama (𝑌̂1 ).
Mentransformasikan variabel bebas dan variabel tergantung ke dalam bentuk Ln.
Membuat persamaan regresi untuk semua variabel yang telah ditransformasikan
dalam bentuk Ln.
Mencari nilai prediksi dari persamaan regresi untuk semua variabel yang telah
ditransformasikan dalam bentuk Ln dan diberi nama (𝑌̂2 ) .
Mentransformasikan nilai prediksinya (𝑌̂1 ) ke dalam bentuk Ln dan diberi nama
(𝐿𝑛𝑌̂1).
Mengurangi nilai (𝐿𝑛𝑌̂1) dengan nilai (𝑌̂2 ) dan diberi nama 𝑍1 .
Meregresikan variabel bebas dan 𝑌̂2 terhadap variabel tergantung. Model
dikatakan linear jika koefisien 𝑌̂2 tidak signifikan.
Mentransformasikan nilai prediksinya (𝑌̂2 ) ke dalam bentuk AntiLn dan diberi
nama (𝐴𝑛𝑡𝐿𝑛𝑌̂2).
Mengurang nilai (𝐴𝑛𝑡𝐿𝑛𝑌̂2) dengan nilai (𝑌̂1) dan diberi nama 𝑍2 .
Meregresikan variabel bebas dan 𝑍1 terhadap variabel tergantung. Model
dikatakan linear jika koefisien 𝑍2 signifikan.
Menarik kesimpulan uji linearitas dengan kriteria sebagai berikut:
o Jika 𝑍1 linear dan 𝑍2 linear maka model harus linear.
o Jika 𝑍1 tidak linear dan 𝑍2 itidak linear maka model harus nonlinear.
o Jika 𝑍1 tidak linear dan 𝑍2 linear maka model boleh nonlinear dan boleh linear.
o Jika 𝑍1 linear dan 𝑍2 tidak linear maka model boleh linear dan boleh nonlinear.
Contoh Uji Linearitas dengan MWD
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode MWD, apakah dalam regresi tersebut sebaiknya menggunakan model linear
atau nonlinear?
Jawab:
Untuk melakukan uji linearitas dengan menggunakan uji MWD, buatlah lembar
kerja seperti berikut (keterangan pengerjaan di bawah tabel):
Keterangan:
o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑1 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑1 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Untuk melakukan transformasi 𝑋1, 𝑋2 dan Y ke dalam bentuk Ln, lakukan
langkah sebagai berikut:
- Pada sel F2, ketikkan formula =Ln(B2). Kopikan formula tersebut sampai
dengan sel F11.
- Pada sel G2, ketikkan formula =Ln(C2). Kopikan formula tersebut sampai
dengan sel G11.
- Pada sel H2, ketikkan formula =Ln(D2). Kopikan formula tersebut sampai
dengan sel H11.
o Regresikan Ln𝑋1 , Ln𝑋2, terhadap LnY sehingga diperoleh persamaan regresi
yang kedua sebagai berikut:
𝑌 = 0,552 − 0,552𝑋1 + 1,387𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑2 pada sel I2 ketik formula =0,552-
(0,552*F2)+(1,387*G2). Kopikan formula tersebut sampai dengan sel I11.
𝑌𝑝𝑟𝑒𝑑2 = 0,552 − (0,552 ∗ 0,693) + (1,387 ∗ 1.099) = 1,693
o Untuk mentransformasikan 𝑌𝑝𝑟𝑒𝑑1 dalam bentuk Ln pada sel J2, ketik formula
=Ln(E2). Kopikan formula tersebut sampai dengan sel J11.
o Untuk menghitung nilai 𝑍1 pada sel K2 ketik formula =J2-I2. Kopikan formula
tersebut sampai dengan sel K11.
o Untuk mentransformasikan 𝑌𝑝𝑟𝑒𝑑2 ke bentuk AntiLn pada sel L2, ketik formula
=EXP(I2). Kopikan formula tersebut sampai dengan sel L11.
o Untuk menghitung nilai 𝑍1 pada sel M2 ketikkan formula =E2-L2. Kopikan
formula tersebut sampai dengan sel M11.
o Kopikan sel E12 sampai dengan sel M12.
Untuk memudahkan dalam meregresikan 𝑋1, 𝑋2 dan 𝑍1 terhadap Y dan
meregresikan 𝑋1 , 𝑋2 dan 𝑍2 terhadap Y maka buatlah lembar kerja sebagai berikut:
Gambar 40. Lembar Kerja Uji MWD dengan 𝒁𝟏 dan 𝒁𝟐 Siap untuk Diregresikan
Karena nilai p-value 𝑍1 (0,170) > 0,05 maka model dinyatakan linear.
Setelah meregresikan 𝑋1, 𝑋2 dan 𝑍2 terhadap Y dengan cara:
- Pilih menu Data Data Analysis.
- Pada Analysis Tools pilih Regression, OK.
- Pada Input Y Range, blok sel F2:F11.
- Pada Input X Range, blok sel G2:I11.
maka diperoleh output sebagai berikut:
Gambar 42. Summary Output Regression Uji MWD-𝒁𝟐
Karena nilai p-value 𝑍2 (0,282) > 0,05 maka model dinyatakan linear.
Kesimpulan:
Karena 𝑍1 merupakan model linear dan 𝑍2 nonlinear maka model dapat
menggunakan persamaan linear maupun nonlinear.
Metodc Uji Lagrange Multiplier (LM-Test)
Uji LM-Test rnerupakan salah satu metode yang digunakan untuk mengukur
linearitas yang dikembangkan oleh Engle (1982). Prinsip metode ini adalah
membandingkan antara nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 (𝑛 𝑋 𝑅 2 ) dengan nilai 𝑋 2 𝑡𝑎𝑏𝑒𝑙 dengan 𝑑𝑓 =
(𝑛, 𝛼). Langkah-langkahnya adalah sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya dan diberi nama (𝑌̂1 ).
Mencari nilai residual (𝑌 − 𝑌̂).
Menguadratkan semua nilai variabel bebas.
Meregresikan kuadrat variabel bebas terhadap nilai residualnya:
𝑈 = 𝑏0 + 𝑏1 𝑋1 2 + 𝑏2 𝑋2 2 + 𝑒
Berdasarkan persamaan regresi nilai kuadrat variabel bebas terhadap nilai residu,
can nilai koefisien determinasinya 𝑅 2 .
Hitung nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan persamaan (𝑛 𝑋 𝑅 2 ) di mana 𝑛 adalah jumlah
pengamatan.
Menarik kesimpulan uji linearitas, dengan kriteria jika 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 < 𝑋 2 𝑡𝑎𝑏𝑒𝑙
dengan 𝑑𝑓 = (𝑛, 𝛼) maka model dinyatakan linear. Demikian juga sebaliknya.
Contoh Uji Linearitas dengan LM-Test
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode LM-Test, apakah regresi tersebut sebaiknya menggunakan model linear atau
nonlinear?
Jawab:
Untuk melakukan uji lienaritas dengan menggunakan LM-Test, buatlah lembar kerja
seperti berikut ini:
Gambar 43. Lembar Kerja Uji LM-Test
Setelah semua sel dalam lembar kerja dilengkapi dengan mengopikan sel F2 sampai
dengan sel F11, sel G2 sampai dengan G11, sel H2 sampai dengan sel H11 dan sel
E12 sampai dengan sel H12 maka hasilnya adalah sebagai berikut:
c. Konsekuensi
Apabila kita salah dalam menentukan apakah model sebaiknya linear atau nonlinear
maka nilai prediksi yang dihasilkan akan menyimpang jauh sehingga nilai prediksinya
akan menjadi bias.
d. Cara mengatasi
Jika berdasarkan uji linearitas diharuskan untuk menggunakan model nonlinear maka
model ditransformasikan ke bentuk nonlinear, sedangkan jika berdasarkan uji linearitas
diharuskan menggunakan model linear maka model tetap menggunakan model linear.
5. Autokorelasi
a. Pengertian
Uji autokorelasi bertujuan untuk mengetahui apakah ada korelasi antara anggota
serangkaian data observasi yang diuraikan menurut waktu (time series) atau ruang (cross
section).
b. Penyebab
Beberapa penyebab munculnya masaiah autokorelasi dalam analisis regresi adalah:
Adanya kelembaman (inertia).
Salah satu ciri yang menonjol dari sebagian data runtut waktu (time series) dalam
fenomena ekonomi adalah kelembaman, seperti data pendapatan nasional, indeks
harga konsumen, data produksi, data kesempatan kerja, data pengangguran;
menunjukkan adanya pola konjungtur. Dalam situasi seperti ini data observasi pada
periode sebelumnya dan periode sekarang, kemungkinan besar akan ada saling
ketergantungan (interdependence).
Bias spesifikasi model kasus variabel yang tidak dimasukkan.
Hal ini disebabkan karena tidak dimasukkannya variabel yang menurut teori
ekonomi sangat penting perannya dalam menjelaskan variabel tak bebas. Bila hal ini
terjadi maka unsur pengganggu (error term) 𝑢𝑖 akan merefleksikan suatu pola yang
sistematis di antara sesama unsur pengganggu sehingga terjadilah situasi
autokorelasi di antara unsur pengganggu.
Adanya fenomena laba-laba (cobweb phenomenon).
Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditas
sektor pertanian. Di sektor pertanian, reaksi penawaran terhadap perubahan harga
terjadi setelah melalui tenggang waktu (getation period). Misalnya panen komoditas
permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya.
Akibatnya, jika pada akhir tahun 𝑡, harga komoditas pertanian ternyata lebih rendah
daripada harga sebelumnya maka pada tahun berikutnya (𝑡 + 1) akan cenderung
memproduksi lebih sedikit daripada yang diproduksi pada tahun 𝑡. Akibatnya 𝑢𝑖
tidak lagi bersifat acak (random), tetapi akan mengikuti pola, yaitu sarang laba-laba.
Manipulasi data (manipulation of data)
Dalam analisis empiris, terutama pada data time-series, seringkali terjadi manipulasi
data. Hal ini terjadi karena data yang diinginkan tidak tersedia. Contohnya adalah
data GNP. Data GNP biasanya tersedia dalam bentuk tahunan, sehingga apabila
seorang peneliti ingin mendapatkan data GNP kuartalan maka peneliti tersebut harus
melakukan interpolasi data. Adanya interpolasi atau manipulasi data ini jelas akan
menimbulkan fluktuasi yang tersembunyi yang mengakibatkan munculnya pola
sistematis dalam unsur pengganggu dan akhirnya akan menimbulkan masalah
autokorelasi.
Adanya kelambanan waktu (time lags)
Dalam regresi dengan menggunakan data time series, pengeluaran konsumsi atas
tingkat pendapatan merupakan hal yang lazim untuk mendapatkan bahwa pola
pengeluaran konsumsi untuk periode sekarang antara lain ditentukan oleh
pengeluaran konsumsi pada periode sebelumnya, di mana model seperti ini dalam
ekonometrika dikenal dengan istilah regresi model autoregresif.
𝑲𝒐𝒏𝒔𝒖𝒎𝒔𝒊(𝒕) = 𝒇[𝒑𝒆𝒏𝒅𝒂𝒑𝒂𝒕𝒂𝒏(𝒕) , 𝑲𝒐𝒏𝒔𝒖𝒎𝒔𝒊(𝒕−𝟏) ]
Dasar pemikiran di atas adalah konsumen tidak bisa mengubah pola konsumsinya
seketika, walaupun tingkat pendapatannya meningkat. Hal ini terjadi karena adanya
pengaruh psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari model
di atas maka 𝑢𝑖 yang dihasilkan akan mencerminkan pola sistematis sebagai akibat
pengaruh konsumsi pada periode sebelumnya atas konsumsi sekarang.
c. Cara Mendeteksi
Menurut Gujarati (1995) ada beberapa cara untuk mendeteksi ada atau tidaknya masalah
autokorelasi, yaitu dengan menggunakan metode analisis grafik, metode Durbin-
Watson, metode Van Newmann, dan metode Runtest, sebagai salah satu uji statistik
nonparametrik.
Uji Durbin Watson
Durbin-Watson (Uji D-W) merupakan uji yang sangat populer untuk menguji ada
tidaknya masalah autokorelasi dari model empiris yang diestimasi. Uji ini pertama
kali diperkenalkan oleh J. Durbin dan G.S Watson tahun 1951. Dalam menerapkan
uji ini terdapat beberapa asumsi penting yang harus dipenuhi, yaitu:
Model regresi yang dilakukan harus menggunakan konstanta.
Variabel bebas adalah nonstokastik atau relatif tetap untuk sampel yang berulang.
Kesalahan pengganggu atau residual diperoleh dengan autoregresif order
pertama.
𝜺𝒕 = 𝜺𝒕−𝟏 + 𝝁𝒕
Model regresi tidak meliputi nilai kelembaman (lag) dari variabel tak bebas
sebagai variabel penjelas.
Dalam melakukan regresi tidak boleh ada data atau observasi yang hilang. Rumus
yang digunakan untuk uji Durbin-Watson adalah:
∑(𝒆 − 𝒆𝒕−𝟏 )𝟐
𝑫𝑾 =
∑ 𝒆𝒕 𝟐
Keterangan:
DW = Nilai Durbin-Watson Test
𝑒 = Nilai residual
𝑒𝑡−1 = Nilai residual satu periode sebelumnya
Dengan kriteria pengujian sebagai berikut:
Kesimpulan:
Karena nilai DW sebesar 3,386 > 4 − 𝑑𝐿 (3,303) maka model persamaan regresi
tersebut mengandung masalah autokorelasi negatif.
Uji Lagrange Multiplier (LM Test)
Uji Langrange Mutiple (LM Test) dapat digunakan untuk menguji adanya masalah
autokorelasi tidak hanya pada derajat pertama (first order), tetapi juga digunakan
pada berbagai tingkat derajat autokorelasi. Oleh karena itu, banyak penulis yang
menyatakan bahwa uji LM Test lebih bermanfaat dibanding uji DW. Hal ini terjadi
bila ukuran sampel yang digunakan lebih dari 100 observasi dan derajat
autokorelasinya lebih dari satu. Adapun langkah-langkah uji Lagrange Multiplier
(uji LM) adalah:
Membuat persamaan regresinya.
Mencari nilai prediksi dan memberinya nama (𝑌̂1).
Hitung nilai residual dengan notasi 𝜇𝑖 .
Lakukan regresi dengan 𝜇𝑖 sebagai variabel tergantung dan masukkan sebagai
variabel bebas, atau:
𝝁𝒊 = 𝒂 + 𝒃𝟏 𝑿𝟏 + 𝒃𝟐 𝑿𝟐 + 𝝁𝒊−𝟏 + 𝒆
Menghitung nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan rumus 𝑿𝟐 = (𝒏 − 𝟏) ∗ 𝑹𝟐 .
Menarik kesimpulan dengan membandingkan 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan 𝑋 2 𝑡𝑎𝑏𝑒𝑙 dengan
𝑑𝑓 = (𝛼, 𝑛 − 1). Jika nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑋 2 𝑡𝑎𝑏𝑒𝑙 , itu menunjukkan adanya
masalah autokorelasi. Sebaliknya, jika 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝑋 2 𝑡𝑎𝑏𝑒𝑙 , itu menunjukkan
tidak terjadinya masalah autokorelasi.
Contoh Uji Autokorelasi dengan Labgrange Multiplier (LM-Test)
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
uji Lagrange Multiplier (LM Test), apakah dalam persamaan regresi tersebut
terdapat masalah autokorelasi?
Jawab:
Untuk melakukan uji autokorelasi dengan menggunakan uji Lagrange Multiplier,
buatlah lembar kerja berikut ini:
Gambar 50. Lembar Kerja Uji Autokorelasi-LM Test
Pada tampilan kotak dialog Regression di atas terlihat bahwa hanya 9 observasi
saja yang dianalisis. Variabel 𝑋1, 𝑋2 observasi pertama pada lembar kerja di atas
tidak diikutkan dalam analisis karena variabel 𝑒𝑡−1 belum mempunyai nilai. Hasil
regresi tersebut dapat dilihat pada gambar berikut:
Berdasarkan output di atas diperoleh nilai 𝑅 2 sebesar 0,977 dan jumlah pengamatan
sebanyak 9 maka 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 sebesar (9 ∗ 0,977) = 8,793. Sedangkan nilai 𝑋 2 𝑡𝑎𝑏𝑒𝑙
dengan 𝑑𝑓(9; 0,05) dapat dicari dengan langkah-langkah sebagai berikut:
Klik menu Formulas pilih Insert Function. Pada Or select a Category pilih
Statistical. Pada Select a function, pilih CHISQ.INV.RT. Klik OK sehingga
tampilannya menjadi seperti berikut:
Gambar 53. Function Arguments
Pada Probability, isi dengan 0,05. Pada Deg_freedom, isi 10. Klik OK shingga
muncul nilai sebesar 16,919.
Kesimpulan:
Karena nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 (8,793) < 𝑋 2 𝑡𝑎𝑏𝑒𝑙 (16,919) maka model persamaan
regresi tidak mengandung masalah autokorelasi.
Hasil uji autokorelasi antara uji Durbin-Watson dengan uji Lagrange Multiplier
memberikan kesimpulan yang berbeda. Hal ini disebabkan uji Lagrange Multiplier
lebih cocok untuk observasi dalam jumlah besar di atas 100, sedangkan dalam kasus
ini penulis paksakan untuk memecahkan kasus yang sama, yaitu dengan
menggunakan 10 pengamatan saja.
Uji Run Test
Run Test merupakan salah satu analisis nonparametrik yang dapat digunakan untuk
menguji apakah antarresidual terdapat korelasi yang tinggi. Jika antarresidual tidak
terdapat hubungan korelasi maka dikatakan nilai residual adalah acak atau random.
Run test digunakan untuk melihat apakah data residual terjadi secara random atau
tidak. Langkah-langkah untuk melakukan uji autokorelasi dengan Run-Test adalah
sebagai berikut:
Membuat persamaan regresinya.
Mencari nilai prediksinya (𝑌̂).
Mencari nilai residualnya (𝑌 − 𝑌̂).
Mencari nilai residual terstandardisasi.
Menghitung nilai median dari data residual terstandardisasinya.
Berilah tanda — (negatif) jika nilai residual terstandardisasi lebih kecil dari
mediannya dan berilah tanda + (positif) jika nilai residual terstandardisasi lebih
kecil dari mediannya.
Menghitung jumlah Run. Jumlah Run merupakan suatu sequence dari tanda-tanda
yang sama jenisnya yang dibatasi oleh tanda-tanda dari jenis lainnya (Ingat dalam
hal ini hanya ada dua tanda, yaitu — dan +). Misalnya untuk tanda sequence (- +
+) dianggap 2 Runs, (- + -) dianggap 3 Runs, (- + + - + + ) dianggap 4 Runs, dan
seterusnya.
Contoh Uji Autokorelasi dengan Run
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
Uji Run, apakah dalam persamaan regresi tersebut terdapat masalah autokorelasi?
Jawab:
Untuk melakukan uji autokorelasi dengan menggunakan uji Run, buatlah lembar
kerja seperti berikut ini (petunjuk pengerjaan ada di bawah gambar):
Pada Logical_test, isi dengan G2>$G$13. Pada Value_if_true, isi "+". Pada
Value_if_false, isi "-". Klik OK sehingga muncul tanda "-". Kopikan formula
tersebut sampai dengan sel H11.
Untuk menghitung Run yang memiliki tanda positif (+), pada sel H15 ketik
formula =COUNTIF(H2:H11;"+"). Sedangkan untuk menghitung Run yang
memiliki tanda negatif (-), pada sel H16 ketik formula =COUNTIF(H2:H11;"-").
Kesimpulan:
Dari lembar kerja di atas diketahui bahwa jumlah Run=10. Jumlah tanda negatif - (n1)
=5, jumlah tanda + (n2)=5. Berdasarkan tabel nilai 𝑟 untuk uji Runs dengan 𝛼=0,05
diketahui bahwa batas penerimaan bawah adalah 2 dan batas penerimaan atas adalah
10. Oleh karena 𝑟 (=10 run) terletak masih dalam rentang nilai 2 dan 10 (daerah
terima) maka hipotesis nihil yang menyatakan nilai residual terstandardisasi menyebar
secara acak diterima. Dengan demikian maka tidak terjadi autokorelasi dalam
persamaan regresi tersebut.
d. Konsekuensi
Gujarati (1995) dalam Aliman (1999) menyebutkan beberapa konsekuensi dari
munculnya masalah autokorelasi dalam analisis regresi, yaitu sebagai berikut:
1. Penaksir OLS unbiased dalam penyampelan berulang dan konsisten, tetapi
sebagaimana dalam kasus heteroskedastistitas, penaksir OLS tadi tidak lagi efisien
(mempunyai varian minimum), baik dalam sampel kecil maupun dalam sampel
besar.
2. Estimasi varian dari penaksir-penaksir OLS adalah bias di mana hasil perhitungan
varian dari kesalahan baku yang sebenarnya. Akibatnya, nilai t-statistik penaksir
OLS tersebut menjadi tinggi. Padahal bila estimasi model regresi dari penaksir-
penaksir OLS bila tidak terjadi atau tidak terdapat masalah autokorelasi, mungkin
akan mempunyai t-statistik yang kecil. Akibatnya, nilai t-statistik dan nilai F-
statistik tidak dapat dipercaya karena menyesatkan. Hal ini akan mengakibatkan:
𝑅𝑆𝑆
- Formulasi untuk menghitung error variance (𝛿 2 = 𝑑𝑒𝑔𝑟𝑒𝑒 𝑜𝑓 𝑓𝑟𝑒𝑒𝑑𝑜𝑚) menjadi
bias karena 𝛿 2 (penaksir t-varian) akan mengestimasi terlalu rendah
(underestimate).
- Nilai 𝑅 2 yang dihasilkan lebih tinggi daripada yang seharusnya sehingga 𝑅 2
tersebut tidak dapat dipercaya.
- Nilai variance dan kesalahan baku yang digunakan untuk peramalan tidak efisien.
e. Cara mengatasi
Menurut Gujarati (1995), untuk memperbaiki autokorelasi yang bermasalah dapat
dilakukan dengan cara sebagai berikut:
1. Dengan membuat persamaan perbedaan yang digeneralisasikan.
Metode ini dilakukan jika struktur autokorelasi diketahui. Metode ini pada
prinsipnya dilakukan dengan melakukan transformasi dari persamaan regresi linear
biasa dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas
transformasi, berikut ini disajikan persamaan:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝝆𝒀𝒕−𝟏 ) = 𝜷𝟎 (𝟏 − 𝝆) + 𝜷𝟏 (𝑿𝟏 − 𝝆𝑿𝒕−𝟏 ) +
𝝁𝒕
Sedangkan nilai 𝜌 sendiri merupakan koefisien regresi yang diperoleh dengan
meregresikan nilai residu periode sebelumnya (𝑢𝑡−1) terhadap nilai residu pada
periode 𝑡 (𝑢𝑡 ).
𝒖𝒕 = 𝝆𝒖𝒕−𝟏 + 𝜺𝒕
Dengan prosedur pembedaan ini kita kehilangan satu observasi. Hal ini karena
observasi pertama tidak mempunyai pendahulu. Untuk menghindari kehilangan satu
observasi ini, observasi pertama atas Y dan X ditransformasikan sebagai berikut:
𝑌1 √1 − 𝜌2 dan 𝑋1 √1 − 𝜌2
2. Dengan metode perbedaan pertama.
Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada
prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa
dengan mengurangi nilai variabel pada periode 𝑡 dengan nilai variabel pada periode
𝑡 − 1. Untuk memperjelas transformasi, berikut disajikan persamaannya:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝒀𝒕−𝟏 ) = 𝜷𝟏 (𝑿𝟏 − 𝑿𝒕−𝟏 ) + 𝜺𝒕
Atau: ∆𝒀𝒕 = 𝜷𝟎 + ∆𝑿𝟏 + 𝜺𝒕
Satu sifat penting dari model pembedaan pertama adalah tidak ada unsur intercept di
dalamnnya. Namun, jika model yang asli adalah:
𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝜷𝟐 𝒕 + 𝜺𝒕
Di mana 𝑡 adalah variabel tren dan di mana 𝑢𝑡 mengikuti skema autoregresif derajat
pertama maka transformasi perbedaan pertama dari persamaan di atas adalah:
∆𝒀𝒕 = 𝜷𝟎 + ∆𝑿𝟏 + 𝜷𝟐 + 𝜺𝒕
Ternyata setelah ditransformasi tampak adanya unsur intercept, yaitu 𝛽2. Jadi, jika
ada unsur intercept pada bentuk pembedaan pertama, hal itu menunjukkan bahwa
ada unsur trend linear dalam model asli.
3. Dengan metode persamaan perbedaan yang digeneralisasikan di mana 𝜌 didasarkan
pada statistik Durbin-Watson.
Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada
prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa
dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas
transformasi, perhatikan persamaan berikut:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝝆𝒀𝒕−𝟏 ) = 𝜷𝟎 (𝟏 − 𝝆) + 𝜷𝟏 (𝑿𝟏 − 𝝆𝑿𝒕−𝟏 ) +
𝝁𝒕
Berbeda dengan metode pertama, untuk memperoleh nilai 𝜌 Theil dan Nagar (1961)
membuat persamaan berikut:
𝑑
𝑁 2 (1 − 2) + 𝑘 2
𝜌=
𝑁2 − 𝑘2
Di mana:
𝑁 = Banyaknya observasi
𝑑 = Durbin-Watson Statistik
𝑘 = Banyaknya koefisien (termasuk intersep) yang ditaksir
Untuk memberikan ilustrasi atas metode ini diberikan contoh seperti yang disajikan
dalam buku Gujarati (1995), yaitu sebagai berikut:
Model awal persamaan regresi:
𝐿𝑛𝐻𝑊𝐼𝑡 = 𝛽0 + 𝛽1 𝑙𝑛𝑈𝑡 + 𝜇
Keterangan:
𝐻𝑊𝐼 = Indeks ingin bantuan
𝑈 = Pengangguran
Berdasarkan hasil analisis regresi diperoleh persamaan sebagai berikut:
𝐿𝑛𝐻𝑊𝐼𝑡 = 3,1698 − 1,5316𝑙𝑛𝑈𝑡 + 𝜇
𝑆𝑏 = (0,0487)(0,0719)
𝑡 = (65,0883)(21,3018)
𝑅 2 = 0,9516 𝑑 = 0,9021
Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05
maka diperoleh nilai 𝑑𝐿 =1,27 dan 𝑑𝑈 =1,45. Karena nilai 𝑑ℎ𝑖𝑡𝑢𝑛𝑔 sebesar 0,9021
lebih kecil dari 𝑑𝐿 maka ada masalah autokorelasi positif.
Karena regresi mengandung masalah autokorelasi maka diperlukan tindakan
perbaikan. Untuk melakukan perbaikan diperlukan taksiran nilai 𝜌 (dengan
mengasumsikan mekanisme autoregresif derajat pertama) dan menggunakannya
untuk mentransformasikan data dengan cara perbedaan yang digeneralisasikan.
Karena nilai Durbin-Watson hitung tersedia, kita dapat memperoleh nilai 𝜌 taksiran
menggunakan teknik Theil Nagar, sebagai berikut:
𝑑 0,9021
𝑁 2 (1 − 2) + 𝑘 2 242 (1 − 2 ) + 22
𝜌̂ = = = 0,5598
𝑁2 − 𝑘2 242 − 22
Dengan menggunakan taksiran ini, kita dapat mentransformasikan data kita sebagai
berikut:
(𝑙𝑛𝐻𝑊𝐼𝑡 − 0,5598 𝑙𝑛𝐻𝑊𝐼𝑡−1 ) dan (𝑙𝑛𝑈𝑡 − 0,5598 𝑙𝑛𝑈𝑡−1 )
yaitu, mengurangkan 0,5598 kali nilai variabel sebelumnya dari nilai saat ini.
Sedangkan nilai pertama dari 𝐻𝑊𝐼 dan 𝑈 ditransformasikan sebagai berikut:
√(1 − 0,5598)2 𝑙𝑛𝐻𝑊𝐼𝑡 dan √(1 − 0,5598)2 𝑙𝑛𝑈𝑡
Setelah semua nilai variabel ditransformasikan menjadi 𝐻𝑊𝐼𝑡 * dan 𝑈𝑡 *, kemudian
dari analisis regresi diperoleh hasil sebagai berikut:
𝐿𝑛𝐻𝑊𝐼𝑡 ∗= 1,4091 − 1,4604𝑙𝑛𝑈𝑡 ∗
𝑆𝑏 = (0,0397)(0,1320)
𝑡 = (35,4937)(11,0636)
𝑅 2 = 0,8466 𝑑 = 1,7438
Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05
maka diperoleh nilai 𝑑𝐿 =1,27 dan 𝑑𝑈 =1,45. Karena nilai 𝑑ℎ𝑖𝑡𝑢𝑛𝑔 sebesar 1,7438
maka tidak ada masalah autokorelasi.
Unsur intercept dalam persamaan tersebut adalah suatu taksiran dari 𝛽0 (1 − 𝜌).
Oleh karena itu, suatu taksiran dari 𝛽0 dapat diperoleh sebagai 𝛽0 (1 − 0,5590) =
1,4091; yaitu 𝛽0 = 3,2010.
D. Soal Latihan
1. Jelaskan perbedaan antara analisis regresi sederhana dan analisis regresi berganda!
2. Jelaskan tentang uji asumsi klasik dalam analisis regresi?
3. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah normalitas?
4. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah heteroskedastisitas?
5. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah multikolinearitas?
6. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah autokorelasi?
7. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah linearitas?
8. Berikut ini adalah data tentang besarnya pendapatan (𝑋1), jumlah anggota keluarga (𝑋2),
dan pengeluaran keluarga untuk berbelanja dari 12 rumah tangga di Desa Suka Jajan.