Anda di halaman 1dari 57

PERTEMUAN XII

PROYEKSI BISNIS DENGAN ANALISIS REGRESI BERGANDA

A. Pengertian dan Latar Belakang Analisis Regresi Berganda


Pada bab sebelumnya telah dibahas mengenai analisis regresi sederhana satu variabel
tergantung yang diprediksikan dengan menggunakan satu variabel bebas saja. Namun,
kenyataan di dunia bisnis (fenomena ekonomi) tidak pernah ada satu variabel tergantung yang
hanya dipengaruhi oleh satu variabel bebas. Kenyataan di lapangan jauh lebih kompleks di
mana satu variabel tergantung dipengaruhi oleh dua atau lebih variabel bebas. Dengan
demikian analisis regresi sederhana itu perlu diperluas lagi menjadi analisis regresi berganda.
Perbedaan antara regresi sederhana dengan regresi berganda terletak pada jumlah
variabel bebasnya. Jika dalam regresi sederhana jumlah variabel bebas yang digunakan untuk
memprediksi variabel tergantung hanya satu, maka dalam regresi berganda jumlah variabel
bebas yang digunakan untuk memprediksi variabel tergantung lebih dari satu.
Pada awalnya analisis regresi berganda dikembangkan oleh para ahli ekonometri untuk
membantu meramalkan akibat dari aktivitas-aktivitas ekonomi pada berbagai segmen ekonomi
(Sugiarto dan Harijono, 2000). Namun, fenomena ekonomi dan bisnis sangatlah kompleks
sehingga perubahan suatu variabel tidak hanya disebabkan oleh satu variabel bebas saja, tetapi
juga dipengaruhi oleh variabel lain sehingga tidak dapat dijelaskan hanya dengan
menggunakan satu variabel bebas saja.
Contoh:
1. Besarnya konsumsi keluarga tidak hanya dipengaruhi oleh besarnya pendapatan, tetapi juga
dipengaruhi oleh jumlah anggota keluarga, tingkat pendidikan dan gaya hidup.
2. Besarnya jumlah penjualan tidak hanya dipengaruhi oleh harga saja, tetapi juga dipengaruhi
oleh besarnya biaya promosi dan biaya distribusi yang dikeluarkan.
3. Besarnya pendapatan seseorang tidak hanya dipengaruhi oleh gaji saja, tetapi juga
dipengaruhi oleh jumlah kekayaan yang dimilikinya.

B. Model Regresi Linear Berganda


Dari uraian di atas diketahui bahwa dalam regresi berganda variabel tergantung
dipengaruhi oleh dua atau lebih variabel bebas sehingga hubungan fungsional antara variabel
tergantung (Y) dengan variabel bebas (𝑋1 , 𝑋2 , … , 𝑋𝑛 ) secara umum dapat ditulis sebagai
berikut:
𝒀 = 𝒇(𝑿𝟏 , 𝑿𝟐 , … , 𝑿𝒏 )
Di mana:
𝑌 = Variabel tergantung (dependen)
𝑋1 , 𝑋2 , … , 𝑋𝑛 = Variabel bebas (independen)
Secara piktografik model fungsional di atas dapat digambarkan sebagai berikut:

Gambar 1. Model Piktografis Regresi Berganda


Dalam model di atas terlihat bahwa variabel tergantung dipengaruhi oleh dua atau lebih
variabel bebas. Di samping itu juga dipengaruhi variabel lain yang tidak diteliti (e).
Persamaan regresi linear berganda dapat dituliskan sebagai berikut:
𝒀 = 𝒂 + 𝒃𝟏 𝑿𝟏 + 𝒃𝟐 𝑿𝟐 + ⋯ + 𝒃𝒏 𝑿𝒏 + 𝜺
𝑌 = Variabel tergantung (Nilai yang diptoyeksikan)
𝑎 = Intercept (Konstanta)
𝑏1 = Koefisien regresi untuk 𝑋1
𝑏2 = Koefisien regresi untuk 𝑋2
𝑏𝑛 = Koefisien regresi untuk 𝑋𝑛
𝑋1 = Variabel bebas pertama
𝑋2 = Variabel bebas kedua
𝑋𝑛 = Variabel bebas ke-𝑛
𝜀 = Nilai residu
Untuk mencari nilai intercept (𝑎) dan koetisien regresi (𝑏1 , 𝑏2 , … , 𝑏𝑛 ) dapat digunakan
matriks sebagai berikut:

Seperti dalam analisis regresi sederhana, dalam analisis regresi berganda juga ada
beberapa hal yang harus dianalisis sebagai dasar untuk melakukan analisis lebih mendalam dari
sekadar persamaan regresi yang terbentuk. Beberapa hal yang perlu dianalisis berkaitan dengan
analisis regresi adalah sebagai berikut:
1. Persamaan regresi
Persamaan regresi digunakan untuk menggambarkan model hubungan antara variabel bebas
dengan variabel tergantungnya. Persamaan regresi ini memuat nilai konstanta atau intercept
nilai koefisien regresi atau slope dan variabel bebasnya.
2. Nilai prediksi
Nilai prediksi merupakan besarnya nilai variabel tergantung yang diperoleh dari prediksi
dengan menggunakan persamaan regresi yang telah terbentuk.
3. Koefisien determinasi
Koefisien determinasi merupakan besarnya kontribusi variabel bebas terhadap variabel
tergantungnya. Semakin tinggi koefisien determinasi maka semakin tinggi kemampuan
variabel bebas dalam menjelaskan variasi perubahan pada variabel tergantungnya.
4. Kesalahan baku estimasi
Merupakan satuan yang digunakan untuk menentukan besarnya tingkat penyimpanan dari
persamaan regresi yang terbentuk dengan nilai senyatanya. Semakin tinggi kesalahan baku
estimasi maka semakin lemah persamaan regresi tersebut untuk digunakan sebagai alat
proyeksi.
5. Kesalahan baku koefisien regresi
Merupakan satuan yang digunakan untuk menunjukkan tingkat penyimpangan dari masing-
masing koefisien regresi. Semakin tinggi kesalahan baku koefisien regresi maka akan
semakin lemah variabel tersebut untuk diikutkan dalam model persamaan regresi (semakin
tidak berpengaruh).
6. Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
Digunakan untuk menguji pengaruh secara simultan variabel bebas terhadap variabel
tergantungnya. Jika variabel bebas memiliki pengaruh secara simultan terhadap variabel
tergantung maka model persamaan regresi masuk dalam good of fit. Sebaliknya, jika tidak
terdapat pengaruh yang simultan maka masuk dalam kategori lack of fit.
7. Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔
Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 digunakan untuk menguji pengaruh secara parsial (per variabel) terhadap
variabel tergantungnya, apakah variabel tersebut memiliki pengaruh yang berarti terhadap
variabel tergantungnya atau tidak.
8. Kesimpulan
Kesimpulan merupakan penyataan singkat berdasarkan hasil analisis apakah variabel bebas
yang diuji memiliki pengaruh terhadap variabel tergantung atau tidak.
Kesimpulan didasarkan pada nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 dibandingkan dengan nilai 𝑡𝑡𝑎𝑏𝑒𝑙 -nya, atau
dengan membandingkan nilai signifikansi (p-value) dengan tingkat toleransinya.
Untuk lebih memahami analisis regresi linear berganda dalam aplikasi proyeksi bisnis,
perhatikan contoh berikut:
Contoh:
Mr. Wong, manajer Perusahan Kecap "Manis Enak" di Water Gold ingin mengetahui pengaruh
harga dan pendapatan terhadap volume penjualan. Untuk keperluan tersebut Mr. Wong
mengambil data selama 10 tahun sebagai berikut:

a. Pertanyaan penelitian
 Apakah terdapat pengaruh negatif harga terhadap volume penjualan?
 Apakah terdapat pengaruh positif pendapatan terhadap volume penjualan?
b. Hipotesis
Hipotesis 1
𝐻0 : Tidak terdapat pengaruh negatif harga terhadap volume penjualan.
𝐻𝑎 : Terdapat pengaruh negatif harga terhadap volume penjualan.
Hipotesis 2
𝐻0 : Tidak terdapat pengaruh positif pendapatan terhadap volume penjualan.
𝐻𝑎 : Terdapat pengaruh positif pendapatan terhadap volume penjualan.
c. Kriteria pengujiian
Hipotesis 1
𝐻0 diterima jika:
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 ≥ −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. > 0,05
𝐻𝑎 diterima apabila
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 < −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. ≤ 0,05
Hipotesis 2
𝐻0 diterima jika:
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. > 0,05
𝐻𝑎 diterima apabila
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 > −𝑡𝑡𝑎𝑏𝑒𝑙 atau 𝑆𝑖𝑔. ≤ 0,05
d. Analisis data
1. Mencari Persamaan Regresi
a. Dengan cara manual
Untuk mencari persamaan regresi dengan cara manual, buatlah lembar kerja seperti
berikut ini:

Gambar 2. Lembar Kerja Analisis Regresi Linear Berganda

Setelah semua sel diisi lengkap dengan mengopikan formula sel E2 sampai dengan
sel E11, sel F2 sampai dengan sel F11, sel G2 sampai dengan sel G11, sel H2 sampai
dengan sel H11, sel I2 sampai dengan sel I11, sel J2 sampai dengan sel J11,dan sel
B12 sampai dengan sel J12 maka hasilnya adalah sebagai berikut:

Gambar 3. Hasil Lembar Kerja Analisis Regresi Linear Berganda

Berdasarkan tabel di atas dapat diketahui:


𝑁 = 10 ∑ 𝑋1 2 = 237
∑ 𝑋1 = 40 ∑ 𝑋1 𝑋2 = 192
∑ 𝑋2 = 47 ∑ 𝑋1 𝑌 = 282
∑𝑌 = 74 ∑ 𝑋2 𝑌 = 375
2 2
∑ 𝑋1 = 180 ∑𝑌 = 626
Dengan demikian besarnya koefisien regresi dapat dicari dengan langkah sebagai
berikut:

Persamaan regresi linear berganda dengan menggunakan dua variabel bebas adalah
sebagai berikut:
𝒀 = 𝒂 + 𝒃𝟏 𝑿𝟏 + 𝒃𝟐 𝑿𝟐 + ⋯ + 𝒃𝒏 𝑿𝒏 + 𝜺
Untuk mencari nilai intercept (𝑎) dan koefisien regresi 𝑏1 dan 𝑏2 dapat digunakan
rumus sebagai berikut:
𝐷𝑒𝑡[𝐴1 ]
𝑎=
𝐷𝑒𝑡[𝐴]
𝐷𝑒𝑡[𝐴2 ]
𝑏1 =
𝐷𝑒𝑡[𝐴]
𝐷𝑒𝑡[𝐴3 ]
𝑏2 =
𝐷𝑒𝑡[𝐴]

Untuk menghitung determinan matriks A dilakukan dengan cara sebagai berikut:

𝐷𝑒𝑡 [𝐴] = (10 ∗ 180 ∗ 237) + (40 ∗ 192 ∗ 47) + (47 ∗ 40 ∗ 192)
− (47 ∗ 180 ∗ 47) + (192 ∗ 192 ∗ 18) + (237 ∗ 40 ∗ 40) = 3.060
Untuk menghitung matriks determinan dengan menggunakan program Microsoft
Excel dapat dilakukan dengan langkah-langkah seperti berikut:
 Buat matriks yang akan dihitung nilai determinannya, misalnya matriks A
sehingga tampilannya akan menjadi seperti berikut:

Gambar 4. Lembar Kerja Menghitung Matriks Determinan

 Letakkan kursor pada tempat yang kosong, misal di B6.


 Klik menu Formulas  Insert Function sehingga muncul tampilan Insert
Function.
 Pada Or select a Category, pilih Math & Trig sedangkan pada Select a function
pilih MDETERM.

Gambar 5. Insert Function

 Klik tombol OK.


 Pada Function Arguments Array, isi dengan A2:C4, bisa dengan cara diketik
maupun dengan cara blok, sehingga tampilannya menjadi seperti berikut:
Gambar 6. Function Arguments

 Klik tombol OK sehingga muncul nilai matriks determinannya, yaitu sebesar


3060.
Dengan cara yang sama matriks determinan [A1], [A2], dan [A3] sehingga diperoleh
nilai sebagai berikut:
 Matriks Determinan [A] = 3060
 Matriks Determinan [A1] = 7812
 Matriks Determinan [A2] = -3342
 Matriks Determinan [A3] = 6000
Setelah semua matriks determinan [A], [Al], [A2], dan [A3] dapat diperoleh maka
dapat dihitung nilai intercept (𝑎) dan koefeisien regresi 𝑏1 dan 𝑏2 sebagai berikut:
𝐷𝑒𝑡[𝐴1] 7812
𝑎= = = 2,553
𝐷𝑒𝑡[𝐴] 3060
𝐷𝑒𝑡[𝐴2] −3342
𝑏1 = = = −1,092
𝐷𝑒𝑡[𝐴] 3060
𝐷𝑒𝑡[𝐴3] 6000
𝑏2 = = = 1,961
𝐷𝑒𝑡[𝐴] 3060
Sehingga persamaan regresi linear berganda yang terbentuk adalah sebagai berikut:
𝒀 = 𝟐, 𝟓𝟓𝟑 − 𝟏, 𝟎𝟗𝟐𝒙𝑿𝟏 + 𝟏, 𝟗𝟔𝟏𝑿𝟐 + 𝜺
Arti persamaan regresi:
2,553 = Jika harga sebesar 0 dan pendapatan juga 0 maka penjualan akan sebesar
2,553.
-1,092 = Jika harga naik sebesar 1 satuan dan pendapatan tetap maka penjualan akan
turun sebesar 1,092.
1.961 = Jika pendapatan naik sebesar 1 satuan dan harga tetap maka penjualan akan
naik sebesar 1.092.
2. Mencari Nilai Prediksi
Untuk menghitung nilai prediksi harus dimasukkan nilai variabel bebas setiap sampel
(case) ke dalam persamaan regresi yang telah terbentuk. Untak menghitung nilai
prediksi penjualan sampel pertama, dapat dibuat formula pada sel E2 sebagai berikut
= 2,553 − 1,092 ∗ 𝐵2 + 1,961 ∗ 𝐶2 dan kemudian kopikan sel tersebut sampai
dengan sel E11.
Gambar 7. Lembar Kerja Mencari Nilai Prediksi Regresi Linear Berganda

Setelah sel E2 dikopikan sampai sel E11 dan sel D12 dikopikan ke sel E12 maka
tampilannya menjadi seperti berikut:

Gambar 8. Hasil Lembar Kerja Mencari Nilai Prediksi Regresi Linear Berganda

Keterangan:
𝑌𝑝𝑟𝑒𝑑 1 = 2,553 − 1,092 (2) + 1,961(3) = 6,252
𝑌𝑝𝑟𝑒𝑑 2 = 2,553 − 1,092 (3) + 1,961(4) = 7,121
𝑌𝑝𝑟𝑒𝑑 3 = 2,553 − 1,092 (3) + 1.961(6) = 8,859
Dan seterusnya ....
3. Mencari Koefisien Determinasi (𝑅 2 )
Formula untuk mengitung besarnya koefisien determinasi adalah sebagai berikut:
∑(𝒀 − 𝒀 ̂ )𝟐
𝟐
𝑹 =𝟏−
∑(𝒀 − 𝒀 ̅ )𝟐
𝑅2 = Koefisien determinasi
2
(𝑌 − 𝑌̂) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi
(𝑌 − 𝑌̅) 2
= Kuadrat selisih nilai Y riil dengan nilai Y rata-rata
Disebabkan untuk menghitung koefisien determinasi diperlukan nilai kuadrat selisih
nilai Y riil dengan nilai Y prediksi dan nilai kuadrat selisih nilai Y riil dengan nilai Y
rata-rata maka dalam lember kerja kita buat formulasi sebagai berikut:

Gambar 9. Lembar Kerja Mencari Nilai Koefisien Determinasi

Setelah sel F2 dikopikan sampai sel F11, mengetikkan formula yang sama dari sel G2
sampai dengan sel G11, dan mengopikan sel E12 sampai dengan sel G12 maka
tampilannya menjadi seperti berikut:

Gambar 10. Hasil Lembar Kerja Mencari Nilai Koefisien Determinasi


Berdasarkan lembar kerja tersebut maka kita dapat menghitug koefisien determinasi
sebagai berikut:
2
2
∑(𝑌 − 𝑌̂) 9,776
𝑅 =1− = 1 − = 0,875
∑(𝑌 − 𝑌̅)2 78,4
Artinya:
Koefisien determinasi (𝑅 2 ) sebesar 0,875 berarti bahwa 87,5 persen penjualan
dipengaruhi oleh harga dan pendapatan sedangkan sisanya dipengaruhi oleh variabel
lain di luar model (variabel yang tidak diteliti).
Koefisien determinasi memiliki kelemahan, yaitu bias terhadap jumlah variabel bebas
yang dimasukkan dalam model regresi di mana setiap penambahan satu variabel bebas
dan jumlah pengamatan dalam model akan meningkatkan nilai 𝑅 2 meskipun variabel
yang dimasukkan tersebut tidak berpengaruh signifikan terhadap variabel
tergantungnya. Untuk mengurangi kelemahan tersebut maka digunakan koefisien
determinasi yang telah disesuaikan atau Adjusted R Square (𝑅 2 𝑎𝑑𝑗 ). Koefisien
determinasi yang telah disesuaikan adalah koefisien determinasi yang telah dikoreksi
dengan memasukkan jumiah variabel dan ukuran sampel yang digunakan. Dengan
menggunakan koefisien determinasi yang disesuaikan maka nilainya akan dapat naik
atau turun bilamana ada penambahan variabel baru dalam model.
Formula untuk menghitung koefisien determinasi yang disesuaikan adalah sebagai
berikut:
𝑷(𝟏 − 𝑹𝟐 )
𝑹𝟐 𝒂𝒅𝒋 = 𝑹𝟐 −
𝑵−𝑷−𝟏
Keterangan:
𝑅 2 = Koefisien determinasi
𝑁 = Ukuran sampel
𝑃 = Jumlah variabel bebas
Dengan demikian berdasarkan kasus di atas, besarnya koefisien determinasi yang
disesuaikan dapat dihitung sebagai berikut:
𝑃(1 − 𝑅 2 ) 2(1 − 0,875)
𝑅 2 𝑎𝑑𝑗 = 𝑅 2 − = 0,875 − = 0,840
𝑁−𝑃−1 10 − 2 − 1
4. Kesalahan Baku Estimasi (Standard Error of the Estimate)
Kesalahan baku estimasi merupakan satuan yang digunakan untuk mengukur tingkat
penyimpangan antara persamaan regresi dengan nilai riilnya. Formula yang digunakan
untuk mengukur kesalahan baku estimasi adalah sebagai berikut:

∑(𝒀 − 𝒀̂ )𝟐
𝑺𝒆 = √
𝒏−𝒌
𝑆𝑒 = Kesalahan baku estimasi
2
(𝑌 − 𝑌̂) = Kuadrat selisih nilai Y riil dengan nilai Y prediksi
𝑛 = Ukuran sampel
𝑘 = Jumlah variabel yang diamati
Berdasarkan perhitungan dalam lembar kerja di atas maka dapat ditentukan besarnya
penyimpangan baku estimasi, yaitu sebagai berikut:
2
∑(𝑌 − 𝑌̂) 9,777
𝑆𝑒 = √ =√ = 1,182
𝑛−𝑘 10 − 3
Semakin rendah nilai kesalahan baku estimasi semakin baik untuk digunakan sebagai
alat proyeksi. Sebaliknya, semakin tinggi nilai kesalahan baku estimasi maka semakin
lemah kemampuan persamaan regresi tersebut untuk digunakan dalam membuat
proyeksi.
5. Kesalahan Baku Koefisien Regresi
Digunakan untuk mengukur besarnya penyimpangan dari masing-masing koefisien
regresi yang terbentuk. Semakin rendah kesalahan baku koefisien regresi maka semakin
berperan variabel tersebut dalam model. Sebaliknya, semakin tinggi kesalahan baku
koefisien regresi maka semakin tidak berperan variabel tersebut dalam persamaan
regresi. Kesalahan baku koefisien regresi dapat diukur dengan formula sebagai berikut:
𝑺𝒆 𝟐
𝑺𝒃 = √ (𝑲𝒊𝒊)
𝑫𝒆𝒕[𝑨]
Keterangan:
𝑆𝑏 = Kesalahan baku koefisien regresi
𝑆𝑒 = Kesalahan baku estimasi
𝐷𝑒𝑡[𝐴] = Determinasi matriks A
𝐾𝑖𝑖 = Kofaktor matriks A
K11 atau kofaktor 11 Matriks A dapat dicari dengan mencari determinan matriks A,
tetapi baris pertama dan kolom penama matriks A dihapus. Dengan begitu maka
kofaktor K11 dapat dihitung dengan cara sebagai berikut:

𝐾11 = (180 ∗ 237) − (192 ∗ 192) = 3060


Sedangkan K22 dan K33 dapat dicari dengan cara sebagai berikut:

𝐾22 = (10 ∗ 237) − (47 ∗ 47) = 161

𝐾33 = (10 ∗ 180) − (40 ∗ 40) = 200


Berdasarkan lembar kerja di atas maka dapat dihitung besarnya kesalahan baku
intercept dan koefisien regresinya, yaitu sebagai berikut:
(1,182)2
𝑆𝑎 = √ (5796) = 1,626
3060

(1,182)2
𝑆𝑏1 = √ (161) = 0,271
3060
(1,182)2
𝑆𝑏2 =√ (200) = 0,302
3060
6. Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 digunakan untuk menguji ketepatan model (goodness of fit). Uji F ini
sering disebut sebagai uji simultan yang digunakan untuk menguji apakah variabel
bebas yang digunakan dalam model mampu menjelaskan perubahan nilai variabel
tergantung atau tidak. Untuk menyimpulkan apakah model masuk dalam kategori
good of fit atau tidak, kita harus membandingkan nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 , dengan nilai
𝐹𝑡𝑎𝑏𝑒𝑙 dengan derajat bebas: 𝑑𝑓: 𝛼, (𝑘 − 1), (𝑛 − 𝑘). Untuk menghitung besarnya
nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 digunakan formula sebagai berikut:
𝑹𝟐 /(𝒌 − 𝟏)
𝑭=
𝟏 − 𝑹𝟐 /(𝒏 − 𝒌)
Keterangan:
𝐹 = Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
𝑅 2 = Koefisien determinasi
𝑘 = Jumlah variabel
𝑛 = Jumlah pengamatan (ukuran sampel)
Dengan menggunakan lembar kerja di atas maka besarnya nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 dari
persamaan regresi yang terbentuk dapat dihitung sebagai berikut:
𝑅 2 /(𝑘 − 1) 0,875/(3 − 1)
𝐹= = = 24,567
1 − 𝑅 2 /(𝑛 − 𝑘) 1 − 0,875/(10 − 3)
Dengan 𝑑𝑓: 𝛼, (𝑘 − 1), (𝑛 − 𝑘) atau 0,05, (3 − 1), (10 − 3) diperoleh besarnya
nilai sebesar 4,737.
Karena nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 (24,567) > nilai 𝐹𝑡𝑎𝑏𝑒𝑙 , (4,737) maka dapat disimpulkan bahwa
model persamaan regresi yang terbentuk masuk kriteria good of fit.
Untuk melihat nilai 𝐹𝑡𝑎𝑏𝑒𝑙 dapat dilakukan dengan menggunakan bantuan tabel F
atau menggunakan program Microsoft Excel dengan langkah-langkah sebagai
berikut:
 Klik menu Formulas  Insert Function. Pada Or select a Category, pilih
Statistical. Pada Select a function, pilih F.INV.RT. Klik OK sehingga
tampilannya menjadi seperti berikut:

Gambar 11. Function Arguments-F.INV.RT


 Pada Probability, isi dengan 0,05. Pada Deg_freedom1, isi dengan 2. Pada
Deg_freedom2, isi dengan 7. Klik OK sehingga muncul nilai sebesar 4,737.
7. Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔
Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 digunakan untuk menguji apakah variabel tersebul berpengaruh secara
signifikan terhadap variabel tergantung atau tidak. Suatu variabel akan memiliki
pengaruh yang berarti jika nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 variabel tersebut lebih besar dibanding nilai
𝑡𝑡𝑎𝑏𝑒𝑙 .
Dalam pengujian ini digunakan uji t satu ujung karena hipotesis yang diajukan
sudah menunjukkan arah, yaitu terdapat pengaruh negatif harga terhadap penjualan
dan terdapat pengaruh positif pendapatan terhadap penjualan. Jika menggunakan
satu ujung maka 𝑑𝑓: 𝛼, 𝑛 − 𝑘, tetapi jika menggunakan dua ujung maka derajat
bebasnya adalah 𝑑𝑓: 𝛼/2 , 𝑛 − 𝑘 Untuk menghitung besarnya nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔
digunakan rumus sebagai berikut:
𝑏𝑗
𝑡𝑖 =
𝑆𝑏𝑗
Keterangan:
𝑡 = Nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔
𝑏𝑗 = Koefisien regresi
𝑆𝑏𝑗 = Kesalahan baku koefisien regresi
Dengan menggunakan perhitungan koefisien regresi dan kesalahan baku koefisien
regresi di atas maka kita dapat menghitung besarnya nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 sebagai berikut:
−1,092
𝑡𝑋1 = = −4,029
0,271
1,961
𝑡𝑋2 = = 6,490
0,302
Dengan 𝑑𝑓: 𝛼, (𝑛 − 𝑘) atau 0,05, (12 − 2) diperoleh besarnya nilai 𝑡𝑡𝑎𝑏𝑒𝑙 sebesar
1,812.
Untuk melihat nilai 𝑡𝑡𝑎𝑏𝑒𝑙 dapat dengan menggunakan bantuan tabel t atau
menggunakan program Microsoft Excel dengan langkah-langkah sebagai berikut:
 Klik menu Formulas  Insert Function. Pada Or select a Category, pilih
Statistical. Pada Select a function, pilih T.INV.2T. Klik OK sehingga
tampilannya menjadi seperti berikut:

Gambar 12. Function Arguments-T.INV.2T


 Probability diisi 0,05, Deg_freedom diisi 7. Klik OK sehingga akan
muncul nilai sebesar 2,365.
Kesimpulan:
 Karena nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 (-4,029) < nilai −𝑡𝑡𝑎𝑏𝑒𝑙 , (-2.365) maka dapat
disimpulkan bahwa variabel harga memiliki pengaruh negatif yang
signifikan terhadap variabel penjualan.
 Karena nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 (6,490) > nilai 𝑡𝑡𝑎𝑏𝑒𝑙 (2,365) maka dapat disimpulkan
bahwa variabel pendapatan memiliki pengaruh positif yang signifikan
terhadap variabel penjualan.
b. Dengan menggunakan program Microsoft Excel melalui menu Data
 Buka program Microsoft Excel.
 Buat Data Analisis Regresi Linear Berganda

Gambar 13. Data Analisis Regresi Linear Berganda


 Klik menu Data  Data Analysis
 Pada Data Analysis, pilih Regression.

Gambar 14. Data Analysis-Regression


 Klik OK sehingga muncul tampilan Regression.
 Pada kotak Input Y Range, isi dengan $D$2:$D$11 atau blok range data variabel
tergantungnya.
 Pada kotak Input X Range, isi dengan $B$2:$C$11 atau blok range data variabel
bebasnya.
Gambar 15. Regression
 Pada Output Options, pilih New Worksheet Ply.
 Klik OK.
 Menghasilkan output pada sheet yang lain, yaitu sebagai berikut:

Gambar 16. Summary Output-Regression

Analisis:
1. Multiple R = 0,936
Artinya bahwa korelasi antara variabel bebas dengan variabel tergantungnya
adalah sebesar 0,936. Dalam hal ini karena regresi linear berganda dengan dua
variabel bebas maka dapat dikatakan bahwa korelasi berganda antara harga dan
pendapatan terhadap penjualan adalah sebesar 0,936.
2. R Square = 0,875
R Square atau koefisien determinasi sebesar 0,875 berarti bahwa variasi
penjualan dapat dijelaskan oleh variasi harga dan pendapatan sebesar 87,5 persen
atau variabel harga dan pendapatan mampu mempengaruhi penjualan sebesar
87,5 persen. Koefisien determinasi sebesar 0,875 merupakan kuadrat dari
multiple R (0,936 x 0,936 = 0,875).
3. Adjusted R Square = 0,840
Merupakan koefisien determinasi yang telah dikoreksi dengan jumlah variabel
dan ukuran sampel sehingga dapat mengurangi unsur bias jika terjadi
penambahan variabel maupun penambahan ukuran sampel. Adjusted R Square
sebesar 0,840 berarti variasi penjualan dapat dijelaskan oleh variasi harga dan
pendapatan sebesar 84,0 persen atau variabel harga dan pendapatan
memengaruhi penjualan sebesar 84.0 persen. Koefisien Adjusted R Square
sebesar 84,0 diperoleh dari perhitungan sebagai berikut:
2 2
𝑃(1 − 𝑅 2 ) 2(1 − 0,875)
𝑅 𝑎𝑑𝑗 = 𝑅 − = 0,875 − = 0,840
𝑁−𝑃−1 10 − 2 − 1
4. Standard Error = 1,182
Artinya bahwa penyimpangan antara persamaan regresi dengan nilai dependen
adalah sebesar 1,182 satuan variabel dependen (jika penjualan dalam satuan juta
maka besarnya penyimpangan adalah sebesar 1,182 juta). Semakin kecil nilai
standard error, semakin baik persamaan regresi tersebut sebagai alat prediksi.
5. Observation =10
Nilai observation sebesar 10 berasal dari jumlah pengamatan atau ukuran sampel
yang digunakan. yaitu sebanyak 10
6. Df Regression (Degree of freedom Regression) = 2
Nilai Df regression sebesar 2 berasal dari nilai 𝑘 − 1, jumlah variabel dikurangi
1 (3 − 1 = 2).
7. Df Residual (Degree of freedom Residual) = 7
Nilai Df Residual sebesar 7 berasal dari nilai 𝑛 − 𝑘, jumlah pengamatan
dikurangi jumlah variabel (10 − 3 = 7) .
8. Df Total (Degree of freedom Total) = 9
Nilai Df Total sebesar 11 berasal dari nilai 𝑛 − 1, jumlah pengamatan dikurangi
1 (10 − 1 = 9) atau merupakan penjumlahan dari df regression dengan df
residual (2 + 7 = 9).
9. SS Regression (Sum Square Regression) = 68,624
Nilai SS Regression merupakan nilai yang menunjukkan jumlah kuadrat dari
selisih antara nilai prediksi dengan nilai rata-rata prediksi atau dapat diperoleh
2
dengan formula ∑(𝑌𝑝𝑟𝑒𝑑 − 𝑌̅𝑝𝑟𝑒𝑑 ) .
10. SS Residual (Sum Square Residual) = 9,776
Nilai SS Residual merupakan nilai yang menunjukkan jumlah kuadrat dari
selisih antara nilai riil dengan nilai prediksi atau dapat diperoleh dengan formula
2
∑(𝑌 − 𝑌𝑝𝑟𝑒𝑑 ) . Dalam lembar kerja di atas, lihat pada sel F12.
11. SS Total (Sum Square Total) = 78,400
Nilai SS Total merupakan nilai yang menunjukkan jumlah kuadrat dari selisih
antara nilai riil dengan nilai rata-rata Y riil. Dapat pula diperoleh dengan formula
∑(𝑌 − 𝑌̅)2 . Dalam lembar kerja di atas, lihat pada sel G12.
12. MS Regression (Mean Square Regression) =34,312
Nilai MS Regression diperoleh dari formula berikut:
𝑆𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 68,624
𝑀𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 = = = 34,312
𝑑𝑓 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 2
13. MS Residual (Mean Square Residual) = 1,397
Nilai MS Residual diperoleh dari formula sebagai berikut:
𝑆𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 9,776
𝑀𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 = = = 1,397
𝑑𝑓 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 7
14. 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 24,567
Nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 diperoleh dari formula sebagai berikut:
𝑀𝑆 𝑅𝑒𝑔𝑟𝑒𝑠𝑠𝑖𝑜𝑛 34,312
𝐹= = = 24,567
𝑀𝑆 𝑅𝑒𝑠𝑖𝑑𝑢𝑎𝑙 1,397
15. Significance F = 0,001
Merupakan nilai yang menunjukkan titik kesalahan yang terjadi jika nilai 𝐹ℎ𝑖𝑡𝑢𝑛𝑔
sebesar 24,567. Ternyata tingkat kesalahan atau probabilitas sebesar 0,001 yang
berarti lebih kecil dari 0,05. Dengan demikian dapat disimpulkan bahwa variabel
bebas secara simultan mampu menjelaskan perubahan pada variabel tergantung
atau model dinyatakan good of fit.
16. Coefficients Intercept = 2,553
Coefficients Intercept merupakan konstanta yang artinya jika harga dan
pendapatan sama dengan 0 maka penjualan akan sebesar 2,553. Nilai koefisien
intercept atau konstanta ini diperoleh dari:
𝐷𝑒𝑡[𝐴1] 7812
𝑎= = = 2,553
𝐷𝑒𝑡[𝐴] 3060
17. Coefficients X Variable 1 = -1,092
Coefficients X Variable 1 merupakan koefisien regresi variabel 𝑋1 yang berarti
jika harga naik sebesar satu satuan maka penjualan akan turun sebesar 1,092.
Nilai koefisien regresi variabel 𝑋1 ini diperoleh dari:
𝐷𝑒𝑡[𝐴2] −3342
𝑏1 = = = −1,092
𝐷𝑒𝑡[𝐴] 3060
18. Coefficients X Variable 2 = 1,961
Coefficients X Variable 2 merupakan koefisien regresi variabel 𝑋2 yang berarti
jika pendapatan meningkat sebesar satu satuan maka penjualan akan meningkat
sebesar 1,961 satuan. Nilai koefisien regresi ini diperoleh dari:
𝐷𝑒𝑡[𝐴3] 6000
𝑏2 = = = 1,961
𝐷𝑒𝑡[𝐴] 3060
19. Standard Error Intercept = 1,626
Standard error intercept merupakan penyimpangan dari konstanta yang ada
dalam model persamaan regresi. Standard err or intercept dicari dengan formula
sebagai berikut:
𝑆𝑒 2 1,1822
𝑆𝑎 = √ (𝐾11) = √ (5796) = 1,626
𝐷𝑒𝑡[𝐴] 3060
20. Standard Error X Variable 1 = 0,271
Standard error X variable 𝑋1 menunjukkan penyimpangan koefisien regresi
variabel 𝑋1. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka
semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya.
Standard error koefisien regresi variabel 𝑋1 dapat dicari dengan formula sebagai
berikut:
𝑆𝑒 2 (1,182)2
𝑆𝑏 = √ (𝐾22) = √ (161) = 0,271
𝐷𝑒𝑡[𝐴] 3060
21. Standard Error X Variable 2 = 0,302
Standard error X variable 𝑋2 menunjukkan penyimpangan koefisien regresi
variabel 𝑋2. Semakin kecil penyimpangan dalam koefisien regresi tersebut maka
semakin berarti kontribusi variabel tersebut terhadap variabel tergantungnya.
Standard error koefisien regresi variabel 𝑋2 dapat dicari dengan formula sebagai
berikut:
𝑆𝑒 2 (1,182)2
𝑆𝑏 = √ (𝐾33) = √ (200) = 0,302
𝐷𝑒𝑡[𝐴] 3060
22. t-Stat Intercept
Digunakan untuk mengetahui apakah intercept tersebut signifikan atau tidak,
hanya saja nilai intercept itu biasanya tidak diuji. Yang diuji adalah nilai t-stat
koefisien regresinya. t-stat intercept dihitung dengan formula sebagai berikut:
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 2,553
𝑡 − 𝑆𝑡𝑎𝑡 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 = = = 1,570
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝐼𝑛𝑡𝑒𝑟𝑐𝑒𝑝𝑡 1,626
23. t-Stat X Variable 1
Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan atau
tidak. Dalam uji satu ujung, dengan ujung sebelah kiri, jika nilat t-stat lebih kecil
dari nilai 𝑡𝑡𝑎𝑏𝑒𝑙 dengan 𝑑𝑓: 𝛼, (𝑛 − 𝑘) maka varibel tersebut memiliki pengaruh
yang signifikan terhadap varibel tergantung.
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋1 −1,092
𝑡 − 𝑆𝑡𝑎𝑡 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 1 = = = −4,029
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋1 0,271
24. t-Stat X Variable 2
Digunakan untuk mengetahui apakah variabel bebas tersebut signifikan apa
tidak. Dalam uji satu ujung, ujung sebelah kanan, jika nilat t-stat lebih besar dari
nilai 𝑡ℎ𝑖𝑡𝑢𝑛𝑔 dengan 𝑑𝑓: 𝛼, (𝑛 − 𝑘) maka varibel tersebut memiliki pengaruh
yang signifikan terhadap varibel tergantung.
𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋2 1,961
𝑡 − 𝑆𝑡𝑎𝑡 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 2 = = = 6,490
𝑆𝑡𝑎𝑛𝑑𝑎𝑟𝑑 𝐸𝑟𝑟𝑜𝑟 𝑋 𝑉𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑋2 0,302
25. P-Value Intercept
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat intercept yang diperoleh (0,160). Jika nilai t-stat intercept semakin besar
maka nilai kesalahan p-value akan semakin kecil. Jika nilai p-value lebih kecil
dari 𝛼 (0,05) maka dikatakan signifikan. Dalam output di atas ternyata p-value
lebih besar dari 0,05 sehingga intercept tidak signifikan, tetapi dalam analisis
regresi hai ini tidak dianalisis karena yang lebih penting adalah signifikansi
variabel bebasnya.
26. P-Value X Variable 1
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat X Variable 1 yang diperoleh (-4,005). Karena nilai p-value X variable 1 lebih
kecil dari 0,05 maka variabel 𝑋1 (harga) memiliki pengaruh negatif yang berarti
terhadap Y (penjualan).
27. P-Value X Variable 2
Merupakan angka yang menunjukkan besarnya tingkat kesalahan pada nilai t-
stat X Variable 2 yang diperoleh (6,490). Karena nilai p-value X variable 2 lebih
kecil dari 0,05 maka variabel (pendapatan) memiliki pengaruh yang berarti
terhadap Y (penjualan).

C. Pengujian Asumsi Klasik


Model regresi yang diperoleh dari metode kuadrat terkecil biasa (Ordinary Least
Squares-OLS) rnerupakan model regresi yang menghasilkan estimator linear tidak bias yang
terbaik (Best Linear Unbias Estimazor/BLUE). Kondisi ini akan terjadi jika beberapa asumsi
yang disebut dengan asumsi klasik dipenuhi. Gujarati (1995), dalam bukunya yang berjudul
Basic Econometrics, mengemukakan ada beberapa asumsi klasik, yaitu:
 Model regresi adalah linear, yaitu linear dalam parameter.
 Nilai 𝑋𝑖 (variabel independent) adalah tetap untuk sampel yang berulang-ulang.
 Residual, mempunyai nilai rata-rata nol.
 Homoskedastisitas atau varian dari residual adalah konstan.
 Tidak terdapat autokorelasi antara nilai residual.
 Kovarian antara residual dan variabel bebas adalah nol.
 Jumlah observasi harus lebih banyak dibanding parameter yang akan diestimasi.
 Variabel bebas dalam sampel tertentu harus memiliki nilai yang tidak sama.
 Spesifikasi dari model regresi yang digunakan harus benar.
 Tidak terdapat multikolinearitas yang sempuma.
 Nilai residual berdistribusi normal.
Dari sebelas asumsi klasik di atas terdapat lima asumsi klasik yang akan dibahas, yaitu:
1. Normalitas
a. Pengertian
Uji normalitas dimaksudkan untuk mengetahui apakah residual yang telah
distandardisasi berdistribusi normal atau tidak. Nilai residual dikatakan berdistribusi
normal jika nilai residual tersebut sebagian besar mendekati nilai rata-ratanya sehingga
bila residual tersebut berdistribusi normal maka jika digambarkan dalam bentuk kurva,
kurva tersebut akan berbentak lonceng (bell-shaped curve) yang kedua sisinya melebar
sampai tidak terhingga. Dengan melihat pengertian uji normalitas tersebut maka uji
normalitas di sini tidak dilakukan per variabel (univariate), tetapi hanya terhadap nilai
residual terstandardisasinya saja (multivariate).
b. Penyebab
Tidak terpenuhinya normalitas pada umumnya disebabkan karena distribusi data yang
dianalisis tidak normal karena terdapat nilai ekstrem dalam data yang diambil. Nilai
ektrem ini dapat terjadi karena adanya kesalahan dalam pengambilan sampel, bahkan
karena kesalahan dalam melakukan input data atau memang karena karakteristik data
tersebut memang aneh.
c. Cara mendeteksi
Untuk mendeteksi apakah nilai residual terstandardisasi berdistribusi normal atau tidak,
dapat digunakan:
 Metode Analisis Grafik
Pengujian normalitas menggunakan analisis grafik dilakukan dengan menggunakan
histogram dengan menggambarkan variabel dependen sebagai sumbu vertikal
sedangkan nilai residual terstandarisasi digambarkan sebagai sumbu horisontal. Jika
Histogram Standardize Regression Residual membentuk kurva seperti lonceng maka
nilai residual tersebut membentuk kurva normal. Namun, pengujian dengan
menggunakan histogram semacam ini dapat memberikan hasil yang subjektif, artinya
antara orang yang satu dengan orang lain dapat berbeda dalam menginterpretasikan
kurva yang terbentuk, mungkin dengan kurva yang sama si A menyatakan normal,
tetapi si B menyatakan tidak normal.
 Uji Signifikasi Skewness dan Kurtosis
Uji ini merupakan uji normalitas berdasarkan koefisien keruncingan (kurtosis) dan
koefisien kemiringan (skewness). Uji ini dilakukan dengan menggunakan langkah-
langkah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂ ).
 Membuat standardisasi nilai residualnya.
 Menghitung koefisien skewness dan kurtosis.
 Menstandardisasi nilai skewness dan nilai kurtosis dengan rumus sebagai berikut:
𝑆−0 𝐾−0
𝑍𝑠𝑘𝑒𝑤 = 𝑍𝑘𝑢𝑟𝑡 =
√6/𝑁 √24/𝑁
Di mana:
S = Nilai Skewness
N = Jumlah kasus
K = Nilai kurtosis
 Membandingkan nilai Z-skew dan Z-kurt dengan nilai kritisnya. Jika menggunakan
tingkat toleransi 0,01 atau 1 persen maka nilai kritisnya ±2,58, tingkat toleransi
0,05 atau 5 persen maka nilai kritisnya ± 1,96 dan tingkat toleransi 0,10 atau 10
persen maka nilai kritisnya ±1,65.
 Menarik kesimpulan kenormalan data, dengan kriteria jika Zskew dan Zkurt ≤ nilai
kritis maka residual terstandardisasi berdistribusi normal.
Contoh Pengujian Uji Normalitas Signifikasi Skewness dan Kurtosis
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼 = 10
persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi
dengan uji signifikasi skewness dan kurtosis?
Jawab:
Karena pada pengujian ini digunakan banyak kolom maka akan ditampilkan hasil dari
lembar kerjanya saja, sedangkan keterangan dan petunjuk analisis dengan program
Microsoft Excel disajikan di bawahnya.
Gambar 17. Lembar Kerja Uji Normalitas-Signifikasi Skewness dan Kurtosis

Keterangan:
 Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
 Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
 Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
 Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut
sampai dengan sel G11.
 Untuk menghitung nilai skewness, tempatkan kursor pada sel yang kosong,
misalnya G13. Kemudian ketik formula =SKEW(G2:G11) sehingga muncul
koefisien skewness sebesar -0,047.
 Untuk menghitung nilai kurtosis, tempatkan kursor pada sel yang kosong, misalnya
G14. Kemudian ketik formula =KURT(G2:G11) sehingga muncul koefisien
kurtosis sebesar -2,412.
 Setelah koefisien skewness dan koefisien kurtosis diketahui maka langkah
selanjutnya adalah melakukan standardisasi dengan perhitungan sebagai berikut:
𝑆−0 −0,047
𝑍𝑠𝑘𝑒𝑤 (𝑃𝑒𝑛𝑑𝑎𝑝𝑎𝑡𝑎𝑛) = = = −0,061
√6/𝑁 √6/10
𝐾−0 −2,412
𝑍𝑘𝑢𝑟𝑡 (𝑃𝑒𝑛𝑑𝑎𝑝𝑎𝑡𝑎𝑛) = = = −1,557
√24/𝑁 √24/10
Kesimpulan:
Karena nilai standardisasi skewness (-0,061) dan nilai standardisasi kurtosis (-
1,557) lebih kecil dari 1,65 maka dengan tingkat toleransi 10 persen, variabel
tersebut terdistribusi secara normal.
 Uji Lilliefors
Uji ini merupakan uji normalitas dengan menggunakan fungsi distribusi kumulatif.
Uji ini dilakukan dengan menggunakan langkah-langkah:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂ ).
 Membuat standardisasi nilai residualnya.
 Mengurutkan nilai residual terstandardisasi dari yang terkecil sampai yang
terbesar.
 Mencari nilai 𝑍𝑟 relatif kumulatif.
 Mencari nilai 𝑍𝑡 teoritis berdasarkan tabel Z.
 Menghitung selisih nilai 𝑍𝑟 dengan 𝑍𝑡 pengamatan sebelumnya atau (𝑍𝑟 − 𝑍𝑡−1)
dan diberi simbol 𝐿𝑖 .
 Mencari nilai 𝐿𝑖 mutlak terbesar dan beri nama 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 .
 Bandingkan nilai 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 dengan tabel Lilliefors (𝐿𝑖𝑡𝑎𝑏𝑒𝑙 ).
 Menarik kesimpulan kenormalan data dengan kriteria jika 𝐿𝑖ℎ𝑖𝑡𝑢𝑛𝑔 < 𝐿𝑖𝑡𝑎𝑏𝑒𝑙 maka
residual terstandardisasi berdistribusi normal.
Contoh Pengujian Normalitas dengan Uji Lilliefors
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼=10
persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi
dengan uji Lilliefors?
Jawab:
Karena dalam pengujian ini diperlukan banyak kolom maka ditampilkan hasil dari
lembar kerianya saja, sedangkan keterangan dan petunjuk analisis dengan program
Microsoft Excel disajikan di bawahnya.
Gambar 18. Lembar Kerja Uji Normalitas-Lilliefors

Keterangan:
 Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
 Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
 Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
 Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut
sampai dengan sel G11.
 Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai
yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai
Zresid dapat dilakukan dengan langkah sebagai berikut:
- Blok dan kopi sel G2:G11.
- Letakkan kursor pada sel H2.
- Klik kanan, pilih Paste Special, pilih Value (V).
- Blok dan kopi sel H2:H11.
- Klik menu DataSort, pilih Continue with the current
selectionSortOK.
Gambar 19. Sort Warning

 𝑍𝑟 merupakan nilai frekuensi kumulatif untuk setiap pemgamatan. Karena pada


contoh tersebut ada 10 pengamatan maka frekuensi kumulatif pertama = 1/10,
kedua 1/10 + 1/10 = 2/10, dan seterusnya. Frekuensi kumulatif ini dapat
dihitung dengan:
Pada sel I2 ketik formula =A2/10. Kopikan formula tersebut sampai dengan sel
I11.
 Untuk mencari LuasZ, dapat digunakan tabel luas kurva normal dan nilai residual
terstandardisasi yang telah diurutkan atau dapat dicari dengan menggunakan
program Microsoft Excel sebagai berikut:
Pada sel J2 ketik formula =NORMSDIST(H2). Kopikan formula tersebut sampai
dengan sel J11.
 Untuk mencari nilai Lilliefors dilakukan dengan cara 𝑍𝑡 − 𝑍(𝑟−1) = 0,1414 −
0,1 = 0,0414.
Pada sel K3 ketik formula =J3-I2. Kopikan formula tersebut sampai dengan sel
K11.
 Untuk mendapatkan nilai Lilliofers hitung, cari nilai Lilliofers absolut yang paling
besar. Langkahnya, pada sel K12 ketik formula =ABS(MAX(K3:K11)) sehingga
muncul nilai Lilliefors hitung sebesar 0,2972.
Kesimpulan:
Dengan uji dua ujung dari tabel Lilliefors dengan 𝑑𝑓: 𝑛, 𝛼/2 atau 𝐿(10;0,05) = 0,410.
Karena nilai 𝐿ℎ𝑖𝑡𝑢𝑛𝑔 (0,2972) < dari nilai 𝐿𝑡𝑎𝑏𝑒𝑙 (0,410) maka 𝐻0 diterima. Itu berarti
nilai residual terstandardisasi menyebar secara normal.
 Uji Kolmogorov-Smirnov
Uji normalitas dengan menggunakan Kolmogorov-Smirnov juga merupakan uji
normalitas dengan emnggunakan fungsi distribusi kumulatif seperti uji Lilliefors. Uji
ini dilakukan dengan menggunakan langkah-langkah:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂ ).
 Membuat standardisasi nilai residualnya.
 Mengurutkan nilai residual terstandardisasi dari yang terkecil sampai yang
terbesar.
 Mencari nilai 𝑍𝑟 relatif kumulatif.
 Mencari nilai 𝑍𝑡 teoritis berdasarkan tabel Z.
 Menghitung selisih nilai 𝑍𝑟 dengan 𝑍𝑡 dan diberi simbol K.
 Mencari nilai K mutlak terbesar dan beri nama dengan 𝐾ℎ𝑖𝑡𝑢𝑛𝑔 .
 Bandingkan nilai 𝐾ℎ𝑖𝑡𝑢𝑛𝑔 dengan tabel Kolmogorov-Smirnov (𝐾𝑡𝑎𝑏𝑒𝑙 ).
 Menarik kesimpulan kenormalan data dengan kriteria jika 𝐾ℎ𝑖𝑡𝑢𝑛𝑔 < 𝐾𝑡𝑎𝑏𝑒𝑙 maka
residual terstandardisasi berdistribusi normal.
Contoh Pengujian Normalitas dengan Uji Kolmogorov-Smirnov
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas dengan 𝛼 = 10
persen, ujilah apakah dalam persamaan regresi tersebut asumsi normalitas terpenuhi
dengan uji Kolmogorov-Smirnov?
Jawab:
Karena pengujian ini memerlukan banyak kolom maka akan ditampilkan hasil dari
lembar kerjanya saja, sedangkan keterangan dan petunjuk analisis dengan program
Microsoft Excel disajikan di bawah lembar kerja ini:

Gambar 20. Lembar Kerja Uji Normalitas-Kolmogorov-Smirnov

Keterangan:
 Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
 Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
 Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
 Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai
dengan sel G11.
 Zresid urut merupakan nilai residual terstandardisasi yang telah diurutkan dari nilai
yang paling kecil sampai ke nilai yang paling besar. Untuk mengurutkan nilai
Zresid dapat dilakukan dengan langkah sebagai berikut:
- Blok dan kopi sel G2:G11.
- Letakkan kursor pada sel H2.
- Klik kanan, pilih Paste Special, pilih Value (V).
- Blok dan kopi sel H2:H11.
- Klik menu DataSort, pilih Continue with the current
selectionSortOK.

Gambar 21. Sort Warning

 𝑍𝑟 merupakan nilai frekuensi kumulatif untuk setiap pemgamatan. Karena pada


contoh tersebut ada 10 pengamatan maka frekuensi kumulatif pertama = 1/10,
kedua 1/10 + 1/10 = 2/10, dan seterusnya. Frekuensi kumulatif ini dapat
dihitung dengan:
Pada sel I2 ketik formula =A2/10. Kopikan formula tersebut sampai dengan sel
I11.
 Untuk mencari LuasZ, dapat digunakan tabel luas kurva normal dan nilai residual
terstandardisasi yang telah diurutkan atau dapat dicari dengan menggunakan
program Microsoft Excel sebagai berikut:
Pada sel J2 ketik formula =NORMSDIST(H2). Kopikan formula tersebut sampai
dengan sel J11.
 Untuk mencari nilai Kolmogorov-Smirnov dilakukan dengan cara 𝑍𝑟 − 𝑍𝑡 =
0,100 − 0,1151 = −0,0151.
Pada sel K2, ketik formula =12-J2. Kopikan formula tersebut sampai dengan sel
K11.
 Nilai Kolmogorov-Smimov hitung didapatkan lewat nilai Kolmogorov-Smirnov
absolut yang paling besar. Caranya, pada sel K12, ketik formula
=ABS(MAX(K3:K11)) sehingga muncul nilai Kolmogorov-Smirnov hitung
sebesar 0,257.
Kesimpulan:
Dengan uji dua ujung dari tabel Kolmogorov-Smimov dengan 𝑑𝑓: 𝑛, 𝛼/2, atau
𝐾(10:0,05) = 0,410.
Karena nilai 𝐾ℎ𝑖𝑡𝑢𝑛𝑔 (0,257) < dari nilai 𝐾𝑡𝑎𝑏𝑒𝑙 (0,410) maka 𝐻𝑎 ditolak. Artinya, nilai
residual terstandardisasi menyebar secara normal.
 Uji Jarque-Bera (JB Test)
Uji ini merupakan uji normalitas berdasarkan koefisien keruncingan (kurtosis) dan
koefisien kemiringan (Skewness). Uji ini dilakukan dengan menggunakan langkah-
langkah:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂).
 Membuat standardisasi nilai residualnya.
 Menghitung koefisien skewness dan kurtosis.
 Menghitung besarnya nilai JB statistik, yaitu dengan rumus:
𝑆 2 (𝐾 − 3)2
𝐽𝐵 = 𝑛 [ + ]
6 24
Keterangan:
JB = Jarque-Bera hitung.
S = Koefisien skewness.
K = Koefisien kurtosis.
 Bandingkan nilai 𝐽𝐵ℎ𝑖𝑡𝑢𝑛𝑔 dengan tabel 𝑋 2 𝑡𝑎𝑏𝑒𝑙 .
 Menarik kesimpulan kenormalan data dengan kriteria jika 𝐽𝐵ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝑋 2 𝑡𝑎𝑏𝑒𝑙
maka residual terstandardisasi berdistribusi normal.
d. Konsekuensi
Konsekuensi jika asumsi normalitas tidak terpenuhi adalah nilai prediksi yang diperoleh
akan bias dan tidak konsisten.
e. Cara Mengatasi
Untuk mengatasi jika asumsi normalitas tidak terpenuhi, seperti dalam model persamaan
di atas, dapat digunakan beberapa metode treatment berikut:
 Menambah jumlah data.
Dengan menambah jumlah data maka akibat yang ditimbulkan dari adanya nilai
residual yang ekstrem akan semakin berkurang karena dengan semakin banyaknya
jumlah data maka pembagi nilai ekstrem akan semakin besar sehingga nilai rata-rata
akan semakin mendekati nilai tengah.
 Melakukan transformasi data menjadi log atau LN atau bentuk lainnya.
Dengan melakukan transformasi maka selisih antara nilai yang terbesar dengan nilai
yang terkteil akan semakin pendek. Dengan demikian data yang memiliki nilai
ekstrem akan menjadi semakin dekat dengan nilai rata-ratanya.
 Menghilangkan data yang dianggap sebagai penyebab data tidak normal.
Dengan menghilangkan data yang dianggap sebagai penyebab data tidak normal maka
sebagian besar data akan semakin mendekati nilai rata-ratanya. Untuk menghilangkan
data yang dianggap sebagai penyebab data tidak normal dilakukan dengan
menehilangkan seluruh data pada pengamatan tersebut, baik variabel tergantung
maupun semua variabel bebasnya. Cara ini merupakan cara yang paling praktis, tetapi
jika jumlah data yang dimiliki sangat terbatas maka cara ini bukan merupakan cara
yang direkomendasikan.
 Dibiarkan saja, tetapi kita harus menggunakan alat analisis lain.
Analisis regresi merupakan salah satu analisis parametrik. Salah satu syarat dari
penggunaan analisis parametrik adalah adanya kenormalan data. Oleh karena itu, jika
asumsi kenormalan data tidak terpenuhi maka kita dapat menggunakan analisis
nonparametrik yang tidak mensyaratkan adanya kenormalan data, meskipun dengan
konsekuensi derajat kesimpulan yang diperoleh lebih lemah dibanding analisis
parametrik.
2. Multikolinearitas
a. Pengertian
Pengertian kolinearitas sering dibedakan dengan multikolinearitas. Kolinearitas berarti
terjadi korelasi linear yang mendekati sempurna antara kedua variabel bebas. Sedangkan
multikolinearitas berarti terjadi korelasi linear yang mendekati sempurna antara lebih
dari dua variabel bebas. Dalam pembahasan ini, kedua istilah tersebut tidak terlalu
dibedakan karena lebih pada teknis pengujiannya saja.
b. Penyebab
 Kebanyakan variabel ekonomi berubah sepanjang waktu. Besaran-besaran ekonomi
dipengaruhi oleh faktor-faktor yang sama maka jika satu faktor memengaruhi variabel
dependen maka seluruh variabel akan cenderung berubah dalam satu arah.
 Adanya penggunaan nilai lag (lagged value) dari variabel-variabel bebas tertentu
dalam model regresi.
 Metode pengumpulan data yang dipakai (the data collection method employed).
 Adanya kendala dalam model atau populasi yamg menjadi sampel (constaint on the
model or in the population being sampled).
 Adanya kesalahan spesifikasi model (specification model). Hal ini dapat terjadi karena
seorang peneliti memasukkan variabel penjelas yang seharusnya dikeluarkan dari
model empiris. Dapat juga terjadi karena seorang peneliti mengeluarkan variabel
penjelas yang seharusnya dimasukkan dalam model empiris.
 Adanya model yang berlebihan (an overdetermined model). Hal ini terjadi ketika
model empiris (jumlah variabel penjelas) yang digunakan melebihi jumlah data
(observasi).
c. Cara Mendeteksi
Banyak metode yang dapat digunakan untuk mendeteksi adanya masalah
multikolinearitas. Namun, dua metode ini yang paling sering digunakan, yaitu:
 Dengan menggunakan nilai VIP (Variance Inflation Factor).
Untuk mengetahui ada tidaknya multikolinearitas antarvariabel, salah satu caranya
adalah dengan melihat dari nilai Variance Inflation Factor (VIF) dari masing-masing
variabel bebas terhadap variabel terikatnya. Gujarati (1995): jika nilai VIF tidak lebih
dari 10 maka model dinyatakan tidak mengandung multikolinearitas. Setelah melalui
perhitunganan komputer dihasilkan nilai VIF yang lebih kecil dari 10. Hal ini
menunjukkan tidak terjadinya masalah multikolinearitas yang berarti tidak ada
hubungan antarvariabel bebas. Uji ini dilakukan dengan menggunakan langkah-
langkah:
Menghitung Nilai VIF 𝑋1
 Meregresikan variabel bebas selain 𝑋1 terhadap 𝑋1. Karena dalam model ini hanya
dua variabel bebas saja maka variabel bebas sisanya hanya 𝑋2 saja.
 Menghitung koefisien determinasi dari regresi variabel bebas selain 𝑋1 terhadap 𝑋1
dan diperoleh 𝑅𝑗 2 .
 Menghitung nilai Tolerance (TOL) dengan rumus 𝑇𝑂𝐿 = 1 − 𝑅𝑗 2.
1
 Menghitung nilai Variance Inflation Factor (VIF), dengan rumus 𝑉𝐼𝐹 = 𝑇𝑂𝐿.
Demikian juga untuk menghitung VIF untuk 𝑋2, langkah-langkahnya sama dengan
langkah menghitung VIF untuk 𝑋1. Bedanya, ketika menghitung VIF untuk 𝑋1 , yang
bertindak sebagai variabel tergantung adalah 𝑋1 dan variabel bebasnya adalah variabel
bebas sisanya. Sedangkan untuk menghitung nilai VIF untuk 𝑋2 yang bertindak
sebagai variabel tergantung adalah 𝑋2 dan variabel bebasnya adalah variabel bebas
sisanya. Karena dalam kasus ini hanya terdiri dari dua variabel bebas maka nilai VIF
untuk 𝑋1 akan sama dengan nilai VIF untuk 𝑋2.
Contoh Pengujian Multikolinearitas dengan Variance Inflator Factor
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah apakah
dalam persamaan regresi tersebut asumsi multikolinearitas terpenuhi dengan Variance
Inflation Factor?
Jawab:
Untuk melakukan uji multikolinearitas, digunakan bantuan lembar kerja berikut ini:

Gambar 22. Lembar Kerja Uji Multikolinearitas

Setelah semua sel pada lembar kerja diisi lengkap dengan mengikuti formula pada
lembar kerja di atas maka akan diperoleh hasil sebagai berikut:

Gambar 23. Hasil Lembar Kerja Uji Multikolinearitas


Kesimpulan:
Berdasarkan hasil perhitungan nilai Variance Inflation Factor (VTF), pada lembar
kerja di atas dapat disimpulkan:
VIF 𝑋1 (1,052) < 10 maka tidak terjadi masalah kolinearitas.
VIF 𝑋2 (1,052) < 10 maka tidak terjadi masalah kolinearitas.
 Dengan menggunakan matriks korelasi antarvariabel bebas.
Selain menggunakan nilai VIF dapat pula dilakukan dengan melihat besarnya nilai
koefisien korelasi antarvariabel bebasnya. Jika nilai koefisien korelasi antar masing-
masing variabel bebasnya tidak lebih dari 0,7 berarti model tersebut tidak
mengandung unsur muitikolinear.
Untuk menghitung matriks korelasi antarvariabel bebas dapat dilakukan denean
langkah-langkah scbagai berikut:
 Buat data seperti berikut ini:

Gambar 24. Tabulasi Data Uji Multikolinearitas-Korelasi Antarvariabel Bebas

 Klik menu Data  Data Analysis.


 Muncul tampilan Data Analysis. Pada Analysis Tools, pilih Correlations
sehingga tampilannya menjadi seperti berikut:

Gambar 25. Data Analysis-Correlation

 Klik OK sehingga muncul tampilan Correlations.


 Pada kotak Input Range, isi dengan $B$2:$C$11 atau blok range data yang akan
dikorelasikan, yaitu range B2:C11.
Gambar 26. Correlation

 Pada Output Options, pilih New Worksheet Ply.


 Menghasilkan output pada sheet yang lain sebagai berikut:

Gambar 27. Hasil Data Uji Multikolinearitas-Korelasi Antarvariabel Bebas

Kesimpulan:
Karena koefisien korelasi antara 𝑋1 dengan 𝑋2 (𝑟𝑋1 . 𝑋2 = 0,223) < 0,7 maka tidak
terjadi masalah kolinearitas. d.
d. Konsekuensi
Beberapa akibat yang timbul jika hasil estimasi model empiris mengalami masalah
multikolinearitas adalah sebagai berikut:
 Penaksir kuadrat terkecil tidak bisa ditentukan (indeterminate) meskipun hasil
estimasi yang dihasilkan masih BLUE (Best Linear Unbiased Estimator).
 Interval kepercayaan (confidence interval) cenderung meningkat lebih besar
sehingga mendorong untuk menerima hipotesis nol (antara lain koefisien populasi
adalah nol).
 Nilai t-statistik koefisien dari satu atau beberapa variabel penjelas secara statistik
tidak signifikan sehingga dapat menyebabkan dikeluarkannya suatu variabel
penjelas dalam suatu model regresi, padahal variabel penjelas tersebut memiliki
peran yang sangat penting dalam menjelaskan variabel tergantung.
 Penaksir-penaksir OLS dan kesalahan bakunya cenderung tidak stabil dan sangat
sensitif bila terjadi perubahan data, meskipun perubahan itu sangat kecil.
 Jika multikolinearitas tinggi maka mungkin 𝑅 2 bisa tinggi, tetapi tidak satu pun
(sangat sedikit) taksiran koefisien regresi yang signifikan secara statistik.
e. Cara Mengatasi
Beberapa cara untuk mengatasi masalah multikolinear adalah:
 Memperbesar ukuran sampel.
Masalah multikolinear diharapkan bisa hilang atau berkurang jika ukuran sampel
diperbesar (atau jumlah sampel ditambah). Dengan memperbesar ukuran sampel
maka kovarian di antara parameter-parameter dapat dikurangi. Hal ini karena
kovarian berhubungan terbalik dengan ukuran sampel.
 Menghilangkan salah satu atau lehih variabel bebas.
Untuk menghilangkan beberapa variabel bebas dari model dilakukan satu per satu.
Pilih variabel bebas yang memiliki koefisien korelasi paling kecil dengan variabel
tergantungnya.
 Menggabungkan data time series dan data cross-section.
Metode penggabungan data time series dengan data cross-section sering dikenal
sebagai metode pool data. Dengan menggunakan metode ini maka jumlah
pengamatan akan bertambah.
 Melakukan transformasi data.
Transformasi data merupakan salah satu altematif yang dapat digunakan untuk
mengatasi masalah multikolinearitas. Transformasi ini dapat dilakukan dengan
pembedaan pertama (first difference form). Model regresi dalam bentuk pembedaan
pertama seringkali mengurangi keseriusan multikolinear (Gujarati. 1995).
 Dengan menggunakan metode regresi komponen utama (principle-components
regression).
Dengan menggunakan metode regresi komponen utama (principle-components
regression) maka variabel bebas yang memiliki korelasi yang kuat dapat diringkas
menjadi sebuah variabel baru yang mampu mencerminkan variabel pembentuknya.
3. Heteroskedostisitas
a. Pengertian
Dengan adanya heteroskedastisitas berarti ada varian variabel dalam model yang tidak
sama (konstan). Sebaliknya jika varian variabel dalam model memiliki nilai yang sama
(konstan) disebut sebagai homoskedastisitas. Masalah heteroskedastisitas sering terjadi
pada penelitian yang menggunakan data cross-section.
b. Penyebab
Berikut ini diberikan beberapa penyebab terjadinya perubahan nilai varian yang
kemudian berpengaruh terhadap homoskedastisitas residualnya.
 Adanya pengaruh dari kurva pengalaman (learning curve).
Dengan semakin meningkatnya pengalaman maka akan semakin menurun tingkat
kesalahannya. Akibatnya, nilai varian makin lama semakin menurun.
 Adanya peningkatan perekonomian
Dengan semakin meningkatnya perekonomian maka semakin beragam tingkat
pendapatan. Alternatif pengeluaran juga semakin besar sehingga akan meningkatkan
varian.
 Adanya peningkatan teknik pengambilan data
Jika teknik pengumpulan data semakin membaik, nilai varian cenderung mengecil.
Misalnya bank yang menggunakan peralatan Electronic Data Processing (EDP)
akan membuat kesalahan yang relatif kecil dalam laporannya dibanding bank yang
tidak mempunyai peralatan tersebut.
c. Cara Mendeteksi
Untuk menguji adanya masalah heteroskedastisitas dapat dilakukan dengan
menggunakan beberapa metode, yaitu:
 Metode Analisis Grafik
Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu
horisontal menggambarkan nilai prediksi sedangkan sumbu vertikal
menggambarkan nilai residual kuadrat. Jika scater plot membentuk pola tertentu
maka hal itu menunjukkan adanya masalah heteroskedastisitas, sedangkan jika
scater plot menyebar secara acak maka hal itu menunjukkan tidak adanya masalah
heteroskedastisitas. Sedangkan untuk mendeteksi lebih lanjut mengenai variabel
bebas mana yang menjadi penyebab terjadinya masalah heteroskedastisitas maka
kita dapat mengamati scater plot di mana variabel bebas sebagai sumbu horisontal
dan nilai residual kuadratnya sebagai sumbu vertikal. Namun, demikian metode ini
dapat bersifat subyektif di mana dengan scater plot yang sama, antara orang yang
satu dengan yang lain dapat memberikan kesimpulan yang berbeda mengenai pola
scater plot yang sama.
 Metode Glejser
Uji Glejser dilakukan dengan meregresikan semua variabel bebas terhadap nilai
mutlak residualnya. Jika terdapat pengaruh variabel bebas yang signifikan terhadap
nilai mutlak residualnya maka dalam model terdapat masalah heteroskedastisitas.
Uji Glejser ini dilakukan dengan langkah-langkah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂).
 Memutlakkan nilai residualnya.
 Meregresikan variabel bebas terhadap nilai mutlak residualnya.
 Menarik kesimpulan uji heteroskedatisitas dengan keriteria jika variabel bebas
signifikan terhadap nilai mutlak residualnya maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
Contoh Pengujian Heteroskedastisitas dengan Uji Glejser
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode Glejser, apakah dalam persamaan regresi tersebut terdapat masalah
heteroskedastisitas?
Jawab:
Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Glejser, buatlah
lembar kerja seperti berikut ini:

Gambar 28. Lembar Kerja Uji Heteroskedastisitas-Glejser


Keterangan:
o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Untuk menghitung nilai residual pada sel F2, ketik formula = D2-E2. Kopikan
formula tersebut sampai dengan sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
o Untuk menghitung nilai mutlak residual, pada sel G2, ketik formula =ABS(F2).
Kopikan formula tersebut sampai dengan sel G11.
Setelah semua sel dilengkapi dengan mengopikan formula sel F2 sampai F11, sel
G2 sampai G11, dan sel E12 sampai G12 maka hasilnya adalah sebagai berikut:

Gambar 29. Hasil Lembar Kerja Uji Heteroskedastisitas-Glejser

Langkah berikutnya adalah meregresikan variabel bebas, yaitu 𝑋1 dan 𝑋2, terhadap
nilai mutlak residualnya dengan langkah-langkah sebagai berikut:
 Buat data seperti berikut ini:

Gambar 30. Data Analisis Uji Heteroskedastisitas-Glejser


 Klik menu Data  Data Analysis.
 Akan muncul tampilan Data Analysis. Pada Analysis Tools pilih Regression.

Gambar 31. Data Analysis-Regression

 Klik OK sehingga muncul tampilan Regression.


 Pada kotak Input Y Range isi dengan $G$2:$G$11 atau blok range data variabel
tergantungnya.
 Pada kotak Input X Range isi dengan $B$2:$C$11 atau blok range data variabel
bebasnya.

Gambar 32. Regression

 Pada Output Options pilih New Worksheet Ply.


 Akan dihasilkan output pada sheet yang lain, yaitu sebagai berikut:
Gambar 33. Summary Output Analisis Regresi-Uji Glejser

Kesimpulan:
 Karena nilai p-value 𝑋1> 0,05 maka tidak terjadi masalah heteroskedastisitas pada
𝑋1.
 Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2.
 Metode Park
Uji Park dilakukan dengan meregresikan semua variabel bebas terhadap nilai Ln
residual kuadrat (Ln 𝑒 2 ). Jika terdapat pengaruh variabel bebas yang signifikan
terhadap nilai Ln residual kuadrat (Ln 𝑒 2 ) maka dalam model terdapat masalah
heteroskedastisitas. Uji Park ini dilakukan dengan langkah-langkah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂).
 Menguadratkan nilai residualnya.
 Mentransformasikan nilai residual kuadrat ke dalam bentuk Ln.
 Meregresikan variabel bebas terhadap nilai Ln residual kuadrat.
 Menarik kesimpulan uji heteroskedatisitas dengan kriteria jika variabel bebas
signifikan terhadap nilai Ln residual kuadrat maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
Contoh Pengujian Heteroskedastisitas dengan Uji Park
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode Park, apakah dalam persamaan regresi tersebut terdapat masalah
heteroskedastisitas?
Jawab:
Untuk melakukan uji heteroskedastisitas dengan menggunakan uji Park, buatlah
lembar kerja seperti berikut ini:
Gambar 34. Lembar Kerja Uji Heteroskedastisitas-Uji Park

o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperolah persamaan regresi sebagai


berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 , pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai dengan sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
o Untuk menghitung nilai kuadrat residual pada sel G2, ketik formula =F2^2.
Kopikan formula tersebut sampai dengan sel G11.
o Untuk mentransformasikan nilai kuadrat residual pada sel H2, ketik formula
=Ln(H2). Kopikan formula tersebut sampai dengan sel H11.
Setelah semua sel dilengkapi dengan mengopi sel F2 sampai F11, sel G2 sampai G11,
sel H2 sampai H11, dan sel E12 sampai H12 maka hasilnya adalah sebagai berikut:

Gambar 35. Hasil Lembar Kerja Uji Heteroskedastisitas-Uji Park


Langkah berikutnya adalah meregresikan variabel bebas, yaitu 𝑋1 dan 𝑋2, terhadap
nilai mutlak residualnya dengan langkah-langkah sebagai berikut:
 Gunakan data seperti pada Gambar 35.
 Klik menu Data  Data Analysis.
 Pada Analysis Tools pilih Regression.

Gambar 36. Data Analysis

 Klik OK sehingga muncul tampilan Regression.


 Pada kotak Input Y Range, isi dengan $H$2:$H$11 atau blok range data variabel
tergantungnya.
 Pada kotak Input X Range, isi dengan $B$2:$C$11 atau blok range data variabel
bebasnya.

Gambar 37. Regression

 Pada Output Options pilih New Worksheet Ply.


 Menghasilkan output pada sheet yang lain sebagai berikut:
Gambar 38. Summary Output Analisis Regresi-Uji Park

Kesimpulan:
 Karena nilai p-value 𝑋1 > 0,05 maka tidak terjadi masalah heteroskedastisitas pada
𝑋1.
 Karena nilai p-value 𝑋2 < 0,05 maka terjadi masalah heteroskedastisitas pada 𝑋2.
 Metode White
Uji White dilakukan dengan meregresikan semua variabel bebas, variabel bebas
kuadrat, dan perkalian (interaksi) variabel bebas terhadap nilai residual kuadratnya.
Jika terdapat pengaruh variabel bebas yang signifikan terhadap nilai residual
kuadratnya maka dalam model terdapat masalah heteroskedastisitas. Uji White ini
dilakukan dengan langkah-langkah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂ ).
 Menguadratkan nilai residualnya.
 Menghitung nilai kuadrat variabel bebas dan nilai perkalian (interaksi)
antarvariabel bebas.
 Meregresikan variabel bebas, kuadrat variabel bebas, perkalian antarvariabel bebas
terhadap nilai mutlak residualnya.
 Menarik kesimpulan uji heteroskedastisitas dengan kriteria jika variabel bebas
signifikan terhadap nilai mutlak residualnya maka terjadi masalah
heteroskedastisitas, dan sebaliknya.
 Metode Rank Spearman
Uji Rank Spearman dilakukan dengan mengorelasikan semua variabel bebas terhadap
nilai mutlak residualnya dengan menggunakan korelasi Rank Spearman. Jika terdapat
korelasi variabel bebas yang signifikan terhadap nilai multak residualnya maka dalam
model terdapat masalah heteroskedastisitas. Uji Rank Spearman ini dilakukan dengan
langkah-langkah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂ ).
 Memutlakkan nilai residualnya.
 Mengorelasikan variabel bebas terhadap nilai mutlak residualnya dengan analisis
korelasi Rank Spearman.
 Menarik kesimpulan uji heteroskedastisitas dengan kriteria di mana jika variabel
bebas berkorelasi signifikan terhadap nilai mutlak residualnya maka terjadi
masalah heteroskedastisitas, dan sebaliknya. Untuk melakukan analisis korelasi
Rank Spearman antara variabel bebas dengan nilai mutlak residualnya, dapat
dicoba sendiri dengan menggunakan langkah-langkah analisis korelasi seperti yang
telah diuraikan secara rinci pada bab analisis korelasi.
d. Konsekuensi
Menurut Gujarati (1995) dalam Aliman (1999) ada beberapa konsekuensi sebagai akibat
dari adanya masalah heteroskedastisitas dalam model persamaan regresi adalah:
 Walaupun penaksir OLS masih linear dan masih tidak bias, tetapi akan mempunyai
varian yang tidak minimum lagi serta tidak efisien dalam sampel. Lebih lanjut
penaksir OLS juga tidak efisien dalam sampel besar.
 Formulasi untuk menaksir varian dari estimasi OLS secara umum adalah bias, di
mana bila menaksir secara apriori, seorang peneliti tidak dapat mengatakan bahwa
bias tersebut akan positif (upward bias) atau negatif (downward bias). Akibatnya,
confidence interval dan uji hipotesis yang didasarkan pada uji t dan nilai distribusi F
tidak dapat dipercaya.
 Prediksi (variabel bebas terhadap nilai variabel tergantung) yang didasarkan pada
koefisien parameter variabel bebas dari data awal (data asli) akan mempunyai varian
yang tinggi sehingga prediksi tidak akan efisien. Lebih lanjut, karena prediksi dari
varian meliputi varian dari faktor pengganggu, 𝑢𝑖 , dan dari taksiran parameter
(variabel bebas), tidak akan minimal bila ditemukan adanya masalah
heteroskedastisitas dalam model empiris yang sedang diestimasi.
e. Cara Mengatasi
Menurut Imam Ghozali (2005), perbaikan model jika terjadi masalah heteroskedastisitas
dapat dilakukan dengan beberapa cara, yaitu:
 Melakukan transformasi dalam bentuk model regresi dan membagi model regresi
dengan salah satu variabel independen yang digunakan dalam model tersebut.
Misalkan model awal 𝑌𝑖 = 𝑏0 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑢𝑡
Maka setelah dilakukan transformasi dengan membagi model tersebut dengan salah
satu variabel bebas, misalnya 𝑋1 , maka modelnya menjadi:
𝑌 𝑏0 𝑏2 𝑋2 𝑢𝑡
= + 𝑏1 + +
𝑋1 𝑋1 𝑋1 𝑋1
Dalam bentuk ini maka 𝑏1 akan menjadi intercept dan 𝑏0 akan menjadi koefisien.
Jika ingin mengembalikan ke model asal, hendaknya model transformasi yang telah
diestimasi dikalikan kembali dengan 𝑋1.
 Melakukan transformasi logaritma sehingga model persamaan regresinya menjadi:
𝐿𝑜𝑔 𝑌 = 𝑏0 + 𝑏1 𝐿𝑜𝑔𝑋1 + 𝑏2 𝐿𝑜𝑔𝑋2 + 𝑢𝑡
 Melakukan transformasi Ln sehingga model persamaan regresinya menjadi:
𝐿𝑛 𝑌 = 𝑏0 + 𝑏1 𝐿𝑛𝑋1 + 𝑏2 𝐿𝑛𝑋2 + 𝑢𝑡
4. Linearitas
a. Pengertian
Pengujian linearitas ini perlu dilakukan untuk mengetahui model yang dibuktikan
merupakan model linear atau tidak. Dengan uji linearitas ini akan diperoleh informasi
apakah model empiris sebaiknya linear, kuadrat, atau kubik.
b. Cara mcndeteksi
Ada beberapa cara untuk menguji apakah model sebaiknya menggunakan persamaan
linear atau tidak, yaitu:
 Metode Analisis Grafik
Metode analisis grafik dilakukan dengan mengamati scater plot di mana sumbu
horisontal menggambarkan nilai prediksi terstandardisasi sedangkan sumbu vertikal
menggambarkan nilai residual terstandardisasi. Asumsi linearitas terpenuhi jika plot
antara nilai residual terstandardisasi dengan nilai prediksi terstandardisasi tidak
membentuk suatu pola tertentu (acak). Namun, metode ini dapat bersifat subjektif,
di mana dengan scater plot yang sama antara orang satu dengan orang yang lain
dapat memberikan kesimpulan yang berbeda mengenai pola scater plot tersebut.
 Metode Uji MWD (Mac Kinnon, White, dan Davidson)
Uji MWD merupakan salah satu metode yang digunakan untuk mengukur linearitas
yang dikembangkan oleh tiga orang, yaitu Mac Kinnon, White, dan Davidson.
Langkah-langkahnya adalah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya dan diberi nama (𝑌̂1 ).
 Mentransformasikan variabel bebas dan variabel tergantung ke dalam bentuk Ln.
 Membuat persamaan regresi untuk semua variabel yang telah ditransformasikan
dalam bentuk Ln.
 Mencari nilai prediksi dari persamaan regresi untuk semua variabel yang telah
ditransformasikan dalam bentuk Ln dan diberi nama (𝑌̂2 ) .
 Mentransformasikan nilai prediksinya (𝑌̂1 ) ke dalam bentuk Ln dan diberi nama
(𝐿𝑛𝑌̂1).
 Mengurangi nilai (𝐿𝑛𝑌̂1) dengan nilai (𝑌̂2 ) dan diberi nama 𝑍1 .
 Meregresikan variabel bebas dan 𝑌̂2 terhadap variabel tergantung. Model
dikatakan linear jika koefisien 𝑌̂2 tidak signifikan.
 Mentransformasikan nilai prediksinya (𝑌̂2 ) ke dalam bentuk AntiLn dan diberi
nama (𝐴𝑛𝑡𝐿𝑛𝑌̂2).
 Mengurang nilai (𝐴𝑛𝑡𝐿𝑛𝑌̂2) dengan nilai (𝑌̂1) dan diberi nama 𝑍2 .
 Meregresikan variabel bebas dan 𝑍1 terhadap variabel tergantung. Model
dikatakan linear jika koefisien 𝑍2 signifikan.
 Menarik kesimpulan uji linearitas dengan kriteria sebagai berikut:
o Jika 𝑍1 linear dan 𝑍2 linear maka model harus linear.
o Jika 𝑍1 tidak linear dan 𝑍2 itidak linear maka model harus nonlinear.
o Jika 𝑍1 tidak linear dan 𝑍2 linear maka model boleh nonlinear dan boleh linear.
o Jika 𝑍1 linear dan 𝑍2 tidak linear maka model boleh linear dan boleh nonlinear.
Contoh Uji Linearitas dengan MWD
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode MWD, apakah dalam regresi tersebut sebaiknya menggunakan model linear
atau nonlinear?
Jawab:
Untuk melakukan uji linearitas dengan menggunakan uji MWD, buatlah lembar
kerja seperti berikut (keterangan pengerjaan di bawah tabel):

Gambar 39. Lembar Kerja Uji Linearitas-MWD

Keterangan:
o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai
berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑1 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑1 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Untuk melakukan transformasi 𝑋1, 𝑋2 dan Y ke dalam bentuk Ln, lakukan
langkah sebagai berikut:
- Pada sel F2, ketikkan formula =Ln(B2). Kopikan formula tersebut sampai
dengan sel F11.
- Pada sel G2, ketikkan formula =Ln(C2). Kopikan formula tersebut sampai
dengan sel G11.
- Pada sel H2, ketikkan formula =Ln(D2). Kopikan formula tersebut sampai
dengan sel H11.
o Regresikan Ln𝑋1 , Ln𝑋2, terhadap LnY sehingga diperoleh persamaan regresi
yang kedua sebagai berikut:
𝑌 = 0,552 − 0,552𝑋1 + 1,387𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑2 pada sel I2 ketik formula =0,552-
(0,552*F2)+(1,387*G2). Kopikan formula tersebut sampai dengan sel I11.
𝑌𝑝𝑟𝑒𝑑2 = 0,552 − (0,552 ∗ 0,693) + (1,387 ∗ 1.099) = 1,693
o Untuk mentransformasikan 𝑌𝑝𝑟𝑒𝑑1 dalam bentuk Ln pada sel J2, ketik formula
=Ln(E2). Kopikan formula tersebut sampai dengan sel J11.
o Untuk menghitung nilai 𝑍1 pada sel K2 ketik formula =J2-I2. Kopikan formula
tersebut sampai dengan sel K11.
o Untuk mentransformasikan 𝑌𝑝𝑟𝑒𝑑2 ke bentuk AntiLn pada sel L2, ketik formula
=EXP(I2). Kopikan formula tersebut sampai dengan sel L11.
o Untuk menghitung nilai 𝑍1 pada sel M2 ketikkan formula =E2-L2. Kopikan
formula tersebut sampai dengan sel M11.
o Kopikan sel E12 sampai dengan sel M12.
Untuk memudahkan dalam meregresikan 𝑋1, 𝑋2 dan 𝑍1 terhadap Y dan
meregresikan 𝑋1 , 𝑋2 dan 𝑍2 terhadap Y maka buatlah lembar kerja sebagai berikut:

Gambar 40. Lembar Kerja Uji MWD dengan 𝒁𝟏 dan 𝒁𝟐 Siap untuk Diregresikan

Setelah meregresikan 𝑋1, 𝑋2 dan 𝑍1 terhadap Y dengan cara:


- Pilih menu Data  Data Analysis.
- Pada Analysis Tools pilih Regression, OK.
- Pada Input Y Range, blok sel A2:A11.
- Pada Input X Range, blok sel B2:D11.
maka diperoleh output sebagai berikut:

Gambar 41. Summary Output Regression Uji MWD-𝒁𝟏

Karena nilai p-value 𝑍1 (0,170) > 0,05 maka model dinyatakan linear.
Setelah meregresikan 𝑋1, 𝑋2 dan 𝑍2 terhadap Y dengan cara:
- Pilih menu Data  Data Analysis.
- Pada Analysis Tools pilih Regression, OK.
- Pada Input Y Range, blok sel F2:F11.
- Pada Input X Range, blok sel G2:I11.
maka diperoleh output sebagai berikut:
Gambar 42. Summary Output Regression Uji MWD-𝒁𝟐

Karena nilai p-value 𝑍2 (0,282) > 0,05 maka model dinyatakan linear.
Kesimpulan:
Karena 𝑍1 merupakan model linear dan 𝑍2 nonlinear maka model dapat
menggunakan persamaan linear maupun nonlinear.
 Metodc Uji Lagrange Multiplier (LM-Test)
Uji LM-Test rnerupakan salah satu metode yang digunakan untuk mengukur
linearitas yang dikembangkan oleh Engle (1982). Prinsip metode ini adalah
membandingkan antara nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 (𝑛 𝑋 𝑅 2 ) dengan nilai 𝑋 2 𝑡𝑎𝑏𝑒𝑙 dengan 𝑑𝑓 =
(𝑛, 𝛼). Langkah-langkahnya adalah sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya dan diberi nama (𝑌̂1 ).
 Mencari nilai residual (𝑌 − 𝑌̂).
 Menguadratkan semua nilai variabel bebas.
 Meregresikan kuadrat variabel bebas terhadap nilai residualnya:
𝑈 = 𝑏0 + 𝑏1 𝑋1 2 + 𝑏2 𝑋2 2 + 𝑒
 Berdasarkan persamaan regresi nilai kuadrat variabel bebas terhadap nilai residu,
can nilai koefisien determinasinya 𝑅 2 .
 Hitung nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan persamaan (𝑛 𝑋 𝑅 2 ) di mana 𝑛 adalah jumlah
pengamatan.
 Menarik kesimpulan uji linearitas, dengan kriteria jika 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 < 𝑋 2 𝑡𝑎𝑏𝑒𝑙
dengan 𝑑𝑓 = (𝑛, 𝛼) maka model dinyatakan linear. Demikian juga sebaliknya.
Contoh Uji Linearitas dengan LM-Test
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
metode LM-Test, apakah regresi tersebut sebaiknya menggunakan model linear atau
nonlinear?
Jawab:
Untuk melakukan uji lienaritas dengan menggunakan LM-Test, buatlah lembar kerja
seperti berikut ini:
Gambar 43. Lembar Kerja Uji LM-Test

Setelah semua sel dalam lembar kerja dilengkapi dengan mengopikan sel F2 sampai
dengan sel F11, sel G2 sampai dengan G11, sel H2 sampai dengan sel H11 dan sel
E12 sampai dengan sel H12 maka hasilnya adalah sebagai berikut:

Gambar 44. Hasil Lembar Kerja Uji LM-Test

c. Konsekuensi
Apabila kita salah dalam menentukan apakah model sebaiknya linear atau nonlinear
maka nilai prediksi yang dihasilkan akan menyimpang jauh sehingga nilai prediksinya
akan menjadi bias.
d. Cara mengatasi
Jika berdasarkan uji linearitas diharuskan untuk menggunakan model nonlinear maka
model ditransformasikan ke bentuk nonlinear, sedangkan jika berdasarkan uji linearitas
diharuskan menggunakan model linear maka model tetap menggunakan model linear.
5. Autokorelasi
a. Pengertian
Uji autokorelasi bertujuan untuk mengetahui apakah ada korelasi antara anggota
serangkaian data observasi yang diuraikan menurut waktu (time series) atau ruang (cross
section).
b. Penyebab
Beberapa penyebab munculnya masaiah autokorelasi dalam analisis regresi adalah:
 Adanya kelembaman (inertia).
Salah satu ciri yang menonjol dari sebagian data runtut waktu (time series) dalam
fenomena ekonomi adalah kelembaman, seperti data pendapatan nasional, indeks
harga konsumen, data produksi, data kesempatan kerja, data pengangguran;
menunjukkan adanya pola konjungtur. Dalam situasi seperti ini data observasi pada
periode sebelumnya dan periode sekarang, kemungkinan besar akan ada saling
ketergantungan (interdependence).
 Bias spesifikasi model kasus variabel yang tidak dimasukkan.
Hal ini disebabkan karena tidak dimasukkannya variabel yang menurut teori
ekonomi sangat penting perannya dalam menjelaskan variabel tak bebas. Bila hal ini
terjadi maka unsur pengganggu (error term) 𝑢𝑖 akan merefleksikan suatu pola yang
sistematis di antara sesama unsur pengganggu sehingga terjadilah situasi
autokorelasi di antara unsur pengganggu.
 Adanya fenomena laba-laba (cobweb phenomenon).
Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditas
sektor pertanian. Di sektor pertanian, reaksi penawaran terhadap perubahan harga
terjadi setelah melalui tenggang waktu (getation period). Misalnya panen komoditas
permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya.
Akibatnya, jika pada akhir tahun 𝑡, harga komoditas pertanian ternyata lebih rendah
daripada harga sebelumnya maka pada tahun berikutnya (𝑡 + 1) akan cenderung
memproduksi lebih sedikit daripada yang diproduksi pada tahun 𝑡. Akibatnya 𝑢𝑖
tidak lagi bersifat acak (random), tetapi akan mengikuti pola, yaitu sarang laba-laba.
 Manipulasi data (manipulation of data)
Dalam analisis empiris, terutama pada data time-series, seringkali terjadi manipulasi
data. Hal ini terjadi karena data yang diinginkan tidak tersedia. Contohnya adalah
data GNP. Data GNP biasanya tersedia dalam bentuk tahunan, sehingga apabila
seorang peneliti ingin mendapatkan data GNP kuartalan maka peneliti tersebut harus
melakukan interpolasi data. Adanya interpolasi atau manipulasi data ini jelas akan
menimbulkan fluktuasi yang tersembunyi yang mengakibatkan munculnya pola
sistematis dalam unsur pengganggu dan akhirnya akan menimbulkan masalah
autokorelasi.
 Adanya kelambanan waktu (time lags)
Dalam regresi dengan menggunakan data time series, pengeluaran konsumsi atas
tingkat pendapatan merupakan hal yang lazim untuk mendapatkan bahwa pola
pengeluaran konsumsi untuk periode sekarang antara lain ditentukan oleh
pengeluaran konsumsi pada periode sebelumnya, di mana model seperti ini dalam
ekonometrika dikenal dengan istilah regresi model autoregresif.
𝑲𝒐𝒏𝒔𝒖𝒎𝒔𝒊(𝒕) = 𝒇[𝒑𝒆𝒏𝒅𝒂𝒑𝒂𝒕𝒂𝒏(𝒕) , 𝑲𝒐𝒏𝒔𝒖𝒎𝒔𝒊(𝒕−𝟏) ]
Dasar pemikiran di atas adalah konsumen tidak bisa mengubah pola konsumsinya
seketika, walaupun tingkat pendapatannya meningkat. Hal ini terjadi karena adanya
pengaruh psikologis, teknis dan kelembagaan. Jika unsur lag diabaikan dari model
di atas maka 𝑢𝑖 yang dihasilkan akan mencerminkan pola sistematis sebagai akibat
pengaruh konsumsi pada periode sebelumnya atas konsumsi sekarang.
c. Cara Mendeteksi
Menurut Gujarati (1995) ada beberapa cara untuk mendeteksi ada atau tidaknya masalah
autokorelasi, yaitu dengan menggunakan metode analisis grafik, metode Durbin-
Watson, metode Van Newmann, dan metode Runtest, sebagai salah satu uji statistik
nonparametrik.
 Uji Durbin Watson
Durbin-Watson (Uji D-W) merupakan uji yang sangat populer untuk menguji ada
tidaknya masalah autokorelasi dari model empiris yang diestimasi. Uji ini pertama
kali diperkenalkan oleh J. Durbin dan G.S Watson tahun 1951. Dalam menerapkan
uji ini terdapat beberapa asumsi penting yang harus dipenuhi, yaitu:
 Model regresi yang dilakukan harus menggunakan konstanta.
 Variabel bebas adalah nonstokastik atau relatif tetap untuk sampel yang berulang.
 Kesalahan pengganggu atau residual diperoleh dengan autoregresif order
pertama.
𝜺𝒕 = 𝜺𝒕−𝟏 + 𝝁𝒕
 Model regresi tidak meliputi nilai kelembaman (lag) dari variabel tak bebas
sebagai variabel penjelas.
 Dalam melakukan regresi tidak boleh ada data atau observasi yang hilang. Rumus
yang digunakan untuk uji Durbin-Watson adalah:
∑(𝒆 − 𝒆𝒕−𝟏 )𝟐
𝑫𝑾 =
∑ 𝒆𝒕 𝟐
Keterangan:
DW = Nilai Durbin-Watson Test
𝑒 = Nilai residual
𝑒𝑡−1 = Nilai residual satu periode sebelumnya
Dengan kriteria pengujian sebagai berikut:

Tabel 1. Kriteria Pengujian Autokorelasi dengan Durbin-Watson


DW Kesimpulan
< 𝑑𝐿 Ada autokorelasi positif
𝑑𝐿 s.d. 𝑑𝑈 Ragu-ragu
𝑑𝑈 s.d. 4 − 𝑑𝑈 Tidak ada autokorelasi
4 − 𝑑𝑈 s.d. 4 − 𝑑𝐿 Ragu-ragu
> 4 − 𝑑𝐿 Ada autokorelasi negatif
Contoh Uji Autokorelasi dengan Uji Durbin-Watson
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
uji Durbin-Watson, apakah dalam persamaan regresi tersebut terdapat masalah
autokorelasi?
Jawab:
Untuk melakukan uji autokorelasi dengan menggunakan uji Durbin-Watson, buatlah
lembar kerja seperti berikut ini:
Gambar 47. Lembar Kerja Uji Autokorelasi-Durbin Watson

o Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y diperoleh persamaan regresi sebagai


berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑1 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑1 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Setelah semua sel dilengkapi dengan cara mengopikan sel F2 sampai dengan sel
F11, sel G2 sampai dengan sel G11, sel H3 sampai dengan sel H11, sel I3 sampai
I11, sel J3 sampai dengan sel J11, dan sel E12 sampai dengan sel J12 maka
diperoleh hasil seperti berikut:

Gambar 48. Hasil Lembar Kerja Uji Autokorelasi-Durbin Watson


Berdasarkan hasil pada lembar kerja di atas kemudian dimasukkan pada rumus
Durbin-Watson, seperti berikut ini:
∑(𝑒 − 𝑒𝑡−1 )2 33,104
𝐷𝑊 = = = 3,386
∑ 𝑒𝑡 2 9,777
Dengan menggunakan tabel Durbin-Watson dengan derajat bebas 𝐾 (jumlah
variabel bebas) dan 𝑛 (jumlah pengamatan), atau dengan derajat bebasnya sebesar 2
dan 10 maka diperoleh nilai 𝑑𝐿 = 0,697 dan 𝑑𝑈 = 1,641 sehingga jika dimasukkan
ke dalam kriteria pengujian maka hasilnya adalah sebagai berikut:

Gambar 49. Kriteria Penerimaan Uji Autokorelasi-Durbin Watson

Kesimpulan:
Karena nilai DW sebesar 3,386 > 4 − 𝑑𝐿 (3,303) maka model persamaan regresi
tersebut mengandung masalah autokorelasi negatif.
 Uji Lagrange Multiplier (LM Test)
Uji Langrange Mutiple (LM Test) dapat digunakan untuk menguji adanya masalah
autokorelasi tidak hanya pada derajat pertama (first order), tetapi juga digunakan
pada berbagai tingkat derajat autokorelasi. Oleh karena itu, banyak penulis yang
menyatakan bahwa uji LM Test lebih bermanfaat dibanding uji DW. Hal ini terjadi
bila ukuran sampel yang digunakan lebih dari 100 observasi dan derajat
autokorelasinya lebih dari satu. Adapun langkah-langkah uji Lagrange Multiplier
(uji LM) adalah:
 Membuat persamaan regresinya.
 Mencari nilai prediksi dan memberinya nama (𝑌̂1).
 Hitung nilai residual dengan notasi 𝜇𝑖 .
 Lakukan regresi dengan 𝜇𝑖 sebagai variabel tergantung dan masukkan sebagai
variabel bebas, atau:
𝝁𝒊 = 𝒂 + 𝒃𝟏 𝑿𝟏 + 𝒃𝟐 𝑿𝟐 + 𝝁𝒊−𝟏 + 𝒆
 Menghitung nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan rumus 𝑿𝟐 = (𝒏 − 𝟏) ∗ 𝑹𝟐 .
 Menarik kesimpulan dengan membandingkan 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan 𝑋 2 𝑡𝑎𝑏𝑒𝑙 dengan
𝑑𝑓 = (𝛼, 𝑛 − 1). Jika nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑋 2 𝑡𝑎𝑏𝑒𝑙 , itu menunjukkan adanya
masalah autokorelasi. Sebaliknya, jika 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 ≤ 𝑋 2 𝑡𝑎𝑏𝑒𝑙 , itu menunjukkan
tidak terjadinya masalah autokorelasi.
Contoh Uji Autokorelasi dengan Labgrange Multiplier (LM-Test)
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
uji Lagrange Multiplier (LM Test), apakah dalam persamaan regresi tersebut
terdapat masalah autokorelasi?
Jawab:
Untuk melakukan uji autokorelasi dengan menggunakan uji Lagrange Multiplier,
buatlah lembar kerja berikut ini:
Gambar 50. Lembar Kerja Uji Autokorelasi-LM Test

o Berdasarkan hasil regresi 𝑋1 , 𝑋2 terhadap Y diperoleh persamaan regresi


sebagai berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
o Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑1 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai dengan sel E11.
𝑌𝑝𝑟𝑒𝑑1 = 2,553 − 1,092(2) + 1,961(3) = 6,252
o Setelah semua sel dilengkapi dengan cara mengopikan sel F2 sampai dengan sel
F11, sel G3 sampai dengan sel G11, sel H3 sampai dengan sel H11, sel I3 sampai
I11, dan sel E12 sampai dengan sel I12 maka diperoleh hasil seperti berikut:

Gambar 51. Hasil Lembar Kerja Uji Autokorelasi-LM Test

Langkah berikutnya adalah meregresikan 𝑋1 , 𝑋2, dan 𝑒𝑡−1 terhadap 𝑒, kemudian


ambil nilai koefisien determinasi 𝑅 2 untuk menghitung nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 dengan
langkah-langkah seperti yang telah diuraikan di atas sehingga tampilan kotak
dialog Regression menjadi seperti berikut:
Gambar 52. Regression

Pada tampilan kotak dialog Regression di atas terlihat bahwa hanya 9 observasi
saja yang dianalisis. Variabel 𝑋1, 𝑋2 observasi pertama pada lembar kerja di atas
tidak diikutkan dalam analisis karena variabel 𝑒𝑡−1 belum mempunyai nilai. Hasil
regresi tersebut dapat dilihat pada gambar berikut:

Gambar 52. Summary Output Regression LM Test-Autokorelasi

Berdasarkan output di atas diperoleh nilai 𝑅 2 sebesar 0,977 dan jumlah pengamatan
sebanyak 9 maka 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 sebesar (9 ∗ 0,977) = 8,793. Sedangkan nilai 𝑋 2 𝑡𝑎𝑏𝑒𝑙
dengan 𝑑𝑓(9; 0,05) dapat dicari dengan langkah-langkah sebagai berikut:
 Klik menu Formulas  pilih Insert Function. Pada Or select a Category pilih
Statistical. Pada Select a function, pilih CHISQ.INV.RT. Klik OK sehingga
tampilannya menjadi seperti berikut:
Gambar 53. Function Arguments

 Pada Probability, isi dengan 0,05. Pada Deg_freedom, isi 10. Klik OK shingga
muncul nilai sebesar 16,919.
Kesimpulan:
Karena nilai 𝑋 2 ℎ𝑖𝑡𝑢𝑛𝑔 (8,793) < 𝑋 2 𝑡𝑎𝑏𝑒𝑙 (16,919) maka model persamaan
regresi tidak mengandung masalah autokorelasi.
Hasil uji autokorelasi antara uji Durbin-Watson dengan uji Lagrange Multiplier
memberikan kesimpulan yang berbeda. Hal ini disebabkan uji Lagrange Multiplier
lebih cocok untuk observasi dalam jumlah besar di atas 100, sedangkan dalam kasus
ini penulis paksakan untuk memecahkan kasus yang sama, yaitu dengan
menggunakan 10 pengamatan saja.
 Uji Run Test
Run Test merupakan salah satu analisis nonparametrik yang dapat digunakan untuk
menguji apakah antarresidual terdapat korelasi yang tinggi. Jika antarresidual tidak
terdapat hubungan korelasi maka dikatakan nilai residual adalah acak atau random.
Run test digunakan untuk melihat apakah data residual terjadi secara random atau
tidak. Langkah-langkah untuk melakukan uji autokorelasi dengan Run-Test adalah
sebagai berikut:
 Membuat persamaan regresinya.
 Mencari nilai prediksinya (𝑌̂).
 Mencari nilai residualnya (𝑌 − 𝑌̂).
 Mencari nilai residual terstandardisasi.
 Menghitung nilai median dari data residual terstandardisasinya.
 Berilah tanda — (negatif) jika nilai residual terstandardisasi lebih kecil dari
mediannya dan berilah tanda + (positif) jika nilai residual terstandardisasi lebih
kecil dari mediannya.
 Menghitung jumlah Run. Jumlah Run merupakan suatu sequence dari tanda-tanda
yang sama jenisnya yang dibatasi oleh tanda-tanda dari jenis lainnya (Ingat dalam
hal ini hanya ada dua tanda, yaitu — dan +). Misalnya untuk tanda sequence (- +
+) dianggap 2 Runs, (- + -) dianggap 3 Runs, (- + + - + + ) dianggap 4 Runs, dan
seterusnya.
Contoh Uji Autokorelasi dengan Run
Dengan menggunakan data kasus analisis regresi Mr. Wong di atas, ujilah dengan
Uji Run, apakah dalam persamaan regresi tersebut terdapat masalah autokorelasi?
Jawab:
Untuk melakukan uji autokorelasi dengan menggunakan uji Run, buatlah lembar
kerja seperti berikut ini (petunjuk pengerjaan ada di bawah gambar):

Gambar 54. Lembar Kerja Autokorelasi-Run Test

 Berdasarkan hasil regresi 𝑋1, 𝑋2 terhadap Y, diperoleh persamaan regresi sebagai


berikut:
𝑌 = 2,553 − 1,092𝑋1 + 1,961𝑋2
 Untuk menghitung nilai 𝑌𝑝𝑟𝑒𝑑 pada sel E2, ketik formula =2,553-
(1,092*B2)+(1,961*C2). Kopikan formula tersebut sampai ke sel E11.
𝑌𝑝𝑟𝑒𝑑 = 2,553 − 1,092(2) + 1,961(3) = 6,252
 Untuk menghitung nilai residual pada sel F2, ketik formula =D2-E2. Kopikan
formula tersebut sampai ke sel F11.
𝑅𝑒𝑠𝑖𝑑 = 𝑌 − 𝑌𝑝𝑟𝑒𝑑 = 5 − 6,252 = −1,252
 Untuk menghitung nilai residual terstandardisasi maka kita harus menghitung nilai
rata-rata dan standar deviasai dari residual tersebut sehingga:
 Pada sel D13, ketik formula =AVERAGE(D2:D11)
- Pada sel F13, ketik formula =AVERAGE(F2:F11)
- Pada sel F14, ketik formula =STDEV(F2:F11)
𝑋𝑖 − 𝑋̅ −1,200 − (−0,002)
𝑍𝑟𝑒𝑠𝑖𝑑 = = = −1,200
𝛿 1,042
Pada sel G2, ketik formula =(F2-$F$13)/$F$14. Kopikan formula tersebut sampai
dengan sel G11.
 Untuk mencari nilai median pada sel G13, ketik formula =MEDIAN(G2:G11).
 Untuk memberikan tanda positif atau negatif, pada sel H2, ketik formula
=IF(G2>$G$13;"+";"-"). Kopikan formula tersebut sampai dengan sel H11.
 Atau dapat menggunakan menu Formulas, dengan langkah-langkah sebagai
berikut:
 Klik menu Formulas  pilih Insert Function. Pada Or select a Category pilih
Logical. Pada Select a function pilih IF. Klik OK sehingga tampilannya
menjadi seperti berikut:

Gambar 55. Function Arguments-IF

 Pada Logical_test, isi dengan G2>$G$13. Pada Value_if_true, isi "+". Pada
Value_if_false, isi "-". Klik OK sehingga muncul tanda "-". Kopikan formula
tersebut sampai dengan sel H11.
 Untuk menghitung Run yang memiliki tanda positif (+), pada sel H15 ketik
formula =COUNTIF(H2:H11;"+"). Sedangkan untuk menghitung Run yang
memiliki tanda negatif (-), pada sel H16 ketik formula =COUNTIF(H2:H11;"-").
Kesimpulan:
Dari lembar kerja di atas diketahui bahwa jumlah Run=10. Jumlah tanda negatif - (n1)
=5, jumlah tanda + (n2)=5. Berdasarkan tabel nilai 𝑟 untuk uji Runs dengan 𝛼=0,05
diketahui bahwa batas penerimaan bawah adalah 2 dan batas penerimaan atas adalah
10. Oleh karena 𝑟 (=10 run) terletak masih dalam rentang nilai 2 dan 10 (daerah
terima) maka hipotesis nihil yang menyatakan nilai residual terstandardisasi menyebar
secara acak diterima. Dengan demikian maka tidak terjadi autokorelasi dalam
persamaan regresi tersebut.
d. Konsekuensi
Gujarati (1995) dalam Aliman (1999) menyebutkan beberapa konsekuensi dari
munculnya masalah autokorelasi dalam analisis regresi, yaitu sebagai berikut:
1. Penaksir OLS unbiased dalam penyampelan berulang dan konsisten, tetapi
sebagaimana dalam kasus heteroskedastistitas, penaksir OLS tadi tidak lagi efisien
(mempunyai varian minimum), baik dalam sampel kecil maupun dalam sampel
besar.
2. Estimasi varian dari penaksir-penaksir OLS adalah bias di mana hasil perhitungan
varian dari kesalahan baku yang sebenarnya. Akibatnya, nilai t-statistik penaksir
OLS tersebut menjadi tinggi. Padahal bila estimasi model regresi dari penaksir-
penaksir OLS bila tidak terjadi atau tidak terdapat masalah autokorelasi, mungkin
akan mempunyai t-statistik yang kecil. Akibatnya, nilai t-statistik dan nilai F-
statistik tidak dapat dipercaya karena menyesatkan. Hal ini akan mengakibatkan:
𝑅𝑆𝑆
- Formulasi untuk menghitung error variance (𝛿 2 = 𝑑𝑒𝑔𝑟𝑒𝑒 𝑜𝑓 𝑓𝑟𝑒𝑒𝑑𝑜𝑚) menjadi
bias karena 𝛿 2 (penaksir t-varian) akan mengestimasi terlalu rendah
(underestimate).
- Nilai 𝑅 2 yang dihasilkan lebih tinggi daripada yang seharusnya sehingga 𝑅 2
tersebut tidak dapat dipercaya.
- Nilai variance dan kesalahan baku yang digunakan untuk peramalan tidak efisien.
e. Cara mengatasi
Menurut Gujarati (1995), untuk memperbaiki autokorelasi yang bermasalah dapat
dilakukan dengan cara sebagai berikut:
1. Dengan membuat persamaan perbedaan yang digeneralisasikan.
Metode ini dilakukan jika struktur autokorelasi diketahui. Metode ini pada
prinsipnya dilakukan dengan melakukan transformasi dari persamaan regresi linear
biasa dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas
transformasi, berikut ini disajikan persamaan:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝝆𝒀𝒕−𝟏 ) = 𝜷𝟎 (𝟏 − 𝝆) + 𝜷𝟏 (𝑿𝟏 − 𝝆𝑿𝒕−𝟏 ) +
𝝁𝒕
Sedangkan nilai 𝜌 sendiri merupakan koefisien regresi yang diperoleh dengan
meregresikan nilai residu periode sebelumnya (𝑢𝑡−1) terhadap nilai residu pada
periode 𝑡 (𝑢𝑡 ).
𝒖𝒕 = 𝝆𝒖𝒕−𝟏 + 𝜺𝒕
Dengan prosedur pembedaan ini kita kehilangan satu observasi. Hal ini karena
observasi pertama tidak mempunyai pendahulu. Untuk menghindari kehilangan satu
observasi ini, observasi pertama atas Y dan X ditransformasikan sebagai berikut:
𝑌1 √1 − 𝜌2 dan 𝑋1 √1 − 𝜌2
2. Dengan metode perbedaan pertama.
Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada
prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa
dengan mengurangi nilai variabel pada periode 𝑡 dengan nilai variabel pada periode
𝑡 − 1. Untuk memperjelas transformasi, berikut disajikan persamaannya:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝒀𝒕−𝟏 ) = 𝜷𝟏 (𝑿𝟏 − 𝑿𝒕−𝟏 ) + 𝜺𝒕
Atau: ∆𝒀𝒕 = 𝜷𝟎 + ∆𝑿𝟏 + 𝜺𝒕
Satu sifat penting dari model pembedaan pertama adalah tidak ada unsur intercept di
dalamnnya. Namun, jika model yang asli adalah:
𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝜷𝟐 𝒕 + 𝜺𝒕
Di mana 𝑡 adalah variabel tren dan di mana 𝑢𝑡 mengikuti skema autoregresif derajat
pertama maka transformasi perbedaan pertama dari persamaan di atas adalah:
∆𝒀𝒕 = 𝜷𝟎 + ∆𝑿𝟏 + 𝜷𝟐 + 𝜺𝒕
Ternyata setelah ditransformasi tampak adanya unsur intercept, yaitu 𝛽2. Jadi, jika
ada unsur intercept pada bentuk pembedaan pertama, hal itu menunjukkan bahwa
ada unsur trend linear dalam model asli.
3. Dengan metode persamaan perbedaan yang digeneralisasikan di mana 𝜌 didasarkan
pada statistik Durbin-Watson.
Metode ini dilakukan jika struktur autokorelasi tidak diketahui. Metode ini pada
prinsipnya dilakukan dengan mentransformasikan persamaan regresi linear biasa
dengan memasukkan unsur 𝜌 dalam model persamaan. Untuk memperjelas
transformasi, perhatikan persamaan berikut:
Persamaan awal: 𝒀𝒕 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝝁𝒕
Persamaan setelah transformasi: (𝒀𝒕 − 𝝆𝒀𝒕−𝟏 ) = 𝜷𝟎 (𝟏 − 𝝆) + 𝜷𝟏 (𝑿𝟏 − 𝝆𝑿𝒕−𝟏 ) +
𝝁𝒕
Berbeda dengan metode pertama, untuk memperoleh nilai 𝜌 Theil dan Nagar (1961)
membuat persamaan berikut:
𝑑
𝑁 2 (1 − 2) + 𝑘 2
𝜌=
𝑁2 − 𝑘2
Di mana:
𝑁 = Banyaknya observasi
𝑑 = Durbin-Watson Statistik
𝑘 = Banyaknya koefisien (termasuk intersep) yang ditaksir
Untuk memberikan ilustrasi atas metode ini diberikan contoh seperti yang disajikan
dalam buku Gujarati (1995), yaitu sebagai berikut:
Model awal persamaan regresi:
𝐿𝑛𝐻𝑊𝐼𝑡 = 𝛽0 + 𝛽1 𝑙𝑛𝑈𝑡 + 𝜇
Keterangan:
𝐻𝑊𝐼 = Indeks ingin bantuan
𝑈 = Pengangguran
Berdasarkan hasil analisis regresi diperoleh persamaan sebagai berikut:
𝐿𝑛𝐻𝑊𝐼𝑡 = 3,1698 − 1,5316𝑙𝑛𝑈𝑡 + 𝜇
𝑆𝑏 = (0,0487)(0,0719)
𝑡 = (65,0883)(21,3018)
𝑅 2 = 0,9516 𝑑 = 0,9021
Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05
maka diperoleh nilai 𝑑𝐿 =1,27 dan 𝑑𝑈 =1,45. Karena nilai 𝑑ℎ𝑖𝑡𝑢𝑛𝑔 sebesar 0,9021
lebih kecil dari 𝑑𝐿 maka ada masalah autokorelasi positif.
Karena regresi mengandung masalah autokorelasi maka diperlukan tindakan
perbaikan. Untuk melakukan perbaikan diperlukan taksiran nilai 𝜌 (dengan
mengasumsikan mekanisme autoregresif derajat pertama) dan menggunakannya
untuk mentransformasikan data dengan cara perbedaan yang digeneralisasikan.
Karena nilai Durbin-Watson hitung tersedia, kita dapat memperoleh nilai 𝜌 taksiran
menggunakan teknik Theil Nagar, sebagai berikut:
𝑑 0,9021
𝑁 2 (1 − 2) + 𝑘 2 242 (1 − 2 ) + 22
𝜌̂ = = = 0,5598
𝑁2 − 𝑘2 242 − 22
Dengan menggunakan taksiran ini, kita dapat mentransformasikan data kita sebagai
berikut:
(𝑙𝑛𝐻𝑊𝐼𝑡 − 0,5598 𝑙𝑛𝐻𝑊𝐼𝑡−1 ) dan (𝑙𝑛𝑈𝑡 − 0,5598 𝑙𝑛𝑈𝑡−1 )
yaitu, mengurangkan 0,5598 kali nilai variabel sebelumnya dari nilai saat ini.
Sedangkan nilai pertama dari 𝐻𝑊𝐼 dan 𝑈 ditransformasikan sebagai berikut:
√(1 − 0,5598)2 𝑙𝑛𝐻𝑊𝐼𝑡 dan √(1 − 0,5598)2 𝑙𝑛𝑈𝑡
Setelah semua nilai variabel ditransformasikan menjadi 𝐻𝑊𝐼𝑡 * dan 𝑈𝑡 *, kemudian
dari analisis regresi diperoleh hasil sebagai berikut:
𝐿𝑛𝐻𝑊𝐼𝑡 ∗= 1,4091 − 1,4604𝑙𝑛𝑈𝑡 ∗
𝑆𝑏 = (0,0397)(0,1320)
𝑡 = (35,4937)(11,0636)
𝑅 2 = 0,8466 𝑑 = 1,7438
Dengan jumlah observasi 24, jumlah variabel bebas 1, dan tingkat toleransi 𝛼=0,05
maka diperoleh nilai 𝑑𝐿 =1,27 dan 𝑑𝑈 =1,45. Karena nilai 𝑑ℎ𝑖𝑡𝑢𝑛𝑔 sebesar 1,7438
maka tidak ada masalah autokorelasi.
Unsur intercept dalam persamaan tersebut adalah suatu taksiran dari 𝛽0 (1 − 𝜌).
Oleh karena itu, suatu taksiran dari 𝛽0 dapat diperoleh sebagai 𝛽0 (1 − 0,5590) =
1,4091; yaitu 𝛽0 = 3,2010.

D. Soal Latihan
1. Jelaskan perbedaan antara analisis regresi sederhana dan analisis regresi berganda!
2. Jelaskan tentang uji asumsi klasik dalam analisis regresi?
3. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah normalitas?
4. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah heteroskedastisitas?
5. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah multikolinearitas?
6. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah autokorelasi?
7. Jelaskan pengertian, penyebab, cara mendeteksi, akibat, dan perbaikan yang dilakukan jika
regresi mengandung masalah linearitas?
8. Berikut ini adalah data tentang besarnya pendapatan (𝑋1), jumlah anggota keluarga (𝑋2),
dan pengeluaran keluarga untuk berbelanja dari 12 rumah tangga di Desa Suka Jajan.

Berdasarkan data tersebut:


a. Buatlah persamaan regresinya!
b. Ujilah persamaan regresi tersebut apakah mengalami masalah normalitas? Jika terjadi
masalah normalitas, lakukanlah perbaikannya!
c. Ujilah persamaan regresi tersebut, apakah terjadi masalah heteroskedastisitas? Jika
terjadi masalah heteroskedastisitas, lakukanlah perbaikannya!
d. Ujilah persamaan regresi tersebut apakah terjadi masalah multikolinearitas? Jika terjadi
masalah multikolinearitas, lakukanlah perbaikannya!
e. Ujilah persamaan regresi tersebut, apakah terjadi masalah linearitas? Jika terjadi
masalah linearitas, lakukanlah perbaikannya!
f. Ujilah persamaan regresi tersebut, apakah terjadi masalah autokorelasi? Jika terjadi
masalah autokorelasi, lakukanlah perbaikan!

Anda mungkin juga menyukai