KELOMPOK 3
NAMA KELOMPOK:
Dalam model regresi linear dua variabel yang telah kita bahas sejauh ini hanya ada satu
variabel bebas atau variabel penjelas. Dalam bab ini, kita akan memperluas model tersebut
dengan mempertimbangkan kemungkinan bahwa ada lebih dari satu variabel penjelas yang
mempengaruhi variabel tak bebas. Model regresi dengan lebih dari satu variabel penjelas disebut
sebagai model regresi berganda; disebut berganda karena hanyaknya taktor (dalam hal ini.
variabel) vang mungkin mempengaruhi variabel tak bebas.
Sebagai contoh, pertimbangkan krisis simpan-pinjam yang terjadi pada tahun 1980-an
akibat kebangkrutan beberapa lembaga keuangan simpan-pinjam di beberapa negara bagian di
AS. Andaikan kita ingin mengembangkan sebuah model regresi untuk menjelaskan
kebangkrutan sebagai varıabel tak bebas. Sekarang fenomena seperti kebangkrutan terlalu
kompleks untuk dijelaskan hanya dengan satu variabel penjelas saja: penjelasannya mungkin
memerlukan beberapa variabel, seperti rasio modal pokok terhadap total aktiva, rasio pinjaman
yang jangka waktu jatuh temponya lebih dari 90 hari terhadap total-total aktiva, rasio kredit
macet terhadap total aktiva, rasio kredit yang dinegosiasi/dijadwalkan ulang terhadap total
aktiva, ataupun rasio pendapatan netto terhadap totał aktiva, dan sebagainya. Untuk memasukkan
semua variabel ini ke dalam model regresi guna memungkinkan banyaknya faktor yang
mempengaruhi kebangkrutan, kita harus mempertinmbangkan suatu model regresi berganda.
Tak pelak lagi. kita dapat mengutip banyak sekali contoh tentang model regresi berganda.
Sesungguhnya hampir semua model regresi merupakan model regresi berganda karena hanya
sedikt sekali fenomena ekonomi yang dapat dijelaskan hanya oleh satu variabel penjelas saja,
seperti dalam model regresi dua variabel. Dalam bab ini kita akan membahas model regresi
berganda dalam rangka mencari jawaban atas beberapa pertanyaan berikut ini:
1. Bagaimana cara kita menaksir model regresi berganda? Apakah prosedur penaksirannya
berbeda dengan prosedur penaksiran untuk model regresi dua variabel?
4. Karena model regresi berganda dapat memiliki banyak sekali variabel penjelas,
bagaimana cara kita menentukan banyaknya variabel yang akan kita masukkan ke dalam
model untuk suatu situasi tertentu?
Dengan menyamaratakan fungsi regresi populasi (FRP) dua variabel. kita dapat
menuliskan FRP tiga variabel dalam bentuk nonstokhastik sebagai berikut
E ( Y 1 )=B1 + B2 X 2 t + B3 X 3 t (8.1)
Y t =B 1+ B2 X 2 t + B3 X 3 t +u t (8.2)
¿ E ( Y t ) + ut (8.3)
B1 adalah faktor titik potong. Faktor ini menyatakan nilai rata-rata Y apabila X2 đan X3
ditetapkan sama dengan nol. Koefisien B, dan B, disebut koefisien regresi parsial; dan
pengertiannya akan segera dijelaskan di bawah ini.
Versi stokhastiknya, yakni Persamaan (8.2), menyatakan bahwa setiap nilai Y dapat
dinyatakan sebagai jumlah dari dua komponen.
1. Komponen sistematis atau deterministik (B1 + B2X2t + B3X3t). yang nilai rata-ratanya
E(Yt) (dalam hal ini. titik pada garis regresi populasi, GRP)," dan
2. ut yang merupakan komponen nonsistematis atau acak, yang ditentukan oleh faktor-
faktor selain X2 dan X3
Senua ini tidaklah asing dalam kasus dua variabel; satu-satunya hal yang harus
diperhatikan adalah bahwa sekarang kita mempunyai dua buah variabel penjelas, bukan hanya
satu variabel penjelas Perhatikan bahwa Persamaan (8.1), ataupun fungsi stokhastiknya
Persamaan (8.2), merupakan model regresi linear- yakni model yang linear dari segi
parameternya, B. Sebagaimana telah diuraikan dalam Bab 6, perhatian kita dalam buku ini
adalah model regresi yang parameternya linear; model semacam itu mungkin memiliki variabel
yang linear atau mungkin pula tidak (namun pembahasan tentang masalah ini secara lebih rinci
akan dilakukan dalam Bab 9).
Misalkan X3 dipertahankan konstan pada nilai 10. Dengan memasukkan nilai ini ke
dalam Persamaan (8.4), kita peroleh
Di sini koefisien kemiringan B2 = -1,2 menunjukkan bahwa nilai rata-rata Y akan turun
sebesar 1,2 untuk tiap unit kenaikan X2 apabila X3 dipertahankan konstan-dalam contoh ini, X3
dipertahankan konstan sebesar 10 kendati nilai lain manapun boleh saja digunakan. Koefisien
kemiringan ini disebut sebagai koefisien regresi parsial. Demikian pula, jika X2 kita pertahankan
konstan, misalnya, pada nilai 5, kita peroleh
E(Yt) = 15 - 1,2(5) + 0,8X3t
= 9 + 0,8X3t (8.6)
Di sini koefisien kemiringan B3 = 0,8 yang berarti bahwa nilai rata-rata Y akan naik
sebesar 0,8 untuk tiap unit kenaikan X3 apabila X2 dipertahankan konstan - dalam contoh ini, X 2
dipertahankan konstan sebesar 5 kendati nilai lain manapun boleh saja digunakan. Koefisien
kemiringan ini juga disebut sebagai koefisien regresi parsial.
Sebagaimana halnya dalam kasus regresi dua variabel, perintah pertama kita adalah
menaksir koefisien-koefisien regresi dari model regresi berganda. Untuk tujuan itu, kita tetap
menggunakan kerangka model regresi linear klasik (MRLK) yang pertama kali diperkenalkan
dalam Bab 7 dan menggunakan metode kuadrat terkecil biasa (OLS) dalam menaksir koefisien-
koefisien tersebut, Secara spesifik, untuk model (8.2), kita asumsikan (bandingkanlah dengan
pembahasan dalam Bagian 7.1):
A8.1.
Model regresi ini memiliki parameter-parameter yang bersifat linear sebagaimana yang
ditunjukkan dalam Persamaan (8.1) dan bahwa model ini ditentukan secara tepat.
A8.2.
X2 dan X3 tidak berkorelasi dengan faktor gangguan u. Namun demikian, jika X2 dan X3
bersifat non-stokhastik (dalam hal ini, angkanya ditetapkan dalam penarikan sampel
secara berulang-ulang). maka asumsi ini otomatis terpenuhi.
Karena analisis regresi kita merupakan analisis regresi bersyarat, dengan syarat bahwa
nilai-nilai X-nya tertentu, maka asumsi 8.2 tidaklah diperlukan. Namun asumsi ini dibuat untuk
menopang model regresi persamaan simultan yang akan dibahas dalam Bab 15 (di Jilid 2). di
mana kita akan melihat bahwa beberapa variabel X mungkin berkorelasi dengan faktor
kesalahan.
A8.3.
Faktor kesalahan u mempunyai nilai rata-rata sebesar nol; dalam hal ini.
E(ui) = 0 (8.7)
A8.4.
A8.5.
A8.6.
Tidak ada kolinearitas nyata antara X2 dan X3: dalam hal ini, tidak ada hubungan linear
yang nyata antara kedua variabel penjelas. Ini merupakan asumsi baru dan akan
dijelaskan nanti dalam pembahasan selanjutnya.
A8.7.
Untuk pengujian hipotesis. faktor kesalahan u mengikuti distribusi normal dengan rata-
rata sebesar nol dan varians σ 2 (homoskedastis). Dalam hal ini.
ui N(0, σ 2) (8.10)
Kecuali untuk asumsi 8.6. dasar pemikiran dari asumsi-asumsi lainnya adalah sama
dengan dasar pemikiran yang dibahas untuk regresi linier dua variabel. Sebagaimana telah
diuraikan dalam bab 7, kita membuat asumsi-asumsi ini guna memudahkan pengembangan topik
bahasan. Daiam Bagian III kita akan berjumpa kembali dengan asumsi-asumsi ini dan melihat
apa yang akan terjadi seandainya salah satu atau lebih di antara asumsi-asunısi tersebut tidak
terpenuhi dalam penerapan nyata.
Asumsi 8.6 bahwa tidak ada hubungan linear yang nyata antara variabel-variabel penjelas
X2 dan X3 secara teknis disebut sebagai asumsi tidak adanya kolinearitas, atau tidak ada
multikolinearitas, seandainya terdapat lebih dari satu hubungan linear yang nyata di antara
variabel-variabel penjelas, menupakan asumsi baru dan memerlukan penjelasan yang lebih rinci.
Secara informal, tidak ada kolinearitas sama sekali berarti bahwa suatu variabel, misalnya
X2 tidak dapat dinyatakan sebagai suatu fungsi linear yang nyata dari variabel lain, misalnya. X 3
Jadi. jika kita dapat menyatakan
X2i = 3 + 2X3i
atau
X2i = 4X3i
maka kedua variabel bersifat kolinear, karena terdapat hubungan linear yang nyata
antara X2 dan X3. Asumsi 8.6 menyatakan bahwa hal ini tidak holeh terjadi. Logikanva di sini
sangatlah sedertana. Jika, misalnya, X2 = 4X3. maka bila kita substitusikan nilai ini ke dalam
Persamaan (8.1). akan kia dapatkan bahwa
= B1 + AX3i (8.11)
di mana
A = 4B2 + B3 (8.12)
Persamaan (8.11) merupakan model regresi dua variabel, bukan model regresi tiga
variabel, Kini meskipun kita dapat menaksir Persamaan (8.11) dan mermperoleh nilai taksiran
dari A, kita tidak bisa mendapatkan taksiran dari masing-masing nilai B2 atau B3 dari A yang
ditaksir. Perhatikan bahwa karena Persamaan (8.12) adalah sebuah persamaan dengan dua faktor
yang tidak diketahui, maka kita memerlukan dua buah persamaan (yang berdiri sendıri) untuk
nendapatkan taksiran yang unik dari B2 dan B3.
Kesimpulan dari pembahasan ini adalah bahwa jika terdapat kolinearitas sempurna, kita
tidak dapat menaksir masing-masing koefisien regresi parsial B2 atau B3: dengan kata lain, kita
tidak dapat mengukur pengaruh dari masing-masing X2 dan X3 terhadap Y. Tetapi hal ini tidak
lah mengherankan. mengingat hahwa kita tidak mempunyai dua variabel yang benar-benar bebas
di dalam model.
Meskipun, dalam praktek, kasus kolinearitas sempurna jarang dijumpai, namun kasus
dengan kolinearitas yang tinggi atau mendekati sempurna sering kita jumpai. Dalam bab
selanjutnya (lihat Bab 12 di Jilid 2) kita akan mengkaji hal ini secara lebih rinci. Sekarang kita
hanya mensyaratkan bahwa dua atau lebih variabel penjelas tidak mempunyai hubungan linear
yang nyata di antara mereka.
Guna menaksir parameter dari persamaan (8.2), kita menggunkan metode kuadrat terkecil
biasa (OLS) yang ciri utamanya telah dibahas di bab 6 dan bab 7.
Yang merupakan taksiran dari garis regresi populasi (GRP) (yang benar-benar membentuk
sebuah pesawat).
Sebagaimana telah dijelaskan dalam Bab 6, prinsip OLS memiliki nilai-nilai dari
parameter-parameter yang tak diketahui sedemikian rupa sehingga jumlah kuadrat residu (RSS)-
nya Σet2 sekecil mungkin. Untuk itu, mula-mula kita menuliskan Persamaan (8.13) sebagai
Dengan mengkuadratkan persamaan ini pada kedua sisinya dan menjumlakan di antara seluruh
observasi sampel, kita peroleh
Dan dalam OLS kita meminimalkan RSS ini (yang semata-mata merupakan jumlaj dari selisih
kuadrat antara Y, yang sebenarnya dan Yt taksiran).
Minimisasi Persamaan (8.16) melibatkan metode diferensiasi dalam kalkulus. Tanpa perlu
membahsnya secara rinci, proses diferensiasi ini memberikan persamaan di bawah ini, yang
disebut sebagai persamaan normal (kuadrat terkecil), guna memudahkan dalam menaksir factor-
faktor yang tak dikatahui (bandingkan dengan persamaan yang sesuai untuk kasus dua variabel
dalam persamaan (6.14) dan (6.15).
Ŷ = b1 = b2 X́ 2 + b3 X́ 3 (8.17)
Σ Y X2t = b1 Σ X2t + b2 Σ X 22 t + b3 Σ X2t X3t (8.18)
Σ Yt X3t = b1 Σ X3t + b2 Σ X2t X3t + b3 Σ X 23 t (8.19)
Dimana penjumlahannya dilakukan terhadap seluruh rentang sampel l sampai n. Disini kita
mempunyai tiga persamaan dengan tiga factor ysng tak diketahui, yang diketahui adalah
variabel-variabel Y dan X sedangkan yang tak diketahui adalah parameter-parameter b. biasanya,
kita harus mampu memecahkan ketiga persamaan dengan tiga parameter yang tak diketahui ini.
Dengan manipulasi aljabar sederhana untuk persamaan-persamaan di atas, kita peroleh ketiga
penaksir OLS sebagai berikut.
b1 = Ý – b2 X́ 2 – b3 X́ 3 (8.20)
( Σ y 2 t x 2 t )−(Σ yt x 3 t )( Σ y 2t x 3 t )
b2¿ (8.21)
( Σ x 22 t )( Σ x 23 t )−( Σ x 2t x 3 t )2
( Σ y t x 3 t ) ( Σ x 22t )−( Σ yt x 2 t )( Σ x 2 t x 3 t )
b3 ¿ (8.22)
( Σ x 22 t )( Σ x 23 t )−(Σ x2 t x 3 t )2
dimana, seperti biasanya, huruf kecil menyatakan deviasi dari nilai rata-rata sampel (dalam hal
ini yt = Yt - Ý ).
Anda akan memperhatikan kesamaan antara persamaan-persamaan tersebut dengan
persamaan yang sesuai untuk kasus dua variabel yang dinyatakan dalam Persamaan (6.16) dan
(6.17). Demikian pula, perhatikan ciri-ciri berikut ini dari persamaan-persamaan di atas: (1)
Persamaan (8.21) dan (8.22) bersifat simteris karena salah satu persamaan dapat diperoleh
berdasarkan persamaan lain dengan menukar peran X2 dan X3 dan (2) penyebut dalam kedua
persamaan tersebut adalah sama.
2 2 2
1 X 2 Σ x 3 t + X 2t −2 X 2 X 3 Σ x 2t x 3 t
var (b1) =
n
+
[ 2 2
Σ x2 t Σ x3 t −( Σ x 2 t x3 t )2
]
. σ2 (8.23)
∑ x23 t
var (b2) = 2 2 2 . σ2 (8.25)
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t
∑ x22 t
var (b3) = 2 2 2 . σ2 (8.27)
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t
Didalam semua rumus ini, σ2 merupakan varians (yang homoskedastis) dari factor kesalahan
populasi ut . Penaksir OLS dari varians yang tak diketahui ini adalah:
Σ e2t
σ2 = (8.29)
n−3
Rumus ini merupakan perluasan langsung dari rumus kasus dua variabel yang diberikan dalam
Persamaan (7.8) kecuali bahwa sekarang derajat kebebasan (d.k)-nya adalah (n-3). Ini karena
dalam menaksir RSS Σ e2t , kita mula-mula harus memperoleh b1 , b2 , dan b3 yang menghabiskan
3 d.k. penjelasan ini berlaku umum. Dalam kasus regresi empat variabel, d.k-nya akan sebesar
(n-4), dalam regresi lima variabel, (n-5); dan seterusnya.
Perhatikan pula bahwa akar kuadrat (yang positif) dari σ^ 2
σ^ 2 = √ σ^ 2 (8.30)
Adalah kesalahan standar dari taksiran, atau kesalahan standar dari regresi, yang, sebagaimana
telah dijelaskan dalam bab 6, merupakan deviasi standar dari nilai Y disekitar garos regresi yang
ditaksir.
2
Sekitar perhitungan Σ e2t . Karena Σ e2t = Σ ( Y t −Y^ t ) , maka untuk menghitung persamaan ini,
kita mula-mula harus menghitung Y^ t yang dapat dilakukan dengan mudah melalui penggunaan
computer. Tetapi ad acara pintas untuk menghitung RSS (lihat lampiran 8A.2), dimana
Juga, seperti halnya dalam kasus regresi dua variabel, R2 didefinisikan sebagai
ESS
R2 = (8.33)
TSS
Dalam hal ini, R2 merupakan rasio antara jumlah kuadrat yang dijelaskan terhadap total
jumlah kuadrat; satu-satunya perubahan adalah bahwa ESS sekarang diakibatkan oleh lebih dari
satu variabel penjelas.
Kini dapat ditunjukkan bahwa
ESS=b2 ∑ y t x 2 t +b3 ∑ y t x 3t (8.34)
regresi berganda pun kita akan tetap mengasumsikan bahwa μ didistribusikan secara normal
dengan rata-rata sebesar 0 dan varians konstan σ2. Berdasarkan asumsi ini serta asumsi asumsi
lain yang disebut dalam bagian 8.2 kita dapat membuktikan bahwa b1, b2 dan b3 masing-masing
mengikuti distribusi normal dengan rata-rata sama dengan B1, B2 dan B3 serta varians yang
menyatakan berturut-turut dalam persamaan (8.23),(8.25) dan (8.27).
Akan tetapi, seperti dalam kasus regresi dua variabel, jika kita menangani varian yang
sebenarnya namun tak diketahui σ2 dengan penaksir tak biasnya σ2 yang dinyatakan dalam
persamaan (8. 29) maka penaksir OLS tersebut mengikuti distribusi t dengan d.k.(n-3), dan
bukannya distribusi dalam hal ini
b1 −B 1
t= ~ t
se(b 1 ) n-3 (8.38)
b2 −B 2
t= ~ t
se( b 2 ) n-3 (8.39)
b3 −B 3
t= ~ t
se(b 3 ) n-3 (8.40)
Perhatikan bahwa d.k.-nya sekarang adalah (n-3) karena dalam menghitung RSS, ∑ e 2t
dan karenanya σ 2 . Kita pertama-tama perlu menaksir koefisien titik potong serta kedua
koefisien kemiringan parsialnya sehingga kita kehilangan 3 d.k.
Kita ketahui bahwa dengan mengganti σ2 dengan σ2 maka penaksir OLS mengikuti
distribusi t.sekarang kita dapat menggunakan informasi ini untuk mengetahui interval keyakinan
maupun untuk menguji hipotesis statistik tentang koefisien regresi parsial yang sebenarnya.
Mekanisme sebenarnya dalam beberapa hal sama dengan mekanisme dalam kasus regresi dua
variabel, yang sekarang akan kita ilustrasikan dengan contoh.
1.7. PENGUJIAN HIPOTESIS TENTANG MASING-MASING
KOEFISIEN REGRESI PARSIAL
Andaikan dalam contoh ilustrasi ini kita dapat menyatakan hipotesis bahwa
H0 : B2 = 0 atau H1 : B2 ≠ 0
Dalam hal ini, berdasarkan hipotesis nol, umur jam antik tidak berpengaruh apapun
terhadap harga lelangnya, sedangkan dalam hipotesis alternatif dinyatakan bahwa umur jam
mempunyai pengaruh, entah positif ataupun negatif, terhadap harga. Jadi, hipotesis alternatif ini
bersifat dua sisi.
Berdasarkan hipotesis nol sebelumnya, kita ketahui bahwa
b2 −B2
t=
se (b 2 )
b2
¿
se (b 2 ) (catatan : B2 = 0) (8.41)
Mengikuti distribusi t dengan d.k. (n-3) = 29, karena dalam contoh kita n = 32. Berdasarkan hasil
regresi yang diberikan dalam (8.37), kita peroleh
12 ,7413
t= =13 , 9653
0 , 9123 (8.42)
Yang mempunyai distribusi t dengan d.k. 29.
Berdasarkan nilai hitung t, apakah kita menolak hipotesis nol bahwa umur jam antik tidak
berpengaruh terhadap harga lelang? Untuk menjawab pertanyaan ini, kita dapat menggunakan
pendekatan uji signifikansi atau pendekatan interval keyakinan, sebagaimana dalam pengujian
hipotesis untuk regresi dua variabel
(8.44)
Yang merupakan interval keyakinan 95% untuk B2 (bandingkan dengan persamaan (7.2 6)).
Ingatlah kembali bahwa menurut pendekatan interval keyakinan, jika interval keyakinan yang
kita sebut sebagai daerah penerimaan, mencakup nilai yang dinyatakan dalam hipotesis nol,
maka kita tidak menolak hipotesis nol. Sebaliknya, jika nilai yang dinyatakan dalam hipotesis
nol terletak diluar interval keyakinan atau dalam hal ini, di dalam daerah penolakan, maka kita
dapat menolak hipotesis nol. Tetapi camkanlah selalu bahwa dalam mengambil keputusan
tentang menolak atau tidak menolak hipotesis nol, kita berpeluang melakukan kesalahan sebesar
α% (misalnya 5%) pada saat kita mengambil keputusan tersebut.
Untuk contoh ilustrasi kita, persamaan (8.44) akan menjadi
12 ,7413−2 ,045 (0 , 9123)≤B2 ≤12 ,7413+2, 045(0 ,9123 )
Dalam hal ini,
10 , 8757≤B2 ≤14 , 6069 (8.45)
Yang merupakan interval keyakinan 95% untuk nilai B 2 yang sebenarnya.karena interval ini
tidak mencakup nilai yang dinyatakan dalam hipotesis nol, maka kita dapat menolak hipotesis
nol: jika kita menyusun interval keyakinan seperti persamaan (8.45) maka 95 diantara 100
interval semacam itu akan mencakup nilai B2 yang sebenarnya, namun sebagaimana yang telah
kita uraikan dalam bab 7, kita tidak mengatakan bahwa probabilitas adalah 95% bahwa interval
tertentu (8,45) mencakup atau tidak mencakup nilai B2 yang sebenarnya.
Tak pelak lagi, kita dapat menggunakan kedua pendekatan tersebut dalam menguji hipotesis
guna menguji hipotesis tentang koefisien lain yang diberikan dalam hasil regresi untuk contoh
ilustrasi kita. Sebagaimana dapat Anda lihat dari hasil regresi, variabel jumlah penawaran juga
signifikan secara statistik (dalam hal ini, nyata tidak sama dengan nol) karena nilai t yang
ditaksir secara sekitar 8 mempunyai nilai p yang mendekati nol.ingatlah bahwa semakin kecil
nilai p, semakin kuat alasan untuk menentang hipotesis nol.
Untuk contoh ilustratif kita, kita ketahui bahwa masing – masing koefisien kemiringan
parsial b2 dan b3 signifikan secara statistik, dalam hal ini, masing – masing koefisien parsial nyata
tidak sama dengan nol. Tetapi sekarang perhatikan hipotesis nol dibawah ini :
H0 : B2 = B3 = 0 (8.46)
Hipotesis nol ini adalah hipotesis gabungan bahwa B2 dan B3 secara bersama – sama
atau secara simultan ( dan bukan secara sendiri – sendiri atau terpisah ) sama dengan nol.
Hipotesis ini menyatakan bahwa kedua variable penjelas secara bersama – sama tidak
berpengaruh terhadap Y. ini sama saja mengatakan bahwa
H0 : R2 = 0 (8.47)
Dalam hal ini, kedua variable penjelas menjelaskan sebanyak nol persen terhadap variasi
variable bebas ( ingat kembali definisi tentang R2 ). Oleh karena itu, kedua himpunan hipotesis
(8.46) dan (8.47) adalah ekuivalen; yang satu menyiratkan yang lain. Pengujian terhadap salah
satu hipotesis ini disebut sebagai uji signifikansi keseluruhan terhadap regresi berganda
yang ditaksir, dalam hal ini, apakah Y berkorelasi linear dengan X2 maupun X3 secara bersama –
sama.
Bagaimana kita menguji, katakanlah, hipotesis yang diberikan dalam Persamaan (8.46) ?
godaannya di sini adalah untuk menyatakan bahwa karena, dalam contoh ini b2 dan b3 secara
sendiri – sendiri nyata tidak sama dengan nol; dalam hal ini, kita menolak H0 yang diberikan
dalam persamaan (8.46). dengan kata lain , karena umur jam antik dan penawar lelang masing –
masing memiliki pengaruh yang nyata terhadap harga lelang, maka secara bersama – sama pun
kedua variabel ini pasti memiliki pengaruh yang nyata terhadap harga lelang. Tetapi kita harus
berhati – hati disini, karena sebagaimana yang akan kita tunjukkan secara lebih rinci dalam bab
12 ( di Jilid 2 ) tentang multikolineritas,pada kenyataannya, dalam suatu regresi berganda dengan
satu atau lebih variabel secara sendiri – sendiri tidak berpengaruh terhadap variabel tak bebas
namun secara bersama – sama mempunyai pengaruh yang besar terhadap variabel tak bebas. Ini
berarti bahwa prosedut uji – t yang telah kita bahas sebelumnya, kendati berlaku bagi pengujian
signifikansi statistik dari masing – masing koefisien regresi, tidaklah berlaku bagi pengujian
hipotesis gabungan.
Lalu, bagaimana cara kita menguji hipotesis semacam hipotesis (8.46)? Ini dapat
dilakukan dengan menggunakan sebuah metode yang disebut analisis varian (ANOVA). Guna
mengetahui cara penggunaan analisis ini, ingatlah kembali identitas berikut ini :
TSS = ESS + RSS (8.32)
Dalam hal ini,
(8.48)
Persamaan (8.48) membagi TSS ke dalam dua komponennya, komponen yang satu
dijelaskan oleh model regresi yang dipilih (ESS) dan komponen lainnya tidak dijelaskan oleh
model regresi tersebut (RSS). Studi mengenai kedua komponen TSS ini disebut sebagi analisis
varians (ANOVA) dari sudut pandang regresi.
Sebagaimana telah kita jelaskan dalam Bab 4, setiap jumlah kuadrat selalu memiliki
derajat kebebasan (d.k.)-nya sendiri – sendiri; dalam hal ini jumlah, observasi independen yang
menjadi dasar perhitungan jumlah kuadrat. Sekarang masing – masing dari jumlah kuadrat
terdahulu memiliki d.k seperti berikut ini :
* Cara yang mudah guna mencari d.k dari ESS adalah mengurangkan d.k untuk RSS dari
d.k untuk TSS
kita menyusun semua jumlah kuadrat ini beserta d.k nya yang terkait dalam bentuk
table,yang disebut table ANOVA, sebagimana ditunjukkan Tabel 8 – 1.
Sekarang, berdasarkan asumsi – asumsi MRLK ( dan asumsi A8.7) dan hipotesis nol : H0
: B2 = B3 = 0, dapat kita tunjukkan bahwa variabel
(8.49)
* Cara sederhana untuk mengingat hal ini adalah d.k. pembilang dari rasio F sama dengan jumlah koefisien
kemiringan parsial dalam model regresi, dan d.k. penyebut sama dengan n dikurangi jumlah total parameter yang
ditaksir (dalam hal ini, koefisien kemiringan parsial ditambah dengan koefisien titik potong).
TABEL 8 -2
Tentu saja, alasan intuitif ini dapat diformalkan dalam kerangka pengujian hipotesis yang
lazim digunakan. Sebagaimana telah ditunjukkan dalam bab4, bagian 4.4, kita menghitung F
sebagaimana yang diberikan dalam persamaan (8.49) dan membandingkannya dengan nilai F
kritis untuk d.k. 2 dan ( n – 3 ) pada tingkat signifikansi α, yakni probabilitas melakukan
kesalahan jenis I, yang dipilih. Seperti biasanya, jika nilai hitung F lebih besar daripada nilai F
kritis, kita menolak hipotesis nol. Jika nilai hitung F tidak lebih besar daripada nilai F
kritis,maka kita tidak akan menolak hipotesis nol bahwa variabel – variabel penjelas tidak
berpengaruh apapun terhadap variabel tak bebas.
Untuk mengilustrasikan mekanisme yang sebenarnya, marilah kita kembali ke contoh
ilustratif kita. Angka – angka tandingan dari Tabel 8–1 disajikan dalam Tabel 8-2.
Angka – angka dalam tabel ini diperoleh dari output program computer Eviews yang
diberikan dalam Lampiran 8A.4. Dari table ini serta output computer, kita ketahui bahwa nilai F
yang ditaksir adalah 118,0585 atau sekitar 119. Dengan hipotesis nol bahwa B2 = B3 = 0, dan
berdasarkan asumsi – asumsi model regresi inear klasik (MLRK), kita ketahui bahwa nilai hitung
F mengikuti distribusi F dengan d.k. 2 sebagai pembilang dan d.k 29 sebagai penyebut.
Seandainya hipotesis nol tersebut benar, berapakah probabilitas untuk memperoleh nilai F
sebesar 118 atau lebih untuk d.k. 2 dan 13 ? Nilai p untuk mendapatkan nilai F sebesar 118 atau
lebih adalah 0,000000, yang mendekati nol. Oleh karenanya, kita dapat menolak hipotesis nol
bahwa umur jam dan jumlah penawar secara bersama – sama tidak berpengaruh terhadap harga
lelang jam antik.
Dalam contoh ilustratif kita, kebetulan sekali bahwa kita bukan hanya menolak hipotesis
nol bahwa B2 dan B3 secara sendiri – sendiri tidak signifikan secara statistik, melainkan kita juga
menolak hipotesis bahwa B2 dan B3 secara sendiri – sendiri tidak signifikan secara statistik.
Akan tetapi, hal semacam itu tidak terlalu terjadi. Kita akan menjumpai kasus – kasus di mana
tidak semua variabel penjelas secara sendiri – sendiri berpengarh terhadap variabel tak bebas
( dalam hal ini, berapakah nilai t mungkin tidak signifikan secara statistik ) namun semua
variabel penjelas itu secara bersama - sama mempengaruhi variabel tak bebas ( dalam hal ini, uji
F akan menolak hipotesis nol bahwa semua koefisien kemiringan parsial secara simultan sama
dengan nol). Sebagaimana akan kita lihat, hal seperti ini akan terjadi apabila kita menghadapi
masalah multikolineritas, yang akan kita bahas secara lebih rinci dalam Bab 12 ( di Jilid 2 ).
Ada hubungan penting antara koefisien determinasi R2 dan rasio F yang digunakan
ANOVA. Hubungan ini adalah sebagai berikut :
TABEL 8 -3
Catatan : Dalam menghitung nilai F, kita tidak perlu mengalikan R2 dan ( 1 - R2 ) dengan ∑y2i karena faktor
tersebut dicoret, sebagaimana tampak jelas dari Persamaan (8.49). Dalam model ini dengan k variabel, d.k nya
berturut – turut akan sebesar ( k – 1 ) dan ( n – k ).
Persamaaan (8.50) menunjukkan bagaimana hubungan F dan R2. Kedua statistik tersebut
bervariasi secara langsung. Bila R2 = 0 ( dalam hal ini, tidak ada hubungan antara Y dan variabel
– variabel X ), F juga sama dengan nol ipso facto. Semakin besar nilai R2, maka nilai F akan
semakin besar pula. Pada batas di mana R2 = 1, nilai F mencapai tak terhingga.
Jadi, uji F sebagaimana yang kita bahas terdahulu, yang mengukur signifikansi
keseluruhan dari garis regresi yang ditaksir, juga sekaligus merupakan uji signifikansi untuk R2;
dalam hal ini, apakah R2 tidak sama dengan nol. Dengan kata lain, pengujian hipotesis nol dalam
persamaan (8.46) sama saja artinya dengan engujian hipotesis nol bahwa R2 (populasi) adalah
sebesar nol, sebagaimana yang dijelaskan dalam persamaan (8.47).
Salah satu keunggulan dengan menyatakan uji F dalam benuk R2 adalah kemudahan
perhitungan. Yang perlu kita ketahui hanyalah nilai R2, yang rutin dihitung oleh program
komputer regresi. Oleh karena itu, uji signifikansi F secara keseluruhan dinyatakan dalam
persamaan (8.49) dapat dituliskan kembali menurut R2 sebagaimana yang ditunjukkan dalam
persamaan (8.50), dan Tabel 8 – 1 tentang ANOVA dapat dinyatakan secara ekuivalen dengan
Tabel 8 – 3.
Untuk contoh ilustratif kita, R2 = 0,8906. Oleh karena itu, rasio F dari persamaan (8.50)
menjadi
0,8906/2
F¿ = 118,12
(1−0,8906) /29
yang kira- kira sama dengan F yang ditunjukkan dalam Tabel 8 -2, kecuali kesalahan
karena faktor pembulatan.
Marilah kita kembali ke contoh kita. Dalam contoh 6.5, kita meregresikan harga lelang
terhadap umur jam antik dan jumlah penawar secara terpisah, sebagaimana yang ditunjukkan
dalam persamaan (6.27) dan (6.28). Kedua persamaan ini dikutip kembali disini dengan output
regresi yang lazim.
(8.52)
Jika kita bandingkan kedua regresi ini dengan hasil regresi berganda yang disajikan dalam
Persamaan (8.37), kita lihat beberapa perbedaan:
1. Nilai-nilai kemiringan dalam Persamaan (8.52) dan (8.53) berbeda dari nilai-nilai
kemiringan yang diberikan dalam regresi berganda (8.37), khususnya koefisien
kemiringan untuk variabel jumlah penawar.
2. Nilai-nilai titik potong dalam ketiga regresi juga berbeda.
3. Nilai R2 dalam regresi berganda sangat berbeda dengan nilai-nilai r2 yang diberikan
dalam kedua regresi bivariat di atas.
Sebagaimana akan kita tunjukkan, sebagian perbedaan tersebut signifikan secara statistik
dan sebagian lainnya mungkin tidak.
Mengapa hasil dari kedua regresi di atas berbeda? Ingatlah bahwa dalam Persamaan (8.37),
ketika mengukur pengaruh umur jam antik terhadap harga lelang, kita mempertahankan jumlah
penawar pada tingkat yang konstan, sedangkan dalam Persamaan (8.52) kita sama sekali
mengabaikan jumlah penawar. Dengan kata lain, dalam Persamaan (8.37) pengaruh umur jam
terhadap harga lelang bebas dari pengaruh jumlah penawar, sedangkan dalam Persamaan (8.52)
pengaruh jumlah penawar tidak diabaikan. Jadi, koefisien variabel umur jam dalam Persamaan
(8.52) mencerminkan pengaruh bruto-yakni, terdiri atas pengaruh langsung dari umur jam
maupun pengaruh tak langsung dari jumlah penawar. Pertedaan antara hasil regresi (8.37) dan
(8.52) ini menunjukkan dengan baik sekali tentang arti dari koefisien regresi "parsial".
Kita ketahui dalam pembahasan kita tentang regresi (8.37) bahwa kedua variabel umur jam
dan jumlah penawar secara sendiri-sendiri maupun secara bersama-sama memiliki pengaruh
yang penting terhadap harga lelang. Oleh karena itu, dengan mengabaikan variabel jumlah
penawar dari regresi (8.52) kita telah melakukan apa yang disebut sebagai bias spesifikasi atau
kesaiahan spesifikasi (model), atau secara lebih spesifik, kesalahan spesifikasi karena
mengabaikan variabel yang relevan dari model regresi. Demikian pula, dengan mengabaikan
variabel umur jam dalam regresi (8.53), kita juga melakukan kesalahan spesifikasi.
Meskipun kita akan mengkaji topik kesalahan spesifikasi dalam Bab 11 (di Jilid 2), yang
penting untuk diperhatikan di sini adalah bahwa sebaiknya Anda sangat berhati-hati dalam
mengembangkan model regresi untuk kepentingan empiris. Ambillah informasi apa saja yang
dapat membantu Anda dari teori yang mendasari, dan/atau sebelum melakukan penelitian
empiris dalam mengembangkan model regresi. Dan setelah Anda memilih sebuah model, jangan
sembarang membuang variabel dari model tersebut.
1.10. MEMBANDINGKAN DUA NILAI R2: R2 YANG DISESUAIKAN
Dengan memeriksa R2 pada regresi dua variabel [Persamaan (8.52) atau (8.53)] dan regresi
tiga variabel [Persamaan (8.37)] untuk contoh ilustratif kita, Anda akan melihat bahwa nilai R2
pada regresi pertama [0,5325 untuk Persamaan (8.52) atau 0,1549 untuk Persamaan (8.53)] lebih
kecil daripada nilai R pada regresi kedua (0,8906). Apakah selalu berlaku demikian? Ya! Salah
satu sifat penting dari R2 adalah bahwa semakin banyak jumlah variabel penjelas dalam suatu
model, akan semakin tinggi nilai R2. Jadi tampaknya bila kita ingin menjelaskan sebagian besar
variasi dari variabel tak bebas, kita harus terus menambah jumiah variabel penjelasnya!
Akan tetapi, janganlah terlalu serius dalam menuruti “nasihat" ini karena definisi R 2 =
ESS/TSS tidak memperhatikan besarnya d.k. Perhatikan bahwa dalam model dengan k-variabel
termasuk koefisien titik potong, d.k. untuk ESS-nya adalah (k - 1). Jadi, jika Anda mempunyai
model dengan 5 variabel penjelas termasuk titik potong, d.k. untuk ESS akan sebesar 4.
sedangkan jika Anda memiliki model dengan 10 variabel penjelas termasuk titik potong, d.k.
untuk ESS akan sebesar 9. Tetapi rumus konvensional untuk R2 tidak memperhitungkan
perbedaan d.k. dalam berbagai model regresi. Perhatikan bahwa d.k. untuk TSS selalu sebesar (n
- 1). (Mengapa?) Oleh karena itu, membandingkan nilai-nilai R dari dua model dengan variabel
tak bebas yang sama namun dengan jumlah variabel penjelas yang berbeda pada dasarnya
sama saja dengan membandingkan antara apel dengan jeruk.
Dengan demikian, yang kita perlukan adalah mengukur kecocokan-suai yang disesuaikan
terhadap (dalam hal ini, mempertimbangkan secara eksplisit) jumlah variabel penjelas dalam
model. Ukuran semacam itu telah ditemukan dan disebut sebagai R 2 yang disesuaikan, dan
dinotasikan dengan simbol Ŕ2. ( Ŕ2) ini dapat diperoleh dari rumus R konvensional (lihat
Lampiran 8A.3) sebagai berikut:
2 n−1
Ŕ2=1−( 1−R ) n−k (8.54)
Perhatikan bahwa R2yang telah kita bahas sebelumnya juga disebut R2yang belum di
sesuaikan karena alasan-alasan yang cukup jelas.
Dewasa ini, hampir semua paket komputer regresi menghitung nilai R 2 yang disesuaikan
maupun yang belum disesuaikan. Ini merupakan langkah yang baik karena R2 yang disesuaikan
akan memungkinkan kita untuk membandingkan kedua regresi yang mempunyai variabel tak
bebas yang sama namun dengan jumlah variabel penjelas yang berbeda. Meskipun kita tidak
membandingkan dua model regresi, akan baik sekali bila kita mencari nilai R 2 yang disesuaikan
karena nilai ini secara eksplisit memperhitungkan jumlah variabel yang dimasukkan ke dalam
model.
Untuk contoh ilustratif kita, Anda hendaknya membuktikan bahwa nilai R 2 yang disesuaikan
adalah 0,8830, yang, sebagaimana kita harapkan, lebih kecil daripada nilai R2 yang belum
disesuaikan sebesar 0,8906. Nilai R2 yang disesuaikan untuk regresi (8.52) dan (8.53) masing-
masing adalah 0,5169 dan 0,1268, yang sedikit lebih kecil daripada nilai R 2 yang belum
disesuaikan.
Pada prakteknya, dalam rangka menjelaskan suatu fenomena tertentu, kita sering kali
dihadapkan pada masalah pemilihan di antara beberapa variabel penjelas yang layak untuk
dimasukkan ke dalam model. Praktek yang lazim dilakukan adalah dengan terus menambah
variabel selama nilai R2 meningkat (kendati nilai angkanya mungkin lebih kecil daripada nilai R2
yang belum disesuaikan). Tetapi, kapankah R² yang disesuaikan akan meningkat? Dapat kita
tunjukkan bahwa Ŕ2 akan meningkat apabila |t| (nilai t absolut) untuk koefisien variabel yang
ditambahkan lebih besar dari 1, di mana nilai t dihitung berdasarkan hipotesis nol bahwa nilai
populasi dari koefisien tersebut adalah nol.
Untuk memahami hal ini secara lebih jelas, marilah kita pertama-tama meregresikan harga
lelang terhadap suatu konstanta saja, kemudian terhadap konstanta dan umur jam antik, dan
selanjutnya terhadap konstanta, umur jam, dan jumlah penawar. Hasilnya disajikan dalam Tabel
8-4.
Catatan: Angka-angka di dalam tanda kurung adalah nilai-nilai t taksiran berdasarkan hipotesis
bahwa nilai-nilai populasi dari koefisien-koefisien di atas adalah nol.
1. Ketika kita meregresikan harga lelang hanya terhadap titik potong saja, nilai R 2, Ŕ2,
maupun F seluruhnya sama dengan nol, sebagainiana yang kita harapkan. Akan tetapi,
apakah yang dinyatakan oleh nilai titik potong dalam regresi ini? Bukan lain adalah nilai
rata-rata (sampel) dari harga lelang. Salah satu cara untuk mengecek hal ini adalah
dengan mengamati Persamaan (6.16). Jika tidak ada variabel X dalan persamaan ini, titik
potongnya sama dengan nilai rata-rata dari variabel tak bebas.
2. Ketika kita meregresikan narga lelang terhadap suatu konstanta dan umur jam antik, kita
ketahui bahwa nilai t dari variabel umur jam bukan saja lebih besar dari 1 melainkan juga
signifikan secara statistik. Jadi, tak mengherankan bahwa nilai R 2 maupun Ŕ2- meningkat
(walaupun nilai Ŕ2 agak lebih kecil daripada nilai R2). Tetapi perhatikanlah sebuah fakta
yang menarik. Jika Anda mengkuadratkan nilai t yang besarnya 5,8457, kita peroleh
(5.8457)2 = 34,1722 yang kira-kira sama dengan nilai F sebesar 34,1723 sebagaimana
ditunjukkan dalam Tabel 8-4 Apakah hal ini mengherankan? Tidak, karena dalam
Persamaan (4.15) kita nyatakan bahwa
t 2k =F 1 ,k (8.55) = (4.15)
Dalam hal ini, kuadrat dari statistik t dengan d.k. sebesar k sama dengan statistik F
dengan d.k. sebesar 1 untuk pembilang dan d.k. sebesar k untuk penyebut. Dalam contoh
kita, k = 30 [32 observasi - 2, yakni kedua koefisien yang ditaksir dalam Model (2)]. D.k.
pembilangnya sebesar 1 karena kita hanya mempunyai satu variabel penjelas saja dalam
model ini.
3. Ketika kita meregresikan harga lelang terhadap sebuah konstanta dan jumlah penawar,
kita ketahui bahwa nilai t untuk variabel jumlah penawar adalah 2,3455. Jika Anda
mengkuadratkan nilai ini, Anda akan memperoleh (2,3455)2 = 5,5013, yang kira-kira
sama dengan yang ditunjukkan dalam tabel di atas, yang sekali lagi membuktikan
Persamaan (8.55). Karena nilai t lebih besar dari 1, maka nilai R² maupun Ŕ2 meningkat.
Nilai hitung t juga signifikan secara statistik, yang menunjukkan bahwa variabel jumlah
penawar sebaiknya ditambahkan ke dalam model (1). Kesimpulan yang sama berlaku
pula untuk model (2).
4. Bagaimana cara kita memutuskan apakah bermanfaat bila kita menambahkan variabel
umur jam serta jumlah penawar secara bersama-sama ke dalam model (1)? Kita telah
menjawab pertanyaan ini dengan bantuan metode ANOVA dan kehadiran statistik uji F.
Dalam Tabel 8-2, kita telah menunjukkan bahwa kita dapat menolak hipotesis bahwa B2
= B3 = 0, dalam hal ini, kedua variabel penjelas secara bersama-sama tidak berpengaruh
terhadap harga lelang.
Marilah kita amati lagi regresi yang diberikan dalam Tabel 8-4. Dalam tabel tersebut kita
melihat akibat dari diabaikannya variabel-variabel yang relevan dari suatu model regresi. Jadi,
dalam regresi (l) yang ditunjukkan dalam tabel ini, kita meregresikan harga lelang jam antik
hanya terhadap titik potong saja, yang menghasilkan nilai R2 sebesar nol, yang bagi kita tidaklah
mengherankan. Kemudian dalam regresi (4) kita meregresikan harga lelang terhadap umur jam
maupun jumlah penawar yang hadir di acara lelang, di mana diperoleh nilai R2 sebesar 0,8906.
Berdasarkan uji F dapat kita simpulkan bahwa terdapat kesalahan spesifikasi dan bahwa kedua
variabel penjelas harus ditambahkan ke dalam model.
Marilah kita menyebut regresi (1) sebagai model terkendala karena secara implisit
mengasumsikan bahwa koefisien umur jam dan jumlah penawar adalah nol; dalam hal ini,
variabel-variabel tersebut tidak masuk di dalam model (yakni, B2 : B3 = O). Marilah kita
menyebut regresi (4) sebagai model tanpa kendala karena memasukkan semua variabel yang
relevan. Karena (1) merupakan model terkendala, maka pada saat kita menaksimya dengan
metode OLS, kita menyebutnya sebagai kuadrat terkeeil terkendala (restricted least squares,
RLS). Karena (4) merupakan model tanpa kendala, maka ketika kita menaksirnya dengan
menggunakan metode OLS, kita menyebutnya sebagai kuadrat terkecil tanpa kendala
(unrestricted least squares, URLS). Seluruh model yang telah kita taksir sejauh ini pada dasarnya
merupakan URLS, karena kita mengasumsikan bahwa model yang sedang ditaksir telah
dispesifikasikan secara tepat dan bahwa kita telah memasukkan semua variabel yang relevan ke
dalam model. Dalam Bab ll (di Jilid 2) kita akan mengetahui akibat dari diabaikannya asumsi ini.
Pertanyaannya sekarang adalah: Bagaimana cara kita memutuskan antara RLS dan
URLS? Dalam hal ini, bagaimana kita mengetahui apakah kendala yang ditetapkan oleh suatu
model, seperti model (1) dalam contoh kita ini, berlaku secara sah? Pertanyaan ini dapat dijawab
dengan menggunakan uji F . Untuk itu, misalkan R2r menotasikan nilai R2 yang diperoleh dari
model terkendala dan R2ur, menotasikan nilai R2 yang diperoleh dari model tanpa kendala.
Sekarang, dengan mengasumsikan bahwa faktor kesalahan ui didistribusikan secara normal,
dapat kita tunjukkan bahwa
(8.56)
Mengikuti distribusi F dengan d.k. sebesar m pada pembilang dan d.k. sebesar (n - k)
pada penyebut, di mana R2r = R2 yang diperoleh dari model regresi terkendala, R2ur = R2 yang
diperoleh dari regresi tanpa kendala m = jumlah kendala yang ditetapkan oleh model regresi
terkendala (dalam contoh kita, m = 2), n = jumlah observasi dalam sampel, dan k = jumlah
parameter yang ditaksir dalam regresi tanpa kendala (termasuk titik potong). Hipotesis nol yang
diuji di sini adalah bahwa kendala yang ditetapkan oleh model terkendala berlaku secara sah.
Jika nilai F yang ditaksir dari Persamaan (8.56) melampaui nilai F kritis pada tingkat signifikansi
yang dipilih, kita menolak regresi terkendala. Dengan kata lain, dalam situasi ini, kendala yang
ditetapkan oleh model (terkendala) tidak berlaku secara sah.
Kembali ke contoh kita tentang harga lelang jam antik, dengan menempatkan nilai-nilai
yang sesuai ke dalam Persamaan (8.56) dcari Tabel 8-4, kita peroleh:
(8.57)
Probabilitas dari nilai F sebesar itu sangatlah kecil. Oleh karena itu, kita menolak regresi
terkendala. Bila dikatakan secara positif, baik umur jam antik maupun jumlah penawar yang
hadir dalam acara lelang mempunyai pengaruh yang signifikan secara statistik terhadap harga
lelang.
Rumus (8.56) merupakan salah satu penerapan yang sifatnya umum. Satu-satunya kehati-
hatian yang perlu diperhatikan dalam penerapannya adalah bahwa dalam membandingkan regresi
terkendala dengan regresi tanpa kendala, variabel tak bebasnya harus dinyatakan dalam bentuk
yang sama. Jika tidak, maka kita harus membuatnya dapat diperbandingkan dengan
menggunakan metode yang akan kita bahas dalam Bab 9 (lihat Soal 9.16) ataupun menggunakan
metode alternatif yang dibahas dalam Latihan 8.20.
Untuk menutup bab ini. kita pertimbangkan beberapa contoh yang mencakup regresi
berganda. Tuju kita di sini adalah untuk menunjukkan bagaimana model-model regresi berganda
digunakan dalam berbagai penerapan.
Contoh 8.1. Apakah kebijakan perpajakan mempengaruhi struktur modal perusahaan?
Untuk mengetahui seberapa besar pengaruh kebijakan perpajakan terhadap kecenderungan akhi
akhir ini di sektor industri manufaktur AS untuk menggunakan modal utang sebagai penggar
modal ekuitas-dalam hal ini, kecenderungan ke arah peningkatan rasio utang/ekuitas (yang
disebut sebagai pengungkit atau leverage dalam literatur keuangan)-Pozdena menaksir model
regresi dibawah ini :18
di mana :
Y = pengungkit (= utang/ekuitas) dalam persen
X2 = tarif pajak perseroan
X3 = tarif pajak perorangan
X4 = tarif pajak keuntungan modal
X5 = tax shields di luar utang
X6 = laju inflasi
Teori ekonomi menunjukkan bahwa koefisien-koefisien B2, B4 , dan B6 akan bemilai
positif sedangkan koefisien B3 dan B5 akan negatif.19 Berdasarkan data perusahaan manufaktur di
AS untuk tahun 1935 sampai 1982, Podzena memperoleh hasil OLS yang disajikan dalam bentuk
tabel 8-5 dan bukannya dalam bentuk lazimnya [dalam hal ini, persamaan 8.37]
Tabel 8 -5
Pembahasan Tentang Hasil Regresi
Fakta pertama yang harus diperhatikan tentang hasil regresi di atas adalah bahwa semua
koehsien mempunyai tanda sesuai dengan yang diharapkan sebelumnya. Sebagai contoh. tarif
pajak perseroan mempunyai pengaruh yang positif terhadap pengungkit. Bila hal-hal lain
dipertahankan konstan (ceteris paribus), maka seandainya tarif pajak perseroan naik sebesar satu
persen poin, maka secara rata-rata rasio pengungkit (dalam hal ini, rasio utang/ekuitas) naik
sebesar 2,4 persen poin. Demikian pula, jika laju inflasi naik sebesar satu persen poin, maka
secara rata-rata pengungkit akan naik sebesar 1,4 persen poin, ceteris paribus. (Pertanyaan:
Mengapa Anda akan mengharapkan hubungan positif antara pengungkit dan inflasi?) Koefisien
regresi parsial lainnya dapat ditafsirkan dengan cara yang serupa.
Bagaimanakah halnya dengan signifikansi keseluruhan dari garis regresi yang ditaksir?
Dalam hal ini, apakah kita menolak hipotesis nol bahwa semua kemiringan parsial secara
simultan sama dengan nol atau. dengan kata lain, R2 = 0? Hipotesis ini dapat dengan mudah diuji
dengan menggunakan Persamaan (8.50), yang dalam kasus kita ini menghasilkan
(8.59)
Nilai F ini memiliki distribusi F dengan d.k. 5 dan 42. Jika α ditetapkan sebesar 0,05,
tabel F (Lampiran A. Tabel A-3) menunjukkan bahwa untuk d.k. 5 dan 40 (tabel F tidak
mempunyai nilai yang tepat untuk d.k. 42 pada penyebutnya), nilai F kritis adalah 2,45. Nilai F
kritis pada α = 0.0l adalah 3,51. Nilai hitung F sebesar = 56 jauh lebih besar daripada kedua nilai
F kritis tersebut. Oleh karena itu, kita menolak hipotesis nol bahwa semua kemiringan parsial
secara simultan sama dengan nol atau, dengan kata lain, R 2 = 0. Secara bersama-sama, kelima
variabel penjelas mempengaruhi variabel tak bebas. Akan tetapi, sebagaimana kita ketahui,
secara sendiri-sendiri hanya empat variabel saja yang berpengaruh terhadap variabel tak bebas.
yakni rasio utang/ekuitas. Contoh 8-1 sekali lagi menegaskan kesimpulan yang dibuat
sebelumnya bahwa uji t (secara sendiri-sendiri) dan uji F (gabungan) sangatlah berbeda.
(8.60)
di mana:
(8.61)
di mana :
Y = perubahan konsumsi alkohol murni per jumlah orang dewasa per tahun
X2 = perubahan indeks harga riil minuman beralkohol per tahun
X3 = perubahan pendapatan disposabel riil per kapita per tahun
X4 = perubahan jumlah tempat penjualan resmi per tahun
jumlah penduduk dewasa
X5 = pembahan belanja iklan riil minuman beralkohol per jumlah orang dewasa per tahun
Teori akan menunjukkan bahwa semua variabel kecuali X2 akan berkorelasi secara posi1
dengan Y. Teori tersebut ditegaskan oleh hasil regresi di atas, meskipun tiap-tiap koefisien tidak
signifikan secara statistik. Untuk d.k. sebesar 15 (Mengapa?), nilai t kritis pada tingkat signifikan
5% adalah 1,753 (satu sisi) dan 2,131 (dua sisi). Perhatikan koefisien X5 , yakni perubahan
belanja iklan. Karena belanja iklan dan permintaan akan minuman beralkohol diharapkan
berkorelasi seca positif (kalau tidak, maka akan merupakan berita buruk bagi industri
periklanan), kita dapat mengu hipotesis bahwa HO: B5 = 0 vs. HJ: B5 > 0, dan karenanya dapat
menggunakan uji t satu sisi. Nilai hitung t sebesar 1,73 sangat mendekati signifikan pada tingkat
signifikansi 5%.
Contoh 8.4. Meninjau kembali kasus tingkat partisipasi angkatan kerja sipil, angka
pengangguran, dan rata-rata pendapatan per jam
Dalam Bab l kita menyajikan regresi (1.5) tanpa membahas tentang signilikansi statistik
dari hasil regresi tersebut. Sekarang kita telah memiliki peralatan yang diperlukan untuk
melakukannya. Hasil regresinya secara lengkap adalah sebagai berikut:
Sebagaimana yang ditunjukkan oleh hasil regresi ini, masing-masing koefisien regresi
yang ditaksir secara sendiri-sendiri sangat signifikan secara statistik, karena nilai p sangatlah
kecil. Dalam hal ini, tiap-tiap koefisien nyata tidak sama dengan nol. Secara bersama-sama, baik
APS maupun RPJ82 juga sangat signifikan secara statistik, karena nilai p dari nilai hitung F
(untuk d.k. 2 'dan 20) sebesar 40 sangatlah kecil.
Sebagaimana yang kita harapkan, angka pengangguran sipil memiliki pengaruh negatif
terhadap tingkat partisipasi angkatan kerja sipil, yang menunjukkan bahwa mungkin saja
hipotesis efek tenaga kerja berkurang lebih dominan ketimbang efek tenaga kerja
benambah.A1asanteoretis yang mendasarinya telah dijelaskan dalam Bab 1. Nilai RPJ82 yang
negatif menunjukkan bahwa mungkin efek pendapatan lebih menonjol ketimbang efek substitusi.
SOAL
Dimana notasi dengan huruf kecil menyatakan deviasi dari nilai rata-rata sampel.
a. Taksirlah ketiga koefisien regresi berganda tersebut
b. Taksirlah kesalahan standar untuk ketiga koefisien tersebut
Jawab :
a. b1 = Y – b2 X 2 – b3 X 3
= 367,693 – b2 (402,760) – b3 (8,0)
b1 = 367,693 – 402,760 b2 - 8,0 b3 ,
maka b1 = 367,693 – 402,760 (0,73) – 8,0 (2,67) = 52,3182
( Σ y t x 2 t ) ( Σ x 23t )−(Σ y t x 3 t )( Σ x2 t x 3 t )
b2 =
( Σ x 22 t )( Σ x 23 t )−(Σ x 2t x 3 t )2
74.778,346(280)−4.250,9 ( 4.796,0 )
=
84.855,096 ( 280,0 )−( 4.796,0 )2
20.937 .936−20.387 .316,4
b2 =
757.810,88
= 0,73
( Σ y t x 3 t ) ( Σ x 22t )−( Σ yt x 2 t )( Σ x 2 t x 3 t )
b3 ¿
( Σ x 22 t )( Σ x 23 t )−(Σ x2 t x 3 t )2
4.250,9 ( 84.855,096 )−74.778,346 (4.796,0)
=
84.855,096 ( 280 ) −( 4.796)2
360.710.527,6−358.684 .907,4
=
23.759 .426,88−23.001 .616
2.025.620,186
=
757.810,88
b3 = 2,67
b. Σ e2t =Σ y 2t −b 2 Σ y t x 2t −b3 Σ y t x 3 t
= 66.042,269 – 0,73 (74.778.346) – 2,67 (4.250,9)
= 104,17342
Σ e2t
σ2 =
n−3
104,17342
= 15−3
= 8,68
2 2 2
1 X 2 Σ x 3 t + X 2t −2 X 2 X 3 Σ x 2t x 3 t
var (b1) = +
n [ 2 2
Σ x2 t Σ x3 t −( Σ x 2 t x3 t )2 . σ2
]
2
1 402,760 ( 280 )−2(402,760)(8,0)( 4.796,0)
= [ 15
+
84.855,096 ( 280 )−(4.796,0)2 ]
. 8,68
se (b1) = √ var ( b 1 )
= √ 1.538,045589=39,22
∑ x23 t
var (b2) = 2 2 2 . σ2
( Σ x )( ∑ x )−( Σ x 2 t x3 t )
2t 3t
280
= x
2 8,68
84.855,096 ( 280 )−4.796,0
= 0,0032
∑ x22 t
var (b3) = . σ2
( Σ x 22 t )( ∑ x32t )−( Σ x 2 t x3 t )2
84.855,096
= 2
x 8,68
84.855,096 ( 280 )−( 4.796,0)
= 0,9719
se (b3) = √ var ( b3 )
= √ 0,9719=0,9859
Jawab :
1) Karena Hipotesis Alternatifnya memiliki dua sisi, maka kita harus mencari nilai t kritis
pada α/2 = 2,5 % yang dimana d.k nya ialah 12. Kemudian dari tabel t kita ketahui bahwa
untuk d.k 12 adalah ,
(-2,179 ≤ t ≤ 2,179 ) = 0,95
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam batas -2,179
dan +2,179 ( yakni nilai kritis t ) adalah 95 %.
2) Karena Hipotesis Alternatifnya memiliki satu sisi yaitu sisi kanan, maka kita harus mencari
nilai t kritis pada α = 1 % yang dimana d.k nya ialah 20. Kemudian dari tabel t kita ketahui
bahwa untuk d.k 20 adalah ,
(-2,528 ≤ t ≤ 2,528 ) = 0,99
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam sisi kanan yaitu
-2,528 ( yakni nilai kritis t ) adalah 99 %.
3) Karena Hipotesis Alternatifnya memiliki satu sisi yaitu sisi kiri, maka kita harus mencari
nilai t kritis pada α = 5 % yang dimana d.k nya ialah 30. Kemudian dari tabel t kita ketahui
bahwa untuk d.k 30 adalah ,
(-1,697 ≤ t ≤ 1,697 ) = 0,95
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam sisi kiri yaitu
-1,697 ( yakni nilai kritis t ) adalah 95 %.
4) Karena Hipotesis Alternatifnya memiliki dua sisi, maka kita harus mencari nilai t kritis
pada α/2 = 2,5 % yang dimana d.k nya ialah 200. Kemudian dari tabel t kita ketahui bahwa
untuk d.k 200 adalah ,
(-1,972 ≤ t ≤ 1,972 ) = 0,95
Dalam hal ini, probabilitas bahwa pada nilai t yang terletak dalam batas -1,972 dan
+1,972 ( yakni nilai kritis t ) adalah 95 %.
2
4. Berapakah nilai σ^ dalam masing-masing kasus berikut ini?
a. ∑ e 2i =880 , n=25 , k =4
b. ∑ e 2i =1220 , n=14, k =3
Jawab:
2 ∑ e 2i
σ^ =
n−3
880
σ^ 2 = =41 ,904
a. 25−4
Dengan ∑ e 2i =880 , dan d.k (25-4), maka varians yang tak diketahui adalah sebesar
41,904
1220
σ^ 2 = =110, 909
b. 14−3
Dengan ∑ e 2i =1220 , dan d.k. (14-3), maka varians yang tak diketahui adalah sebesar
110,909
5. Untuk menjelaskan faktor apa yang menentukan harga alat pendingin udara (AC), B. T.
Ratchford, memperoleh hasil regresi di bawah ini berdasarkan sampel sebanyak 19 buah
AC :
dimana :
Y = harga, dalam dolar AS
se = kesalahan standar
Jawab: