1.RANGKUMAN
Regresi Linear Berganda atau multiple linier regression adalah model regresi yang terdiri dari
satu variabel Y dan lebih dari satu variabel X. Artinya, Variabel X bisa berjumlah 2, 3, atau
lebih. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena
dalam keilmuan sosial semua faktor-vaktor atau variabel-variabel saling berkaitan satu
dengan lainnya.
Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa
perubahan, meliputi: 1) jumlah variabel penjelasnya bertambah, sehingga spesifikasi model
dan data terjadi penambahan. 2) rumus penghitungan nilai b mengalami perubahan, 3) jumlah
degree of freedom dalam menentukan nilai t juga berubah.
Populasi:
Y = A + B1X1 + B2X2 + B3X3 + + BnXn + e
Atau
Y = B0 + B1X1 + B2X2 + B3X3 + + BnXn + e
Sampel :
Y = a + b1X1 + b2X2 + b3X3 + + bnXn + e
Atau
Penggunaan metode OLS dalam regresi linier berganda dimaksudkan untuk mendapatkan
aturan dalam mengestimasi parameter yang tidak diketahui. Prinsip yang terkandung dalam
OLS sendiri adalah untuk meminimalisasi perbedaan jumlah kuadrat kesalahan (sum of
square) antara nilai observasi Y dengan Y. Secara matematis, fungsi minimalisasi sum of
square ditunjukkan dalam rumus:
Untuk mendapatkan estimasi least square b0, b1,b2 minimum, dapat dilakukan melalui cara
turunan parsial (partially differentiate) dari formula di atas, sebagai berikut:
Jadikan nilai-nilai turunan parsial di atas menjadi sama dengan 0 (nol), dengan cara membagi
dengan angka 2, hingga menjadi:
pencarian nilai b pada single linier berbeda dengan multiple linier. Perbedaan ini muncul
karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X ini maka
kemungkinan-kemungkinan yang menjelaskan model juga mengalami pertambahan. Dalam
single linier kemungkinan perubahan variabel lain tidak terjadi, tetapi dalam multiple linier
hal itu terjadi. Misalnya, Jika terjadi perubahan pada X1, meskipun X2 konstan, akan mampu
merubah nilai harapan dari Y. Begitu pula, perubahan pada X2, meskipun X1 konstan, akan
mampu merubah nilai harapan dari Y. Perubahan yang terjadi pada X1 atau X2 tentu
mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2) yang berbeda. Oleh karena itu
pencarian nilai b mengalami perubahan.
Guna mengetahui seberapa besar kontribusi X1 terhadap perubahan Y, tentu perlu untuk
melakukan kontrol pengaruh dari X2. Begitu pula, untuk mengetahui kontribusi X2, maka
perlu juga melakukan kontrol terhadap X1. Misalnya kita hendak mengontrol pengaruh linier
X2 ketika melakukan pengukuran dampak dari perubahan X1 terhadap Y, maka dapat
melakukan langkah-langkah sebagai berikut:
Besarnya a1 pada tahap ketiga inilah yang merupakan nilai pasti atau net effect dari perubahan
satu unit X1 terhadap Y, atau menunjukkan kemiringan (slope) garis Y atas variabel X1.
Logika dari teori tersebut yang mendasari rumus yang dapat digunakan untuk menentukan
koefisien regresi parsial (partial regression coefficients).
Nilai dari parameter b1 dan b2 merupakan nilai dari suatu sampel. Nilai b1 dan b2 tergantung
pada jumlah sampel yang ditarik. Penambahan atau pengurangan akan mengakibatkan
perubahan rentangan nilai b. Perubahan rentang nilai b1 dan b2 diukur dengan standar error.
Semakin besar standar error mencerminkan nilai b sebagai penduga populasi semakin
kurang representatif. Sebaliknya, semakin kecil standar error maka keakuratan daya penduga
nilai b terhadap populasi semakin tinggi. Perbandingan antara nilai b dan standar error ini
memunculkan nilai t, yang dapat dirumuskan sebagai berikut:
dimana:
b = nilai parameter
Sb = standar error dari b. Jika b sama dengan 0 (b=0) atau Sb bernilai sangat besar, maka
nilai t akan sama dengan atau mendekati 0 (nol).
Untuk dapat melakukan uji t, perlu menghitung besarnya standar error masing-masing
parameter ( baik b0, b1, b2), seperti diformulakan Gujarati (1995:198-199) sebagai berikut:
Rumus-rumus di atas, dapat kita masuki dengan angka-angka yang tertera pada tabel, hanya
saja belum semuanya dapat terisi. Kita masih memerlukan lagi angka untuk mengisi rumus
e2 . Untuk dapat mengisi rumus tersebut, perlu terlebih dulu mencari nilai e. Nilai e adalah
standar error yang terdapat dalam persamaan regresi.
Perhatikan persamaan regresi:
Y = b0 + b1X1 + b2 X2 + e
Secara matematis, dari persamaan regresi di atas nilai e dapat diperoleh, dengan cara
mengubah posisi tanda persamaan hingga menjadi:
eY- (b0 + b1X1 + b2 X2)
Setelah diketahui semua nilai standar error (Sb0, Sb1, Sb2) melalui penggunaan rumus-rumus
di atas, maka nilai t untuk masing-masing parameter dapat diperoleh, karena nilai t
merupakan hasil bagi antara b dengan Sb.
Pencarian masing-masing nilai t dapat dirumuskan sebagai berikut:
dengan diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk
mengetahui signifikan tidaknya variabel penjelas dalam mempengaruhi variabel terikat.
Untuk dapat mengetahui apakah signifikan atau tidak nilai t hitung tersebut, maka perlu
membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan
nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih
kecil darit tabel, maka variabel penjelas tersebut tidak signifikan.
Total variasi Y (TSS) dapat diukur menggunakan derajat deviasi dari masing-masing
observasi nilai Y dari rata-ratanya. Hasil pengukuran ini kemudian dijumlahkan hingga
mencakup seluruh observasi. Jelasnya:
Nilai explained sum of square (ESS) atau variasi yang dijelaskan Y didapat dengan
menggunakan rumus sebagai berikut:
Y cap diperoleh dengan cara menghitung hasil regresi dengan memasukkan nilai parameter
dan data variabel. Penghitungan nilai Y cap menjadi penting untuk dilakukan agar
mempermudah kita dalam menggunakan rumus R2 yang telah ditentukan di atas.
E. Uji F
Seperti telah dikemukakan di atas, bahwa dalam regresi linier berganda variabel penjelasnya
selalu berjumlah lebih dari satu. Untuk itu, maka pengujian tingkat signifikansi variabel tidak
hanya dilakukan secara individual saja, seperti dilakukan dengan uji t, tetapi dapat pula
dilakukan pengujian signifikansi semua variabel penjelas secara serentak atau bersama-sama.
Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA)
melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu
disebut pula dengan uji F.
Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means
dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari
variabel yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara
variansi means (variance between means) yang dibandingkan dengan variansi di dalam
kelompok variabel (variance between group). Hasil pembandingan keduanya itu (rasio antara
variance between means terhadap variance between group) menghasilkan nilai F hitung,
yang kemudian dibandingkan dengan nilai F tabel.
Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel
penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika
nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak
seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
H0 diterima atau ditolak, merupakan suatu keputusan jawaban terhadap hipotesis yang terkait
dengan uji F, yang biasanya dituliskan dalam kalimat sebagai berikut:
Karena uji F adalah membandingkan antara nilai F hitung dengan nilai F tabel, maka penting
untuk mengetahui bagaimana mencari nilai F hitung ataupun nilai F tabel. Nilai F hitung
dapat dicari dengan menggunakan rumus sebagai berikut:
Sedangkan nilai F tabel telah ditentukan dalam tabel. Yang penting untuk diketahui adalah
bagaimana cara membaca tabelnya. Seperti yang telah dituliskan pada pembandingan antara
nilai F hitung dan nilai F tabel di atas, diketahui bahwa F tabel dituliskan F;k-1; (n-k).
2. KESIMPULAN
Mengetahui kegunaan dan spesifikasi model
Menjelaskan hubungan antar variabel
Mengaitkan data yang relevan dengan teori
Mengembangkan data
Menghitung nilai parameter
Mengetahui arti dan fungsi parameter
Menentukan signifikan tidaknya variabel bebas
Menentukan determinasi model
Menjelaskan tahapan-tahapan regresi
Membaca hasil regresi
Menyebutkan asumsi-asumsi
Membedakan dengan regresi linier sederhana
3. MENJAWAB PERTANYAAN-PERTANYAAN
Populasi:
Y = A + B1X1 + B2X2 + B3X3 + + BnXn + e
Atau
Y = B0 + B1X1 + B2X2 + B3X3 + + BnXn + e
Sampel :
Y = a + b1X1 + b2X2 + b3X3 + + bnXn + e
Atau
c. Coba uraikan arti dari notasi atas model yang telah anda tuliskan!
Y = Variabel Terikat
b0= konstanta
e= error term
juga 0. Secara substansi penulisan itu mempunyai arti yang sama, yaitu menunjukkan
konstanta atau intercept yang merupakan sifat bawaan dari variabel Y. Konstanta ini
mempunyai angka yang bersifat tetap yang sekaligus menunjukkan titik potong garis regresi
pada sumbu Y. Jika konstanta itu bertanda positif maka titik potongnya di sebelah atas titik
origin (0), sedang bila bertanda negatif titik potongnya di sebelah bawah titik origin. Nilai
konstanta ini merupakan nilai dari variabel Y ketika variabel X bernilai nol. Atau dengan
bahasa yang mudah, nilai konstanta merupakan sifat bawaan dari Y.
Konstanta memberikan informasi tentang seberapa besar faktor-faktor yang bersifat tetap
mempengaruhi variabel Y, serta menjelaskan nilai variabel terikat ketika masing-masing
variabel bebasnya bernilai nol (0).
Nilai koefisien regresi yang disimbolkan dengan huruf b berfungsi untuk menentukan tingkat
kemiringan garis regresi. Semakin rendah koefisien regresi, maka derajat kemiringan garis
regresi terhadap sumbu X semakin rendah pula. Sebaliknya, semakin tinggi nilai b, maka
derajat kemiringan garis regresi terhadap sumbu X semakin tinggi. Koefisien regresi
mencerminkan tingkat elastisitas variabel X (independen).
g. Jelaskan mengapa rumus untuk mencari nilai b pada model regresi linier berganda
berbeda dengan model regresi linier sederhana!
Telah dikemukaan di atas bahwa pencarian nilai b pada single linier berbeda dengan multiple
linier. Perbedaan ini muncul karena jumlah variabel penjelasnya bertambah. Semakin
banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model juga
mengalami pertambahan. Dalam single linier kemungkinan perubahan variabel lain tidak
terjadi, tetapi dalam multiple linier hal itu terjadi. Misalnya, Jika terjadi perubahan pada X1,
meskipun X2 konstan, akan mampu merubah nilai harapan dari Y. Begitu pula, perubahan
pada X2, meskipun X1 konstan, akan mampu merubah nilai harapan dari Y. Perubahan yang
terjadi pada X1 atau X2 tentu mengakibatkan perubahan nilai harapan Y atau E(Y/X1,X2)
yang berbeda. Oleh karena itu pencarian nilai b mengalami perubahan.
Dengan diketahuinya nilai t hitung masing-masing parameter, maka dapat digunakan untuk
mengetahui signifikan tidaknya variabel penjelas dalam mempengaruhi variabel terikat.
Untuk dapat mengetahui apakah signifikan atau tidak nilai t hitung tersebut, maka perlu
membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan
nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih
kecil dari t tabel, maka variabel penjelas tersebut tidak signifikan.
Nilai F digunakan untuk pengujian signifikansi semua variabel penjelas secara serentak atau
bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik analisis of
variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel.
Oleh karena itu disebut pula dengan uji F. Pada prinsipnya, teknik ANOVA digunakan untuk
menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional
telah signifikan menjelaskan variasi dari variabel yang dijelaskan.
l. Jelaskan apakah rumus dalam mencari koefisien determinasi pada model regresi
linier berganda berbeda dengan regresi linier sederhana! kenapa?
Pengujian ini biasanya disimbolkan dengan koefisien regresi yang biasa disimbolkan dengan
R2. Uraian tentang koefisien determinasi sedikit banyak telah disinggung pada single linier
regression. Pada sub bahasan ini hanya menambah penjelasan-penjelasan agar menjadi lebih
lengkap saja. Koefisien determinasi pada dasarnya digunakan untuk mengkur goodness of fit
dari persamaan regresi, melalui hasil pengukuran dalam bentuk prosentase yang menjelaskan
determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y). Koefisien
determinasi dapat dicari melalui hasil bagi dari total sum of square (TSS) atau total variasi Y
terhadap explained sum of square (ESS) atau variasi yang dijelaskan Y. Dengan demikian
kita dapat mendefinisikan lagi R2 dengan arti rasio antara variasi yang dijelaskan Y dengan
total variasi Y.