Anda di halaman 1dari 40

ANALISIS REGRESI

Metodologi Penelitian

Disusun Oleh:
Nastiti Nugerahani

041414253009

Refivia Audie C.

041414253013

Santy Sari Dewi

041424253007

Andhika Pramudya G.

041424253039

Program Magister Akuntansi Fakultas Ekonomi dan Bisnis


Universitas Airlangga
2015

Konsep Dasar Analisis Regresi

Dalam kehidupan sehar-hari sering dijumpai hubungan antara variabel satu dengan
lainnya. Sebagai contoh pada bidang pertanian dosis dan jenis pupuk akan mempengaruhi
hasi pertanian. Secara umum ada dua macam hubungan antara dua atau lebih variabel, yaitu
bentuk hubungan dan keeratan hubungan. Bila ingin mengetahui bentuk hubungan dua
variabel atau lebih, digunakan analisis regresi. Bila ingin melihat keeratan hubungan,
digunakan analisis korelasi. Jika variabel independen lebih dari satu, maka analisis regresi
disebut regresi linear berganda. Disebut berganda karena pengaruh beberapa variabel bebas
akan dikenakan kepada variabel tergantung.
Secara umum, analisis regresi pada dasarnya adalah studi mengenai ketergantungan
variabel dependen (terikat) dengan satu atau lebih variabeel independen (variabel
penjelas/bebas), dengan tujuan untuk mengestimasi dan/atau memprediksi rata-rata populasi
atau nilai ratrata variabel dependen berdasarkan nilai variabel independen yang diketahui
(Gujarati, 2003). Hasil analisis regresi adalah berupa koefisien untuk masing masing
variabel independen. Dalam analisis regresi (Singgih, 2015), akan dikembangkan sebuah
persamaan regresi, yaitu suatu formula yang mencari nilai variabel dependen dan nilai
variabel independen yang diketahui. Manfaat dari hasil analisis regresi adalah untuk membuat
keputusan apakah naiknya dan menurunnya variabel dependen dapat dilakukan melalui
peningkatan variabel independen atau tidak. Sebagai contoh, naiknya jumlah penjualan dapat
dilakukan melalui jumlah iklan atau tidak. Koefisien ini diperoleh dengan cara memprediksi
nilai variabel dependen dengan suatu persamaan. Koefisien regresi dihitung dengan dua
tujuan sekaligus : pertama, meminimumkan penyimpangan antara nilai aktual dengan nilai
estimasi variabel dependen berdasarkan data yang ada (Tabachnick, 1996).
Sebagai contoh bila ada 3 variabel, yaitu penjualan, biaya iklan dan biaya promosi
penjualan. Pada praktiknya akan dibahas mengenai hubungan antar biaya promosi penjualan
dan biaya iklan terhadap penjualan. Disini berarti variabel dependen penjualan, sedangkan
variabel independennya yaitu biaya iklan dan biaya promosi penjualan. Jika pada korelasi
akan membahas mengenai keeratan hubungan biaya iklan dan biaya promosi penjualan
teradap penjualan, maka metode regresi akan membahas prediksi, dimana penjualan di masa
mendatang bisa diramalkan jika biaya iklan dan biaya promosi penjualan diketahui. Pada
praktinya regresi dibagi menjadi dua, yaitu regresi sederhana jika hanya ada satu variabel

Analisis Regresi

Page 1

independen, sedangkan regresi berganda jika lebih dari satu variabel independen
(Singgih;2015).
Kuatnya hubungan antara variabel yang dihasilkan dari analisis korelasi dapat
diketahui dari besar kecilnya koefisien korelasi yang yang harganya antara minus 1 (-1)
sampai dengan plus satu (+1). Koefisien korelasi yang mendekati minus 1 atau plus 1, berarti
hubungan variabel tersebut sempurna negatif atau sempurna positif. Bila koefisien korelasi (r)
tinggi, pada umumnya koefisien regresi (b) juga tinggi, sehingga daya prediktifnya tinggi,
dan sebaliknya. Jika korelasi dan regresi terdapat hubungan yang fungsional sebagai alat
untuk analisis. (Sugiyono, 2015)

Regresi Linier Sederhana


Regresi sederhana didasarkan pada hubungan fungsional ataupun kausal satu variabel
independen dengan satu variabel dependen. Persamaan umum regresi linier sederahana
adalah:
Y = a + bX
Dimana:
Y = subyek dalam variabel dependen yang diprediksikan
a = harga Y ketika harga X = 0 (harga konstan)
b = angka arah atau koefisien regresi, yang menunjukkan angka peningkatan ataupun
penurunan variabel dependen yang didasarkan pada perubahan variabel independen.
Bila (+) arah garis naik, dan bila (-) maka arah garis turun.
X = subyek pada variabel independen yang mempunyai nilai tertentu.
Secara teknis harga b merupakan tangen dari (perbandingan) antara panjang garis
variabel dependen, setelah persamaan regresi ditemukan.
Harga b = r
Harga a = Y bX
Dimana:
r

= koefisien korelasi product moment antara variabel X dengan variabel Y

Sy = simpangan baku variabel Y


Sx = simpangan baku variabel X
Jadi harga b merupakan fungsi dari koefisien korelasi. Bila koefisien korelasi tinggi,
maka harga b juga besar, sebaliknya bila koefisien korelasi rendah maka harga b juga rendah

Analisis Regresi

Page 2

(kecil). Selain itu bila koefisien korelasi negatif maka harga b juga negatif, dan sebaliknya
bila koefisien korelasi positif maka harga b juga positif.

Regresi Ganda
Analisis regresi ganda digunakan oleh peneliti, bila peneliti bermaksud meramalkan
bagaimana keadaan (naik turunnya) variabel dependen (kriterium), bila dua atau lebih
variabel independen sebagai faktor prediktor dimanipulasi (dinaik turunkan nilainya). Jadi
analisis regresi ganda akan dilakukan bila jumlah variabel independennya minimal 2.
Persamaan regresi untuk 2 prediktor adalah:
Y = a + b1X1 + b2X2
Persamaan regresi untuk 3 prediktor adalah:
Y = a + b1X1 + b2X2 + b3X3
Persamaan regresi untuk n prediktor adalah:
Y = a + b1X1 + b2X2 + ... + bnXn
Untuk bisa membuat ramalan melalui regresi, maka data setiap variabel harus
tersedia. Selanjutnya berdasarkan data itu peneliti harus dapat menemukan persamaan
melalui hitungan.

Regresi vs Korelasi
Analisis korelasi bertujuan untuk mengukur kekuatan asosiasi (hubungan) linear
antara dua variabel. Korelasi tidak menunjukkan hubungan fungsional atau dengan kata lain
analisis orelasi tidak membedakan antara variabel dependen dengan variabel independen.
Dalam analisis regresi, selain mengukur kekuatan hubungan antara dua variabel atau
lebih, juga menunjukkan arah hubungan antara variabel dependen dengan variabel
independen. Variabel dependen diasumsikan random/stokastik, yang berarti memiliki
distribusi probabilistik. Variabel independen/bebas diasumsikan memiliki nilat tetap (dalam
pengambilan sampel yang berulang).
Teknik estimasi variabel dependen yang melandasi analisis regresi disebut Ordinary
Least Square (pangkat kuadrat terkecil biasa). Inti metode OLS adalah mengestimasi suatu
garis regresi dengan jalan meminimalkan jumlah dari kuadrat kesalahan tiap observasi
terhadap garis tersebut.

Analisis Regresi

Page 3

Asumsi Ordinary Least Square (OLS)


Menurut Gujarati (2003) asumsi utama yang mendasari model regresi linear klasik
dengan menggunakan model OLS adalah:
a. Model regresi linear, artinya linear dalam parameter seperti dalam persamaan di bawah
ini:

b. Nilai X diasumsikan non-stokastik, artinya nilai X dianggap tetap dalam sampel yang
berulang
c. Nilai rata-rata kesalahan adalah nol, atau
d. Homoskedastisitas, artinya variance kesalahan sama untuk setiap periode (Homo =
sama, Skedastisitas = sebaran) dan dinyatakan dalam bentuk matematis
e. Tidak ada autokorelasi antar kesalahan (antara ui dan uj tidak ada korelasi) atau secara
matematis
f. Antara ui dan Xi saling bebas, sehingga
g. Jumlah observasi, n, harus lebih besar daripada jumlah parameter yang diestimasi
(jumlah variabel bebas)
h. Adanya variabilitas dalam nilai X, artinya nilai X harus berbeda
i. Model regresi telah dispesifikasi secara benar. Dengan kata lain tidak ada bias
(kesalahan) spesifikasi dalam model yang digunakan dalam analisis empirik.
j. Tidak ada multikolinearitas yang sempurna antar variabel bebas

Menilai Goodness of Fit Suatu Model


Ketepatan fungsi regresi sampel dalam menaksir nilai aktual dapat diukur dari
Goodness of fitnya. Secara statistik, setidaknya ini dapat diukur dari nilai koefisien
determinasi, nilai statistik F dan nilai statistik t. perhitungan statistik disebut signifikan secara
statistik apabila nilai uji statistiknya berada dalam daerah kritik (daerah dimana Ho ditolak).
Sebaliknya disebut tidak signifikan bila nilai uji statistiknya berada dalam daerah dimana Ho
diterima.
1. Koefisien Determinasi
Koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model
dalam menerangkan variasi variabel dependen. Nilai koefisien determinasi adalah antara
nol dan satu. Nilai R2 yang kecil berarti kemampuan variabel variabel independen dalam

Analisis Regresi

Page 4

menjelaskan variasi variabel dependen amat terbatas. Kelemahan penggunaan koefisien


determinasi adalah bias terhadap jumlah variabel independen yang dimasukkan ke dalam
model. Setiap tambahan satu variabel independen, maka R 2 pasti meningkat tidak peduli
apakah variabel tersebut berpengaru secara signifikan terhadap variabel dependen. Oleh
karena itu, banyak peneliti yang menganjurkan menggunakan nilai Adjusted R 2 pada saat
mengevaluasi model regresi terbaik karena nilai Adjusted R 2 dapat naik atau turun apabila
satu variabel independen ditambah ke dalam model

2. Uji Signifikansi Simultan (Uji statistik F)


Uji statistik F pada dasarnya menunjukkan apakah semua variabel independen yang
dimasukkan dalam model mempunyai pengaruh secara bersama - sama terhadap variabel
dependen. Hipotesis nol (Ho) yang hendak diuji adalah apakah semua parameter dalam
model sama dengan nol, atau :
Ho:b1= b2 =.........= bk = 0
Artinya apakah semua variabel independen bukan merupakan penjelas yang signifikan
terhadap variabel dependen. Hipotesis alternatifnya adalah
HA : b1 b2 ....... bk 0
Artinya semua variabel dependen secara simultan merupakan penjelas yang signifikan
terhadap variabel dependen. Kriteria pengambilan keputusan dalam uji statistik F adalah
sebagai berikut :
Quick look : bila nilai F lebih besar daripada 4 maka Ho dapat ditolak pada derajat
kepercayaan 5%.
Membandingkan nilai F hasil perhitungan dengan nilai F menurut tabel. Jika F hitung
lebih besar daripada F tabel maka Ho ditolak dan HA diterima.

3. Uji Signifikan Parameter Individual (Uji Statistik t)


Uji statistik t menunjukkan seberapa jauh pengaruh satu variabel penjelas secara
individual dalam menerangkan variasi variabel dependen. Ho yang hendak diuji adalah
apakah suatu parameter (bi) sama dengan nol, atau Ho :bi = 0. Hal ini berarti variabel
independen bukan merupakan penjelas yang signifikan terhadap variabel dependen.
Hipotesis alternatifnya (HA) parameter suatu variabel tidak sama dengan nol, atau HA : bi
0. Hal ini berarti variabel tersebut merupakan variabel penjelas yang signifikan terhadap
variabel dependen. Kriteria uji statistik t adalah sebagai berikut:

Analisis Regresi

Page 5

Quick look : bila jumlah degree of freedom (df) adalah 20 atau lebih, dan derajat
kepercayaan 5%, maka Ho yang menyatakan bi=0 dapat ditolak bila nilai t lebih besar
dari 2 (dalam nilai absolut).
Membandingkan nilai statistik t dengan titik kritis menurut tabel. Apabila nilai statistik
t hasil perhitungan lebih tinggi dibandingkan nilai t tabel, maka HA / hipotesis
alternatif dapat diterima yaitu variabel independen secara individual berpengaruh
singnifikan terhadap variabel dependen.

Standardized Beta Koefisien


Apabila masing-masing koefisien variabel bebas (independen) dilakukan standarisasi
lebih dahulu, maka kita akan mempunyai koefisien yang berbeda karena garis regresi
melewati origin (titik pusat) sehingga tidak ada konstantanya. Keuntungan dengan
menggunakan standardized beta adalah mampu mengeliminasi perbedaan unit ukuran pada
variabel independen. Jika ukuran variabel independen tidak sama (ada kg, Rp, liter, dll) maka
sebaiknya interpretasi persamaan regresi menggunakan standardized beta. Namun demikian,
ada dua hal yang perlu mendapat perhatian jika menggunakan standardized beta: pertama,
koefisien beta digunakan untuk melihat pentingnya masing-masing variabel independen
secara relatif dan tidak ada multikolinearitas antar variabel independen. Kedua, nilai
koefisien beta hanya dapat diinterpretasikan dalam kontek variabel lain dalam persamaan
regresi.

Uji Asumsi Klasik


Tujuan pengujian asumsi klasik ini adalah untuk memberikan kepastian bahwa
persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, tidak bias dan
konsisten. Uji asumsi klasik yang dikemukakan dalam buku imam ghozali antara lain: uji
multikolinearitas, uji autokorelasi, uji heteroskedastisitas, uji normalitas dan uji linearitas.
1. Uji Asumsi Multikolinieritas
Uji multikolinearitas bertujuan untuk menguji apakah model regresi ditemukan adanya
korelasi antar variabel bebas (independent variable). Model regresi yang baik seharusnya
tidak terjadi korelasi di antara variabel bebas, karena jika hal tersebut terjadi maka
variabel-variabel tersebut tidak ortogonal atau terjadi kemiripan. Variabel ortogonal
adalah variabel bebas yang nilai korelasi antar sesama variabel bebas bernilai nol. Untuk
mendeteksi ada atau tidaknya multikolonieritas di dalam model regresi adalah sebagai
berikut:
Analisis Regresi

Page 6

a. Nilai R2 yang dihasilkan oleh suatu estimasi model regresi empiris sangat tinggi, tetapi
secara individual variabel variabel independen banyak yang tidak signifikan
mempengaruhi variabel dependen.
b. Menganalisis matrik korelasi variabel variabel independen ada korelasi yang cukup
tinggi (umumnya di atas 0.90), maka hal ini merupakan indikasi adanya
multikolonieritas. Multikolonieritas dapat disebabkan karena adanya efek kombinasi
dua atau lebih variabel independen.
c. Multikolonieritas dapat dilihat dari (1) nilai tolerance dan lawannya (2) variance
inflation factor (VIF). Kedua ukuran ini menunjukkan setiap variabel independen
manakah yang dijelaskan oleh variabel independen lainnya. Tolerence mengukur
variabilitas variabel independen yang terpilih yang tidak dijelaskan oleh variabel
independen lainnya. Jadi nilai tolerence yang rendah sama dengan nilai VIF tinggi
(karena VIF = 1/tolerence). Nilai cutoff yang umum dipakai untuk menunjukkan
adanya multikolonieritas adalah nilai tolerence 0.10 atau sama dengan nilai VIF 10.
Setiap peneliti harus menentukan tingkat kolonieritas yang masih dapat ditolerir.
Walaupun multikolonieritas dapat dideteksi dengan nilai tolerence dan VIF, tetapi kita
masih tetap tidak mengetahui variabel independen mana saja yang saling berkorelasi.
d. Cara lain mendeteksi ada atau tidaknya multikolonieritas adalah menggunakan cara
regresi parsial.
e. Seperti metode (d), metode ini dikemukakan oleh Farrar dan Glauber (1967). Setelah
dilakukan regresi parsial variabel independen seperti pada point d, dapatkan nilai R2nya kemudian hitung nilai F dengan rumus:
R2 x t

n-k

F hitung = -------------- x -------------1 - R2 x t

k1

R2 x t

= nilai R2 dari hasil estimasi regresi parsial variabel independen

= jumlah observasi (data)

= jumlah variabel independen termasuk konstanta

jika nilai F hitung > F tabel, berarti variabel independen berkorelasi dengan variabel
independen lainnya dan ini menunjukkan adanya multikolonieritas.
f. Eigenvalues dan Condition Index (CI)
Pada program komputer SAS diagnosis ada tidaknya multikolonieritas dengan
menggunakan eigenvalues dan condition index.
Condition jumlah k adalah:
Analisis Regresi

Page 7

Maximum eigenvalue
k = ----------------------------------------Minimum eigenvalue
Condition index CI:
Maximum eigenvalue
CI = ---------------------------------- = k
Minimum eigenvalue
Jika nilai k antara 100 dan 1000, maka terdapat multikoloniertias moderat ke kuat. Jika
k > 1000, maka terdapat multikolonieritas sangat kuat. Dengan cara lain CI (=k)
nilainya antara 10 dan 30 terdapat multikolonieritas moderat ke kuat, jika nilai CI > 30
terdapat multikolonieritas sangat kuat.
Cara mengobati multikolonieritas:
a. Menggabungkan data crossection dan time series (pooling data)
b. Keluarkan satu atau lebih variabel independen yang mempunyai korelasi tinggi dari
model regresi dan identifikasi variabel independen lainnya untuk membantu prediksi.
c. Transformasi variabel merupakan salah satu cara mengurangi hubungan linear diantara
variabel independen. Transformasi dapat dilakukan dalam bentuk logaritma natural dan
bentuk first difference atau delta, caranya:
Yt = b1 + b2 X2t + b3 X3t + ut ..................... (1)
Yt-1 = b1 + b2 X2t-1 + b3 X3t-1 + ut-1 ....... (2)
Kurangkan persamaan (2) dari (1) didapat first difference
Yt Yt-1 = b2 (X2t X2t-1) + b3 (X3t X3t-1) + vt ........... (3)
d. Gunakan model dengan variabel independen yang mempunyai korelasi tinggi hanya
semata-mata untuk prediksi (jangan mencoba untuk menginterpretasikan koefisien
regresinya)
e. Gunakan metode analisis yang lebih canggih seperti Bayesian regression atau dalam
kasus khusus ridge regression

2. Uji Asumsi Autokorelasi


Uji autokorelasi bertujuan untuk menguji apakah dalam model regresi linear ada korelasi
antara kesalahan pengganggu pada periode t dengan kesalahan pengganggu pada periode t1 (sebelumnya). Jika terjadi korelasi, maka dinamakan ada problem autokorelasi.
Autokorelasi muncul karena observasi yang berurutan sepanjang waktu berkaitan satu
sama lainnya. Masalah ini timbul karena residual (kesalahan pengganggu) tidak bebas dari
Analisis Regresi

Page 8

satu observasi ke observasi lainnya. Model regresi yang baik adalah regresi yang bebas
dari autokorelasi. Ada beberapa cara yang dapat digunakan untuk mendeteksi ada atau
tidaknya autokorelasi.
a. Uji Durbin-Watson (DW test)
Uji ini hanya digunakan untuk autokorelasi tingkat satu (first order autocorrelation) dan
mensyaratkan adanyaintercept (konstanta) dalam model regresi dan tidak ada variabel
lag diantara variabel independen. Hipotesis yang akan diuji adalah:
H0 : tidak ada autokorelasi (r = 0)
HA : ada autokorelasi (r 0)
Pengambilan keputusan ada atau tidaknya autokorelasi:
Hipotesis nol

Keputusan

Jika

Tidak ada autokorelasi positif

Tolak

0 < d < dl

Tidak ada autokorelasi positif

No desicison

dl d du

Tidak ada korelasi negatif

Tolak

4 dl < d < 4

Tidak ada korelasi negatif

No desicison

4 du d 4 dl

Tidak ada autokorelasi, positif atau negatif

Tidak ditolak

du < d < 4 du

b. Uji Lagrange Multiplier (LM teest)


Uji ini terutama digunakan untuk sampel besar diatas 100 observasi. Uji ini memang
lebih tepat digunakan dibandingkan uji DW terutama bila sample yang digunakan
relatif besar dan derajat autokorelasi lebih dari satu. Uji LM akan menghasilkan
statistik Breusch Godfrey. Pengujian Breusch Godfrey (BG test) dilakukan dengan
meregress variabel pengganggu (residual) ut menggunakan autoregresive model dengan
orde p:
Ut = 1 Ut-1 + 2 Ut-2 + .......... + p Ut-p + t
Dengan hipotesis nol (H0) adalah 1 = 2 = ........... = p = 0, dimana koefisien
autogresive secara simultan sama dengan nol, menunjukkan bahwa tidak terdapat
autokorelasi pada setiap orde. Secara manual, jika (n-p)*R2 atau C2 hitung lebih besar
dari C2 tabel, kita dapat menolak hipotesis nol yang menyatakan bahwa tidak ada
autokorelasi dalam model.
c. Uji Statistics Q: Box Pierce dan Ljung Box
Uji Box Pierce dan Ljung Box digunakan untuk melihat autokorelasi dengan lag lebih
dari dua.

Analisis Regresi

Page 9

d. Mendeteksi autokorelasi dengan Run test


Run test sebagai bagian dari statistik non-parametrik dapat pula digunakan untuk
menguji apakah antar residual terdapat korelasi yang tinggi. Jika antar residual tidak
terdapat hubungan korelasi maka dikatakan bahwa residual adalah acak atau random.
Run test digunakan untuk melihat apakah data residual terjadi secara random atau tidak
(sistematis).
H0 : residual (res_1) random (acak)
HA : residual (res_1) tidak random
e. Pengobatan autokorelasi
Jika regresi memiliki autokorelasi, maka ada beberapa opsi penyelesaiannya antara lain:
Tentukan apakah autokorelasi yang terjadi merupakan pure autocorrelation dan
bukan karena kesalahan spesifikasi model regresi. Pola residual dapat terjadi karena
adanya kesalahan spesifikasi model yaitu ada variabel penting yang tidak
dimasukkan ke dalam model atau dapat juga karena bentuk fungsi persamaan regresi
tidak benar.
Jika yang terjadi adalah pure auto correlation, maka solusi autokorelasi adalah
dengan menstransformasi model awal menjadi model difference. Misalkan kita
memiliki model regresi dengan dua variabel sebagai berikut:
Yt = 1 + 2Xt + t

7.1

Dan diasumsikan bahwa residual atau error mengikuti autoregressive AR (1) seperti
berikut:
t = t-1 + t

-1 < < 1

7.2

sekarang kita memiliki asumsi (1) diketahui nilainya dan (2) tidak diketahui
nilainya.
Asumsi diketahui
Jika koefisien first order autocorrelation diketahui, maka masalah autokorelasi dapat
diselesaikan dengan mudah. Jika persamaan 7.1 benar untuk waktu t, maka akan
benar juga dengan waktu t-1, sehingga:
Yt-1 = 1 + 2Xt-1 + t-1

7.3

Sisi kanan dan kiri dari persamaan (7.3) dikalikan dengan diperoleh persamaan
sebagai berikut:
Yt-1 = 1 + 2Xt-1 + t-1

Analisis Regresi

7.4

Page 10

kurangkan persamaan dari (7.4) dari persamaan (7.1) akan diperoleh persamaan
sebagai berikut:
(Yt-Yt-1 = 1 (1-) 2 (Xt-Xt-1) + t

7.5

Dimana t = (t - t-1)
Persamaan (7.5) dapat dinyatakan sebagai berikut:
Yt* = 1* + 2*Xt* + t

7.6

Oleh karena residual persamaan (7.6) memenuhi asumsi OLS maka kita dapat
menggunkan estimasi OLS untuk menaksir persamaan (7.6). menaksir persamaan
(7.6) adalah melakukan regresi dengan metode estimasi Generalized Least Square
(GLS). Regresi persamaan (7.6) disebut dengan generalized, atau quasi atau
difference equation.

3. Uji Asumsi Heteroskedastisitas


Uji ini bertujuan untuk menguji apakah dalam model regresi terjadi atau terdapat
ketidaksamaan varians dari rersidual dari satu pengamatan ke pengamatan yang lain. Jika
varians dari nilai residual dari satu pengamatan ke pengamatan yang lain tetap, maka
disebut dengan Homokedastisitas. Dan jika varians berbeda dari satu pengamatan ke
pengamatan yang lainnya, maka disebut Heteroskedastisitas. Model regresi yang baik
adalah yang homokedastisitas atau tidak terjadi heterokedastisitas. Kebanyakan data
crossection mengandung situasi heteroskedastisitas karena data ini menghimpun data yang
mewakili berbagai ukuran (kecil, sedang, dan besar).
Ada beberapa cara untuk mendeteksi ada atau tidaknya heterokedastisitas:
a. Melihat grafik plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED
dengan residualnya SRESID. Deteksi ada tidaknya heteroskedastisitas dapat dilakukan
dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan
ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual
(Y prediksi Y sesungguhnya) yang telah di studentized.
Dasar analisis:
Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang
teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah
terjadi heterokedastisitas.
Jika tidak ada pola yang jelas, serta titik-titik menyebar diatas dan dibawah angka 0
pada sumbu Y, maka tidak terjadi heteroskedastisitas.

Analisis Regresi

Page 11

Dari grafik Scatterplot terlihat bahwa titik-titik menyebar secara acak serta tersebar
baik diatas maupun dibawah angka 0 pada sumbu Y. Jadi dapat disimpulkan bahwa
model pada penelitian ini memenuhi syarat untuk menjadi model yang baik karena
merupakan model yang homoskedastisitas atau varians dari nilai residual pengamatan
satu ke pengamatan yang lain tetap.
Analisis dengan grafik plots memiliki kelemahan yang cukup signifikan oleh karena
jumlah pengamatan memengaruhi hasil ploting. Semakin sedikit jumlah pengamatan
semakin sulit menginterpretasikan hasil grafik plot. Oleh sebab itu diperlukan uji
statistik yang lebih dapat menjamin keakuratan hasil. Ada beberapa uji statistik yang
dapat digunakan untuk mendeteksi ada tidaknya heterokedastisitas.
Uji Park
Park mengemukakan metode bahwa variance (s2) merupakan fungsi dari variabelvariabel independen yang dinyatakan dalam persamaan sebagai berikut:
2i = Xi
Persamaan ini dijadikan linear dalam bentuk persamaan logaritma sehingga menjadi:
Ln 2i = + LnXi + vi
Karena s2i umumnya tidak diketahui, maka dapat ditaksir dengan menggunakan
residual Ut sebagai proksi, sehingga persamaan menjadi:
LnU2i = + LnXi + vi
Apabila koefisien parameter beta dari persamaan regresi tersebut signifikan secara
statistik, hal ini menunjukkan bahwa dalam data model empiris yang diestimasi
terdapat heterokedastisitas, dan sebaliknya jika parameter beta tidak signifikan

Analisis Regresi

Page 12

secara statistik, maka asumsi homokedastisitas pada data model tersebut tidak dapat
ditolak.
Uji Glejser
Glejser mengusulkan untuk meregres nilai absolut residual terhadap variabel
independen (Gujarati, 2003) dengan persamaan regresi:
= + Xt + vt
Jika variabel independen signifikan secara statistik memengaruhi variabel dependen,
maka ada indikasi terjadi heterokedastisitas.
Uji White
Pada dasarnya uji white mirip dengan kedua uji Park dan Glejser. Menurut White,
uji ini dapat dilakukan dengan meregres residual kuadrat (U 2t) dengan variabel
independen, variabel independen kuadrat dan perkalian (interaksi) variabel
independen. Misalkan kita punya dua variabel independen X1 dan X2 maka
persamaan regresinya sebagai berikut:
U2t = b0 + b1X1 + b2X2 + b3X12 + b4X22 + b5 X1X2
Dari persamaan regresi ini dapatkan nilai R 2 untuk menghitung c2 dimana c2 = n x
R2 (Gujarati, 2003). Pengujiannya adalah jika c 2 hitung < c2 tabel maka hipotesis
alternatif adanya heterokedastisitas dalam model ditolak.
b. Cara Memperbaiki Model Jika Terdapat Heterokedastisitas
Berdasarkan pada pola heterokedastisitas maka dapat dilakukan transformasi variabel
untuk

mengobati

adanya

heterokedastisitas.

Ada

beberapa

asumsi

pola

heterokedastisitas antara lain:


Misalkan kita mempunyai model regresi dua variabel sebagai berikut:
Yi = 1 + 2Xi + i

(7.17)

Asumsi 1: error variance 2i proporsional terhadap X2i


Asumsi 2: error variance 2i proporsional terhadap variabel independen Xi, atau
disebut transformasi akar kuadrat
Asumsi 3: error variance 2i proporsional terhadap kuadrat nilai mean Y
Asumsi 4: lakukan transformasi dalam bentuk logaritma

4. Uji Asumsi Normalitas


Uji ini bertujuan untuk menguji apakah dalam sebuah model regresi, variabel independen,
variabel dependen, atau keduanya mempunyai distribusi normal atau tidak. Suatu model
regresi yang baik adalah yang memiliki distribusi data normal atau mendekati normal.
Analisis Regresi

Page 13

Uji normalitas bertujuan untuk menguji apakah didalam model regresi variabel
pengganggu atau residual memiliki distribusi normal. Seperti diketahui bahwa uji F dan t
mengasumsikan bahwa nilai residual mengikuti distribusi normal. Kalau asumsi ini
dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Ada dua cara
untuk mendeteksi apakah residual berdistribusi normal atau tidak yaitu dengan analisis
grafik dan uji statistik.
a. Analisis Grafik
Salah satu cara termudah untuk melihat normalitas residual adalah dengan melihat
grafik histogram yang membandingkan antara data observasi dengan distribusi yang
mendekati distribusi normal. Namun demikian, hanya dengan melihathistogram hal ini
dapat menyesatkan khususnya untuk jumlah sampel yang kecil. Metode yang handal
adalah dengan melihat normal probability plot yang membandingkan distribusi
komulatif dari distribusi normal. Distribusi normal akan membentuk satu garis lurus
diagonal, dan ploting data residual akan dibandingkan dengan garis diagonal. Jika
distribusi data residual normal, maka garis yang menggambarkan data sesungguhnya
akan mengikuti garis diagonalnya.

Analisis Regresi

Page 14

Dengan melihat tampilan grafik Histogram maupun grafik Normal P-Plot of


Regression Standardized Residual dapat disimpulkan bahwa grafik histogram
memberikan pola distribusi yang normal. Sedangkan pada grafik normal plot, terlihat
titik-titik menyebar disekitar garis diagonal. Kedua grafik ini menunjukkan bahwa
model regresi tidak menyalahi asumsi normalitas. Jadi dapat disimpulkan bahwa model
regresi pada penelitian ini memenuhi syarat untuk menjadi model regresi yang baik
karena merupakan model regresi yang memiliki distribusi data normal atau mendekati
normal.
Pada prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada
sumbu diagonal dari grafik atau dengan melihat histogram dari residualnya. Dasar
pengambilan keputusan:
Jika data menyebar disekitar garis diagonal dan mengikuti arah garis diagonal atau
grafik histogramnya menunjukkan pola distribusi normal, maka model regresi
memenuhi asumsi normalitas.
Jika data menyebar jauh dari diagonal dan/atau tidak mengikuti arah garis diagonal
atau garis histogram tidak menunjukkan pola distribusi normal, maka model regresi
tidak memenuhi asumsi normalitas.
b. Uji Statistik
Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual
kelihatan normal, padahal secara statistik bisa sebaliknya. Oleh sebab itu dianjurkan
selain uji grafik dilengkapi dengan uji statistik. Uji statistik sederhana dapat dilakukan

Analisis Regresi

Page 15

dengan melihat nilai kurtosis dan skewness dari residual. Nilai z statistik untuk
skewness dapat dihitung dengan rumus:
skewness
Zskewness

= ------------------------ 6/N

Sedangkan nilai z kurtosis dapat dihitung dengan rumus:


skurtosis
Zkurtosis

= ------------------------ 24/N

Dimana N adalah jumlah sampel, jika nilai Z hitung > Z tabel maka distribusi tidak
normal.
Uji statistik lain yang dapat digunakan untuk menguji normalitas residual adalah uji
statistik non-parametrik Kolmogorov=Smirnov (K-S). Uji K-S dilakukan dengan
membuat hipotesis:
H0 : data residual berdistribusi normal
HA : data residual tidak berdistribusi normal
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tetapi signifikansinya jauh dari
nilai normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi
data, melakukan trimming data outliers atau menambah data observasi.

5. Uji Asumsi Linearitas


Uji linieritas dilakukan dengan melihat scatterplot antara standar residual dengan
prediksinya. Bila sebaran tidak menunjukkan pola tertentu maka dikatakan asumsi
linieritas memenuhi syarat.

Analisis Regresi

Page 16

Hasil pengujian menunjukkan scatterplot tidak membentuk pola tertentu sehingga dapat
disimpulkan bahwa model pada penelitian ini memenuhi syarat untuk menjadi model yang
baik karena asumsi linieritas terpenuhi.
Uji ini digunakan untuk melihat apakah spesifikasi model yang digunakan sudah benar
atau tidak. Dengan uji linearitas akan diperoleh informasi apakah model empiris sebaiknya
linier, kuadrat atau kubik. Ada beberapa uji yang dapat dilakukan diantaranya:
a. Uji Durbin Watson
Uji ini biasanya dilakukan untuk melihat ada atau tidaknya autokorelasi dalam suatu
model regresi. Dengan mendasarkan pada nilai D-W tabel, dibandingkan nilai statistik.
Jika signifikan atau berada pada daerah autokorelasi positif, maka spesifikasi model
persamaan utama adalah salah atau misspecification.
b. Ramsey Test
Uji ini dikembangkan oleh Ramsey pada tahun 1969. Ramsey menyarankan suatu uji
yang disebut general test of specification atau RESET. Untuk melakukan uji ini kita
harus membuat suatu asumsi atau keyakinan bahwa fungsi yang benar adalah fungsi
linear. Uji ini dilakukan untuk menghasilkan F hitung, dengan cara:
Dapatkan fitted value dari variabel dependen dengan cara dari linear regression, pilih
save dan aktifkan Dfit pada influence statistic.
Kemudian variabel fitted tersebut di regres bersama-sama dengan model semula
sebagai variabel independen. Dapatkan nilai R 2 untuk menghitung F statistik dengan
rumus:
(R2new R2old) / m
F = ---------------------------(1 - R2new) / (n-k)
m

= jumlah variabel independen yang baru masuk

= jumlah data observasi

= banyaknya parameter dalam persamaan yang baru

R2new = nilai R2 dari persamaan regresi baru


R2old

= nilai R2 dari persamaan regresi awal

Dari hasil perhitungan nilai F hitung, kemudian dibandingkan dengan F tabel. Jika F
hitung > F tabel maka hipotesis nol yang menyatakan bahwa spesifikasi model
dalam bentuk fungsi linear ditolak.

Analisis Regresi

Page 17

c. Uji Langrange Multiplier


Uji ini merupakan uji alternatif dari Ramsey test dan dikembangkan oleh Engle tahun
1982. Estimasi dengan uji ini bertujuan untuk mendapatkan nilai c2 hitung atau (nxR2).

Variabel Dummy
Permasalahan yang sering dihadapi adalah adanya variabel independen yang berskala
ukuran non-metrik atau kategori. Jika variabel independen berukuran kategori atau dikotomi,
maka dalam model regresi variabel tersebut harus dinyatakan sebagai variabel dummy
dengan memberi kode 0 (nol) atau 1 (satu). Setiap variabel dummy menyatakan satu kategori
variabel independen non-metrik, dan setiap variabel non metrik dengan k kategori dapat
dinyatakan dalam k-1 variabel dummy.
Cara pemberian kode dummy umumnya menggunakan kategori yang dinyatakan
dengan angka 1 atau 0. Kelompok yang diberi nilai dummy 0 (nol) disebut excluded group,
sedangkan kelompok yang diberi nilai dummy 1 (satu) disebut included group (Mirer, 1990).

Chow Test
Chow test adalah alat untuk menguji test for equality of coefficients atau uji kesamaan
koefisien dan test ini ditemukan oleh Gregory Chow. Jika hasil observasi yang sedang kita
teliti dapat dikelompokkan menjadi dua atau lebih kelompok, maka pertanyaan yang timbul
adalah apakah kedua atau lebih kelompok tadi merupakan subyek proses ekonomi yang sama.

Analisis Regresi

Page 18

Contoh Kasus
P.T. CEMERLANG dalam beberapa bulan gencar mempromosikan sejumlah peralatan
elektronik dengan membuka outlet-outlet di berbagai daerah. Berikut adalah data mengenai
Penjualan, Biaya promosi, Jumlah Outlet, laju penduduk, jumlah pesaing dan income
masyarakat yang ada di 15 daerah di Indonesia:

Disini karena akan diketahui besar hubungan atau seberapa jauh Biaya Promosi Luas Outlet,
Laju pertambahan Penduduk, Kompetitor dan Income Penduduk berpengaruh terhadap
Penjualan P.T. CEMERLANG, maka akan dilakukan uji regresi, dengan variabel dependen
adalah Sales/Penjualan, dan variabel independen adalah kelima variabel diatas. Karena ada
lebih dari satu variabel independen, maka uji regresi tersebut dinamakan uji regresi berganda.

1. Pemasukan data ke SPSS


Karena isi data regresi berganda sama dengan regresi sederhana, dengan tambahan tiga
variabel, maka tidak perlu dilakukan pemasukan data ulang. Inputing hanya dilakukan
untuk menambah ketiga variabel baru tersebut. Langkah-langkahnya adalah:
Buka lembar regresi_berganda_2

Analisis Regresi

Page 19

Prosedur menambah tiga variabel: Klik mouse pada sheet tab Variable View yang ada
dibagian kiri bawah, atau langsung tekan CTRL-T. Tampak di layar:

Pengisian
Variabel LAJU_PEN
Karena ini variabel kelima, tempatkan pointer pada baris 5.

Name. Sesuai kasus, ketik laju_pen.

Decimals. Untuk keseragaman, ketik 0.

Variabel PESAING
Karena ini variabel keenam, tempatkan pointer pada baris 6.

Name. Sesuai kasus, ketik pesaing.

Decimals. Untuk keseragaman, ketik 0.

Variabel INCOME
Karena ini variabel keenam, tempatkan pointer pada baris 6.

Name. Sesuai kasus, ketik income.

Decimals. Untuk keseragaman, ketik 0.

Abaikan bagian yang lain. Kemudian tekan CTRL-T untuk kembali


ke DATA VIEW.
2. Mengisi Data
Letakkan pointer pada baris kelima variabel LAJU_PEN, lalu isi data sesuai kasus diatas
(tentu variabel ini berupa sebuah angka). Demikian untuk dua variabel tambahan yang
lain. Kemudian simpan data diatas dengan nama regresi_berganda_2
3. Pengolahan Data dengan SPSS:
Dalam bab ini akan dilakukan tiga cara mencari persamaan regresi berganda (Multiple
Regression), yaitu:
Analisis Regresi

Page 20

A. Backward Elimination
Langkah-langkah:
o Buka file regresi_berganda_2.
o Menu Analyze Regression Linear...
Tampak di layar:

Pengisian:
Dependent; masukkan variabel sales.
Independent(s)atau variabel bebas. Dalam hal ini masukkan variabel promosi,
outlet, laju_pen, pesaingdan income.
Case Labels; masukkan variabel daerah.
Method atau cara memasukkan/seleksi variabel. Sesuai kasus, pilih Backward.
Pilih kolom Statistics dengan klik mouse pada pilihan tersebut. Tampak di layar:

Analisis Regresi

Page 21

Pilihan ini berkenaan dengan perhitungan statistik regresi yang akan


digunakan. Perhatikan default yang ada di SPSS adalah Estimates dan Model
fit. Pengisian:

Regression Coefficient atau perlakuan koefisien regresi, pilih default

atau

ESTIMATE.

Klik mouse pada pilihan Descriptivedan Collinearity diagnostics

pada kolom

sebelah kanan, selain pilihan Model fit.

Pilihan Residuals dikosongkan saja

Klik Continue untuk kembali ke kotak dialog utama.

Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.


Tekan OK untuk proses data.
Output SPSS dan Analisis:
Simpan output dengan nama regresi_berganda_back.
ANALISIS:
Berikut output bagian pertama dan kedua dari analisis regresi berganda:

Analisis Regresi

Page 22

Analisis:
Descriptive Statistics
Bagian ini menjelaskan ringkasan statistik singkat masing-masing variabel.

Rata-rata Sales (dengan jumlah data 15 buah) adalah Rp. 246,4 juta dengan
standar deviasi Rp. 41,11 juta.

Rata-rata Income (dengan jumlah data 15 buah) adalah Rp. 3,328 juta dengan
standar deviasi Rp. 922.100,-

Rata-rata Laju Penduduk (dengan jumlah data 15 buah) adalah 1,9833% dengan
standar deviasi 0,507%.

Luas outlet rata-rata (dengan jumlah data 15 buah) adalah 187,93 m 2 dengan
standar deviasi 38,09 m2.

Rata-rata Biaya Promosi (dengan jumlah data 15 buah) adalah Rp. 34,67 juta
dengan standar deviasi Rp. 9,68 juta.

Analisis Regresi

Page 23

Pesaing rata-rata (dengan jumlah data 15 buah) adalah 16,2 buah, dan dibulatkan
17 kompetitor dengan standar deviasi 3,88.

Korelasi:

Lihat kolom satu:


Besar hubungan antar variabel Sales dengan variabel bebas, dengan diurutkan dari
terbesar ke terkecil:
Promosi = 0,916
Outlet = 0,901
Pesaing = 0,744
Income = 0,287 (tanda hanya menunjukkan arah hubungan yang berlawanan)
Laju penduduk = 0,143 (tanda hanya menunjukkan arah hubungan yang
berlawanan).
Hal ini menunjukkan variabel pesaing dan laju penduduk mempunyai korelasi yang lemah
(dibawah 0,5).
Terjadi korelasi yang cukup kuat antara variabel Promosi dengan Outlet dan
Pesaing (korelasi antar variabel tersebut diatas 0,5). Hal ini menandakan adanya
multikolinieritas, atau korelasi diantara ketiga variabel bebas tersebut.
Tingkat signifikansi koefisien korelasi satu sisi dari output (diukur dari
probabilitas) menghasilkan angka yang bervariasi, dengan catatan variabel laju
penduduk dan income tidak berkorelasi secara signifikan (mempunyai nilai
signifikansi diatas 0,05) dengan variabel lainnya.

Analisis Regresi

Page 24

Bagian ketiga dan keempat dari output diatas:

Analisis:
Metode backward dimulai dengan memasukkan semua variabel (lihat Model 1 yang
mempunyai keterangan ENTER). Kemudian dilakukan analisis dan variabel yang tidak
layak masuk dalam regresi dikeluarkan satu persatu.
Model ke 2 menyatakan bahwa variabel yang dikeluarkan (removed) adalah variabel
Income. Kemudian pada Model ke 3, variabel laju_pen yang dikeluarkan. Pada Model ke
4 atau terakhir, variabel pesaing yang dikeluarkan.
Dengan demikian, setelah melewati 4 tahapan, variabel bebas yang layak dimasukkan
dalam model regresi adalah variabel Promosi dan Outlet.

Analisis Regresi

Page 25

Analisis:
Keterangan Adjusted R Square
Seperti telah disebut didepan, ada 4 tahapan analisis, dimana pada setiap tahapan ada
variabel yang harus dikeluarkan dari model regresi. Pada tabel diatas, pada Model 1,
terlihat Adjusted R Square (R2 yang disesuaikan) adalah 0,928. Perhatikan bahwa untuk
regresi dengan lebih dari dua variabel bebas, digunakan Adjusted R 2 sebagai koefisien
determinasi. Kemudian pada Model ke 2, dengan mengeluarkan variabel Income (liha
keterangan b. Predictordibawah tabel dimana variabel Income sudah hilang), maka R2
yang disesuaikan menjadi 0,935, atau terjadi peningkatan.
Demikian seterusnya hingga pada model final (ke 4), R2 yang disesuaikan meningkat
menjadi 0,944. Semakin tinggi R2 yang disesuaikan akan semakin baik bagi model
regresi, karena variabel bebas bisa menjelaskan variabel tergantung lebih besar. Disini
berarti 94,4% variasi Sales perusahaan bisa dijelaskan oleh variabel biaya promosi dan
outlet yang disewa. Sedangkan sisanya (100% - 94,4% = 5,6%) dijelaskan oleh
sebabsebab yang lain.

Keterangan Standar Error of Estimate


Juga terlihat dari model diatas, terjadi penurunan besar Standar Error of Estimate, dari
11,05 (Rp.11,05 juta) pada model 1, menjadi 9,76 (Rp.9,76 juta) pada model ke 4. Selain
itu, karena lebih kecil dari standar deviasi Sales (Rp.41,1 juta), maka model regresi lebih
bagus dalam bertindak sebagai prediktor Sales daripada Rata-rata Sales itu sendiri.

Analisis Regresi

Page 26

Bagian kelima dan keenam dari output:

Analisis:
Dari uji ANOVA atau F test, didapat F hitung untuk model 4 atau model yang dipakai
adalah 118,294 dengan tingkat signifikansi 0,0000. Karena probabilitas (0,000) jauh lebih
kecil dari 0,05, maka model regresi bisa dipakai untuk memprediksi Sales. Atau bisa
dikatakan, Promosi dan Luas Outlet yang disewa secara bersama-sama berpengaruh
terhadap Sales.

Analisis Regresi

Page 27

Analisis:
Keterangan Collinearity Statistics
Perhatikan kolom TOLERANCE atau toleransi. Sebagai contoh pada model 1 untuk
variabel Income, didapat besar tolerance adalah 0,750. Hal ini berarti R2 adalah 1 0,750
atau 0,250. Hal ini berarti hanya 25 % variabilitas Income bisa dijelaskan oleh prediktor
(variabel bebas) yang lain.
Default bagi SPSS bagi angka tolerance adalah 0,0001. Semua variabel yang akan
dimasukkan dalam perhitungan model regresi harus mempunyai tolerance diatas 0,0001.
Terlihat bahwa semua variabel telah memenuhi persyaratan ambang toleransi.
o Perhatikan kolom VIF
VIF atau Variance Inflation factor mempunyai persamaan:
VIF = 1 / TOLERANCE
Sebagai contoh, pada model 1 untuk variabel Income, didapat besar tolerance 0,750.
Maka besar VIF adalah:
VIF = 1 / 0,75 = 1,333
Pada umumnya, jika VIF lebih besar dari 5, maka variabel tersebut mempunyai persoalan
multikolinieritas dengan variabel bebas yang lainnya. Jika dilihat pada tabel diatas, maka
variabel bebas pesaing dan Promosi mempunyai VIF lebih dari 5, sehingga bisa diduga
ada persoalan multikolinieritas (korelasi yang besar diantara variabel bebas). Jika dilihat
pada model 4,terlihat kedua variabel bebas (OUTLET dan PROMOSI) mempunyai VIF
dibawah 5 (2,177), yang berarti tidak terdapat

multikolinieritas. Untuk analisis

multikolinieritas yang lebih lengkap, lihat bagian lain analisis dibawah.

Menggambarkan persamaan regresi


Pada model 4 pada tabel diatas, pada kolom Unstandardized Coefficient, didapat
persamaan regresi:
Y = 64,639 + 2,342 X1 + 0,535 X2
Dimana:
Y = Sales
X1 = Biaya Promosi
X2 = Luas Outlet
Persamaan tersebut sama dengan persamaan regresi berganda pada kasus terdahulu,
dimana hanya terdapat variabel bebas Promosi dan Outlet.

Analisis Regresi

Page 28

Persamaan tersebut berarti:


o Konstanta sebesar 64,639 menyatakan bahwa jika tidak ada Biaya promosi atau
Outlet yang disewa perusahaan, maka Sales adalah Rp.64,639 juta.
o Koefisien regresi X1sebesar 2,342 menyatakan bahwa setiap penambahan (karena
tanda +) Rp. 1,- Biaya Promosi akan meningkatkan Sales sebesar Rp. 2,342.
o Koefisien regresi X2 sebesar 0,535 menyatakan bahwa setiap penambahan (karena
tanda +) 1 m2
Luas Outlet yang disewa akan meningkatkan Sales sebesar Rp. 0,535.
Uji t untuk menguji signifikansi konstanta dan variabel dependen (promosi).
Berdasarkan Probabilitas:
Jika probabilitas > 0,05, maka Ho diterima.
Jika probabilitas < 0,05, maka Ho ditolak.
Keputusan:
Terlihat bahwa pada kolom Sig / significance adalah 0,000, atau probabilitas jauh
dibawah 0,05, Maka Ho ditolak, atau koefisien regresi signifikan, atau promosi benar benar berpengaruh secara signifikan terhadap Sales.
Demikian juga untuk analisis konstanta dan outlet dengan dua cara tadi dihasilkan angka
konstanta dan outlet yang signifikan.
Bagian ketujuh dari Output:

Analisis Regresi

Page 29

Analisis:
Bagian ini membahas ada tidaknya multikolinieritas atau terjadinya korelasi diantara
sesama variabel bebas. Model regresi yang baik tentunya tidak ada multikolinier atau
adanya korelasi diantara variabel bebas.
Perhatikan kolom-kolom pada tabel diatas:

Eigenvalue. Multikolinieritas akan terjadi jika nilai Eugen mendekati 0

Condition Index. Multikolinieritas akan terjadi jika indeks melebihi 15, dan benarbenar serius problem tersebut jika indeks sampai melebihi 30.

Pada model terakhir yang dipakai (model 4), terlihat nilai variabel bebas Promosi dan
Outlet (kode 2 dan 3) mempunyai nilai Eugen yang mendekati 0, dan ada indeks variabel
bebas yang melebihi angka 15. Hal ini berarti ada dugaan terjadi problem
multikolinieritas, yaitu adanya korelasi diantara variabel Promosi dan Outlet.
Untuk menyelesaikan problem model regresi dengan adanya multikolinieritas, bisa dilihat
pada buku statistik lanjutan.
Output bagian delapan:

Analisis:
Bagian ini membahas proses mengeluarkan (elimination) variabel bebas yang tidak layak
dimasukkan dalam model regresi. Eliminasi didasarkan pada besaran t (hitung).
Pada model 1 dicari variabel bebas dengan t hitung TERKECIL, yang didapat variabel
Income (perhatikan yang dilihat BESAR t HITUNG, sedangkan TANDA t HITUNG
TIDAK BERPENGARUH), maka variabel Income dikeluarkan (excluded). Demikian
seterusnya hingga didapat tiga variabel bebas (model 4) yang dikeluarkan dari model
regresi.

Analisis Regresi

Page 30

B. Forward Elimination
Metode ini sebenarnya sama dengan prosedur Backward, hanya disini variabel bebas
dimasukkan tidak sekaligus, namun satu persatu.
Langkah-langkah:

Buka file regresi_berganda_2.

Menu Analyze Regression Linear...

Tampak di layar kotak dialog LINEAR REGRESSION.


Pengisian:

Dependent atau variabel tergantung. Pilih variabel sales

Independent(s)atau variabel bebas. Pilih variabel promosi, outlet, laju_pen,


pesaing dan income.

Case Labels atau keterangan pada kasus. Pilih daerah.

Method atau cara memasukkan/seleksi variabel. Sesuai dengan kasus, pilih


Forward.

Pilih kolom Statistics dengan klik mouse pada pilihan tersebut. Tampak di
layar:

Analisis Regresi

Page 31

Pengisian:
Regression Coefficient atau perlakuan koefisien regresi, pilih default atau
ESTIMATE.
Klik mouse pada pilihan Descriptivedan Collinearity diagnostics pada kolom
sebelah kanan, selain pilihan Model fit.
Pilihan Residuals dikosongkan saja.
Klik Continue untuk kembali ke kotak dialog sebelumnya.
Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.
Tekan OK untuk proses data.

Output SPSS dan Analisis:


Simpan output dengan nama regresi_berganda_for

ANALISIS:
(tidak semua output dibahas)
Bagian satu dan dua output:
Output regresi berganda untuk dua bagian ini sama dengan metode Backward,
sehingga analisis bisa dilihat pada metode Backward di depan.
Bagian ketiga dan keempat dari output diatas:

Analisis Regresi

Page 32

Analisis:
Metode forward dimulai dengan memasukkan satu per satu variabel, dan terlihat pada
tabel diatas, dari lima variabel bebas, hanya dua variabel (Promosi dan Outlet) yang
layak masuk dalam model regresi. Disini Model 1 hanya memasukkan variabel
Promosi, dan Model 2 menambahkan variabel Oulet dalam model regresi.

Analisis:
Adjusted R Square
Perhatikan bahwa untuk regresi dengan lebih dari dua variabel bebas, digunakan
Adjusted R2 sebagai koefisien determinasi (ada lima variabel bebas). Terlihat pada
model 1, hasil Adjusted R2 adalah 0,839.
Kemudian pada model 2, dengan penambahan variabel Outlet, R2 yang disesuaikan
meningkat menjadi 0,944. Semakin tinggi R2 yang disesuaikan akan semakin baik bagi
model regresi, karena variabel bebas bisa menjelaskan variabel tergantung lebih besar.
Disini berarti 94,4% Sales perusahaan bisa dijelaskan oleh variabel biaya promosi dan
outlet yang disewa. Sedangkan sisanya (100 % - 94,4 % = 5,6 %) dijelaskan oleh
sebab-sebab yang lain.

Standar Error of Estimate


Juga terlihat dari model diatas, terjadi penurunan besar Standar Error of Estimate, dari
17,13 (Rp. 17,13 juta) pada model 1, menjadi 9,76 (Rp.9,76 juta) pada model ke 2.
Selain itu, karena lebih kecil dari standar deviasi Sales (Rp. 41,1 juta), maka model
regresi lebih bagus dalam bertindak sebagai prediktor Sales daripada Rata-rata Sales
itu sendiri.

Analisis Regresi

Page 33

Bagian kelima dan keenam dari output:

Analisis:
Dari uji ANOVA atau F test, didapat F hitung untuk model 2 atau model yang dipakai
adalah 118,294 dengan tingkat signifikansi 0,0000. Karena probabilitas (0,000) jauh
lebih kecil dari 0,05, maka model regresi bisa dipakai untuk memprediksi Sales. Atau
bisa dikatakan, Promosi dan Luas Outlet yang disewa secara bersama - sama
berpengaruh terhadap Sales.

Analisis:
Collinearity Statistics
Perhatikan kolom TOLERANCE atau toleransi.
Sebagai contoh pada model 2 untuk variabel promosi, didapat besar tolerance adalah
0,459. Hal ini berarti R2adalah 1 0,459 atau 0,541. Hal ini berarti hanya 54,1 %
variabilitas promosi bisa dijelaskan oleh prediktor (variabel bebas) yang lain.
Default bagi SPSS bagi angka tolerance adalah 0,0001. Semua variabel yang akan
dimasukkan dalam perhitungan model regresi harus mempunyai tolerance diatas
0,0001. Terlihat bahwa semua variabel telah memenuhi persyaratan ambang toleransi.

Analisis Regresi

Page 34

Perhatikan kolom VIF


Sebagai contoh, pada model 1 untuk variabel promosi, didapat besar tolerance 0,459.
Maka besar VIF adalah:
VIF = 1 / 0,459 = 2,177
Pada umumnya, jika VIF lebih besar dari 5, maka variabel tersebut mempunyai
persoalan multikolinieritas dengan variabel bebas yang lainnya. Jika dilihat pada tabel
diatas, maka variabel bebas Outlet dan Promosi mempunyai VIF kurang dari 5,
sehingga

bisa

diduga

tidak

ada

persoalan

multikolinieritas

yang

serius.

menggambarkan persamaan regresi:


Pada model 4, didapat persamaan regresi:
Y = 64,639 + 2,342 X1 + 0,535 X2
Dimana:
Y = Sales
X1 = Biaya Promosi
X2 = Luas Outlet
Persamaan tersebut sama dengan persamaan regresi berganda pada kasus terdahulu,
dimana hanya terdapat variabel bebas Promosi dan Outlet.
Persamaan tersebut berarti:

Konstanta sebesar 64,639 menyatakan bahwa jika tidak ada Biaya promosi atau
Outlet yang disewa perusahaan, maka Sales adalah Rp.64,639 juta.

Koefisien regresi X1 sebesar 2,343 menyatakan bahwa setiap penambahan


(karena tanda +) Rp. 1,- Biaya Promosi akan meningkatkan Sales sebesar Rp.
2,342.

Koefisien regresi X2 sebesar 0,535 menyatakan bahwa setiap penambahan


(karena tanda +) 1 m2

Luas Outlet yang disewa akan meningkatkan Sales sebesar Rp. 0,535.
Uji t untuk menguji signifikansi konstanta dan variabel dependen (promosi).
Berdasarkan Probabilitas:

Jika probabilitas > 0,05, maka Ho diterima

Jika probabilitas < 0,05, maka Ho ditolak

Keputusan:

Analisis Regresi

Page 35

Terlihat bahwa pada kolom Sig / significance adalah 0,000, atau probabilitas jauh
dibawah 0,05, Maka Ho ditolak, atau koefisien regresi signifikan, atau promosi benar benar berpengaruh secara signifikan terhadap Sales.
Demikian juga untuk analisis konstanta dan outlet dengan dua cara tadi dihasilkan
angka konstanta dan outlet yang signifikan.
Bagian ketujuh dari Output :

Analisis:
Bagian ini membahas ada tidaknya multikolinieritas atau terjadinya korelasi diantara
sesama variabel bebas. Model regresi yang baik tentunya tidak ada multikolinier atau
adanya korelasi diantara variabel bebas.
Pada model terakhir yang dipakai (model 4), terlihat nilai variabel bebas Promosi dan
Outlet (kode 2 dan 3) mempunyai nilai Eugen yang mendekati 0. Sedangkan indeks
variabel Outlet melebihi angka 15. Hal ini berarti ada dugaan terjadi problem
multikolinieritas, yaitu adanya korelasi diantara variabel Promosi dan Outlet.
Untuk menyelesaikan problem model regresi dengan adanya multikolinieritas, bisa
dilihat pada buku statistik lanjutan.
Output bagian delapan:

Analisis Regresi

Page 36

Analisis:
Pada model 1 dicari variabel bebas dengan t hitung TERBESAR, hingga empat
variabel dengan t hitung lebih kecil dikeluarkan. Pada model 2, dilanjutkan dengan
mengeluarkan tiga variabel, dan memasukkan variabel Outlet dalam model regresi.
Perhatikan bahwa cara perhitungan dengan Forward menghasilkan model regresi yang
sama dengan perhitungan Backward.

C. Stepwise Elimination
Metode Stepwise adalah salah satu metode yang sering dipakai dalam analisis regresi.
Metode ini hampir sama dengan Forward , hanya disini variabel yang telah
dimasukkan dalam model regresi bisa dikeluarkan lagi dari model. Metode ini dimulai
dengan memasukkan variabel bebas yang punya korelasi paling kuat dengan variabel
dependen. Kemudian setiap kali pemasukan variabel bebas yang lain, dilakukan
pengujian untuk tetap memasukkan variabel bebas atau mengeluarkannya.

Kasus yang dipakai tetap kasus P.T. CEMERLANG dengan tujuh variabel.
Langkah-langkah:
o Buka file regresi_berganda_2.
o Menu Analyze Regression Linear...
Tampak di layar kotak dialog LINEAR REGRESSION.
Pengisian:
o Dependent atau variabel tergantung. Pilih variabel sales.
o Independent(s)atau variabel bebas. Pilih variabel promosi, outlet, laju_pen,
pesaing dan income.
o Case Labels atau keterangan pada kasus. Pilih daerah.
o Method atau cara memasukkan /seleksi variabel. Sesuai dengan kasus, pilih
Stepwise.
Pilih kolom Statistics, dengan pengisian:

Regression Coefficient atau perlakuan koefisien regresi, pilih default atau


ESTIMATE.

Klik mouse pada pilihan Descriptivedan Collinearity diagnostics pada kolom


sebelah kanan, selain pilihan Model fit.

Pilihan Residuals dikosongkan saja

Analisis Regresi

Page 37

Klik Continue untuk kembali ke kotak dialog sebelumnya.


Pilihan-pilihan yang lainnya untuk keseragaman tidak dibahas disini.
Tekan OK untuk mengakhiri pengisian prosedur analisis. Terlihat SPSS melakukan
pekerjaan analisis.
Output SPSS dan Analisis:
Simpan output dengan nama regresi_berganda_step
TAMPILAN BEBERAPA OUTPUT:

Regression

Analisis Regresi

Page 38

ANALISIS:
Dari berbagai tabel output, terlihat bahwa semuanya sama persis dengan hasil dari metode
Forward. Karena itu, analisis sama dengan analisis metode Forward yang telah dijelaskan di
depan.

PENUTUP
Dari analisis regresi berganda yang menggunakan tiga metode, yaitu Backward, Forward dan
Stepwise, didapat kesimpulan yang sama, yaitu:
Hanya dua variabel bebas yang dimasukkan dalam model regresi, yaitu PROMOSI dan
OUTLET. Sedangkan persamaan regresi yang didapat adalah:
Y = 64,639 + 2,342 X1 + 0,535 X2
Dimana:
Y = Sales, sedang X1= Biaya Promosi, dan X2= Luas Outlet.

Analisis Regresi

Page 39