Anda di halaman 1dari 16

ANALISIS REGRESI

Analisis regresi merupakan studi dalam menjelaskan dan mengevaluasi


hubungan antara suatu peubah bebas (independent variable) dengan satu
peubah

tak

bebas

(dependent

variable)

dengan

tujuan

untuk

mengestimasi dan atau meramalkan nilai peubah tak bebas didasarkan


pada nilai peubah bebas yang diketahui (Widarjono, 2005).
Analisis regresi adalah teknik statistika yang berguna untuk memeriksa
dan memodelkan hubungan diantara variabel-variabel. Penerapannya
dapat dijumpai secara luas di banyak bidang seperti teknik, ekonomi,
manajemen, ilmu-ilmu biologi, ilmu-ilmu sosial, dan ilmu-ilmu pertanian.
Pada saat ini, analisis regresi berguna dalam menelaah hubungan dua
variabel atau lebih, dan terutama untuk menelusuri pola hubungan yang
modelnya

belum

diketahui

dengan

sempurna,

sehingga

dalam

penerapannya lebih bersifat eksploratif.


Analisis regresi dikelompokkan dari mulai yang paling sederhana
sampai

yang

paling

rumit,

tergantung

tujuan

yang

berlandaskan

pengetahuan atau teori sementara, bukan asal ditentukan saja. jika dalam
persamaan regresi hanya terdapat satu variabel terikat,maka disebut
sebagai regresi sederhana. Sedangkan jika variabel bebasnya lebih dari
satu, maka disebut sebagai persamaan regresi berganda
Analisis regresi merupakan analisis data untuk mengetahui seberapa
besar pengaruh suatu variabel independen terhadap variabel dependen.
Analisis regresi terbagi menjadi regresi linear dan nonlinear. Regresi linear
dibagi menjadi dua bagian yaitu, regresi linear sederhana dan regresi
linear berganda. Analisis regresi adalah salah satu analisis yang paling
populer dan luas pemakaiannya. Hampir semua bidang ilmu yang
memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini.

REGRESI LINEAR BERGANDA


Regresi berganda seringkali digunakan untuk mengatasi permasalahan

analisis regresi yang melibatkan hubungan dari dua atau lebih variabel
bebas.

Pada

awalnya

regresi

berganda

dikembangkan

oleh

ahli

ekonometri untuk membantu meramalkan akibat dari aktivitas-aktivitas


ekonomi pada berbagai segmen ekonomi. Misalnya laporan tentang
peramalan masa depan perekonomian di jurnal-jurnal ekonomi (Business
Week, Wal Street Journal, dll), yang didasarkan pada model-model
ekonometrik dengan analisis berganda sebagai alatnya. Salah satu contoh
penggunaan regresi berganda dibidang pertanian diantaranya ilmuwan
pertanian menggunakan analisis regresi untuk menjajagi antara hasil
pertanian (misal: produksi padi per hektar) dengan jenis pupuk yang
digunakan, kuantitas pupuk yang diberikan, jumlah hari hujan, suhu, lama
penyinaran matahari, dan infeksi serangga.Model regresi linier berganda
merupakan pengembangan signifikan dari model regresi linier sederhana.
Jika regresi sederhana hanya ada satu variabel dependen (Y) dan satu
variabel independen (X), maka pada kasus regresi berganda, terdapat
satu variabel dependen dan lebih dari satu variabel independen.
Analisis Regresi Linear Berganda digunakan untuk mengukur pengaruh
antara lebih dari satu variabel prediktor (variabel independen) hingga kvariabel prediktor terhadap variabel dependen.
Bentuk umum sebuah model regresi untuk k variabel bebas adalah :
Y = 0 + 1 X 1+ 2 X 2 ++ k X k +

dimana

merupakan variabel acak, parameter

0 , 1 , 2 , , k

adalah koefisien-koefisien regresi yang perlu diduga. Variabel-variabel


X 1 , X 2 , , X k

mungkin seluruhnya sebagai variabel-variabel dasar yang

berbeda atau diantaranya sebagai fungsi dari variabel dasar yang lain.
Jika kejadian pertama yang terjadi, kita peroleh model regresi linear
berganda,

karena

semua

variabelnya

linear

dan

tidak

ada

yang

merupakan fungsi dari variabel lainnya. (Tiro, 2006)


Menurut Tiro (2006), asumsi untuk regresi linear berganda yaitu;
1. Asumsi Eksistensi

Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas (dasar)
X 1 , X 2 , , X k

(misalnya X1= 57, X2 = 8) adalah variabel acak (univariate)

dengan distribusi peluang tertentu yang mempunyai nilai rata-rata dan


variansi terhingga.
2. Asumsi Kebebasan
Nilai-nilai Y adalah hasil pengamatan yang bebas statistik antara satu
dengan lainnya.
3. Asumsi kelinearan
Nilai rata-rata Y, untuk setiap kombinasi nilai khusus dari
dan ditulis dengan notasi Y X

, X 2 , , X k

X 1 , X 2 , , X k

adalah sebuah fungsi linear dari

X 1 , X 2 , , X k ; yakni :
Y X

, X 2 , , X k

= 0 + 1 X 1 + 2 X 2+ + k X k +

Atau
Y = 0 + 1 X 1+ 2 X 2 ++ k X k +

4. Asumsi Kehomogenan
Variansi Y sama untuk setiap kombinasi tertentu dari
yakni
2Y X , X
1

, , X k

X 1 , X 2 , , X k ,

Var (Y X 1 , X 2 , , X k ) 2

5. Asumsi Kenormalan
Untuk setiap nilai kombinasi tertentu

X 1 , X 2 , , X k , Y mempunyai

distribusi normal. Kita gunakan simbol


Y =N ( Y X , X , , X , 2)
1

yang berarti Y berdistribusi normal dengan rata-rata


variansi

Y X , X
1

, , X k

dan

. Asumsi ini tidak diperlukan untuk membuat model regresi

akan tetapi umumnya diperlukan untuk membuat inferensi.


Misalkan banyaknya variabel bebas berjumlah 2 (k=2), nilai data
variabel tersebut, dapat dituliskan sebagai berikut:

( x 1i , x2 i ,i=1,2, , n
Untuk menghitung nilai
0 ,

1, 2

i=1

x 1i y i
n

i=1

x1 i x 2 i
x 2i y i
n

i=1

x 21 i
n

i=1

x 22 i
n

i=1

x1 i x 2 i
n

i=1

i=1

b1=

1,

apabila k=2 sebagai taksiran

melalui metode OLS (Ordinary Least Square) dengan hasil

sebagai berikut:
b0 =Y b 1 X 1 b2 X 2
x 22 i

x1i
n

i=1

x 2i y i
n

i=1

x1 i x 2 i
x 1i y i
n

i=1

2
x1i
n

i=1

x 22 i
n

i=1

x1 i x 2 i
n

i=1

i=1

b2=

Asumsi Uji Regresi Berganda (Multiple Regression)


Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya sejumlah
asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji Regresi Berganda
adalah:
1. Ukuran Sampel
Masalah berkenaan ukuran sampel di sini adalah generabilitas. Dengan
sampel kecil anda tidak bisa melakukan generalisasi (tidak bisa diulang)
dengan sampel lainnya. Berbeda penulis berbeda berapa sampel yang
seharusnya dalam uji Regresi Berganda. Stevens (1996, p.72)
merekomendasikan bahwa untuk penelitian ilmu sosial, sekitar 15

sampel per prediktor (variabel bebas) dibutuhkan untuk mengisi


persamaan uji regresi. Tabachnick and Fidell (1996, p.132) memberi
rumus guna menghitung sampel yang dibutuhkan uji Regresi, berkaitan
dengan jumlah variabel bebas yang digunakan:
n > 50 + 8m
Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas
Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel yang
dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8) = 50 + 40
= 90.
2. Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau
terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya
dilakukan sebelum melakukan Regresi Berganda. Pengecekan ini
dilakukan baik terhadap variabel bebas maupun terikat. Outlier bisa
dihapus dari data atau diberikan skor untuk variabel tersebut yang tinggi,
tetapi tidak terlampau beda dengan kelompok skor lainnya. Prosedur
tambahan guna mendeteksi outlier juga terdapat pada program SPSS file
mah_1. Outlier pada variabel terikat dapat diidentifikasi dari Standardised
Residual plot yang dapat disetting. Tabachnick and Fidell (1996, p. 139)
menentukan outlier adalah nilai-nilai Standardised Residual di atas 3,3
(atau < - 3,3).
Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak
diproduksi oleh program Regresi Berganda SPSS ini. Ia tidak terdapat
dalam output SPSS. Untuk mengidentifikasi sampel mana yang
merupakan Outlier, anda perlu menentukan nilai kritis Chi Square, dengan
menggunakan jumlah variabel bebas yang digunakan dalam penelitian
sebagai degree of freedom-nya atau derajat kebebasan. Pallant
menggunakan Alpha 0,001 agar lebih meyakinkan, yang rinciannya
sebagai berikut:

Untuk menggunakan tabel kritis Chi Square, lakukan langkah berikut:


1
2

Tentukan variabel bebas yang digunakan dalam analisis;


Temukan nilai di atas pada salah satu kolom berbayang; dan

Baca melintasi kolom untuk menemukan nilai kritis yang dikehendaki.


3. Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi normal seputar
skor-skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara
nilai data pengamatan variabel terikat terhadap nilai variabel terikat hasil
prediksi. Untuk melihat apakah residu normal atau tidak, dapat dilakukan
dengan cara berikut:

1
2

Melihat grafik Normal P-P Plot, dan


Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data memencar
mengikuti fungsi distribusi normal yaitu menyebar seiring garis z diagonal.
Residu normal dari uji Kolmogorov-Smirnov adalah diperolehnya nilai p >
0,05.
Linieritas adalah residual yang seharusnya punya hubungan dalam bentuk
straight-line
dengan
skor
variabel
terikat
yang
diprediksi.
Homoskedastisitas adalah varians residual seputar skor-skor variabel
terikat yang diprediksi seharusnya sama bagi skor-skor yang diprediksi
secara keseluruhan.
4. Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki
hubungan linier satu sama lain. Sebab, jika terjadi hubungan linier
antarvariabel bebas akan membuat prediksi atas variabel terikat menjadi
bias karena terjadi masalah hubungan di antara para variabel bebasnya.
Dalam Regresi Berganda dengan SPSS, masalah Multikolinieritas ini
ditunjukkan lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom
VIF (Variance Inflated Factors). Tolerance adalah indikator seberapa
banyak variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh
variabel bebas lainnya. Tolerance dihitung dengan rumus 1 R2 untuk
setiap variabel bebas. Jika nilai Tolerance sangat kecil (< 0,10), maka itu
menandakan korelasi berganda satu variabel bebas sangat tinggi dengan
variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF
merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF >
10, maka itu mengindikasikan terjadinya Multikolinieritas.
Hipotesis untuk Multikolinieritas ini adalah:

5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi Berganda
mengasumsikan residu observasi seharusnya tidak berkorelasi (atau
bebas). Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang
menyelidiki korelasi berlanjut antar error (kesalahan). Durbin-Watson
menguji apakah residual yang berdekatan saling berkorelasi. Statistik
pengujian bervariasi antara 0 hingga 4 dengan nilai 2 mengindikasikan
residu tidak berkorelasi. Nilai > 2 mengindikasikan korelasi negatif antar
residu, di mana nilai < 2 mengindikasikan korelasi positif. >
Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson hitung
harus lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk
mencari Durbin-Watson tabel adalah Tabel Durbin-Watson. Untuk mencari
nilai Durbin-Watson tabel:
1
2

tentukan besar n (sampel) dan k (banyaknya variabel bebas).


Tentukan taraf signifikansi penelitian yaitu 0,05.
Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin-Watson
hitung terdapat dalam output SPSS, khususnya pada tabel Model
Summary. Hipotesis untuk Autokorelasi ini adalah:

Pengambilan keputusannya adalah:


Dengan kurva normal pengambilan Durbin-Watson:

Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan DurbinWatson hitung lebih kecil dari 4 - .....; Artinya tidak ada Autokorelasi.
Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4 - ..... lebih
kecil dari .....; Artinya ada Autokorelasi.
6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan
Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana
varians dari data adalah sama pada seluruh pengamatan. Terdapat
sejumlah uji guna mendeteksi gejala heteroskedastisitas misalnya uji
Goldfeld-Quandt dan Park. Namun, Wang and Jain beranggapan bahwa Uji
Park dapat lebih teliti dalam memantau gejala heteroskedastisitas ini.
Dengan demikian, penelitian ini akan menggunakan Uji Park guna
menentukan gejala heteroskedastisitas variabel-variabelnya.
Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan
masing-masing variabel independent. The Park test suggests that if
heteroscedasticity is present, the heteroscedastic varianc e_i^2 may be
systematically related to one or more of the explanatory variables.
Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:


1
2

4
5
6
7
8
9
10

11

Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel
y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s)
--> Klik Save --> Pada Residual klik Unstandardized --> Continue --> OK
Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama
res_1. Ini merupakan nilai _i^ . Nilai ini harus dikuadratkan dengan cara
(pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan
_i^2 --> Pada operasi hitung kalikan nilai _i^ dengan _i^ . Pada
Variable View SPSS muncul variabel baru bernama _i^2.
Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan
nilai _i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln)
[caranya dengan Klik Ln lalu pindahkan variabel] Ln(_i^2 ) yaitu regresi
unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu
variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada
Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable
dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4.
Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan
LnX4.
Lakukan uji regresi kembali secara satu per satu.
Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2
ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s) -->
OK. Sementara hasil belum dihiraukan.
Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada
di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada
di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih
ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi
variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1,
dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan
LnX4.
Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients,
yaitu nilai t.

12

Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan


memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari
pada Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah
sampel dan 4 karena jumlah variabel independen penelitian adalah 4.
Sehingga nilai df = 48 4 = 44. Dalam taraf 0,05 uji yang dilakukan
adalah 2 sisi sehingga singnifikansi pada tabel adalah 0,025.
Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95%
(0,025) pada Tabel t diperoleh nilai t tabel penelitian sebesar ......
Hipotesis yang diajukan mengenai masalah homoskedastisitas ini sebagai
berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau


Rumit
Jika uji Park dianggap terlampau rumit, maka pengujian alternatif dapat
ditempuh guna melihat apakah terjadi Homoskedastisitas atau
Heteroskedastisitas.
Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada
output hasil SPSS. Caranya sebagai berikut:
1
2
3
4

Klik Analyze --> Regression --> Linear


Klik Plot.
Isikan SRESID pada y-axis dan ZPRED pada x-axis.
Klik Continue. Perhatikan grafik scatterplot. Ingat, Homoskedastisitas
terjadi jika varians dari residual satu pengamatan ke pengamatan lain
tetap atau sama. Heteroskedastisitas terjadi jika varians dari residual satu
pengamatan ke pengamatan lain tidak sama atau tidak tetap.
Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas,
serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y.
Heteroskedastisitas terjadi jika terdapat titik-titik memili pola tertentu
yang teratur seperti bergelombang, melebar kemudian menyempit.
Interpretasi Hasil Uji Regresi Berganda
Setelah uji Regresi Berganda selesai dilakukan, peneliti harus melakukan
interpretasi. Rumus Regresi Berganda (standar) adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting


untuk interpretasi adalah apa yang tercantum pada tabel-tabel pada
output SPSS.
Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini terdapat
pada kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan
nilai Std. Error of the Estimate.
Tabel Model Summary
Tabel ini memberi informasi seberapa baik model analisis kita secara
keseluruhan, yaitu bagaimana 4 variabel bebas mampu memprediksikan 1
variabel terikat, dengan rincian sebagai berikut ini:
Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.
Kolom R. Menunjukkan seberapa baik variabel-variabel bebas
memprediksikan hasil (multiple correlation coefficient). Kisaran nilai R
adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka semakin
kuat variabel-variabel bebas memprediksikan variabel terikat. Namun,
ketepatan nilai R ini lebih disempurnakan oleh kolom Adjusted R Square
yang merupakan koreksi atas nilai R.
Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel
penelitian mampu mencari jawaban yang dibutuhkan dari populasinya.
Kisaran nilai Adjusted R Square adalah 0 hingga 1. Pedoman interpretasi
atas nilai Adjusted R Square adalah sebagai berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa % varians


tiap sampel pada variabel terikat bisa diprediksi oleh variabel-variabel
bebas secara bersama-sama (simultan).
Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat variabelvariabel bebas bisa memprediksi variabel terikat. Nilai Std. Error of the
Estimate diperbandingkan dengan nilai Std. Deviation (bisa dilihat pada
tabel Descriptives). Jika Std. Error of the Estimate < Std. Deviation, maka
Std. Error of the Estimate baik untuk dijadikan prediktor dalam
menentukan variabel terikat. Jika Std. Error of the Estimate > Std.
Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan
prediktor dalam mementukan variabel terikat.
Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi
Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi dengan
variabel bebas lainnya. Durbin-Watson ini digunakan dalam uji asumsi
Regresi sebelumnya.
Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai yang
tertera pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat
peneliti. Pada kolom ini juga terdapat nama-nama variabel bebas yang
digunakan dalam penelitian. Variabel-variabel tersebut diberi label
Constant yaitu nilai konstanta yang digunakan dalam persamaan uji
Regresi Berganda (a).
Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b
menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel
terikat) akan berubah jika X (variabel bebas) diubah 1 unit.
Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan
sebelumnya mengenai nilai b punya masalah karena variabel-variabel
kerap diukur menggunakan skala-skala pengukuran yang berbeda.
Akibatnya, kita tidak bisa menggunakan nilai b guna melihat variabelvariabel bebas mana yang punya pengaruh lebih kuat atas variabel
terikat. Misalnya, jika variabel yang diteliti adalah jenis kelamin yang
punya skala minimal 1 dan maksimal 2 dan pengaruhnya terhadap sikap
yang skalanya minimal 1 dan maksimal 6, nilai b diragukan efektivitas
prediksinya. Ini akibat nilai yang diperolehnya rendah atas pengaruh

perbedaan skala pengukuran. Untuk memastikan pengaruh inilah maka


nilai Beta dijadikan patokan. Nilai Beta punya kisaran 0 hingga 1, di mana
semakin mendekati 1 maka semakin berdampak besar signifikansinya.
Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar variabel
bebas dengan variabel terikat. Nilai Sig. ini sebaiknya adalah di bawah
0,05 (signifikansi penelitian).
Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel
yang tidak bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0
hingga 1, di mana semakin mendekati 1 maka semakin mengindikasikan
prediktor-prediktor lain tidak bisa menjelaskan varians di variabel
termaksud. Nilai yang semakin mendekati 0 artinya hampir semua varians
di dalam variabel bisa dijelaskan oleh variabel prediktor lain. Nilai
Torelance sebaiknya ada di antara 0,10 hingga 1.
Tabel ANOVA
Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau
signifikansi pada perhitungan ANOVA. Nilai yang tertera digunakan untuk
uji kelayanan Model Analisis [dimana sejumlah variabel x mempengaruhi
variabel y] dengan ketentuan angka probabilitas yang baik untuk
digunakan sebagai model regresi harus < 0,05. Nilai ini bisa dilihat pada
kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika Sig.
> 0,05, maka Model Analisis dianggap tidak layak.
Pengambilan Keputusan dengan Tabel ANOVA
Dalam Regresi Berganda, hal utama yang hendak dilihat adalah apakah
serangkaian variabel bebas secara serentak mempengaruhi variabel
terikat. Dalam output SPSS ini bisa ditentukan lewat tabel ANOVA.
Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada kolom F
tersebut disebut sebagai F hitung. F hitung ini diperbandingkan dengan F
tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat ditentukan


dengan cara:
1

Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi 0,025.

2
3
4
5

Tentukan df1. Df1 diperoleh dari jumlah variabel bebas


Tentukan df2. Df2 diperoleh dari n k 1 = 48 4 1 = 43.
Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025.
Dengan Excel, ketikkan rumus =FINV(0,05;4;43)
Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis juga
bisa menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:

Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk
mengetahui persentase sumbangan pengaruh serentak variabel-variabel
bebas terhadap variabel terikat. Untuk itu, digunakan angka-angka yang
ada pada Tabel Model Summary.
Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti tinggal
melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai R2 adalah
0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x 100% =
77,77%. Jadi, secara serentak variabel-variabel bebas mempengaruhi
variabel terikat sebesar 77,77%. Sisanya, yaitu 100 77,77% = 22,23%
ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam
penelitian.
Koefisien Regresi Parsial
Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas
punya pengaruh secara parsial (terpisah atau sendiri-sendiri) terhadap
variabel terikat?
Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis
dilakukan dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak
diuji sebagai berikut:

Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel


bebas.
Nilai t tabel bisa dicari dengan cara berikut ini:
1
3
4

= 0,05; untuk uji 2 sisi = 0,025


2 Degree of Freedom (df) = jumlah sampel jumlah variabel bebas 1
(angka 1 adalah konstanta) = 48 4 1 = 43.
Cari persilangan antara df = 43 dan 0,025.
Pencarian nilai t tabel dengan Excel mudah sekali. Ketik rumus
=tinv(0,05;43).

Anda mungkin juga menyukai