Jelajahi eBook
Kategori
Jelajahi Buku audio
Kategori
Jelajahi Majalah
Kategori
Jelajahi Dokumen
Kategori
tak
bebas
(dependent
variable)
dengan
tujuan
untuk
belum
diketahui
dengan
sempurna,
sehingga
dalam
yang
paling
rumit,
tergantung
tujuan
yang
berlandaskan
pengetahuan atau teori sementara, bukan asal ditentukan saja. jika dalam
persamaan regresi hanya terdapat satu variabel terikat,maka disebut
sebagai regresi sederhana. Sedangkan jika variabel bebasnya lebih dari
satu, maka disebut sebagai persamaan regresi berganda
Analisis regresi merupakan analisis data untuk mengetahui seberapa
besar pengaruh suatu variabel independen terhadap variabel dependen.
Analisis regresi terbagi menjadi regresi linear dan nonlinear. Regresi linear
dibagi menjadi dua bagian yaitu, regresi linear sederhana dan regresi
linear berganda. Analisis regresi adalah salah satu analisis yang paling
populer dan luas pemakaiannya. Hampir semua bidang ilmu yang
memerlukan analisis sebab-akibat boleh dipastikan mengenal analisis ini.
analisis regresi yang melibatkan hubungan dari dua atau lebih variabel
bebas.
Pada
awalnya
regresi
berganda
dikembangkan
oleh
ahli
dimana
0 , 1 , 2 , , k
berbeda atau diantaranya sebagai fungsi dari variabel dasar yang lain.
Jika kejadian pertama yang terjadi, kita peroleh model regresi linear
berganda,
karena
semua
variabelnya
linear
dan
tidak
ada
yang
Untuk setiap kombinasi khusus nilai-nilai tetap dari variabel bebas (dasar)
X 1 , X 2 , , X k
, X 2 , , X k
X 1 , X 2 , , X k
X 1 , X 2 , , X k ; yakni :
Y X
, X 2 , , X k
= 0 + 1 X 1 + 2 X 2+ + k X k +
Atau
Y = 0 + 1 X 1+ 2 X 2 ++ k X k +
4. Asumsi Kehomogenan
Variansi Y sama untuk setiap kombinasi tertentu dari
yakni
2Y X , X
1
, , X k
X 1 , X 2 , , X k ,
Var (Y X 1 , X 2 , , X k ) 2
5. Asumsi Kenormalan
Untuk setiap nilai kombinasi tertentu
X 1 , X 2 , , X k , Y mempunyai
Y X , X
1
, , X k
dan
( x 1i , x2 i ,i=1,2, , n
Untuk menghitung nilai
0 ,
1, 2
i=1
x 1i y i
n
i=1
x1 i x 2 i
x 2i y i
n
i=1
x 21 i
n
i=1
x 22 i
n
i=1
x1 i x 2 i
n
i=1
i=1
b1=
1,
sebagai berikut:
b0 =Y b 1 X 1 b2 X 2
x 22 i
x1i
n
i=1
x 2i y i
n
i=1
x1 i x 2 i
x 1i y i
n
i=1
2
x1i
n
i=1
x 22 i
n
i=1
x1 i x 2 i
n
i=1
i=1
b2=
1
2
5. Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi Berganda
mengasumsikan residu observasi seharusnya tidak berkorelasi (atau
bebas). Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang
menyelidiki korelasi berlanjut antar error (kesalahan). Durbin-Watson
menguji apakah residual yang berdekatan saling berkorelasi. Statistik
pengujian bervariasi antara 0 hingga 4 dengan nilai 2 mengindikasikan
residu tidak berkorelasi. Nilai > 2 mengindikasikan korelasi negatif antar
residu, di mana nilai < 2 mengindikasikan korelasi positif. >
Cara melakukan uji Durbin-Watson adalah, nilai Durbin-Watson hitung
harus lebih besar dari batas atas Durbin-Watson tabel. Syarat untuk
mencari Durbin-Watson tabel adalah Tabel Durbin-Watson. Untuk mencari
nilai Durbin-Watson tabel:
1
2
Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan DurbinWatson hitung lebih kecil dari 4 - .....; Artinya tidak ada Autokorelasi.
Tolak H0 jika Durbin-Watson hitung lebih kecil dari ..... atau 4 - ..... lebih
kecil dari .....; Artinya ada Autokorelasi.
6. Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan
Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana
varians dari data adalah sama pada seluruh pengamatan. Terdapat
sejumlah uji guna mendeteksi gejala heteroskedastisitas misalnya uji
Goldfeld-Quandt dan Park. Namun, Wang and Jain beranggapan bahwa Uji
Park dapat lebih teliti dalam memantau gejala heteroskedastisitas ini.
Dengan demikian, penelitian ini akan menggunakan Uji Park guna
menentukan gejala heteroskedastisitas variabel-variabelnya.
Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan
masing-masing variabel independent. The Park test suggests that if
heteroscedasticity is present, the heteroscedastic varianc e_i^2 may be
systematically related to one or more of the explanatory variables.
Rumus uji Park sebagai berikut:
4
5
6
7
8
9
10
11
Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan variabel
y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s)
--> Klik Save --> Pada Residual klik Unstandardized --> Continue --> OK
Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama
res_1. Ini merupakan nilai _i^ . Nilai ini harus dikuadratkan dengan cara
(pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan
_i^2 --> Pada operasi hitung kalikan nilai _i^ dengan _i^ . Pada
Variable View SPSS muncul variabel baru bernama _i^2.
Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan
nilai _i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln)
[caranya dengan Klik Ln lalu pindahkan variabel] Ln(_i^2 ) yaitu regresi
unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu
variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada
Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable
dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4.
Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan
LnX4.
Lakukan uji regresi kembali secara satu per satu.
Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel Lnei2
ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s) -->
OK. Sementara hasil belum dihiraukan.
Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada
di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada
di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih
ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke
Independent(s) > OK. Sementara hasil belum dihiraukan.
Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park bagi
variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1,
dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan
LnX4.
Peneliti akan memperbandingkan apa yang tertera di tabel Coefficients,
yaitu nilai t.
12
2
3
4
5
Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk
mengetahui persentase sumbangan pengaruh serentak variabel-variabel
bebas terhadap variabel terikat. Untuk itu, digunakan angka-angka yang
ada pada Tabel Model Summary.
Cara menentukan Koefisien Determinasi sangatlah mudah. Peneliti tinggal
melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai R2 adalah
0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x 100% =
77,77%. Jadi, secara serentak variabel-variabel bebas mempengaruhi
variabel terikat sebesar 77,77%. Sisanya, yaitu 100 77,77% = 22,23%
ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam
penelitian.
Koefisien Regresi Parsial
Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas
punya pengaruh secara parsial (terpisah atau sendiri-sendiri) terhadap
variabel terikat?
Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis
dilakukan dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak
diuji sebagai berikut: