Anda di halaman 1dari 15

UJI REGRESI pada SPSS

Uji regresi berganda banyak sekali dipakai dalam penelitian.


Pemakaian baik untuk keperluan skripsi ataupun penelitian
sehari-hari. Kelebihan uji regresi adalah kemampuannya
melakukan prediksi. Bagi kalangan guru sekolah atau dosen, uji
regresi bisa dipakai untuk memprediksi perilaku siswa, baik
dalam hal nilai atau perilaku-perilaku lainnya.
Regresi Berganda Simultan atau Standar adalah kembangan lebih
lanjut dari Penelitian Korelasional. Lewat Uji Regresi hendak
dilihat bagaimana suatu variabel mempengaruhi variabel lain.
Regresi Berganda Simultan atau Standar juga kerap disebut
Standard Multiple Regression atau Simultaneous Multiple
Regression).
Dalam uji regresi berganda simultan, seluruh variabel prediktor
(bebas) dimasukkan ke dalam perhitungan regresi secara
serentak. Jadi, peneliti bisa menciptakan persamaan regresi guna
memprediksi variabel terikat dengan memasukkan, secara
serentak, serangkaian variabel bebas. Persamaan regresi
kemudian menghasilkan konstanta dan koefisien regresi bagi
masing-masing variabel bebas.
Selain Regresi Berganda Simultan atau Standar, ada pula Regresi
Berganda Stepwise dan Regresi Berganda Hirarki. Tulisan ini
hanya hendak mendalami Regresi Berganda Simultan atau
Standar saja.
Regresi Berganda dengan SPSS
Regresi Berganda sangat mudah dilakukan dengan SPSS. Julie
Pallant menginstruksikan dilakukannya langkah-langkah berikut
ini :
1.
2.
3.
4.
5.

Klik Analyze --> Regression --> Linear.


Klik variabel terikat --> Pindahkan ke kotak Dependent.
Klik variabel bebas --> Pindahkan ke kotak Independent(s).
Pada Method, pastikan dipilih Enter (untuk Regresi Berganda
Standar).
Klik tombol Statistics, lalu lakukan :

6.
7.
8.
9.
10.
11.
12.
13.
14.
15.
16.
17.
18.
19.
20.
21.
22.
23.
24.

Ceklis Estimates, Model fit, Descriptives, dan Collinearity


diagnostics.
Pada bagian Residual, ceklis Casewise diagnostics dan
Outliers outside 3 standard deviations.
Klik Continue.
Klik tombol Options. Pada bagian Missing Values ceklis
Exclude cases pairwise.
Klik tombol Plots, lakukan :
Klik *ZRESID dan tombol panah untuk memindahkannya ke
kotak y-axis.
Klik *ZPRED dan tombol panah untuk memindahkannya ke
kotak x-axis.
Klik Next
Klik *SRESID dan tombol panah untuk memindahkannya ke
kotak y-axis (untuk melihat homoskedastisitas)
Klik *ZPRED dan tombol panah untuk memindahkannya ke
kotak x-axis (untuk melihat homoskedastisitas)
Pada bagian Standardized Residual Plots, ceklis pilihan
Normal probability plot.
Klik Continue.
Klik tombol Save.
Pada bagian Predicted Values, ceklis Unstandardized,
Standardized, Adjusted
Pada bagian Residuals, ceklis Standardized, Deleted, dan
Studentized deleted.
Pada bagian Distances, ceklis Mahalanobis, Cooks, dan
Leverage values.
Pada bagian Influence Statistics, ceklis Standardized
dfBeta(s) dan Standardized DiFit
Klik Continue.
Klik OK.

Asumsi Uji Regresi Berganda (Multiple Regression)


Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya
sejumlah asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji
Regresi Berganda adalah:
1.

Ukuran Sampel

Masalah berkenaan ukuran sampel di sini adalah


generabilitas. Dengan sampel kecil anda tidak bisa
melakukan generalisasi (tidak bisa diulang) dengan sampel
lainnya. Berbeda penulis berbeda berapa sampel yang
seharusnya dalam uji Regresi Berganda. Stevens (1996,
p.72) merekomendasikan bahwa untuk penelitian ilmu
sosial, sekitar 15 sampel per prediktor (variabel bebas)
dibutuhkan untuk mengisi persamaan uji regresi.
Tabachnick and Fidell (1996, p.132) memberi rumus guna
menghitung sampel yang dibutuhkan uji Regresi, berkaitan
dengan jumlah variabel bebas yang digunakan:
n > 50 + 8m
Dimana :
n = Jumlah Sampel
m = Jumlah Variabel Bebas
Jika peneliti menggunakan 5 variabel bebas, maka jumlah
sampel yang dibutuhkan adalah 90 orang, dalam mana 50
ditambah ( 5 x 8) = 50 + 40 = 90.
Outlier
Regresi Berganda sangat sensitif terhadap Outlier (skor
terlalu tinggi atau terlalu rendah). Pengecekan terhadap
skor-skor ekstrim seharusnya dilakukan sebelum melakukan
Regresi Berganda. Pengecekan ini dilakukan baik terhadap
variabel bebas maupun terikat. Outlier bisa dihapus dari
data atau diberikan skor untuk variabel tersebut yang tinggi,
tetapi tidak terlampau beda dengan kelompok skor lainnya.
Prosedur tambahan guna mendeteksi outlier juga terdapat
pada program SPSS file mah_1. Outlier pada variabel terikat
dapat diidentifikasi dari Standardised Residual plot yang
dapat disetting. Tabachnick and Fidell (1996, p. 139)
menentukan outlier adalah nilai-nilai Standardised Residual
di atas 3,3 (atau < - 3,3).
2.

Outlier juga bisa dicek menggunakan jarak Mahalanobis


yang tidak diproduksi oleh program Regresi Berganda SPSS
ini. Ia tidak terdapat dalam output SPSS. Untuk
mengidentifikasi sampel mana yang merupakan Outlier,
anda perlu menentukan nilai kritis Chi Square, dengan
menggunakan jumlah variabel bebas yang digunakan dalam
penelitian sebagai degree of freedom-nya atau derajat
kebebasan. Pallant menggunakan Alpha 0,001 agar lebih
meyakinkan, yang rinciannya sebagai berikut:
--image-Untuk menggunakan
langkah berikut:
1.
2.
3.

3.

1.
2.

tabel

kritis

Chi

Square,

lakukan

Tentukan variabel bebas yang digunakan dalam analisis;


Temukan nilai di atas pada salah satu kolom berbayang;
dan
Baca melintasi kolom untuk menemukan nilai kritis yang
dikehendaki.
Normalitas Residu
Normalitas adalah residu yang seharusnya terdistribusi
normal seputar skor-skor variabel terikat. Residu adalah sisa
atau perbedaan hasil antara nilai data pengamatan variabel
terikat terhadap nilai variabel terikat hasil prediksi. Untuk
melihat apakah residu normal atau tidak, dapat dilakukan
dengan cara berikut:
Melihat grafik Normal P-P Plot, dan
Uji Kolmogorov-Smirnov
Pada grafik Normal P-P Plot, residu yang normal adalah data
memencar mengikuti fungsi distribusi normal yaitu
menyebar seiring garis z diagonal. Residu normal dari uji
Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05.
Linieritas adalah residual yang seharusnya punya hubungan
dalam bentuk straight-line dengan skor variabel terikat
yang diprediksi. Homoskedastisitas adalah varians residual

seputar skor-skor variabel terikat yang diprediksi seharusnya


sama bagi skor-skor yang diprediksi secara keseluruhan.
Multikolinieritas
Uji Regresi mengasumsikan variabel-variabel bebas tidak
memiliki hubungan linier satu sama lain. Sebab, jika terjadi
hubungan linier antarvariabel bebas akan membuat prediksi
atas variabel terikat menjadi bias karena terjadi masalah
hubungan di antara para variabel bebasnya.
4.

Dalam
Regresi
Berganda
dengan
SPSS,
masalah
Multikolinieritas ini ditunjukkan lewat tabel Coefficient, yaitu
pada kolom Tolerance dan kolom VIF (Variance Inflated
Factors). Tolerance adalah indikator seberapa banyak
variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh
variabel bebas lainnya. Tolerance dihitung dengan rumus 1
R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat
kecil (< 0,10), maka itu menandakan korelasi berganda satu
variabel bebas sangat tinggi dengan variabel bebas lainnya
dan mengindikasikan Multikolinieritas. Nilai VIF merupakan
invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF
> 10, maka itu mengindikasikan terjadinya Multikolinieritas.
Hipotesis untuk Multikolinieritas ini adalah:

Autokorelasi
Autokorelasi juga disebut Independent Errors. Regresi
Berganda mengasumsikan residu observasi seharusnya tidak
berkorelasi (atau bebas). Asumsi ini bisa diuji dengan teknik
statistik Durbin-Watson, yang menyelidiki korelasi berlanjut
antar error (kesalahan). Durbin-Watson menguji apakah
residual yang berdekatan saling berkorelasi. Statistik
pengujian bervariasi antara 0 hingga 4 dengan nilai 2
mengindikasikan residu tidak berkorelasi. Nilai > 2
5.

mengindikasikan korelasi negatif antar residu, di mana nilai


< 2 mengindikasikan korelasi positif. >
Cara melakukan uji Durbin-Watson adalah, nilai DurbinWatson hitung harus lebih besar dari batas atas DurbinWatson tabel. Syarat untuk mencari Durbin-Watson tabel
adalah Tabel Durbin-Watson. Untuk mencari nilai DurbinWatson tabel:
1.
2.

tentukan besar n (sampel) dan k (banyaknya variabel


bebas).
Tentukan taraf signifikansi penelitian yaitu 0,05.
Durbin-Watson hitung dapat dicari dengan SPSS. Nilai
Durbin-Watson hitung terdapat dalam output SPSS,
khususnya pada tabel Model Summary. Hipotesis untuk
Autokorelasi ini adalah:

Pengambilan keputusannya adalah:


Dengan kurva normal pengambilan Durbin-Watson:

Terima H0 jika Durbin-Watson hitung lebih besar dari


..... dan Durbin-Watson hitung lebih kecil dari 4
- .....; Artinya tidak ada Autokorelasi.
Tolak H0 jika Durbin-Watson hitung lebih kecil
dari ..... atau 4 - ..... lebih kecil dari .....; Artinya ada
Autokorelasi.

Homoskedastisitas
Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas
bukan Heteroskedastisitas. Homoskedastisitas adalah kondisi
dalam mana varians dari data adalah sama pada seluruh
pengamatan. Terdapat sejumlah uji guna mendeteksi gejala
heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park.
Namun, Wang and Jain beranggapan bahwa Uji Park dapat
lebih teliti dalam memantau gejala heteroskedastisitas ini.
Dengan demikian, penelitian ini akan menggunakan Uji Park
guna
menentukan
gejala
heteroskedastisitas
variabelvariabelnya.
6.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2)


dengan masing-masing variabel independent. The Park test
suggests that if heteroscedasticity is present, the heteroscedastic
varianc e_i^2 may be systematically related to one or more of
the explanatory variables. Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:


1.

Dengan SPSS klik Analyze -->Regression --> Linear --> Masukkan


variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke

Independent(s) --> Klik Save --> Pada Residual klik Unstandardized -->
Continue --> OK
2.
Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru
bernama res_1. Ini merupakan nilai _i^ . Nilai ini harus dikuadratkan
dengan cara (pada SPSS) klik Transform --> Compute --> Isi Target
Variable dengan _i^2 --> Pada operasi hitung kalikan nilai _i^ dengan
_i^ . Pada Variable View SPSS muncul variabel baru bernama _i^2.
3.
Dengan SPSS, tepatnya menu Transform --> Compute lakukan
perubahan nilai _i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural
(Ln) [caranya dengan Klik Ln lalu pindahkan variabel] Ln(_i^2 ) yaitu
regresi unstandardized residual pada Target Variable dinamai Lnei2; X1
yaitu variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2
pada Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target
Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai
Lnx4.
4.
Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3,
dan LnX4.
5.
Lakukan uji regresi kembali secara satu per satu.
6.
Pertama, klik Analyze --> Regression>Linear --> Masukkan variabel
Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s)
--> OK. Sementara hasil belum dihiraukan.
7.
Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2
ke Independent(s) > OK. Sementara hasil belum dihiraukan.
8.
Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3
ke Independent(s) > OK. Sementara hasil belum dihiraukan.
9.
Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2
masih ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4
ke Independent(s) > OK. Sementara hasil belum dihiraukan.
10.
Perhatikan Output SPSS. Pada output, terdapat hasil perhitungan Park
bagi variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan
LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2
dengan LnX4.
11.
Peneliti akan memperbandingkan apa yang tertera di tabel
Coefficients, yaitu nilai t.
12.
Guna memastikan apakah ada gejala heteroskedastisitas, peneliti akan
memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari
pada Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah
sampel dan 4 karena jumlah variabel independen penelitian adalah 4.
Sehingga nilai df = 48 4 = 44. Dalam taraf 0,05 uji yang dilakukan
adalah 2 sisi sehingga singnifikansi pada tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada


taraf 95% (0,025) pada Tabel t diperoleh nilai t tabel penelitian
sebesar ......
Hipotesis yang diajukan mengenai masalah homoskedastisitas ini
sebagai berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap


Terlampau Rumit
Jika uji Park dianggap terlampau rumit, maka pengujian alternatif
dapat ditempuh guna melihat apakah terjadi Homoskedastisitas
atau Heteroskedastisitas.
Caranya dengan melihat grafik persilangan SRESID dengan
ZPRED pada output hasil SPSS. Caranya sebagai berikut:
1.
2.
3.
4.

Klik Analyze --> Regression --> Linear


Klik Plot.
Isikan SRESID pada y-axis dan ZPRED pada x-axis.
Klik Continue. Perhatikan grafik scatterplot. Ingat,
Homoskedastisitas terjadi jika varians dari residual satu
pengamatan ke pengamatan lain tetap atau sama.
Heteroskedastisitas terjadi jika varians dari residual satu
pengamatan ke pengamatan lain tidak sama atau tidak
tetap.

Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang


jelas, serta titik-titik menyebar di atas dan di bawah angka 0
pada sumbu Y. Heteroskedastisitas terjadi jika terdapat titik-titik
memili pola tertentu yang teratur seperti bergelombang, melebar
kemudian menyempit.
Interpretasi Hasil Uji Regresi Berganda
Setelah uji Regresi Berganda selesai dilakukan, peneliti harus
melakukan interpretasi. Rumus Regresi Berganda (standar)
adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal


penting untuk interpretasi adalah apa yang tercantum pada tabeltabel pada output SPSS.
Tabel Descriptives
Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini
terdapat pada kolom Std. Deviation. Nilai ini nanti akan
diperbandingkan dengan nilai Std. Error of the Estimate.
Tabel Model Summary
Tabel ini memberi informasi seberapa baik model analisis kita
secara keseluruhan, yaitu bagaimana 4 variabel bebas mampu
memprediksikan 1 variabel terikat, dengan rincian sebagai
berikut ini:
Kolom Model. Menunjukkan berapa buah model analisis yang kita
bentuk.
Kolom R. Menunjukkan seberapa baik variabel-variabel bebas
memprediksikan hasil (multiple correlation coefficient). Kisaran
nilai R adalah 0 hingga 1. Semakin nilai R mendekati angka 1,
maka semakin kuat variabel-variabel bebas memprediksikan
variabel
terikat.
Namun, ketepatan
nilai
R ini
lebih
disempurnakan oleh kolom Adjusted R Square yang merupakan
koreksi atas nilai R.

Kolom Adjusted R Square. Fungsinya menjelaskan apakah sampel


penelitian mampu mencari jawaban yang dibutuhkan dari
populasinya. Kisaran nilai Adjusted R Square adalah 0 hingga 1.
Pedoman interpretasi atas nilai Adjusted R Square adalah sebagai
berikut:

Kalikan Adjusted R2 dengan 100% maka akan diperoleh berapa


% varians tiap sampel pada variabel terikat bisa diprediksi oleh
variabel-variabel bebas secara bersama-sama (simultan).
Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat
variabel-variabel bebas bisa memprediksi variabel terikat. Nilai
Std. Error of the Estimate diperbandingkan dengan nilai Std.
Deviation (bisa dilihat pada tabel Descriptives). Jika Std. Error of
the Estimate < Std. Deviation, maka Std. Error of the Estimate
baik untuk dijadikan prediktor dalam menentukan variabel
terikat. Jika Std. Error of the Estimate > Std. Deviation, maka
Std. Error of the Estimate tidak baik untuk dijadikan prediktor
dalam mementukan variabel terikat.
Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi
Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi
dengan variabel bebas lainnya. Durbin-Watson ini digunakan
dalam uji asumsi Regresi sebelumnya.
Tabel Coefficients
Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai
yang tertera pada kolom-kolom berikut ini:
Model. Kolom ini menjelaskan berapa banyak model
analisis yang dibuat peneliti. Pada kolom ini juga terdapat
nama-nama variabel bebas yang digunakan dalam
penelitian.
Variabel-variabel
tersebut
diberi
label
Constant yaitu nilai konstanta yang digunakan dalam
persamaan uji Regresi Berganda (a).

Unstandardized Coefficient. Kolom ini terdiri atas b dan


Std. Error. Kolom b menunjukkan Koefisien b, yaitu nilai
yang menjelaskan bahwa Y (variabel terikat) akan
berubah jika X (variabel bebas) diubah 1 unit.
Standardized Coefficients. Pada kolom ini terdapat Beta.
Penjelasan sebelumnya mengenai nilai b punya masalah
karena variabel-variabel kerap diukur menggunakan
skala-skala pengukuran yang berbeda. Akibatnya, kita
tidak bisa menggunakan nilai b guna melihat variabelvariabel bebas mana yang punya pengaruh lebih kuat atas
variabel terikat. Misalnya, jika variabel yang diteliti adalah
jenis kelamin yang punya skala minimal 1 dan maksimal 2
dan pengaruhnya terhadap sikap yang skalanya minimal 1
dan maksimal 6, nilai b diragukan efektivitas prediksinya.
Ini akibat nilai yang diperolehnya rendah atas pengaruh
perbedaan
skala
pengukuran.
Untuk
memastikan
pengaruh inilah maka nilai Beta dijadikan patokan. Nilai
Beta punya kisaran 0 hingga 1, di mana semakin
mendekati
1
maka
semakin
berdampak
besar
signifikansinya.

Sig. Kolom ini menjelaskan tentang signifikansi hubungan


antar variabel bebas dengan variabel terikat. Nilai Sig. ini
sebaiknya adalah di bawah 0,05 (signifikansi penelitian).
Tolerance. Kolom ini menjelaskan banyaknya varians pada
suatu variabel yang tidak bisa dijelaskan oleh variabel
prediktor lainnya. Kisarannya 0 hingga 1, di mana
semakin mendekati 1 maka semakin mengindikasikan
prediktor-prediktor lain tidak bisa menjelaskan varians di
variabel termaksud. Nilai yang semakin mendekati 0
artinya hampir semua varians di dalam variabel bisa
dijelaskan oleh variabel prediktor lain. Nilai Torelance
sebaiknya ada di antara 0,10 hingga 1.
Tabel ANOVA

Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau


signifikansi pada perhitungan ANOVA. Nilai yang tertera
digunakan untuk uji kelayanan Model Analisis [dimana sejumlah

variabel x mempengaruhi variabel y] dengan ketentuan angka


probabilitas yang baik untuk digunakan sebagai model regresi
harus < 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. <
0,05, maka Model Analisis dianggap layak. Jika Sig. > 0,05, maka
Model Analisis dianggap tidak layak.
Pengambilan Keputusan dengan Tabel ANOVA
Dalam Regresi Berganda, hal utama yang hendak dilihat adalah
apakah
serangkaian
variabel
bebas
secara
serentak
mempengaruhi variabel terikat. Dalam output SPSS ini bisa
ditentukan lewat tabel ANOVA.
Pada tabel ANOVA terdapat kolom F. Nilai yang tertera pada
kolom F tersebut disebut sebagai F hitung. F hitung ini
diperbandingkan dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat


ditentukan dengan cara:
1.
2.
3.
4.
5.

Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi jadi


0,025.
Tentukan df1. Df1 diperoleh dari jumlah variabel bebas
Tentukan df2. Df2 diperoleh dari n k 1 = 48 4 1 =
43.
Cari angka 43 dan 4 dalam tabel F untuk signifikansi 0,025.
Dengan Excel, ketikkan rumus =FINV(0,05;4;43)

Selain perbandingan nilai F, penerimaan atau penolakan Hipotesis


juga bisa menggunakan nilai Sig. pada tabel ANOVA.
Peraturannya:

Koefisien Determinasi
Dalam uji Regresi Berganda, Koefisien Determinasi digunakan
untuk mengetahui persentase sumbangan pengaruh serentak
variabel-variabel bebas terhadap variabel terikat. Untuk itu,
digunakan angka-angka yang ada pada Tabel Model Summary.
Cara menentukan Koefisien Determinasi sangatlah mudah.
Peneliti tinggal melihat nilai pada kolom R2 dikalikan 100%.
Misalnya nilai R2 adalah 0,7777. Dengan demikian Koefisien
Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara
serentak variabel-variabel bebas mempengaruhi variabel terikat
sebesar 77,77%. Sisanya, yaitu 100 77,77% = 22,23%
ditentukan oleh variabel-variabel lain yang tidak disertakan di
dalam penelitian.
Koefisien Regresi Parsial
Koefisien Regresi Parsial menunjukkan apakah variabel-variabel
bebas punya pengaruh secara parsial (terpisah atau sendirisendiri) terhadap variabel terikat?
Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji
hipotesis dilakukan dengan menggunakan Uji t. Pernyataan
Hipotesis yang hendak diuji sebagai berikut:

Nilai t hitung bisa dilihat pada kolom t bagi masing-masing


variabel bebas.
Nilai t tabel bisa dicari dengan cara berikut ini:
1.
2.
3.
4.

= 0,05; untuk uji 2 sisi = 0,025


Degree of Freedom (df) = jumlah sampel jumlah variabel
bebas 1 (angka 1 adalah konstanta) = 48 4 1 = 43.
Cari persilangan antara df = 43 dan 0,025.
Pencarian nilai t tabel dengan Excel mudah sekali. Ketik
rumus =tinv(0,05;43).

Anda mungkin juga menyukai