Anda di halaman 1dari 27

UJI REGRESI pada SPSS

Uji regresi berganda banyak sekali dipakai dalam penelitian. Pemakaian baik untuk keperluan skripsi ataupun penelitian sehari-hari. Kelebihan uji regresi adalah kemampuannya

melakukan prediksi. Bagi kalangan guru sekolah atau dosen, uji regresi bisa dipakai untuk memprediksi perilaku siswa, baik dalam hal nilai atau perilaku-perilaku lainnya.

Regresi Berganda Simultan atau Standar adalah kembangan lebih lanjut dari Penelitian Korelasional. Lewat Uji Regresi hendak dilihat bagaimana suatu variabel mempengaruhi variabel lain. Regresi Berganda Simultan atau Standar juga kerap disebut Standard Multiple Regression atau Simultaneous Multiple

Regression).

Dalam uji regresi berganda simultan, seluruh variabel prediktor (bebas) dimasukkan ke dalam perhitungan regresi secara

serentak. Jadi, peneliti bisa menciptakan persamaan regresi guna memprediksi variabel terikat dengan memasukkan, secara serentak, serangkaian variabel bebas. Persamaan regresi

kemudian menghasilkan konstanta dan koefisien regresi bagi masing-masing variabel bebas.

Selain Regresi Berganda Simultan atau Standar, ada pula Regresi Berganda Stepwise dan Regresi Berganda Hirarki. Tulisan ini hanya hendak mendalami Regresi Berganda Simultan atau Standar saja.

Regresi Berganda dengan SPSS Regresi Berganda sangat mudah dilakukan dengan SPSS. Julie Pallant menginstruksikan dilakukannya langkah-langkah berikut ini : Klik Analyze --> Regression --> Linear. Klik variabel terikat --> Pindahkan ke kotak Dependent. 3. Klik variabel bebas --> Pindahkan ke kotak Independent(s). 4. Pada Method, pastikan dipilih Enter (untuk Regresi Berganda Standar). 5. Klik tombol Statistics, lalu lakukan : 6. Ceklis Estimates, Model fit, Descriptives, dan Collinearity diagnostics. 7. Pada bagian Residual, ceklis Casewise diagnostics dan Outliers outside 3 standard deviations. 8. Klik Continue. 9. Klik tombol Options. Pada bagian Missing Values ceklis Exclude cases pairwise. 10. Klik tombol Plots, lakukan : 11. Klik *ZRESID dan tombol panah untuk memindahkannya ke kotak y-axis. 12. Klik *ZPRED dan tombol panah untuk memindahkannya ke kotak x-axis. 13. Klik Next 14. Klik *SRESID dan tombol panah untuk memindahkannya ke kotak y-axis (untuk melihat homoskedastisitas) 15. Klik *ZPRED dan tombol panah untuk memindahkannya ke kotak x-axis (untuk melihat homoskedastisitas) 16. Pada bagian Standardized Residual Plots, ceklis pilihan Normal probability plot. 17. Klik Continue. 18. Klik tombol Save. 19. Pada bagian Predicted Values, ceklis Unstandardized, Standardized, Adjusted 20. Pada bagian Residuals, ceklis Standardized, Deleted, dan Studentized deleted.
1. 2.

Pada bagian Distances, ceklis Mahalanobis, Cooks, dan Leverage values. 22. Pada bagian Influence Statistics, ceklis Standardized dfBeta(s) dan Standardized DiFit 23. Klik Continue. 24. Klik OK.
21.

Asumsi Uji Regresi Berganda (Multiple Regression)

Menurut Julie Pallant dan Andy Field, Uji Regresi Berganda punya sejumlah asumsi yang tidak boleh dilanggar. Asumsi-asumsi Uji Regresi Berganda adalah:

1.

Ukuran Sampel berkenaan Dengan generalisasi ukuran sampel (tidak sampel kecil bisa di anda sini adalah bisa

Masalah

generabilitas. melakukan

tidak

diulang)

dengan

sampel lainnya. Berbeda penulis berbeda berapa sampel yang seharusnya dalam uji Regresi Berganda. Stevens (1996, p.72) merekomendasikan bahwa untuk penelitian ilmu sosial, sekitar 15 sampel per prediktor (variabel bebas) dibutuhkan untuk mengisi persamaan uji regresi. Tabachnick and Fidell (1996, p.132) memberi rumus guna menghitung sampel yang dibutuhkan uji Regresi, berkaitan dengan jumlah variabel bebas yang digunakan:

n > 50 + 8m

Dimana : n = Jumlah Sampel m = Jumlah Variabel Bebas

Jika peneliti menggunakan 5 variabel bebas, maka jumlah sampel yang dibutuhkan adalah 90 orang, dalam mana 50 ditambah ( 5 x 8) = 50 + 40 = 90.

2.

Outlier

Regresi Berganda sangat sensitif terhadap Outlier (skor terlalu tinggi atau terlalu rendah). Pengecekan terhadap skor-skor ekstrim seharusnya dilakukan sebelum melakukan Regresi Berganda. Pengecekan ini dilakukan baik terhadap variabel bebas maupun terikat. Outlier bisa dihapus dari data atau diberikan skor untuk variabel tersebut yang tinggi, tetapi tidak terlampau beda dengan kelompok skor lainnya. Prosedur tambahan guna mendeteksi outlier juga terdapat pada program SPSS file mah_1. Outlier pada variabel terikat dapat diidentifikasi dari Standardised Residual plot yang dapat disetting. Tabachnick and Fidell (1996, p. 139) menentukan outlier adalah nilai-nilai Standardised Residual di atas 3,3 (atau < - 3,3).

Outlier juga bisa dicek menggunakan jarak Mahalanobis yang tidak diproduksi oleh program Regresi Berganda SPSS ini. Ia tidak terdapat dalam output SPSS. Untuk mengidentifikasi sampel mana yang merupakan Outlier, anda perlu menentukan nilai kritis Chi Square, dengan menggunakan jumlah variabel bebas yang digunakan dalam

penelitian sebagai degree of freedom-nya atau derajat kebebasan. Pallant menggunakan Alpha 0,001 agar lebih meyakinkan, yang rinciannya sebagai berikut:

--image--

Untuk

menggunakan

tabel

kritis

Chi

Square,

lakukan

langkah berikut:
1.Tentukan

variabel

bebas

yang

digunakan

dalam

analisis;
2.Temukan

nilai

di

atas

pada

salah

satu

kolom

berbayang; dan
3.

Baca melintasi kolom untuk menemukan nilai kritis

yang dikehendaki.

3.

Normalitas Residu

Normalitas adalah residu yang seharusnya terdistribusi normal seputar skor-skor variabel terikat. Residu adalah sisa atau perbedaan hasil antara nilai data pengamatan variabel terikat terhadap nilai variabel terikat hasil prediksi. Untuk melihat apakah residu normal atau tidak, dapat dilakukan dengan cara berikut:
1. 2.

Melihat grafik Normal P-P Plot, dan Uji Kolmogorov-Smirnov

Pada grafik Normal P-P Plot, residu yang normal adalah data memencar mengikuti fungsi distribusi normal yaitu menyebar seiring garis z diagonal. Residu normal dari uji Kolmogorov-Smirnov adalah diperolehnya nilai p > 0,05. Linieritas adalah residual yang seharusnya punya hubungan dalam bentuk straight-line dengan skor variabel terikat yang diprediksi. Homoskedastisitas adalah varians

residual seputar skor-skor variabel terikat yang diprediksi seharusnya sama bagi skor-skor yang diprediksi secara keseluruhan.

4.

Multikolinieritas

Uji Regresi mengasumsikan variabel-variabel bebas tidak memiliki hubungan linier satu sama lain. Sebab, jika terjadi hubungan linier antarvariabel bebas akan membuat prediksi atas variabel terikat menjadi bias karena terjadi masalah hubungan di antara para variabel bebasnya.

Dalam

Regresi

Berganda

dengan

SPSS,

masalah

Multikolinieritas ini ditunjukkan lewat tabel Coefficient, yaitu pada kolom Tolerance dan kolom VIF (Variance Inflated Factors). Tolerance adalah indikator seberapa banyak

variabilitas sebuah variabel bebas tidak bisa dijelaskan oleh variabel bebas lainnya. Tolerance dihitung dengan rumus 1 R2 untuk setiap variabel bebas. Jika nilai Tolerance sangat kecil (< 0,10), maka itu menandakan korelasi berganda satu variabel bebas sangat tinggi dengan variabel bebas lainnya dan mengindikasikan Multikolinieritas. Nilai VIF merupakan invers dari nilai Tolerance (1 dibagi Tolerance). Jika nilai VIF > 10, maka itu mengindikasikan terjadinya Multikolinieritas.

Hipotesis untuk Multikolinieritas ini adalah:

5.

Autokorelasi juga disebut Independent residu Errors. Regresi

Autokorelasi Berganda

mengasumsikan

observasi

seharusnya

tidak berkorelasi (atau bebas). Asumsi ini bisa diuji dengan teknik statistik Durbin-Watson, yang menyelidiki korelasi berlanjut antar error (kesalahan). Durbin-Watson menguji apakah residual yang berdekatan saling berkorelasi.

Statistik pengujian bervariasi antara 0 hingga 4 dengan nilai 2 mengindikasikan residu tidak berkorelasi. Nilai > 2 mengindikasikan korelasi negatif antar residu, di mana nilai < 2 mengindikasikan korelasi positif. >

Cara melakukan uji Durbin-Watson adalah, nilai DurbinWatson hitung harus lebih besar dari batas atas DurbinWatson tabel. Syarat untuk mencari Durbin-Watson tabel adalah Tabel Durbin-Watson. Untuk mencari nilai DurbinWatson tabel:
1.

tentukan besar n (sampel) dan k (banyaknya

variabel bebas).
2.

Tentukan taraf signifikansi penelitian yaitu 0,05.

Durbin-Watson hitung dapat dicari dengan SPSS. Nilai Durbin-Watson hitung terdapat dalam output SPSS,

khususnya pada tabel Model Summary. Hipotesis untuk Autokorelasi ini adalah:

Pengambilan keputusannya adalah: Dengan kurva normal pengambilan Durbin-Watson:

Terima H0 jika Durbin-Watson hitung lebih besar dari ..... dan Durbin-Watson hitung lebih kecil dari 4 .....; Artinya tidak ada Autokorelasi.

Tolak

H0

jika

Durbin-Watson

hitung

lebih

kecil

dari ..... atau 4 - ..... lebih kecil dari .....; Artinya ada Autokorelasi.

6.

Homoskedastisitas

Uji Regresi bisa dilakukan jika data bersifat Homoskedastisitas bukan Heteroskedastisitas. Homoskedastisitas adalah kondisi dalam mana varians dari data adalah sama pada seluruh pengamatan. Terdapat sejumlah uji guna mendeteksi gejala heteroskedastisitas misalnya uji Goldfeld-Quandt dan Park. Namun, Wang and Jain beranggapan bahwa Uji Park dapat lebih teliti dalam memantau gejala heteroskedastisitas ini. Dengan demikian, penelitian ini akan menggunakan Uji

Park guna menentukan gejala heteroskedastisitas variabelvariabelnya.

Uji Park dilakukan dengan meregresikan nilai residual (Lne2) dengan masing-masing variabel independent. The Park test suggests that if heteroscedasticity is present, the heteroscedastic varianc e_i^2 may be systematically related to one or more of the explanatory variables. Rumus uji Park sebagai berikut:

Cara melakukan Uji Park adalah sebagai berikut:


1.Dengan

SPSS

klik

Analyze

-->Regression

-->

Linear

-->

Masukkan variabel y ke Dependent --> Masukkan variabel x1, x2, x3, x4 ke Independent(s) --> Klik Save --> Pada Residual klik Unstandardized --> Continue --> OK
2.

Pada SPSS klik Data View --> Cek bahwa ada satu variabel baru bernama res_1. Ini merupakan nilai _i^ . Nilai ini harus dikuadratkan dengan cara (pada SPSS) klik Transform --> Compute --> Isi Target Variable dengan _i^2 --> Pada operasi hitung kalikan nilai _i^ dengan _i^ . Pada Variable View SPSS muncul variabel baru bernama _i^2.

3.

Dengan SPSS, tepatnya menu Transform --> Compute lakukan perubahan nilai _i^2, X1, X2, X3, X4 ke dalam bentuk logaritma natural (Ln) [caranya dengan Klik Ln lalu pindahkan variabel] Ln(_i^2 ) yaitu regresi unstandardized residual pada Target Variable dinamai Lnei2; X1 yaitu variabel x1 pada Target Variable dinamai Lnx1; X2 yaitu variabel x2 pada Target Variable dinamai Lnx2; x3 yaitu variabel x3 pada Target Variable dinamai Lnx3; x4 yaitu variabel x4 pada Target Variable dinamai Lnx4.

4.

Setelah diperoleh nilai variabel-variabel baru Lnei2, LnX1, LnX2, LnX3, dan LnX4.

5.

Lakukan uji regresi kembali secara satu per satu. klik Analyze --> Regression>Linear --> Masukkan

6. Pertama,

variabel Lnei2 ke kotak Dependent --> Masukkan variabel LnX1 ke Independent(s) --> OK. Sementara hasil belum dihiraukan.
7.

Kedua, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX1 dan masukkan LnX2 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

8.

Ketiga, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX2 dan masukkan LnX3 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

9.

Keempat, klik Analyze --> Regression --> Linear --> Variabel Lnei2 masih ada di Dependent, biarkan > Keluarkan LnX3 dan masukkan LnX4 ke Independent(s) > OK. Sementara hasil belum dihiraukan.

10. Perhatikan

Output SPSS. Pada output, terdapat hasil perhitungan

Park bagi variabel x1, x2, x3 dan x4, tepatnya adalah hasil uji Lnei2 dengan LnX1, dan uji Lnei2 dengan LnX2, uji Lnei2 dengan LnX3, dan uji Lnei2 dengan LnX4.
11. eneliti P

akan memperbandingkan apa yang tertera di tabel

Coefficients, yaitu nilai t.


12. Guna

memastikan

apakah

ada

gejala

heteroskedastisitas,

peneliti akan memperbandingkan nilai thitung dengan ttabel. Nilai ttabel dapat dicari pada Tabel t, yaitu dengan menentukan df = n - 4 . n adalah jumlah sampel dan 4 karena jumlah variabel independen penelitian adalah 4. Sehingga nilai df = 48 4 = 44. Dalam taraf 0,05 uji yang dilakukan adalah 2 sisi sehingga singnifikansi pada tabel adalah 0,025.

Dengan mempertemukan nilai 46 dan 0,025 dan uji 2 sisi pada taraf 95% (0,025) pada Tabel t diperoleh nilai t tabel penelitian sebesar ...... Hipotesis yang diajukan mengenai masalah homoskedastisitas ini sebagai berikut:

Alternatif Uji Homoskedastisitas Jika Uji Park dianggap Terlampau Rumit

Jika uji Park dianggap terlampau rumit, maka pengujian alternatif dapat ditempuh guna melihat apakah terjadi Homoskedastisitas atau Heteroskedastisitas.

Caranya dengan melihat grafik persilangan SRESID dengan ZPRED pada output hasil SPSS. Caranya sebagai berikut:
1. 2. 3. 4.

Klik Analyze --> Regression --> Linear Klik Plot. Isikan SRESID pada y-axis dan ZPRED pada x-axis. Klik Continue. Perhatikan grafik scatterplot. Ingat, Homoskedastisitas terjadi jika varians dari residual satu pengamatan ke pengamatan lain tetap atau sama. Heteroskedastisitas terjadi jika varians dari residual satu pengamatan ke pengamatan lain tidak sama atau tidak tetap.

Homoskedastisitas terjadi jika tidak terdapat pola tertentu yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y. Heteroskedastisitas terjadi jika terdapat titik-titik memili pola tertentu yang teratur seperti bergelombang, melebar kemudian menyempit.

Interpretasi Hasil Uji Regresi Berganda

Setelah uji Regresi Berganda selesai dilakukan, peneliti harus melakukan interpretasi. Rumus Regresi Berganda (standar)

adalah sebagai berikut:

Setelah pengujian Regresi Berganda dengan SPSS selesai, hal-hal penting untuk interpretasi adalah apa yang tercantum pada tabeltabel pada output SPSS.

Tabel Descriptives

Pada tabel Descriptive dapat dilihat nilai Standar Deviasi. Nilai ini terdapat pada kolom Std. Deviation. Nilai ini nanti akan diperbandingkan dengan nilai Std. Error of the Estimate.

Tabel Model Summary

Tabel ini memberi informasi seberapa baik model analisis kita secara keseluruhan, yaitu bagaimana 4 variabel bebas mampu memprediksikan 1 variabel terikat, dengan rincian sebagai berikut ini:

Kolom Model. Menunjukkan berapa buah model analisis yang kita bentuk.

Kolom

R.

Menunjukkan

seberapa

baik

variabel-variabel

bebas memprediksikan hasil (multiple correlation coefficient). Kisaran nilai R adalah 0 hingga 1. Semakin nilai R mendekati angka 1, maka semakin kuat variabel-variabel bebas

memprediksikan variabel terikat. Namun, ketepatan nilai R ini lebih disempurnakan oleh kolom Adjusted R Square yang merupakan koreksi atas nilai R.

Kolom

Adjusted

Square.

Fungsinya

menjelaskan

apakah

sampel penelitian mampu mencari jawaban yang dibutuhkan dari populasinya. Kisaran nilai Adjusted R Square adalah 0 hingga 1. Pedoman interpretasi atas nilai Adjusted R Square adalah sebagai berikut:

Kalikan

Adjusted

R2

dengan

100%

maka

akan

diperoleh

berapa % varians tiap sampel pada variabel terikat bisa diprediksi oleh variabel-variabel bebas secara bersama-sama (simultan).

Std. Error of the Estimate. Kolom ini menjelaskan seberapa kuat variabel-variabel bebas bisa memprediksi variabel terikat. Nilai Std. Error of the Estimate diperbandingkan dengan nilai Std. Deviation (bisa dilihat pada tabel Descriptives). Jika Std. Error of the Estimate < Std. Deviation, maka Std. Error of the Estimate baik untuk dijadikan prediktor dalam menentukan variabel terikat. Jika Std. Error of the Estimate > Std. Deviation, maka Std. Error of the Estimate tidak baik untuk dijadikan prediktor dalam mementukan variabel terikat.

Durbin-Watson. Kolom ini digunakan untuk mengecek uji asumsi Autokorelasi. Bagaimana variabel bebas yang satu berkorelasi dengan variabel bebas lainnya. Durbin-Watson ini digunakan dalam uji asumsi Regresi sebelumnya.

Tabel Coefficients

Pada tabel Coefficient, mohon perhatikan lalu jelaskan nilai-nilai yang tertera pada kolom-kolom berikut ini:

Model. Kolom ini menjelaskan berapa banyak model analisis yang dibuat peneliti. Pada kolom ini juga terdapat namanama variabel bebas yang digunakan dalam penelitian. Variabel-variabel tersebut diberi label Constant yaitu nilai konstanta yang digunakan dalam persamaan uji Regresi Berganda (a).

Unstandardized Coefficient. Kolom ini terdiri atas b dan Std. Error. Kolom b menunjukkan Koefisien b, yaitu nilai yang menjelaskan bahwa Y (variabel terikat) akan berubah jika X (variabel bebas) diubah 1 unit.

Standardized Coefficients. Pada kolom ini terdapat Beta. Penjelasan sebelumnya mengenai nilai b punya masalah karena variabel-variabel kerap diukur menggunakan skalaskala pengukuran yang berbeda. Akibatnya, kita tidak bisa menggunakan nilai b guna melihat variabel-variabel bebas mana yang punya pengaruh lebih kuat atas variabel terikat. Misalnya, jika variabel yang diteliti adalah jenis kelamin yang punya skala minimal 1 dan maksimal 2 dan pengaruhnya terhadap sikap yang skalanya minimal 1 dan maksimal 6, nilai b diragukan efektivitas prediksinya. Ini akibat nilai yang diperolehnya rendah atas pengaruh

perbedaan skala pengukuran. Untuk memastikan pengaruh inilah maka nilai Beta dijadikan patokan. Nilai Beta punya kisaran 0 hingga 1, di mana semakin mendekati 1 maka semakin berdampak besar signifikansinya.

Sig. Kolom ini menjelaskan tentang signifikansi hubungan antar variabel bebas dengan variabel terikat. Nilai Sig. ini sebaiknya adalah di bawah 0,05 (signifikansi penelitian).

Tolerance. Kolom ini menjelaskan banyaknya varians pada suatu variabel yang tidak bisa dijelaskan oleh variabel prediktor lainnya. Kisarannya 0 hingga 1, di mana semakin mendekati 1 maka semakin mengindikasikan prediktorprediktor lain tidak bisa menjelaskan varians di variabel termaksud. Nilai yang semakin mendekati 0 artinya hampir semua varians di dalam variabel bisa dijelaskan oleh variabel prediktor lain. Nilai Torelance sebaiknya ada di antara 0,10 hingga 1.

Tabel ANOVA

Sig. Tabel ANOVA menunjukkan besarnya angka probabilitas atau signifikansi pada perhitungan ANOVA. Nilai yang tertera digunakan untuk uji kelayanan Model Analisis [dimana sejumlah variabel x mempengaruhi variabel y] dengan ketentuan angka probabilitas yang baik untuk digunakan sebagai model regresi harus < 0,05. Nilai ini bisa dilihat pada kolom Sig. Jika Sig. < 0,05, maka Model Analisis dianggap layak. Jika Sig. > 0,05, maka Model Analisis dianggap tidak layak.

Pengambilan Keputusan dengan Tabel ANOVA

Dalam

Regresi

Berganda,

hal

utama

yang

hendak

dilihat

adalah apakah serangkaian variabel bebas secara serentak mempengaruhi variabel terikat. Dalam output SPSS ini bisa ditentukan lewat tabel ANOVA. Pada tabel ANOVA terdapat kolom F. Nilai yang tertera

pada kolom F tersebut disebut sebagai F hitung. F hitung ini diperbandingkan dengan F tabel. Peraturannya:

Persoalannya, bagaimana menentukan F tabel? F tabel dapat ditentukan dengan cara:

1.

Tentukan signifikansi penelitian yaitu 0,05 (uji 2 sisi

jadi 0,025.
2. 3.

Tentukan df1. Df1 diperoleh dari jumlah variabel bebas Tentukan df2. Df2 diperoleh dari n k 1 = 48 4 1

= 43.
4.

Cari angka 43 dan 4 dalam tabel F untuk signifikansi

0,025.
5.

Dengan Excel, ketikkan rumus =FINV(0,05;4;43)

Selain

perbandingan

nilai

F,

penerimaan

atau

penolakan

Hipotesis juga bisa menggunakan nilai Sig. pada tabel ANOVA. Peraturannya:

Koefisien Determinasi Dalam uji Regresi Berganda, Koefisien Determinasi digunakan untuk mengetahui persentase sumbangan pengaruh serentak variabel-variabel bebas terhadap variabel terikat. Untuk itu,

digunakan angka-angka yang ada pada Tabel Model Summary. Cara menentukan Koefisien Determinasi sangatlah mudah.

Peneliti tinggal melihat nilai pada kolom R2 dikalikan 100%. Misalnya nilai R2 adalah 0,7777. Dengan demikian Koefisien Determinasinya = 0,7777 x 100% = 77,77%. Jadi, secara serentak variabel-variabel bebas mempengaruhi variabel terikat sebesar 77,77%. Sisanya, yaitu 100 77,77% = 22,23% ditentukan oleh variabel-variabel lain yang tidak disertakan di dalam penelitian.

Koefisien Regresi Parsial

Koefisien Regresi Parsial menunjukkan apakah variabel-variabel bebas punya pengaruh secara parsial (terpisah atau sendirisendiri) terhadap variabel terikat?

Pada Tabel Coefficient, pengujian Hipotesis akan dilakukan. Uji hipotesis dilakukan dengan menggunakan Uji t. Pernyataan Hipotesis yang hendak diuji sebagai berikut:

Nilai t hitung bisa dilihat pada kolom t bagi masing-masing variabel bebas.

Nilai t tabel bisa dicari dengan cara berikut ini:

1. 2.

= 0,05; untuk uji 2 sisi = 0,025 Degree of Freedom (df) = jumlah sampel jumlah

variabel bebas 1 (angka 1 adalah konstanta) = 48 4 1 = 43.


3. 4.

Cari persilangan antara df = 43 dan 0,025. Pencarian nilai t tabel dengan Excel mudah sekali. Ketik

rumus =tinv(0,05;43).