Anda di halaman 1dari 28

TUTORIAL SPSS BY HERRY GONDEZT

Uji Frekuensi Terdapat dua jenis statistik yang digunakan ketika penelitian, yaitu: statistik deskriptif (descriptive statistics) dan statistik inferensi (inferential statistics). Statistik deskriptif hanya menggambarkan data atau seperti apa data ditunjukkan, sementara statistik inferensi mencoba untuk mencapai kesimpulan (bersifat induktif) dari data dengan kondisi yang lebih umum (Trochim, 2006), misal: point estimation, confidence interval estimation, hypothesis testing. Statistik deskriptif adalah metode-metode yang berkaitan dengan pengumpulan dan penyajian suatu gugus data sehingga menaksir kualitas data berupa jenis variabel, ringkasan statistik (mean, median, modus, standar deviasi, etc), distribusi, dan representasi bergambar (grafik), tanpa rumus probabilistik apapun (Walpole, 1993; Correa-Prisant, 2000; Dodge, 2006). Pada SPSS, analisis statistik deskriptif dilakukan dengan meng-klik menu Klik [Analyze] -> [Descriptive Statistics], kemudian terdapat pilihan: Frequencies, Descriptives, Explore, Crosstabs, dan Ratio. Dalam penelitian-penelitian, perintah-perintah ini sering diabaikan karena memang dalam beberapa fungsi analisis lain sudah otomatis tercantum analisis deskriptifnya. Contoh : Ada sebuah data sebagai berikut:

Perintah Frequencies digunakan untuk memperoleh jumlah pada nilai-nilai sebuah variabel tunggal. Langkah-langkahnya adalah sebagai berikut:

Klik menu [Analyze] -> [Descriptive Statistics] -> [Frequencies]. Muncul dialog box Frequencies. Klik Jenis Kelamin [Gender] > klik , (untuk memasukkan variabel Jenis Kelamin ke form Variables(s). Kita akan menganalisis variabel Jenis Kelamin.

Jangan lupa centang Display frequency tables.

Terus klik statistics akan tampil menu sebagai berikut:

Klik mean atau pilihan yang lain,,,,,,,disesuaikan dengan kebutuhan atau apa yang akan ditampilkan.

Setelah itu klik countin countinue, maka akan tampil output sebagai berikut:

a) Sebelah kiri adalah Outline view dalam bentuk tree files, fungsinya sebagai navigasi dalam melihat outputanalisis. b) Sebelah kanan adalah Display output, fungsinya menampilkan seluruh hasil analisis yang telah kita lakukan.

Pada Gambar di atas terlihat hasil analisis SPSS, di mana pada tabel pertama N Valid = 10 yang menunjukkan jumlah responden 10 orang dan N Missing = 0 yang berarti tidak ada data yang hilang (missing). Pada tabel yang kedua terlihat hasil analisis Frequencies terhadap variabel Jenis Kelamin, di mana jumlah responden laki-laki 8 orang (80%) dan responden perempuan ada 2 orang (20%).

Uji Validitas Uji Validitas Item atau butir dapat dilakukan dengan menggunakan software SPSS.[1] Untuk proses ini, akan digunakan Uji Korelasi Pearson Product Moment. Dalam uji ini, setiap item akan diuji relasinya dengan skor total variabel yang dimaksud. Dalam hal ini masing-masing item yang ada di dalam variabel X dan Y akan diuji relasinya dengan skor total variabel tersebut. Agar penelitian ini lebih teliti, sebuah item sebaiknya memiliki korelasi (r) dengan skor total masingmasing variabel 0,3 atau signifikansinya < 0,05. Item yang punya r hitung < 0,3 signifikansinya > 0,05 akan disingkirkan. Contoh : Ada sebuah data sebagai berikut:

Tampilan SPSS Langkah-langkah dalam Uji Validitas Analyze >> Correlate >> Bivariate Pindahkan p1 sampai p10 dan total pada "kolom variables

SPSS : Bivariated Correlation Pilih akan Keluar Jendela "Output" OK

SPSS : Jendela Output Correlation

Perhatikan paling bawah pada Total *Lihat Sig. (2-Tailed) *Nilai Sig. (2-Tailed) harus < 0,005 : dikatakan valid *Jika > 0,005 : tidak valid

SPSS : Jendela Output Correlation Perhatikan peritem dari p1-p10

SPSS : Jendela Output Correlation Perhatikan : dikatakan valid jika < 0,05 pada *p1 = 0,987 : tidak valid *p2 = 0,573 : tidak valid *p3 = 0,082 : tidak valid *p4 = 0,278 : tidak valid *p5 = 0,182 : tidak valid *p6 = 0,020 : valid *p7 = 0,142 : tidak valid *p8 = 0,496 : tidak valid *p9 = 0,265 : tidak valid *p10 = 0,165 : tidak valid Sehingga kuisioner qt pada pertanyaan p1,p2,p3,p4,p5,p7,p8,p9,p10 harus di ganti

Uji Reliabilitas Uji Reliabilitas dilakukan dengan uji Alpha Cronbach. Rumus Alpha Cronbach sebagai berikut:

Note:

Jika nilai alpha > 0,6 artinya reliabilitas mencukupi (sufficient reliability) sementara jika alpha > 0,70 ini mensugestikan seluruh item reliabel dan seluruh tes secara konsisten secara internal karena memiliki reliabilitas yang kuat

Contoh : Ada sebuah data sebagai berikut:

Tampilan SPSS

Langkah-langkah dalam Uji Reliabilitas Analyze >> Scale >> Reliability Analysis *pindahkan p1-p10 kecuali total ke kolom "item"

SPSS : Reliability Analysis *Pilih Statistics >> muncul tampilan seperti dibawah >> beri tanda pada item, scale, scale if deleted dan correlation

SPSS : Reliabilility Analysis Pilih Continue >> OK Akan muncul Jendela "output"

Menilai Validitas

Lihat pada tabel "Item-Total Statistics"

Perhatikan : *Nilai Corrected Item-Total Correlation harus > 0,3 : valid Pada : p1 = tidak valid p2 = tidak valid p3 = tidak valid p4 = tidak valid p5 = tidak valid p6 = valid p7 = tidak valid p8 = tidak valid p9 = tidak valid p10 = tidak valid Hasil sama seperti yangmenggunakan Cara 1 Sehingga kuisioner qt pada pertanyaan p1,p2,p3,p4,p5,p7,p8,p9,p10 harus di ganti

Menilai Reliabilitas Lihat pada tabel "Reliability Statistics"

Perhatikan : *Nilai Cronbach's Alpha harus > 0,8 atau mendekati 1 =: Reliabel Pada gambar d atas : -1,189 = tidak reliabel

Uji Asumsi Klasik Persyaratan untuk bisa menggunakan persamaan regresi berganda adalah terpenuhinya asumsi klasik. Untuk mendapatkan nilai pemeriksa yang efisien dan tidak bias atau BLUE (Best Linear Unbias Estimator) dari satu persamaan regresi berganda dengan metode kuadrat terkecil (least square), maka perlu dilakukan pengujian untuk mengetahui model regresi yang dihasilkan memenuhi persyaratan asumsi klasik. Disini uji yang akan saya kemukakan adalah uji yang umum, yaitu Uji Normalitas, Uji Multikolinieritas, Uji Heteroskedastisitas serta Uji Autokorelasi. Disini saya pakai SPSS 13, kalo ada yang beda silakan menyesuaikan aja ya Supaya mempermudah saya berikan sebuah contoh: Saya akan menghitung pengaruh Leverage, Current ratio (CR), ROA dan ROE terhadap Risiko Sistematis (beta) yang sudah saya rekap sebagai berikut:

(kalo kurang jelas bisa di download dulu gambar di atas ini) Pertama-tama yang harus dilakukan adalah masuk ke program SPSS. Kemudian masukkan semua angkanya pada "data view". Sebagai contoh saya yang tadi saya memasukkannya seperti pada gambar berikut:

Kemudian klik pada "variable view". Pada "Name" masukkan nama variable, pada "Decimals" bisa di ubah sesuai dengan keinginan. disini saya memakai 3 desimal maka semua saya ubah menjadi 3. Sedangkan kolom yang lain abaikan saja. Untuk lebih jelasnya bisa dilihat pada gambar berikut sesuai dengan contoh saya tadi:

Setelah semua sudah diisi, dan datanya pastikan sudah benar (untuk mencek kebenarannya klik lagi pada Data View maka pada var akan berubah namanya sesuai dengan data variabel kita). hati-hati jangan sampai terbalik memasukkan angka. Analisis dimulai. Klik analize>regression>linear

Akan muncul jendela "Linear Regression". Masukkan variabel sesuai dengan data anda. Kalo pada contoh saya saya memasukkan Beta menjadi variabel tetap (dependent), sedangkan leverage, current ratio, ROA dan ROE variabel bebas (independen). Klik tanda berbentuk seperti "panah" untuk memasukkannya ke dalam kolom data. Contohnya sebagai berikut:

Kemudian klik pada statistics (masih dalam jendela Linear Reggresion). Sehingga akan muncul jendela "Linear Regressions: Statistics". Pada Regression Coefficients centang pada "Estimates", Covariance matrik", "Model Fit", "R

squared change", "Collinearity diagnostics". Dan pada residuals klik "DurbinWatson". Setelah semua dicentang klik "Continue". Supaya jelas lihat contoh saya sebagai berikut:

Akan muncul lagi jedela "Linear Regression" yang awal. Klik pada "Plots" sehingga muncul jendela "Linnear Regression:Plots". Masukkan *ZPRED pada Y, dan *SRESID pada X. Caranya dengan mengklik *zpred atau *sresid kemudian klik tanda yang mirip bentuk panah pada tempatnya masing-masing. Kemudian pada Standardized Residual Plots centang pada "Histogram" dan "Normal Probability Plot". Setelah selesai klik Continue. Seperti contoh saya berikut ini:

Kembali ke jendela "Linear regression". Klik "OK" untuk segera memproses data. Dan akan muncul jendela baru. Data yang tertera disitulah yang akan menjadi dasar analisis kita.

1. Uji Normalitas Uji normalitas adalah pengujian tentang kenormalan distribusi data. Penggunaan uji normalitas karena pada analisis statistik parametik, asumsi yang harus dimiliki oleh data adalah bahwa data tersebut harus terdistribusi secara normal. Maksud data terdistribusi secara normal adalah bahwa data akan mengikuti bentuk distribusi normal (Santosa&Ashari, 2005:231). Uji normalitas bisa dilakukan dengan dua cara. Yaitu dengan "Normal P-P Plot" dan "Tabel Kolmogorov Smirnov". Yang paling umum digunakan adalah Normal P-P Plot. Pada Normal P-P Plot prinsipnya normalitas dapat dideteksi dengan melihat penyebaran data (titik) pada sumbu diagonal grafik atau dengan melihat histogram dari residualnya. Dasar pengambilan keputusan: a. Jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi normalitas. b. Jika data menyebar jauh garis diagonal dan/atau tidak mengikuti arah garis diagonal atau grafik histogram tidak menunjukkan pola distribusi normal, maka model regresi tidak memenuhi asumsi normalitas (Ghozali 2007:110-112). Untuk menganalisis dengan SPSS kita lihat hasil output kita tadi pada gambar "Normal P-P Plot of Regression Standardized Residual". seperti contoh saya yang sebagai berikut:

Dari analisis kurva dapat dilihat bahwa data menyebar di sekitar diagram dan mengikuti model regresi sehingga dapat disimpulkan bahwa data yang diolah merupakan data yang berdistribusi normal sehingga uji normalitas terpenuhi. Namun bila para pembaca kepingin cara Kolmogorov-Smirnov juga bisa. data dianalisis tidak menggunakan gambar namun dengan angka. Kelebihannya hasilnya memang lebih akurat. Caranya yaitu untuk memasukkan data sama saja. namun tidak menggunakan jendela "Linear Regression". Caranya masuk ke menu awal. klik pada Analize>Nonparametic test>1-Sample K-S.

Akan muncul jendela "One-Sample Kolmogorov-Smirnov Test". Masukka semua variabel dengan menklik variabel kemudian klik tanda panah untuk memasukkannya pada kolom yang di sebelah.

Setelah selesai dimasukkan semua, klik OK. Dan akan muncul jendela OneSample Kolmogorov-Smirnov Test seperti pada gambar contoh saya ini:

untuk menganalisisnya, kita lihat pada baris "Asymp. Sig. (2-tailed)" baris paling bawah. bila nilai tiap variabel lebih dari (>0,05) maka uji normalitas bisa terpenuhi. Pada contoh saya yang ini nilainya ada yang kurang dari 0,05 sehingga agar terlihat terpenuhi saya lebih baik menggunakan metode P-P Plot yang berupa gambar. hehehee... 2. Uji Multikolinieritas Uji ini bertujuan untuk menguji apakah model regresi ditemukan adanya korelasi antar variabel bebas (independen). Model regresi yang baik seharusnya tidak terjadi korelasi di antara variabel independen. Jika variabel independen saling berkorelasi, maka variabel-variabel ini tidak ortogonal (Ghozali 2007:91). Untuk mendeteksi adanya multikolinearitas, dapat dilihat dari Value Inflation Factor (VIF). Apabila nilai VIF > 10, terjadi multikolinieritas. Sebaliknya, jika VIF < 10, tidak terjadi multikolinearitas (Wijaya, 2009:119). Untuk analisisnya dengan SPSS kita lihat hasil output pada tabel "Coefficients". seperti pada contoh saya berikut:

Dari hasil output data didapatkan bahwa nilai semua nilai VIF<10 ini berarti tidak terjadi multikolonieritas. Dan menyimpulkan bahwa uji multikolonieritas terpenuhi. 3. Uji Heteroskedastisitas Pengujian ini digunakan untuk melihat apakah variabel pengganggu mempunyai varian yang sama atau tidak. Heteroskedastisitas mempunyai suatu keadaan bahwa varian dari residual suatu pengamatan ke pengamatan yang lain berbeda. Salah satu metode yang digunakan untuk menguji ada tidaknya Heterokedastisitas akan mengakibatkan penaksiran koefisien-koefisien regresi menjadi tidak efisien. Hasil penaksiran akan menjadi kurang dari semestinya. Heterokedastisitas bertentangan dengan salah satu asumsi dasar regresi linear, yaitu bahwa variasi residual sama untuk semua pengamatan atau disebut homokedastisitas (Gujarati dalam Elmasari, 2010:53) Untuk mendeteksi ada atau tidaknya heteroskedastisitas yaitu dengan melihat grafik Plot antara nilai prediksi variabel terikat (dependen) yaitu ZPRED dengan residualnya SRESID. Deteksi ada atau tidaknya heteroskedastisitas dapat dilakukan dengan melihat ada tidaknya pola tertentu pada grafik scatterplot antara SRESID dan ZPRED dimana sumbu Y adalah Y yang telah diprediksi, dan sumbu X adalah residual (Y prediksi Y sesuungguhnya) yang telah di-studentized. Dasar analisisnya adalah sebagai berikut: a. Jika ada pola tertentu, seperti titik-titik yang ada membentuk pola tertentu yang teratur (bergelombang, melebar kemudian menyempit), maka mengindikasikan telah terjadi heteroskedastisitas. b. Jika ada pola yang jelas, serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y, maka tidak terjadi heteroskedastisitas. untuk menganalisis datanya kita lihat pada gambar "Scatterplot" pada output data. Seperti contoh saya di bawah ini:

Dari gambar diatas dapat diketahui bahwa tidak terjadi heteroskedastisitas sebab tidak ada pola yang jelas serta titik-titik menyebar di atas dan di bawah angka 0 pada sumbu Y. sehingga dapat dikatakan uji heteroskedastisitas terpenuhi. 4. Uji Autokorelasi Uji autokorelasi merupakan pengujian asumsi dalam regresi dimana variabel dependen tidak berkorelasi dengan dirinya sendiri. Maksud korelasi dengan diri sendiri adalah bahwa nilai dari variabel dependen tidak berhubungan dengan nilai variabel itu sendiri, baik nilai variabel sebelumnya atau nilai periode sesudahnya (Santosa&Ashari, 2005:240). Dasar pengambilan keputusannya adalah sebagai berikut: - Angka D-W di bawah -2 berarti ada autokorelasi positif - Angka D-W diantara -2 sampai +2 berarti tidak ada autokorelasi - Angka D-W di atas +2 berarti ada autokorelasi negatif untuk menganalisisnya menggunakan output SPSS tadi kita lihat pada tabel "Model Summary". seperti contoh saya berikut ini:

Dari tabel diatas didapatkan nilai Durbin-Watson (DW hitung) sebesar 2,038 atau 2. Berdasarkan kriteria yang telah ditentukan DW hitung berada diantara DU dan 4-DU, yakni 1,876 2 2,124 maka ini berarti tidak terjadi autokorelasi. Sehingga kesimpulannya adalah Uji Autokorelasi terpenuhi.

Uji Regresi Linier Berganda Analisis regresi linier berganda ini digunakan untuk mengetahui ada tidaknya pengaruh dari variabel bebas terhadap variabel terikat. Disini saya akan memberikan contoh seperti artikel saya sebelumnya, lihat artikelnya disini. Sehingga yang saya cari adalah pengaruh variabel bebas ( independen variable) yaitu Leverage (X1), CR (X2), Return On Asset (X3) dan Return On Equity (X4) terhadap variabel terikat (dependen variable) yaitu Beta (Y). Dan persamaan regresinya dapat dirumuskan sebagai berikut (Suharyadi dan Purwanto, 2004:509):

Dimana: Y a b1,b2,b3,b4 X1 X2 X3 X4 e

= Beta () = Konstanta = Koefisien determinasi = Leverage = CR = Return On Asset (ROA) = Return On Equity (ROE) = Error

Untuk membaca dari hasil SPSS terhadap persamaan regresinya adalah dengan melihat output spss pada tabel Coefficients (yang belum tau caranya bisa dilihat langkahnya dengan klik disini). Untuk lebih jelasnya bisa lihat pada contoh saya yang sebelumnya dan gambar di bawah ini:

Berdasarkan tabel diatas dapat diperoleh rumus regresi sebagai berikut: Y = (-0,094) + 2,934 X1 - 0,071 X2 - 0,043 X3 0,003 X4 + e Interpretasi dari regresi diatas adalah sebagai berikut: 1. Konstanta (a) Ini berarti jika semua variabel bebas memiliki nilai nol (0) maka nilai variabel terikat (Beta) sebesar -0,094. Leverage (X1) terhadap beta (Y) Nilai koefisien Leverage untuk variabel X1 sebesar 2,839. Hal ini mengandung arti bahwa setiap kenaikan Leverage satu satuan maka variabel Beta (Y) akan naik sebesar 2,839 dengan asumsi bahwa variabel bebas yang lain dari model regresi adalah tetap. CR (X2) terhadap beta (Y) Nilai koefisien Current Ratio untuk variabel X 2 sebesar 0,071 dan bertanda negatif, ini menunjukkan bahwa Current Ratio mempunyai hubungan yang berlawanan arah dengan Risiko Sistematis. Hal ini mengandung arti bahwa setiap kenaikan Current Ratio satu satuan maka variabel Beta (Y) akan turun sebesar 0,071 dengan asumsi bahwa variabel bebas yang lain dari model regresi adalah tetap. ROA (X3) terhadap Beta (Y) Nilai koefisien ROA terstandarisasi untuk variabel X3 sebesar 0,043 dan bertanda negatif, ini menunjukkan bahwa ROA mempunyai hubungan yang berlawanan arah dengan Risiko Sistematis. Hal ini mengandung arti bahwa setiap kenaikan ROA satu satuan maka variabel Beta (Y) akan turun sebesar 0,043 dengan asumsi bahwa variabel bebas yang lain dari model regresi adalah tetap. ROE (X4) terhadap Beta (Y) Nilai koefisien ROE untuk variabel X4 sebesar 0,003 dan bertanda negatif, ini menunjukkan bahwa ROE mempunyai hubungan yang berlawanan arah dengan Risiko Sistematis. Hal ini mengandung arti bahwa setiap kenaikan ROE satu satuan maka variabel Beta (Y) akan turun sebesar 0,003 dengan asumsi bahwa variabel bebas yang lain dari model regresi adalah tetap.

2.

3.

4.

5.

Uji t Uji t digunakan untuk mengetahui apakah variabel-variabel independen secara parsial berpengaruh nyata atau tidak terhadap variabel dependen. Derajat signifikansi yang digunakan adalah 0,05. Apabila nilai signifikan lebih kecil dari derajat kepercayaan maka kita menerima hipotesis alternatif, yang menyatakan bahwa suatu variabel independen secara parsial mempengaruhi variabel dependen. Analisis uji t juga dilihat dari tabel Coefficient. Contoh dari artikel saya sebelumnya:

Cara bacanya: 1. Leverage (X1) terhadap Beta (Y) Terlihat pada kolom Coefficients model 1 terdapat nilai sig 0,002. Nilai sig lebih kecil dari nilai probabilitas 0,05, atau nilai 0,002<0,05, maka H 1 diterima dan Ho ditolak. Variabel X1 mempunyai thitung yakni 3,317 dengan ttabel=2,021. Jadi thitung>ttabel dapat disimpulkan bahwa variabel X1 memiliki kontribusi terhadap Y. Nilai t positif menunjukkan bahwa variabel X1 mempunyai hubungan yang searah dengan Y. Jadi dapat disimpulkan leverage memiliki pengaruh signifikan terhadap Beta. Current Ratio (X2) terhadap beta (Y) Terlihat pada kolom Coefficients model 1 terdapat nilai sig 0,039. Nilai sig lebih kecil dari nilai probabilitas 0,05, atau nilai 0,039<0,05, maka H 1 diterima dan Ho ditolak. Variabel X2 mempunyai thitung yakni 2,134 dengan ttabel=2,021. Jadi thitung>ttabel dapat disimpulkan bahwa variabel X2 memiliki kontribusi terhadap Y. Nilai t negatif menunjukkan bahwa X2 mempunyai hubungan yang berlawanan arah dengan Y. Jadi dapat disimpulkan CR memiliki pengaruh signifikan terhadap beta.

2.

3.

ROA (X3) terhadap Beta (Y) Terlihat nilai sig untuk ROA adalah 0,100. Nilai sig lebih besar dari nilai probabilitas 0,05, atau nilai 0,100>0,05, maka H 1 ditolak dan Ho diterima. Variabel X3 mempunyai thitung yakni 1,683 dengan ttabel=2,021. Jadi thitung<ttabel dapat disimpulkan bahwa variabel X3 tidak memiliki kontribusi terhadap Y. Nilai t negatif menunjukkan bahwa X3 mempunyai hubungan yang berlawanan arah dengan Y. Jadi dapat disimpulkan ROA tidak berpengaruh signifikan terhadap risiko Beta ROE (X4) terhadap Terlihat nilai sig pada ROE adalah 0,726. Nilai sig lebih besar dari nilai probabilitas 0,05, atau nilai 0,726>0,05, maka H 1 ditolak dan Ho diterima. Variabel X4 mempunyai thitung yakni 0,353 dengan ttabel=2,021. Jadi thitung<ttabel dapat disimpulkan bahwa variabel X4 tidak memiliki kontribusi terhadap Y. Nilai t negatif menunjukkan bahwa ROE mempunyai hubungan yang berlawanan arah dengan Beta. Jadi dapat disimpulkan ROE tidak berpengaruh signifikan terhadap risiko Beta.

. 4.

Sehingga ringkasan hasil pengujian hipotesis adalah sbb:

Uji F Uji F digunakan untuk mengetahui apakah variabel-variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen. Derajat kepercayaan yang digunakan adalah 0,05. Apabila nilai F hasil perhitungan lebih besar daripada nilai F menurut tabel maka hipotesis alternatif, yang menyatakan bahwa semua variabel independen secara simultan berpengaruh signifikan terhadap variabel dependen. Untuk analisisnya dari output SPSS dapat dilihat dari tabel Anova, seperti contoh saya:

Cara bacanya: Pengujian secar simultan X1, X2, X3 dan X4 terhadap Y: Dari tabel diperoleh nilai Fhitung sebesar 5,889 dengan nilai probabilitas (sig)=0,001. Nilai Fhitung (5,889)>Ftabel (2,61), dan nilai sig. lebih kecil dari nilai probabilitas 0,05 atau nilai 0,001<0,05; maka H01 diterima, berarti secara bersama-sama (simultan) Leverage, CR, ROA dan ROE berpengaruh signifikan terhadap Beta. ditolak dan H

Koefisien determinasi (R) Koefisien determinasi digunakan untuk mengetahui seberapa besar hubungan dari beberapa variabel dalam pengertian yang lebih jelas. Koefisien determinasi akan menjelaskan seberapa besar perubahan atau variasi suatu variabel bisa dijelaskan oleh perubahan atau variasi pada variabel yang lain (Santosa&Ashari, 2005:125). Dalam bahasa sehari-hari adalah kemampuan variabel bebas untuk berkontribusi terhadap variabel tetapnya dalam satuan persentase. Nilai koefisien ini antara 0 dan 1, jika hasil lebih mendekati angka 0 berarti kemampuan variabel-variabel independen dalam menjelaskan variasi variabel amat terbatas. Tapi jika hasil mendekati angka 1 berarti variabel-variabel independen memberikan hampir semua informasi yang dibutuhkan untuk memprediksi variasi variabel dependen. Untuk analisisnya dengan menggunakan output SPSS dapat dilihat pada tabel Model Summary. Supaya lebih sederhana lihat contoh saya berikut ini:

Cara bacanya (berdasarkan contoh saya sebelumnya): Berdasarkan Tabel Model Summary dapat disimpulkan bahwa Leverage, CR, ROA dan ROE berpengaruh sebesar 35,4% terhadap Risiko Sistematis, sedangkan 64,6% dipengaruhi variabel lain yang tidak diteliti. Karena nilai R Square dibawah 5% atau cenderung mendekati nilai 0 maka dapat disimpulkan kemampuan variabel-variabel independen dalam menjelaskan variasi variabel amat terbatas.