Anda di halaman 1dari 111

“Uji Asumsi Klasik”

Kelompok 8:

Viora Lazzarina Riswan (160502140)


Putri Yolanda (160502141)
Abrar Hadi Sahputera (160502149)
Pengertian Uji Asumsi Klasik:

Uji asumsi klasik adalah syarat-syarat yang


harus dipenuhi pada model regresi linear agar
model tersebut menjadi valid sebagai alat
penduga.
Uji Asumsi Klasik

1. Uji
5. Uji Linieritas
Multikolonieritas

2. Uji 4. Uji
Autokorelasi Normalitas

3. Uji
Heteroskedastisitas
1. Uji Multikolonieritas
Multikolinearitas adalah situasi dimana terdapat dua variabel
independen yang saling berkorelasi (berhubungan).
Uji Multikolinieritas dilakukan untuk melihat apakah ada
keterkaitan antara hubungan yang sempurna antara variabel-
variabel independen.
Jika di dalam pengujian ternyata didapatkan sebuah
kesimpulan bahwa antara variabel independent tersebut saling
terikat, maka pengujian tidak dapat dilakukan ke dalam tahapan
selanjutnya yang disebabkan oleh tidak dapat ditentukannya
koefisien regresi variabel tersebut dan juga nilai standard
errornya menjadi tak terhingga.
Untuk mendeteksi ada atau tidaknya multikolinearitas di dalam
model regresi adalah sebagai berikut:

1). Dengan melihat nilai tolerance: Apabila nilai tolerancenya sendiri


lebih besar dari 0,10 maka dapat disimpulkan tidak terjadi
multikolinieritas. Sedangkan bila nilai tolerancenya lebih kecil dari
0,10 maka kesimpulan yang didapat adalah terjadi multikolinieritas.

2). Dengan melihat nilai VIF: Jika nilai VIF lebih dari 10, maka kita
akan mendapat kesimpulan bahwa data yang kita uji tersebut
memiliki multikolinieritas. Sedangkan jika nilai VIF dibawah 10,
maka kita akan mendapat kesimpulan bawa data yang kita uji tidak
memiliki kolinieritas.
Cara mengetahui adanya multikolinearitas pada
data dengan menggunakan program SPSS:

 1. Menyiapkan Data
Anggaplah seseorang ingin menganalisis pengaruh
Earning per share (EPS), Dividend per share (DPS),
terhadap harga saham per lembar di BEI.
Pengaruh Earning per share (EPS), Dividend per share
(DPS), terhadap harga saham per lembar di BEI.

NO H.Saham(Y) DPS(X) EPS(X2)


1 200 400 300
2 300 530 350
3 350 480 400
4 370 450 400
5 400 500 440
6 300 400 330
7 200 300 250
8 300 360 350
9 320 400 330
 2. Mendefinisikan Variabel
Silahkan jalankan program SPSS, lalu beralih ke sheet “Variabel
View”. Di bagian variabel view tersebut, silahkan isi H.Saham pada
baris pertama, DPS pada baris kedua, dan EPS pada baris ketiga:
 3. Input Data
Setelah selesai mendefinisikan variabel di sheet variabel view, langkah selanjutnya
adalah input data pada sheet “Data view”. Maka beralihlah ke sheet “data view”, lalu
isikan semua data yang telah dikumpulkan tadi.
 4. Uji Asumsi Klasik Multikolinearitas dengan SPSS
Pada bagian menubar, Pilih Analyze, Kemudian arahkan ke Regression, Lalu
klik Linear. Perhatikan gambar dibawah ini:
Setelah itu akan muncul gambar seperti dibawah ini.

Silahkan pindahkan harga saham(Y) ke bagian Dependent, Sedangkan DPS(x1) dan


EPS(x2) pindahkan ke bagian Independent(s). Caranya cukup klik tanda panah di
sebelahnya. Pada bagian method, pilih Enter. Sedangkan yang lainnya, abaikan saja.
Setelah langkah-langkah di atas dilakukan, sekarang klik kolom
Statistics. Sehingga muncul jendela baru seperti gambar dibawah ini.

Centang pilihan Estimates, Convariance Matrix, Model Fit,


dan Collinearity diagnostics. Klik Continue, klik OK.
 5. Memindahkan Output
Setelah langkah-langkah diatas dilakukan dengan baik, maka output
akan keluar pada jendela baru. Berikut contoh tampilan output tersebut.

FOKUS!

6. Menganalisis Output
Berdasarkan output SPSS diatas, dapat disimpulkan
bahwa Tidak terjadi Multikolinearitas antar variabel
independent dalam model regresi karena nilai Tolerance > 0.1
dan nilai VIF < 10.
2. Uji Autokorelasi
Uji autokorelasi adalah sebuah analisis statistik yang dilakukan
untuk mengetahui adakah korelasi variabel yang ada di dalam
model prediksi dengan perubahan waktu.
Uji autokorelasi di dalam model regresi linear harus dilakukan
apabila data merupakan data time series atau runtut waktu, dan
tidak perlu dilakukan pada data cross section seperti pada
kuesioner di mana pengukuran semua variabel dilakukan secara
serempak pada saat yang bersamaan. Sebab yang dimaksud
dengan autokorelasi sebenarnya adalah: Sebuah nilai pada sampel
atau observasi tertentu sangat dipengaruhi oleh nilai observasi
sebelumnya.
Dasar Pengambilan Keputusan:

 Angka D-W di bawah -2, berarti ada autokorelasi


positif.
 Angka D-W di antara -2 sampai +2, berarti tidak
ada autokorelasi.
 Angka D-W di atas +2, berarti ada autokorelasi
negatif.
Cara mengetahui adanya autokorelasi pada
data dengan menggunakan program SPSS:

 1.Menyiapkan Data
Seorang manajer PT Maju Mundur ingin
mengetahui pengaruh biaya produksi, distribusi,
dan promosi terhadap tingkat penjualan selama
15 (lima belas) tahun terakhir. Berikut adalah
data yang didapatkan PT Maju Mundur:
 2. Masukkan data ke SPSS.
Untuk memasukkan data kedalam SPSS, pada menu SPPS di bagian bawah
akan tersedia pilihan Data View dan Variable View. Pilih menu Variable
View terlebih dahulu untuk pengisian variabel seperti pada langkah pengujian
regresi liner sederhana. Akan muncul tampilan dibawah ini.

Isikan Measure untuk Tingkat Penjualan, Biaya Produksi, Biaya Distribusi dan
Biaya Promosi menggunakan nominal, karena variabel-variabel tersebut menggunakan
data berupa angka. Untuk Tahun, biarkan menggunakan Scale dan Decimals jadikan 0.
 3. Input Data
Pilih Data View dan selanjutnya akan muncul tampilan seperti dibawah, lalu
isikan angka (data) nominal secara manual.
 4. Uji Asumsi Klasik Autokorelasi dengan SPSS

Pilih menu Analyze --> Regression --> Linier

Pengisian:
Ø Klik tombol Reset untuk menghapus semua input terlebih dahulu
Ø Dependent. Masukkan variabel tingkat penjualan
Ø Independent. Masukkan variabel biaya produksi, biaya distribusi dan
biaya promosi.
Ø Case Labels atau keterangan pada kasus. Pilih variabel Tahun.
Ø Method. Pilih Enter.
5. Pilih Statistics.
Pengisian: Aktifkan pilihan Estimates, Model Fit, Durbin –Watson, Casewise
diagnostics, dan Outliers outside.
 6. Hasil Output
Tekan Continue lalu OK untuk proses data. Lalu, akan muncul
output berikut di SPSS anda:

FOKUS

Hasil uji autokorelasi di atas menunjukkan nilai statistik


Durbin Watson sebesar 1.527. Oleh karena itu, nilai DW dalam
rentang nilai -2 dan lebih kecil dari 2 (-2<1.527<2) maka
disimpulkan tidak terjadi autokorelasi positif maupun negatif.
3. Uji Heteroskedastisitas
Uji Heteroskedastisitas adalah uji yang menilai apakah ada
ketidaksamaan varian dari residual untuk semua pengamatan pada
model regresi linear. Uji ini merupakan salah satu dari uji asumsi
klasik yang harus dilakukan pada regresi linear. Apabila asumsi
heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan
tidak valid sebagai alat peramalan.

Mengapa Dilakukan Uji Heteroskedastitas?

Untuk mengetahui adanya penyimpangan dari syarat-


syarat asumsi klasik pada regresi linear, di mana dalam model
regresi harus dipenuhi syarat tidak adanya heteroskedastisitas.
Beberapa cara dalam melakukan cara uji
heteroskedastisitas, yaitu:

Uji Glejser
Uji Park
Uji Spearman
Melihat Grafik Scatterplots
a). Uji Glejser

Uji Glejser dilakukan dengan cara meregresikan antara


variabel independen dengan nilai absolut residualnya
(ABS_RES).

Dasar penarikan kesimpulannya adalah :


I. Jika nilai signifikasi > 0,05 maka tidak terjadi
heteroskedastisitas
II. Jika nilai signifikasi < 0,05 maka terjadi
heteroskedastisitas
Contoh Uji Glejser:

Seorang mahasiswa mengajukan sebuah


kuisioner mengenai faktor-faktor yang
memotivasi karyawan dalam meningkatkan
kinerja. Data tersebut telah di akumulasikan
dan telah input ke dalam spss sebagai
berikut:
1. Masukkan Data ke dalam SPSS
2. Kemudian klik Analyze > Regression > Linear
3. Kemudian, muncul kotak linear regression, maka masukkan variabel
prestasi (Y) ke Dependent. Masukkan motivasi (X1) dan Minat (X2) ke
Independent, lalu klik Save
4. Setelah klik Save, lalu centang Unstandardized pada kolom
Residual, lalu klik Continue
5. Klik Ok, lalu abaikan saja output yang muncul. Pada data
view terlihat kolom baru yang muncul dengan judul RES_1
6. Selanjutnya kita akan membuat RES2 dengan cara pilih Transform, lalu
Compute Variable, pada kotak Target variable isi RES2, pada kotak Numeric
Expression ketik rumus ABS_RES(RES_1) lalu tekan OK
7. Pada data view terlihat kolom baru yang muncul dengan judul
RES2
8. Langkah selanjutnya yaitu pilih Analyze, lalu Regression, lalu
klik Linear
9. Setelah muncul kotak bernama Linear
Regression, keluarkan dulu variabel prestasi
(Y) yang terdapat pada Dependent dan ganti
dengan variabel RES_2, lalu klik save dan
centang unstandadized lalu klik continue. Lalu
langkah terakhir adalah klik OK. Maka kita
akan melihat Outputnya.
9. Setelah muncul kotak bernama Linear Regression, keluarkan dulu variabel prestasi
(Y) yang terdapat pada Dependent dan ganti dengan variabel RES_2, lalu klik save dan
centang unstandadized lalu klik continue. Lalu langkah terakhir adalah klik OK. Maka
kita akan melihat Outputnya.
Berdasarkan Output diatas dapat diketahui
bahwa nilai signifikan dari setiap variabel
adalah > 0,05. Maka dapat disimpulkan bahwa
pada hasil data diatas tidak ada terjadi
Heteroskedastisitas
b). Uji Park

Uji Park merupakan uji heteroskedastisitas yang


lakukan dengan cara melakukan pemangkatan terhadap
residual lalu di logaritma natural (di Ln-kan) baru
kemudian dilakukan regresi terhadap variabel bebasnya.
Dasar penarikan kesimpulannya adalah :
I. Jika nilai signifikasi > 0,05 maka tidak terjadi
heteroskedasitas
II. Jika nilai signifikasi < 0,05 maka terjadi
heteroskedasitas
Contoh Uji Park:

Seorang mahasiswa mengajukan sebuah


kuisioner mengenai faktor-faktor yang
memotivasi karyawan dalam meningkatkan
kinerja. Data tersebut telah di akumulasikan dan
telah input kedalam spss sebagai berikut:
1. Masukkan data kedalam SPSS
2. Kemudian klik Analyze > Regression > Linear
3. Kemudian, muncul kotak linear regression, maka masukkan variabel
prestasi (Y) ke Dependent. Masukkan motivasi (X1), Minat (X2),
dan Keahlian (X3) ke Independent, lalu klik Save
4. Setelah klik Save, lalu centang Unstandardized pada kolom
Residual, lalu klik Continue
5. Klik Ok, lalu abaikan saja output yang muncul. Pada data view
terlihat kolom baru yang muncul dengan judul RES_1
6. Selanjutnya kita akan membuat RES_2 dengan cara pilih Transform, lalu
Compute Variable, pada kotak Target variable isi RES2, pada kotak Numeric
Expression klik Unstandardized 2x lalu tambahkan (*) lalu klik
Unstandardized 2x lalu klik OK
7. Pada data view terlihat kolom baru yang muncul dengan judul
RES_2
8. Kemudian klik kembali Transform, lalu Compute Variable, kemudian pada
kolom Target Variable diisi dengan LNRes_2. Lalu pada kolom Function Group
klik Arithmetic dan pada kolom Function and Special Variables klik Ln.
kemudian klik variable RES_2 pada kolom disebelah kiri. Lalu klik OK. Seperti
pada gambar setelah ini.
9. Setelah itu kita masuk lagi ke Analyze > Regression > Linear.
Pada kolom Dependent dimasukkan LnRES_2. Kemudian Klik
OK.
Berdasarkan Output diatas dapat diketahui bahwa
nilai signifikan dari variabel motivasi adalah < 0,05.
Maka dapat disimpulkan bahwa pada variabel
Motivasi terjadi Heteroskedasitas. Dan variabel
selebihnya memiliki nilai > 0,05 yang berarti tidak
ada terjadi Heteroskedastisitas.
c). Uji Spearman

Uji Spearman merupakan salah satu uji statistik


non paramateris. Digunakan apabila ingin
mengetahui kesesuaian antara 2 subjek di mana
skala datanya adalah ordinal. Uji Spearman
hanya diperuntukkan bagi uji dengan 2 subjek
yang berbeda atau disebut juga sampel bebas.
Dasar penarikan kesimpulannya Uji Spearman adalah :
1. Jika nilai signifikan atau sig. (2-tailed) lebih besar
dari nilai 0,05 maka dapat dikatakan bahwa tidak
terdapat masalah Heterokedasitas.
2. Sebaliknya, jika nilai signifikan atau sig.
(2-tailed) lebih kecil dari nilai 0,05 maka dapat
dikatakan bahwa terdapat masalah Heterokedasitas
Contoh Uji Spearman:

Seorang mahasiswa mengajukan sebuah


kuisioner mengenai faktor-faktor yang
memotivasi karyawan dalam meningkatkan
kinerja. Data tersebut telah di akumulasikan dan
telah input kedalam spss sebagai berikut, beserta
langkah-langkah penyelesaiannya:
1. Masukkan data kedalam SPSS
2. Kemudian klik Analyze > Regression > Linear
3. Kemudian, muncul kotak linear regression, maka masukkan
variabel prestasi (Y) ke Dependent. Masukkan motivasi (X1),
Minat (X2), dan Keahlian (X3) ke Independent, lalu klik Save
4. Setelah klik Save, lalu centang Unstandardized pada kolom
Residual, lalu klik Continue
5. Klik Ok, lalu abaikan saja output yang muncul. Pada data view
terlihat kolom baru yang muncul dengan judul RES_1
6. Kemudian klik Analyze > Correlate > Bivariate
7. Kemudian pindahkan X1, X2, dan Unstandadardized Residual
[RES_1] kedalam kolom Variables. Centang kolom Spearman,
Two-tailed dan flag significant correlation. Lalu klik OK.
Berdasarkan Output diatas dapat diketahui bahwa nilai
signifikan dari setiap variabel adalah > dari 0,05. maka
dapat disimpulkan bahwa tidak terdapat masalah
Heterokedastisitas.
d). Melihat Grafik Scatterplots
Uji yang dilakukan dengan cara melihat grafik
scatterplots ini dapat dilakukan dengan melihat
pola titik-titik pada scatter plots regresi. metodenya
adalah dengan membuat grafik plot atau scatter
antara “Standardized Predicted Value (ZPRED)”
dengan “Studentized Residual (SRESID)”. Dan
melihat ada tidaknya pola tertentu pada grafik
scatterplot antara SRESID dan ZPRED.
Dasar penarikan kesimpulannya dari Uji ini adalah :

1. Ho: Tidak ada gejala heteroskedastisitas apabila


tidak ada pola yang jelas, dan berbentuk seperti titik-
titik yang menyebar.
2. Ha: Ada gejala heteroskedastisitas apabila ada pola
tertentu yang jelas, seperti titik-titik membentuk pola
tertentu yang teratur (bergelombang, melebar
kemudian menyempit)
Contoh Uji dengan Melihat Grafik Scatterplots:

Seorang mahasiswa mengajukan sebuah kuisioner


mengenai faktor-faktor yang memotivasi karyawan
dalam meningkatkan kinerja. Data tersebut telah di
akumulasikan dan telah input ke dalam spss sebagai
berikut:
1. Masukkan data kedalam SPSS
2. Kemudian klik Analyze > Regression > Linear
3. Kemudian, muncul kotak linear regression, maka masukkan variabel
prestasi (Y) ke Dependent. Masukkan motivasi (X1), Minat (X2), dan
Keahlian (X3) ke Independent, lalu klik Save
4. Kemudian pindahkan *SRESID pada kolom Y, dan
*ZPERD pada kolom X. lalu klik OK.
Berdasarkan output grafik scatterplot diatas, dapat dilihat
bahwa titik-titik yang terlihat membentuk pola yang acak/tidak
jelas. Yang berarti bahwa tidak ada gejala heterokedastisitas
4. Uji Normalitas

Uji Normalitas adalah sebuah uji yang


dilakukan dengan tujuan untuk menilai sebaran
data pada sebuah kelompok data atau
variabel, apakah sebaran data tersebut
berdistribusi normal ataukah tidak.
Metode klasik dalam pengujian normalitas
biasanya merupakan suatu data tidak begitu
rumit.
Beberapa cara dalam melakukan cara uji
heteroskedastisitas yaitu :

a). Uji Normalitas Chi Square


b). Uji Kolmogorov Smirnov
c). Shapiro Wilk
a). Uji Normalitas Chi Square

Uji Chi Square atau yang sering disebut juga


dengan Uji Kuadrat bertujuan untuk:
Mengetahui hubungan antara variabel yang
terdapat pada baris dengan kolom.
Jenis data yang digunakan untuk Uji Chi
Square harus berbentuk data frekuensi, bukan
data yang berbentuk rasio, maupun skala.
Dasar penarikan kesimpulannya adalah :

I. Jika nilai signifikasi (Asymp. Sig) > 0,05


maka tidak terdapat hubungan yang signifikan
antara baris dengan kolom.
II. Jika nilai signifikasi (Asymp. Sig) < 0,05 maka
terdapat hubungan yang signifikan antara baris
dengan kolom.
Contoh Uji Normalitas Chi Square:

Seorang mahasiswa yang sedang meneliti ingin


mengetahui apakah terdapat hubungan yang
signifikan antara jenis kelamin seseorang dengan
tingkat pendidikan yang dicapai. Data tersebut
telah di input kedalam spss sebagai berikut:
1. Masukkan data kedalam SPSS
2. Lalu klik Analize > Descripive Statistics > Crosstabs
3. Kemudian muncul kotak dialog Crosstab. Pindahkan Jenis_Kelamin ke
kolom Row(s), dan Tingkat_Pendidikan ke dalam kolom Coloums (s). Lalu
klik Statistics pada sebelah kanan.
4. Lalu centang kotak Chi-square, kemudian klik continue. Setelah
itu klik Ok.
Berdasarkan output diatas dapat dilihat bahwa pada
bagian pearson Chi-Square nilainya > dali 0,05 yang
berarti bahwa hasil yang menyimpulkan bahwa tidak
terdapat hubungan antara jenis kelamin dengan tingkat
pendidikan.
b). Uji Kolmogorov Smirnov
Uji Kolmogorov Smirnov adalah pengujian normalitas
yang banyak dipakai, terutama setelah adanya banyak program
statistik yang beredar. Biasanya dilakukan pengujian dengan
jumlah responden lebih besar dari 50.
Kelebihan dari uji ini adalah sederhana dan tidak
menimbulkan perbedaan persepsi di antara satu pengamat
dengan pengamat yang lain, yang sering terjadi pada uji
normalitas dengan menggunakan grafik.
Dasar penarikan kesimpulannya adalah :

I. Jika nilai signifikasi (Asymp. Sig) > 0,05 maka


tidak terdapat hubungan yang signifikan antara
baris dengan kolom. (Normal)
II. Jika nilai signifikasi (Asymp. Sig) < 0,05 maka
terdapat hubungan yang signifikan antara baris
dengan kolom. (Tidak Normal)
Contoh Uji Kolmogorov Smirnov:

Seorang mahasiswa yang sedang meneliti ingin


mengetahui apakah terdapat hubungan yang
signifikan antara jenis kelamin seseorang dengan
tingkat pendidikan yang dicapai. Data tersebut
telah di input kedalam spss sebagai berikut:
1. Masukkan data kedalam SPSS
2. Kemudian klik Analyze > Regression > Linear
3. Pindahkan Prestasi Belajar kedalam kolom Dependent dan
Motivasi Belajar kedalam Kolom Independent(s). Lalu klik
Save.
4. Setelah klik Save, lalu centang Unstandardized pada
kolom Residual, lalu klik Continue. Kemudian klik OK.
5. Abaikan Output yang keluar, lalu Klik Analize > NonParametic
Test > Legacy Dialogs > 1-Sample K-S…
6. Lalu masukkan Unstandadardized Residual [RES_1] kedalam
Test Variable List, centang Normal, lalu klik ok
Berdasarkan Output diatas, dapat dilihat bahwa pada
kolom Asymp. Sig nilai > dari 0,05. yang brarti data
yang telah di uji berdistribusi benar
c). Shapiro Wilk

Uji Shapiro Wilk adalah pengujian normalitas yang banyak dipakai,


terutama setelah adanya banyak program statistik yang beredar.
Biasanya dilakukan pengujian dengan jumlah responden lebih kecil dari
50.
Dasar penarikan kesimpulannya adalah :

I. Jika nilai signifikasi > 0,05 maka tidak terdapat hubungan yang
signifikan antara baris dengan kolom. (Normal)
II. Jika nilai signifikasi < 0,05 maka terdapat hubungan yang signifikan
antara baris dengan kolom.(Tidak Normal)
Contoh Uji Shapiro Walk:

Seorang mahasiswa yang sedang meneliti ingin


mengetahui apakah terdapat hubungan yang signifikan
antara jenis kelamin seseorang dengan tingkat
pendidikan yang dicapai. Data tersebut telah di input
kedalam spss sebagai berikut, beserta langkah-langkah
penyelesaiannya:
1. Masukkan data kedalam SPSS
2. Lalu klik Analyze > Descriptive Statistics > Explore
3. Kemudian pindahkan Movitasi belajar dan Prestasi
belajar kedalam kolom Dependent List. Kemudian
klik Plots
4. Lalu centang kolom Factor level together, Stem-and-leaf dan
Normality plots with test. Kemudian klik continue, lalu OK.
Dari Output diatas dapat kita lihat bahwa pada baris
motivasi belajar nilai Sig. 0,181 yang berarti bahwa
brarti data yang telah di uji berdistribusi benar
(normal). Sedangkan pada prestasi belajar nilai Sig.
0,028 yang berarti data yang telah diuji tidak
berdistribusi dengan benar (tidak normal)
5. Uji Linearitas

Uji Linearitas adalah suatu pengujian yang digunakan untuk mengetahui


status hubungan yang linear atau tidaknya antar variabel dalam suatu penelitian,
artinya setiap perubahan yang terjadi pada suatu variabel akan diikuti
perubahan dengan besaran yang sejajar pada variabel lainnya.
Secara umum Uji Linearitas bertujuan untuk mengetahui apakah dua
variabel mempuyai hubungan yang linear secara signifikan atau tidak.
Data yang baik seharusnya terdapat hubungan yang linear antara variabel
independent (X) dengan variabel dependent (Y). Dalam beberapa referensi
dinyatakan bahwa Uji Linearitas merupakan syarat sebelum dilakukannya Uji
Regresi Linear atau Analisis Korelasi.
Jenis Prosedur Uji Linearitas:

a). Metode ANOVA


b). Metode Grafik Scatterplot
a). Metode ANOVA

Anova digunakan sebagai alat analisis untuk menguji


hipotesis penelitian yang mana menilai adakah perbedaan
antara dua variabel yang diujikan.

Hasil akhir dari analisis Anova adalah nilai signifikansi


dan nilai F tabel atau F hitung. Jika nilai F hitung lebih
kecil dari F tabel maka artinya adalah terdapat hubungan
linear secara signifikan antara variabel independent (X)
dengan variabel dependent (Y). Sebaliknya, Jika nilai F
hitung lebih besar dari F tabel maka artinya adalah tidak
terdapat hubungan linear antara variabel predictor (X)
dengan variabel kriterium (Y).
Contoh:
Data yang kami akan uji adalah variabel Motivasi Belajar (X)
dengan variabel Hasil Belajar (Y), dengan N=12. Adapun
rincian datanya, lihat gambar di bawah ini. Dan beserta
langkah-langkahnya
1. Buka program SPSS, klik Variable View.

2. Selanjutnya, pada bagian Name tulis Motivasi Belajar kemudian Prestasi


Belajar, pada Decimals ubah semua menjadi angka 0, pada bagian Label
tuliskan Motivasi Belajar kemudian Prestasi belajar, abaikan yang lainnnya.
3. Setelah itu, klik Data View, dan masukkan data Motivasi Belajar dan
Prestasi Belajar yang sudah dipersiapkan.
4. Berikutnya, dari menu utama SPSS pilih Analyze, lalu klik
Compare Means, dan pilih Means
5. Selanjutnya akan muncul kotak dengan nama Means, masukkan
variabel Motivasi Belajar (X) ke kotak Independet List dan variabel
Prestasi Belajar (Y) ke kotak Dependet List
6. Selanjutnya, klik Options, pada kolom Statistics, pilih Test of
Linearity, kemudian klik Continue
7. Langkah terahir adalah klik Ok untuk mengakhiri
perintah. Dan akan muncul hasil seperti dibawah ini:

Berdasarkan nilai signifikansi dari kasus di atas menunjukkan


bahwa hubungan antar variabel telah memenuhi asumsi linier
karena F-Deviation From Linearity berada pada rentang
signifikan (F=0,145; p>0,05) dan nilai F-Linearity berada pada
rentang signifikan (F=14,364; p>0,05).
b). Metode Curve Estimation

 Metode Curve Estimation digunakan untuk menilai dua


variabel apakah memiliki hubungan linier atau tidak
dengan cara melihat titik-titik Oberserved mendekati garis
Linier.

 Dikatakan Linier jika titik-titik Observed dari ujung kiri


bawah sampai ujung kanan atas harus mendekati garis
liniernya jika tidak itu artinya adalah tidak terdapat
hubungan linier antara dua variabel tersebut.
Contoh:
Data yang kami akan uji adalah variabel Motivasi Belajar
(X) dengan variabel Hasil Belajar (Y), dengan N=12.

1. Buka program
SPSS, klik Variable
View masukkan data
Motivasi Belajar dan
Hasil Belajar yang
sudah dipersiapkan.
2. Berikutnya, pilih Analyze, lalu klik Regression, dan Curve
Estimation
3. Muncul kotak dengan nama Curve Estimation, masukkan variabel
Motivasi Belajar (X) ke kotak Independet List dan variabel Hasil
Belajar (Y) ke kotak Dependet List.
4. Selanjutnya, klik Ok. Dan akan muncul hasil seperti ini
Berdasarkan dari grafik di atas
menunjukkan bahwa hubungan antar
variabel telah memenuhi asumsi linier
karena Titik-titik Observed dari ujung kiri
bawah mendekati garis Linier hingga ujung
kanan atas.

Anda mungkin juga menyukai