Anda di halaman 1dari 22

PASCASARJANA

UNIVERSITAS NEGERI YOGYAKARTA


UJIAN AKHIR SEMESTER GENAP TA. 2019/2020

Prodi/Kelas Penelitian dan Evaluasi Pendidikan S-2/Pil.Bebas SKS : 3


Kode & Matakuliah Korelasi dan Regresi
Hal 1 dari 2
Jenis MK TEORI Sifat Ujian : Take Home

Dosen Prof. Djemari Mardapi, Ph.D. dan Dr. Syukrul Hamdi


Ruang : Smart Classroom 11, Pascasarjana I.04
Hari : Rabu Tgl. : 3 Juni 2020 Waktu : 09.20 – 11.50 (General Lecture Building), size:24
[I.04.2.01.11]

PETUNJUK:
1. Jawaban ketik Times New Roman 12, spasi 1,5 Ms Word bukan PDF
2. Dikumpul paling lambat Rabu, 3 Juni 2020 pukul 11.50 WIB
melalui email: syukrulhamdi@uny.ac.id dengan format: UASKR_nama
mahasiswa_NIM
SOAL

1. Disajikan data hasil penelitian sebagai berikut

No X1 X2 X3 X4 X5 Y No X1 X2 X3 X4 X5 Y
1 3.00 5.00 1.00 1.00 2.00 3.00 17 1.00 1.00 1.00 1.00 2.00 1.00
2 1.00 3.00 2.00 2.00 2.00 2.00 18 3.00 3.00 1.00 1.00 2.00 2.00
3 2.00 3.00 1.00 3.00 3.00 2.00 19 2.00 3.00 2.00 1.00 2.00 2.00
4 2.00 2.00 1.00 1.00 2.00 2.00 20 3.00 3.00 1.00 1.00 3.00 2.00
5 3.00 2.00 1.00 1.00 2.00 2.00 21 4.00 3.00 1.00 1.00 4.00 3.00
6 4.00 3.00 2.00 2.00 3.00 3.00 22 3.00 4.00 2.00 3.00 3.00 3.00
7 4.00 5.00 1.00 1.00 3.00 3.00 23 4.00 4.00 1.00 2.00 3.00 3.00
8 3.00 3.00 2.00 1.00 3.00 3.00 24 5.00 5.00 2.00 3.00 4.00 4.00
9 2.00 2.00 1.00 1.00 1.00 1.00 25 1.00 2.00 1.00 1.00 2.00 1.00
10 2.00 4.00 1.00 1.00 2.00 2.00 26 3.00 4.00 1.00 2.00 3.00 2.00
11 2.00 2.00 2.00 2.00 2.00 2.00 27 2.00 2.00 3.00 3.00 2.00 2.00
12 2.00 4.00 2.00 2.00 2.00 2.00 28 3.00 4.00 1.00 1.00 2.00 2.00
13 4.00 4.00 3.00 2.00 2.00 3.00 29 4.00 3.00 1.00 2.00 3.00 3.00
14 3.00 4.00 2.00 3.00 3.00 3.00 30 4.00 3.00 1.00 1.00 2.00 3.00
15 3.00 5.00 1.00 2.00 3.00 3.00 31 4.00 4.00 1.00 1.00 3.00 3.00
16 1.00 2.00 1.00 1.00 2.00 1.00 32 4.00 5.00 2.00 3.00 4.00 4.00
Keterangan:
X1 = Clarity X3 = Knowledge X5 = Course Evaluation
X2 = Stimulation X4 = Interest Y = Instructor Course Evaluation

LIMA ASUMSI (NORMALITAS, AUTOKORELASI,


MULTIKOLINEARITAS, HETEROSKEDASTISITAS DAN LINEARITAS) PADA
ANALISIS REGRESI

1. Asumsi I: Uji Normalitas


Uji asumsi normalitas dapat dilihat melalui nilai Kolmogorov-Smirnov Z, dengan
ketentuan:
 Nilai Asymp. Sig. (2-tailed) > 0.05 berarti data berdistribusi normal
 Nilai Asymp. Sig. (2-tailed) < 0.05 berarti data berdistribusi tidak normal.
Dari pengolahan data menggunakan SPSS diperoleh nilai Diperoleh nilai
Kolmogorov-Smirnov sebesar 0,420, dengan sig > 0,05 yaitu 0,995 sehingga data
berdistribusi normal.
2. Asumsi Uji Autokorelasi
Autokorelasi dapat dilihat melalui uji nilai Durbin Watson.
Hipotesis yang digunakan:
H0: Tidak ada autokorelasi
H1: Terdapat autokorelasi

Pengambilan keputusan menggunakan tabel Durbin-Watson pengambilan keputusa


meggunakan tabel Durbin-Watson bound, dengan kriteria uji bagi DW untuk kasus 2
arah:
 Jika DW < dl, maka tolak H0 atau jika DW>4-dl, maka tolah Ho
 Jika du < DW < 4-du, maka terima H
 Jika dl ≤ DW ≤ du atau 4-du ≤ DW ≤ 4-d1, maka tidak dapat disimpulkan
apakah terjadi autokorelasi atau tidak

Dari pengolahan data menggunakan SPSS diperoleh nilai Durbin Watson sebgai
berikut

Model Summaryb

Adjusted R Std. Error of the Durbin-Watson


Model R R Square Square Estimate
a
1 ,946 ,894 ,874 28,31104 1,569

a. Predictors: (Constant), X5, X3, X2, X4, X1


b. Dependent Variable: Y
Hasil uji durbin-watson (DW adalah 1,569 dan Untuk n=32, banyaknya variabel bebas k=5
dan α = 0,05 diperoleh pada tabel Durbin-Watson dl = 1,1092 du= 1,8187 maka (4-du) =
1,6785 dan 4-dl = 2,8908. Karena dl ≤ DW≤ du atau 1,1092 < 1,569 < 1,8187 berarti
TIDAK dapat disimpulkan terjadinya autokorelasi atau tidak.

3. Asumsi Uji Multikolinearitas

Coefficientsa

Standardized
Unstandardized Coefficients Coefficients Collinearity Statistics

Model B Std. Error Beta t Sig. Tolerance VIF

1 (Constant) -44,282 23,477 -1,886 ,070

X1 ,386 ,071 ,523 5,415 ,000 ,436 2,293

X2 ,197 ,062 ,269 3,186 ,004 ,569 1,759

X3 ,277 ,108 ,215 2,561 ,017 ,579 1,728

X4 ,011 ,097 ,011 ,115 ,910 ,441 2,266

X5 ,270 ,110 ,243 2,459 ,021 ,416 2,401

a. Dependent Variable: Y

Dari tabel diketahui nilai VIP (X1 = 2,93), ( X2=1,759), (X3=1,728), (X4=2,266 )
dan (X5=2,401) < 5 sehingga disimpulkan TIDAK terjadi multikolinearitas.

Collinearity Diagnosticsa

Condition Variance Proportions

Model Dimension Eigenvalue Index (Constant) X1 X2 X3 X4 X5

1 1 5,614 1,000 ,00 ,00 ,00 ,00 ,00 ,00

2 ,192 5,401 ,00 ,06 ,03 ,18 ,10 ,01

3 ,081 8,328 ,10 ,00 ,00 ,30 ,49 ,02

4 ,052 10,411 ,38 ,39 ,00 ,19 ,01 ,04

5 ,043 11,468 ,01 ,14 ,89 ,00 ,00 ,12

6 ,018 17,720 ,51 ,41 ,08 ,33 ,40 ,81

a. Dependent Variable: Y

4. Asumsi Uji Heteroskedastisitas


Pada grafik di atas hasil plot menunjukan tidak ada pola yang jelas, sehingga dapat
disimpulkan tidak terjadi heteroskedastitas atau ragam galt konstan (Asumsi terpenuhi).

5. Asumsi Uji Linearitas


a. Uji linearitas linearitas antara Y (Evaluasi Kursus Instruktur) dengan X1
(Kejelasan)
Uji linearitas dilakukan untuk melihat hubungan antara variable bebas X terhadap
variable terikat Y adalah linear. Dasar pengambilan keputusan dalam uji linearitas
dapat dilakukan dengan 2 (dua) cara yaitu:
a. Membandingkan nilai Signifikansi (Sig.) dengan 0.05
 Jika nilai Deviation from Linearity Sig. > 0.05, maka ada hubungan linear yang
signifikan antara variabel bebas dengan variabel terikat
 Jika nilai Deviation from Linearity Sig. < 0.05, maka tidak ada hubungan linear
yang signifikan antara variabel bebas dengan variabel terikat
b. Membandingkan nilai F hitung dengan nilai F tabel
 Jika nilai F hitung < F tabel, maka ada hubungan linear yang signifikan antara
variabel bebas dengan variabel terikat
 Jika nilai F hitung > F tabel, maka tidak ada hubungan linear yang signifikan
antara variabel bebas dengan variabel terikat

ANOVA Table

Sum of Squares df Mean Square F Sig.

Y * X1 Between Groups (Combined) 147048,611 4 36762,153 19,797 ,000

Linearity 146454,109 1 146454,109 78,866 ,000

Deviation from
594,502 3 198,167 ,107 ,955
Linearity

Within Groups 50138,889 27 1856,996

Total 197187,500 31
1. Berdasarkan nilai signifikansi (Sig)
Dari output di atas, diperoleh nilai Deviation from Linearity Sig. Adalah 0,955 lebih
besar (>0,05) Maka dapat disimpulkan bahwa ada hubungan linear secara signifikan
antara variabel X1 dengan Y
2. Berdasarkan nilai F: dari output diatas, diperole nilai Fhitung sebesar 0,107 < Ftabel
(2,96) tabel maka dapat disimpulkan bahwa ada hubungan linear secara signifikan
antara Variabe Kejelasan dengan variabel Evaluasi Kursus Instruktur .
Kesimpulan: karena nilai F hitung 0,107 < F 0.05 = 2,96 maka asumsi linearitas dapat
diterima (hubungan antara X dan prestasi belajar bersifat linear)

b. Uji linearitas linearitas antara X2 (Stimulasi) dengan Y (Evaluasi Kursus


Instruktur)

ANOVA Table

Mean
Sum of Squares df Square F Sig.

Y * X2 Between Groups (Combined) 120822,421 4 30205,605 10,680 ,000

Linearity 107797,669 1 107797,669 38,113 ,000

Deviation from
13024,751 3 4341,584 1,535 ,228
Linearity

Within Groups 76365,079 27 2828,336

Total 197187,500 31

Jika dilihat dari F. Nilai F hitung pada output di atas adalah 1,533 dengan nilai F tabel untuk
df (3;27)= 2,96. Maka, terlihat nilai F hitung < F tabel. Pun sama pada nilai Deviation from
Linearity Sig. Adalah 0,228 lebih besar (>0,05) sehingga dapat disimpulkan bahwa ada
hubungan linear yang signifikan antara variabel stimulasi dengan variabel evaluasi kursus
instruktur.

c. Uji linearitas linearitas antara X3 (Pengetahuan) dengan Y (Evaluasi Kursus


Instruktur)

ANOVA Table

Mean
Sum of Squares df Square F Sig.

Y * X3 Between Groups (Combined) 24187,500 2 12093,750 2,027 ,150

Linearity 15661,184 1 15661,184 2,625 ,116

Deviation from
8526,316 1 8526,316 1,429 ,242
Linearity

Within Groups 173000,000 29 5965,517


Total 197187,500 31

Jika dilihat dari F. Nilai F hitung pada output di atas adalah 1,429 dengan nilai F tabel untuk
df (1;29)= 4,18. Maka, terlihat nilai F hitung < F tabel. Pun sama pada nilai Deviation from
Linearity Sig. Adalah 0,242 lebih besar (>0,05) sehingga dapat disimpulkan bahwa ada
hubungan linear yang signifikan antara variabelpengetahuan dengan variabel evaluasi kursus
instruktur.

d. Uji linearitas linearitas antara X4 (Minat) dengan Y (Evaluasi Kursus


Instruktur)

ANOVA Table

Mean
Sum of Squares df Square F Sig.

Y * X4 Between Groups (Combined) 37318,219 2 18659,109 3,385 ,048

Linearity 37317,581 1 37317,581 6,769 ,014

Deviation from
,638 1 ,638 ,000 ,991
Linearity

Within Groups 159869,281 29 5512,734

Total 197187,500 31

Jika dilihat dari F. Nilai F hitung pada output di atas adalah 0,00 dengan nilai F tabel untuk
df (1;29)= 4,18. Maka, terlihat nilai F hitung < F tabel, sehingga dari nilai F. Pun sama pada
nilai Deviation from Linearity Sig. Adalah 0,991 lebih besar (>0,05) sehingga dapat
disimpulkan bahwa ada hubungan linear yang signifikan antara variabel minat dengan
variabel evaluasi kursus instruktur.

e. Uji linearitas linearitas antara X5 (Evaluasi Kursus) dengan Y (Evaluasi Kursus


Instruktur)

ANOVA Table

Mean
Sum of Squares df Square F Sig.

Y * X5 Between Groups (Combined) 108020,833 3 36006,944 11,307 ,000

Linearity 107363,625 1 107363,625 33,714 ,000

Deviation from 657,208 2 328,604 ,103 ,902


Linearity
Within Groups 89166,667 28 3184,524

Total 197187,500 31

Jika dilihat dari F. Nilai F hitung pada output di atas adalah 0,103 dengan nilai F tabel untuk
df (1;29)= 3,34. Maka, terlihat nilai F hitung < F tabel, sehingga dari nilai F, Pun sama pada
nilai Deviation from Linearity Sig. Adalah 0,902 lebih besar (>0,05) sehingga dapat
disimpulkan bahwa ada hubungan linear yang signifikan antara variabel mevaluasi kursus
dengan variabel evaluasi kursus instruktur.

b. PERSAMAAN REGRESI Y PADA X1, X2, X3, X4, X5 DAN UJI KEBERARTIAN
REGRESI

Pengaruh variable bebas terhadap variable terikat secara bersama-sama


Hipotesis:
H 0 :Pop R y1234562=0
H 1 : Pop R y 1234562 >0

ANOVAa

Model Sum of Squares df Mean Square F Sig.

1 Regression 176348,112 5 35269,622 44,004 ,000b

Residual 20839,388 26 801,515

Total 197187,500 31

a. Dependent Variable: Y
b. Predictors: (Constant), X5, X3, X2, X4, X1

Coefficientsa

Unstandardized Coefficients Standardized


Coefficients Collinearity Statistics

Model B Std. Error Beta t Sig. Tolerance VIF

1 (Constant) -44,282 23,477 -1,886 ,070


X1 ,386 ,071 ,523 5,415 ,000 ,436 2,293

X2 ,197 ,062 ,269 3,186 ,004 ,569 1,759

X3 ,277 ,108 ,215 2,561 ,017 ,579 1,728

X4 ,011 ,097 ,011 ,115 ,910 ,441 2,266

X5 ,270 ,110 ,243 2,459 ,021 ,416 2,401

a. Dependent Variable: Y

Dari uji ANOVA diperoleh nilai Fhitung sebesar 44,004 > F tabel=F (0,95 ; ( 5; 26))=2 , 59 maka H0
ditolak dan Ha Diterima. Karena nilai sig. 0.000 lebih kecil dari 0,05, maka model
regresi dapat digunakan untuk memprediksi evaluasi kursus instruktur atau secara
bersama-sama variabel kejelasan, stimulasi, pengetahuan, minat dan evaluasi kursus
mempunyai kontribusi terhadap evaluasi kursus instruktur atau hubungannya linear.

Dari table coeficients di atas kolom B pada constant adalah di atas diperoleh −44 , 282
sedangkan nilai X1 (0, 386), X2 (0,197), X3 (0,277), X4 (0,011) dan X5 (0,270) .
Sehingga persamaan regresinya dapat ditulis sebagai berikut :
Y ' =a+ b1 X 1 +b2 X 2 +b3 X 3 +b 4 X 4 + b5 X 5
¿−44 ,282+0,386 X 1+ 0,197 X 2 +0,277 X 3 +0,011 X 4 +0,270 X 5

1. Pengaruh variable X1 (Kejelasan )


H 0 :Pop R y12 3452−R 2345 2=0
H 1 : Pop R y 12 3452−R2 345 2> 0
Thitung sebesar 5,415
T(0,95;32) sebesar 2.03693
Sehingga Thitung > Ttabel sehingga H0 ditolak
Sedangkan sig 0,000 < 0,05 sehingga H0 ditolak
terdapat pengaruh signifikan dari X1 (kejelasan) terhadap Y (evaluasi kursus instruktur)

2. Pengaruh variable X2 (Stimulasi)


H 0 :Pop R y123452−R 1345 2=0
H 1 : Pop R y 123452−R 1345 2> 0
Thitung sebesar 3,186
T(0,95;32) sebesar 2.03693
Sehingga Thitung > Ttabel sehingga H0 ditolak
Sedangkan sig 0,04 < 0,05 sehingga H0 ditolak
Terdapat pengaruh signifikan dari X2 (Stimulasi) terhadap Y (evaluasi kursus instruktur)

3. Pengaruh variable X3 (Pengetahuan)


H 0 :Pop R y123452−R 12 452=0
H 1 : Pop R y 123452−R 12452> 0
Thitung sebesar 2,561
T(0,95;32) sebesar 2.03693
Sehingga Thitung < Ttabel sehingga H0 diterima
Sedangkan sig 0,17 > 0,05 sehingga H0 diterima
Tidak terdapat pengaruh signifikan dari X3 (Pengetahuan) terhadap Y (evaluasi kursus
instruktur)

4. Pengaruh variable X4 (Minat)


H 0 :Pop R y123452−R 123 52=0
H 1 : Pop R y 123452−R 12352> 0
Thitung sebesar 0,115
T(0,95;32) sebesar 2.03693
Sehingga Thitung > Ttabel sehingga H0 ditolak
Sedangkan sig 0,910 < 0,05 sehingga H0 ditolak
Terdapat pengaruh signifikan dari X4 (Minat) terhadap Y (evaluasi kursus instruktur)

5. Pengaruh variable X5 (Evaluasi Kursus)


H 0 :Pop R y123452−R 1234 2=0
2 2
H 1 : Pop R y 12345 −R 1234 >0
Thitung sebesar 2,459
T(0,95;32) sebesar 2.03693
Sehingga Thitung > Ttabel sehingga H0 ditolak
Sedangkan sig 0,021 < 0,05 sehingga H0 ditolak
Terdapat pengaruh signifikan dari X5 (Evaluasi Kerja) terhadap Y (evaluasi kursus
instruktur)

Maka dapat disimpulkan variabel Kejelasan, stimulasi, Minat dan Evaluasi Kursus
memiliki pengaruh yang signifikan terhadap evaluasi kursus instruktur sedangkan
pegetahuan tidak memiliki pengaruh yang signifikan terhadap evaluasi kursus instruktur.

C. KOEFISIEN KORELASI ANTARA X1, X2, X3. X4 DAN X5 DENGAN Y DAN


UJILAH KEBERARTIAN

Descriptive Statistics

Mean Std. Deviation N

Y 240,6250 79,75517 32
X1 284,3750 108,09009 32
X2 331,2500 109,06494 32
X3 143,7500 61,89221 32
X4 165,6250 78,73752 32
X5 253,1250 71,77193 32

Tabel diatas menunjukan tabel statistik deskriptif yang menyajikan mean dan standar deviasi
tiap variabel dari 32 responden.
Correlations

Y X1 X2 X3 X4 X5

Pearson Correlation Y 1,000 ,862 ,739 ,282 ,435 ,738

X1 ,862 1,000 ,617 ,057 ,200 ,651

X2 ,739 ,617 1,000 ,078 ,317 ,523

X3 ,282 ,057 ,078 1,000 ,583 ,041

X4 ,435 ,200 ,317 ,583 1,000 ,448

X5 ,738 ,651 ,523 ,041 ,448 1,000


Sig. (1-tailed) Y . ,000 ,000 ,059 ,006 ,000
X1 ,000 . ,000 ,378 ,136 ,000
X2 ,000 ,000 . ,336 ,039 ,001
X3 ,059 ,378 ,336 . ,000 ,412
X4 ,006 ,136 ,039 ,000 . ,005
X5 ,000 ,000 ,001 ,412 ,005 .
N Y 32 32 32 32 32 32

X1 32 32 32 32 32 32

X2 32 32 32 32 32 32

X3 32 32 32 32 32 32

X4 32 32 32 32 32 32

X5 32 32 32 32 32 32

Tabel Tingkat Korelasi dan Kekuatan Hubungan

No Nilai Korelasi (r) Tingkat Hubungan


1 0,00-0,199 Sangat Lemah
2 0,20-0,399 Lemah
3 0,40-0,599 Cukup
4 0,60-0,799 Kuat
5 0,80-0,100 Sangat Kuat
Jika besar sig (t-tailed) lebih kecil dari 0,05 maka Ho ditolak atau ada korelasi yang
signifikan dan arah korelasinya positif (searah) karena koefisien korelasi bertanda
positif.

Pada tabel yang menunjukan matriks korelasi variabel X1 (Kejelasan), X2 (Stimulasi),


X3(Pengetahuan), X4 (Minat), X5 (Evaluasi Kursus) dan Y (Evaluasi Kursus Instruktur).
Dengan menggunakan teknik korelasi pearson correlation di dapatkan hasil yang dapaat
diintrepetasi yaitu:

1. Hubungan atara Y dengan X1, koefisien korelasinya adalah 0,862 dan signifikansi
0,000 yang berarti ada korelasi sangat kuat dan signifikan
2. Hubungan atara Y dengan X2, koefisien korelasinya adalah 0,739 dan signifikansi
0,000 yang berarti ada korelasi kuat dan signifikan
3. Hubungan atara Y dengan X3, koefisien korelasinya adalah 0,282 dan signifikansi
0,059 yang berarti ada korelasi lemah kuat dan signifikan
4. Hubungan atara Y dengan X4, koefisien korelasinya adalah 0,435 dan signifikansi
0,006 yang berarti ada korelasi cukup dan signifikan
5. Hubungan atara Y dengan X5, koefisien korelasinya adalah 0,738 dan signifikansi
0,006 yang berarti ada korelasi kuat dan signifikan
Penentuan tingkat korelasi dan kekuatan hubungan di atas berdasarkan tabel berikut:

Metode yang digunakan yaitu metode enter. Variabel X1 (Kejelasan), X2 (Stimulasi),


X3(Pengetahuan), X4 (Minat) dan X5 (Evaluasi Kursus) tidak ada yang dikeluarkan.

Model Summaryb

Adjusted R Std. Error of the


Model R R Square Square Estimate Durbin-Watson

1 ,946a ,894 ,874 28,31104 1,569

a. Predictors: (Constant), X5, X3, X2, X4, X1


b. Dependent Variable: Y

Dari tampilan hasil SPSS model summary besarnya R2 adalah 0,846, hal ini berarti 89,6 %
variasi income dapat dipengaruhi dari lima variabel independen. Sedangkan sisanya (10,4%)
dipengaruhi oleh variabel lain.

D. MODEL REGRESI TERBAIK DENGAN METODE STEPWISE, BACKWARD


ELIMINATION DAN FORWARD SELECTION
Berikut ditampilkan output setiap metode
a) METODE STEPWISE

Model Summary

Std. Error of the


Adjusted R
Model R R Square Square Estimate

1 ,862 a ,743 ,734 41,12314


2 ,903 b ,815 ,802 35,51446
3 ,925 c ,856 ,840 31,88566
a. Predictors: (Constant), X1
b. Predictors: (Constant), X1, X4
c. Predictors: (Constant), X1, X4, X2

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta T Sig.
1 (Constant) 59,793 20,747 2,882 ,007
X1 ,636 ,068 ,862 9,306 ,000
2 (Constant) 25,400 20,650 1,230 ,229
X1 ,596 ,060 ,807 9,887 ,000
X4 ,277 ,083 ,273 3,350 ,002
3 (Constant) 2,137 20,287 ,105 ,917
X1 ,482 ,067 ,653 7,158 ,000
X4 ,223 ,077 ,220 2,904 ,007
X2 ,195 ,069 ,266 2,824 ,009
a. Dependent Variable: Y

B) METODE BACKWARD ELIMINATION

Model Summary
Adjusted R Std. Error of the
Model R R Square Square Estimate
1 ,946a ,894 ,874 28,31104
2 ,946b ,894 ,879 27,78882
a. Predictors: (Constant), X5, X3, X2, X4, X1
b. Predictors: (Constant), X5, X3, X2, X1

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta T Sig.
1 (Constant) -44,282 23,477 -1,886 ,070
X1 ,386 ,071 ,523 5,415 ,000
X2 ,197 ,062 ,269 3,186 ,004
X3 ,277 ,108 ,215 2,561 ,017
X4 ,011 ,097 ,011 ,115 ,910
X5 ,270 ,110 ,243 2,459 ,021
2 (Constant) -45,003 22,201 -2,027 ,053
X1 ,384 ,067 ,520 5,698 ,000
X2 ,198 ,059 ,271 3,335 ,002
X3 ,285 ,081 ,221 3,518 ,002
X5 ,276 ,094 ,249 2,953 ,006

a. Dependent Variable: Y

C) METODE FORWARD SELECTION


Model Summary
Adjusted R Std. Error of the
Model R R Square Square Estimate
a
1 ,862 ,743 ,734 41,12314
2 ,903b ,815 ,802 35,51446
3 ,925c ,856 ,840 31,88566
a. Predictors: (Constant), X1
b. Predictors: (Constant), X1, X4
c. Predictors: (Constant), X1, X4, X2

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta T Sig.

1 (Constant) 59,793 20,747 2,882 ,007

X1 ,636 ,068 ,862 9,306 ,000


25,400 20,650 1,230 ,229
2 (Constant)
X1 ,596 ,060 ,807 9,887 ,000

X4 ,277 ,083 ,273 3,350 ,002

3 (Constant) 2,137 20,287 ,105 ,917

X1 ,482 ,067 ,653 7,158 ,000

X4 ,223 ,077 ,220 2,904 ,007

X2 ,195 ,069 ,266 2,824 ,009


a. Dependent Variable: Y

Model regresi terbaik adalahh Y = 0,021 + 0482 X1 +-,195X2 + 0,223X4 dengan


menggunakan metode fordward selection dan stepwise regression. Tetapi, model regresi
terbaik yang terbentuk berbeda bila menggunakan metode backward elimination. Model
regresi yang terbentuk dengan metode backward elimination memiliki nilai R2=0,946 ,
artinya varians yang terjadi pada Y sebesar 94.6% dapat dijelaskan oleh varians yang terjadi
pada X1, X2, X3, X5 dan sebanyak 5.4% oleh variabel lain. Varians yang terjadi pada Y
dengan metode fordward selection atau stepwise regression lebih kecil yaitu 92.5% dapat
dijelaskan oleh varians yang terjadi pada X1, X2, X4, dan sebanyak 7.5% dijelaskan oleh
variabel lain. Jadi, dapat diambil kesimpulan bahwa metode regresi terbaik adalah yang
memiliki nilai R2 terbesar yaitu: Ý = -0,450 + 0,384 X1 + 0,198X2 + 0,285X3 + 0,276X5

2. Diketahui data berikut dengan 1variabel bebas, 2 variabel terikat, dan dengan 5 subjek.
X 0 1 2 3 4
Y1 1 4 3 8 9
Y2 -1 -1 2 3 2
Carilah persamaan regresinya secara manual (tanpa menggunakan SPSS atau Exel)!
Penyelesaian:

1 −1 1 −1
4
Y= 3
8
9
[ ][ ]
−1 1 −1
2 X= 1 2 X’ =
3
2
13
14
1 11 11
0 12 3 4 [ ] [−26 −21 ]
(X’X)-1 =

−1
1 1 1 1 1 −1 = 5
[
Dan X’ y(2) = 0 1 2 3 4 2

Sehingga
] 3
2
[] 20 [ ]
6 −2 5 = −1
β(2) = (X’X)-1 X’ y(2) = [
−2 1 20 1 ][ ] [ ]
β(1) = (X’X)-1 X’ y(1) = [ 12]
[]

3. Dibangkitkan data degan N =100, dan berilah label A, B, C, D, dan E pada masing-
masing variabel dengan A adalah variabel eksogenus-nya. Analisislah data itu, setelah
model fit, isilah tabel 1 berikut.
N N
o a b c d e o a b c d e
3, 3, 2, 3, 4, 3, 3, 3, 3,
1 2 3 4 5 3 51 1 8 9 4 6
3, 4, 4, 3, 4, 4, 4,
2 4 4 5 1 4 52 4 8 2 1 2
2, 3, 3, 3, 4, 3, 4, 3,
3 8 9 4 3 4 53 2 8 2 4 9
5, 3, 4, 4, 3, 3, 3, 3, 3,
4 4 9 5 3 4 54 6 5 5 2 7
2, 3, 4, 2, 3, 2, 2, 3,
5 4 8 3 4 3 55 8 3 8 8 1
3, 3, 3, 4, 3, 3, 3, 3, 3,
6 2 4 4 4 8 56 7 3 8 9 8
4, 4, 2, 3, 4, 4, 4, 4, 4,
7 2 4 8 4 8 57 8 3 8 6 6
4, 3, 4, 4, 4, 4, 4, 4,
8 9 4 5 5 1 58 6 6 5 8 5
2, 3, 4, 3, 4, 4,
9 4 1 4 3 4 59 1 7 1 1 4
1 2, 4, 3, 3, 3, 3, 3, 4, 3,
0 5 3 2 3 9 60 9 7 9 1 7
1 3, 2, 4, 4, 2, 2, 2, 3, 2,
1 8 5 2 5 4 61 9 6 8 1 9
1 5, 4, 4, 4, 4, 3, 3, 3, 3, 3,
2 1 3 1 6 9 62 6 1 6 4 4
1 2, 1, 2, 2, 3, 3, 3, 3, 3,
3 1 7 2 3 3 63 7 1 8 6 4
1 4, 4, 4, 4, 4, 3, 3, 3, 3,
4 3 5 3 6 4 64 8 7 8 8 4
1 3, 2, 3, 3, 2, 1, 2, 1, 2,
5 3 5 8 3 2 65 9 5 1 8 2
1 4, 4, 4, 4, 4, 4, 5, 4, 4, 4,
6 1 2 2 3 2 66 9 1 9 4 7
1 3, 4, 3, 3, 3, 67 3, 3, 3, 3, 3,
7 3 1 4 2 5 1 9 1 4 2
1 3, 4, 3, 3, 3, 3, 3, 3, 3,
8 6 4 3 2 7 68 8 6 7 4 4
1 3, 3, 3, 3, 3, 4, 4, 4, 4,
9 3 3 4 2 5 69 4 3 2 5 2
2 4, 3, 3, 5, 5, 5, 5,
0 1 4 4 9 8 70 5 5 4 5 3
2 3, 3, 3, 3, 3, 3, 2, 3, 3,
1 4 1 3 2 3 71 8 8 4 9 6
2 3, 3, 3, 3, 3, 3, 3, 3, 3, 3,
2 8 1 8 5 4 72 7 6 7 9 7
2 3, 4, 3, 3, 4, 4, 4,
3 7 2 6 4 8 73 4 8 4 1 4
2 4, 4, 4, 4, 4, 3, 3, 3, 3, 3,
4 4 6 2 4 3 74 4 8 4 1 5
2 3, 3, 3, 3, 3, 3, 3, 3, 3,
5 7 5 8 4 9 75 5 1 4 3 4
2 3, 3, 3, 3, 3, 3, 3, 3, 3,
6 9 4 8 9 7 76 4 3 9 7 8
2 4, 3, 4, 3, 4, 4, 4, 4,
7 1 7 1 7 1 77 1 3 4 4 2
2 3, 3, 3, 3, 3, 3, 4, 3, 3, 3,
8 6 8 6 6 8 78 5 4 3 6 6
2 3, 3, 3, 3, 3, 4, 4, 3, 3, 4,
9 5 5 5 3 6 79 1 2 8 9 1
3 3, 4, 3, 3, 3, 4, 4, 4, 4, 4,
0 2 1 3 2 4 80 3 3 3 3 4
3 3, 3, 3, 3, 3, 4, 5, 4,
1 9 7 8 8 8 81 4 3 4 5 8
3 3, 3, 3, 3, 3, 5, 4, 1, 4, 2,
2 7 2 7 6 4 82 6 4 2 8 8
3 3, 3, 3, 3, 3, 3, 1, 3,
3 6 7 6 5 3 83 3 5 4 4 6
3 3, 3, 3, 3, 3, 4, 4, 4,
4 7 9 7 6 6 84 5 5 4 3 7
3 4, 4, 4, 4, 5, 4, 4,
5 2 7 4 4 2 85 5 1 3 8 4
3 4, 4, 4, 4, 4, 4, 4, 3, 4, 3,
6 9 4 9 7 6 86 4 8 2 3 8
3 4, 3, 4, 4, 4, 4, 4, 4, 4,
7 6 6 6 8 5 87 8 3 4 3 6
3 3, 4, 3, 3, 3, 4, 3, 4, 4,
8 7 4 7 8 9 88 8 4 6 3 3
3 4, 3, 3, 4, 3, 3, 3,
9 2 3 4 7 5 89 2 6 8 2 3
4 3, 3, 3, 3, 3, 2, 1, 1, 3, 3,
0 6 6 6 5 4 90 4 7 2 5 9
4 4, 4, 4, 4, 4, 2, 2,
1 3 4 4 6 4 91 5 7 3 8 3
4 3, 3, 3, 3, 3, 4, 3, 3, 3,
2 8 6 8 7 8 92 5 6 4 8 8
4 3, 3, 3, 3, 3, 4, 4,
3 9 1 7 2 9 93 5 4 4 8 3
4 3, 3, 3, 3, 3, 5, 3, 4, 4,
4 7 9 7 8 8 94 2 5 2 5 3
4 3, 3, 3, 3, 3, 4, 4, 4, 4,
5 8 7 6 6 6 95 2 3 3 8 1
4 2, 3, 2, 2, 2, 3, 3,
6 6 5 5 9 7 96 5 2 4 4 8
4 3, 4, 3, 3, 3, 4, 5, 4, 4, 4,
7 9 1 7 7 9 97 6 1 8 8 9
4 3, 3, 3, 3, 5, 3, 4, 3, 2,
8 9 2 4 7 9 98 4 7 2 8 7
4 4, 4, 4, 4, 5, 2, 1, 3, 2,
9 1 5 2 4 1 99 2 2 6 5 6
5 2, 2, 2, 2, 2, 10 3, 4, 4, 4, 3,
0 4 5 4 3 3 0 6 6 1 1 8

Model telah fit berdasarkan nilai RMSEA 0,00 dibawah 0,08 (sebagai syarat
fitnya model) dan output yang menyatakan:
Goodness of Fit Statistics

Degrees of Freedom = 0
Minimum Fit Function Chi-Square = 0.0 (P = 1.00)
Normal Theory Weighted Least Squares Chi-Square = 0.00 (P = 1.00)

The Model is Saturated, the Fit is Perfect !

Tabel 1. Hasil Analisis Jalur

Variabel Koef. Dampak (Effect)


laten Korelasi TE DE IE S
A-B 0,44 0,45 0,45 - 0,44
A-C 0,48 0,50 0,35 0,15 0,33
A-D 0,63 0,57 0,37 0,20 0,41
A-E 0,42 0,34 -0,15 0,49 -0,19
B-C 0,48 0,34 0,34 - 0,34
B-D 0,66 0,42 0,41 0,01 0,47
B-E 0,63 0,43 0,12 0,31 0,15
C-D 0,45 0,02 0,02 - 0,02
C-E 0,59 0,27 0,26 0,01 0,33
D-E 0,73 0,54 0,54 - 0,60

Berdasarkan tabel 1, jawablah pertanyan-pertanyaan berikut.


a. Semua variabel teramati yang ada pada model yang telah disusun yaitu
Variabel Eksogenus
X1 (a) : Kecerdasan Logis-Matematis

Variabel endogenus
X2 (b) : Pemahaman Konsep
X3 (c) : Pemecahan Masalah
X4 (d) : Kemandirian Belajar
X5 (e): Representasi Matematis

b. Variabel teramati mana yang tidak bermakna (signifikan) pengaruhnya


terhadap variabel E, dan variabel mana yang berpengaruh paling besar
terhadap variabel E

Berdasarkan output t value diatas terdapat satu hubungan yang tidak signifikan dengan
variabel e yaitu pengaruh b terhadap e (t = 1,81) ditandai dengan nilai t berwarna merah atau
nilainya kurang dari 1,96 sedangkan terdapat tiga hubungan yang signifikan dengan variabel
e yaitu pengaruh a terhadap e (t = -2,33), pengaruh c terhadap e (t = 4,63) dan pengaruh d
terhadap e (t = 6,54). Atau pengaruh pemahaman konsep matematis, pemecahan masalah
dan kemandirian belajar berpengaruh signifikan terhadap representasi matematika peserta
didik. Variabel yang berpengaruh paling besar terhadap variabel e (representasi matematika)
yaitu variabel b ( Pemahaman Konsep Matematika). Maka dapat disimpulkan bahwa
peserta didik yang memiliki pemahaman konsep matematika yang baik maka
memiliki pula kemampuan representasi matematis yang baik.

Lampiran Output Path Analisis


DATE: 6/ 3/2020
TIME: 7:49

L I S R E L 8.80

BY

Karl G. Jöreskog & Dag Sörbom

This program is published exclusively by


Scientific Software International, Inc.
7383 N. Lincoln Avenue, Suite 100
Lincolnwood, IL 60712, U.S.A.
Phone: (800)247-6113, (847)675-0720, Fax: (847)675-2140
Copyright by Scientific Software International, Inc., 1981-2006
Use of this program is subject to the terms specified in the
Universal Copyright Convention.
Website: www.ssicentral.com

The following lines were read from file D:\PERSINGGAHAN TU\KORELASI DAN
REGRESI\d\uas.SPJ:

Raw Data from file 'D:\PERSINGGAHAN TU\KORELASI DAN REGRESI\d\uas.psf'


Sample Size = 100
Relationships
c = b
d = b c
e = b c d
b = a
c = a
d = a
e = a
Path Diagram
options: SS EF
Print Residuals
End of Problem

Sample Size = 100

Covariance Matrix

b c d e a
-------- -------- -------- -------- --------
b 0.58
c 0.29 0.60
d 0.34 0.23 0.45
e 0.29 0.27 0.30 0.36
a 0.25 0.28 0.32 0.19 0.56

Number of Iterations = 0

LISREL Estimates (Maximum Likelihood)

Structural Equations

b = 0.45*a, Errorvar.= 0.47 , R² = 0.20


(0.093) (0.067)
4.90 7.00

c = 0.34*b + 0.34*a, Errorvar.= 0.41 , R² = 0.32


(0.094) (0.096) (0.058)
3.61 3.57 7.00

d = 0.41*b + 0.019*c + 0.37*a, Errorvar.= 0.19 , R² = 0.58


(0.068) (0.069) (0.070) (0.027)
6.04 0.28 5.36 7.00

e = 0.12*b + 0.26*c + 0.54*d - 0.15*a, Errorvar.= 0.12 , R² = 0.65


(0.065) (0.056) (0.082) (0.064) (0.018)
1.81 4.63 6.54 -2.33 7.00

Reduced Form Equations

b = 0.45*a, Errorvar.= 0.47, R² = 0.20


(0.093)
4.90

c = 0.50*a, Errorvar.= 0.46, R² = 0.23


(0.092)
5.42

d = 0.57*a, Errorvar.= 0.27, R² = 0.40


(0.070)
8.10

e = 0.34*a, Errorvar.= 0.30, R² = 0.18


(0.074)
4.61

Variances of Independent Variables

a
--------
0.56
(0.08)
7.00

Covariance Matrix of Latent Variables

b c d e a
-------- -------- -------- -------- --------
b 0.58
c 0.29 0.60
d 0.34 0.23 0.45
e 0.29 0.27 0.30 0.36
a 0.25 0.28 0.32 0.19 0.56

Goodness of Fit Statistics

Degrees of Freedom = 0
Minimum Fit Function Chi-Square = 0.0 (P = 1.00)
Normal Theory Weighted Least Squares Chi-Square = 0.00 (P = 1.00)

The Model is Saturated, the Fit is Perfect !

Standardized Solution

BETA
b c d e
-------- -------- -------- --------
b - - - - - - - -
c 0.34 - - - - - -
d 0.47 0.02 - - - -
e 0.15 0.33 0.60 - -

GAMMA

a
--------
b 0.44
c 0.33
d 0.41
e -0.19

Correlation Matrix of Y and X

b c d e a
-------- -------- -------- -------- --------
b 1.00
c 0.48 1.00
d 0.66 0.45 1.00
e 0.63 0.59 0.73 1.00
a 0.44 0.48 0.63 0.42 1.00

PSI
Note: This matrix is diagonal.

b c d e
-------- -------- -------- --------
0.80 0.68 0.42 0.35

Regression Matrix Y on X (Standardized)

a
--------
b 0.44
c 0.48
d 0.63
e 0.42

Total and Indirect Effects

Total Effects of X on Y

a
--------
b 0.45
(0.09)
4.90
c 0.50
(0.09)
5.42
d 0.57
(0.07)
8.10
e 0.34
(0.07)
4.61

Indirect Effects of X on Y

a
--------
b - -
c 0.15
(0.05)
2.91
d 0.20
(0.05)
3.64
e 0.49
(0.07)
6.91

Total Effects of Y on Y

b c d e
-------- -------- -------- --------
b - - - - - - - -
c 0.34 - - - - - -
(0.09)
3.61
d 0.42 0.02 - - - -
(0.06) (0.07)
6.53 0.28
e 0.43 0.27 0.54 - -
(0.07) (0.07) (0.08)
6.39 4.02 6.54

Largest Eigenvalue of B*B' (Stability Index) is 0.407

Indirect Effects of Y on Y

b c d e
-------- -------- -------- --------
b - - - - - - - -
c - - - - - - - -
d 0.01 - - - - - -
(0.02)
0.28
e 0.31 0.01 - - - -
(0.06) (0.04)
5.42 0.28

Standardized Total and Indirect Effects

Standardized Total Effects of X on Y

a
--------
b 0.44
c 0.48
d 0.63
e 0.42
Standardized Indirect Effects of X on Y

a
--------
b - -
c 0.15
d 0.22
e 0.61

Standardized Total Effects of Y on Y

b c d e
-------- -------- -------- --------
b - - - - - - - -
c 0.34 - - - - - -
d 0.48 0.02 - - - -
e 0.55 0.35 0.60 - -

Standardized Indirect Effects of Y on Y

b c d e
-------- -------- -------- --------
b - - - - - - - -
c - - - - - - - -
d 0.01 - - - - - -
e 0.40 0.01 - - - -

Time used: 0.016 Seconds

Anda mungkin juga menyukai