Anda di halaman 1dari 11

PROSEDUR BACKWARD

(Wiwiek Setya Winahju, wiwiek@statistika.its.ac.id)

1. Meregresikan variabel respon, Y, dengan semua varibel prediktor, misal X1, X2, ... , Xk.
2. Memilih satu prediktor yang mempunyai Fpartial terendah dan taraf signifikansi partial (dinotasikan Ppartial)
lebih dari Pout , kemudian dikeluarkan dari model.
Nilai Fpartial sama dengan kuadrat nilai statistik uji T.
Nilai Ppartial adalah luasan di kanan Fpartial pada distribusi F(1,), dengan derajat bebas error/residual.
Nilai Pout ditentukan, misal out, biasanya 0,1.
Nilai Ppartial tidak tersedia di MINITAB, maka diperlukan bantuan tabel distribusi F(1,); bila Fpartial < F(1,,out)

berarti prediktor dikeluarkan dari model.


3. Meregresikan Y dengan k-1 prediktor yang tersisa.
4. Mengulang langkah 2.
5. Pengeluaran prediktor satu persatu dan meregresikan
Y dengan prediktor yang tersisa terus dilakukan sampai tidak terdapat prediktor yang mempunyai tingkat
signifikansi lebih besar dari pada Pout .
6. Apabila sudah tidak terdapat prediktor yang mempunyai Fpartial < F(1,,out) , maka model inilah yang dipilih sebagai model terbaik.

Contoh :
X1

X2

15,57

2463

44,02

2048

20,42

3940

18,74
49,2

X3

X4

X5

472,92

18

4,45

566,52

1339,75

9,5

6,92

696,82

620,25

12,8

4,28

1033,15

6505

568,33

36,7

3,9

1603,62

5723

1497,6

35,7

5,5

1611,37

44,92

11520

1365,83

24

4,6

1613,27

55,48

5779

1687

43,3

5,62

1854,17

59,28

5969

1639,92

46,7

5,15

2160,55

94,39

8461

2872,33

78,7

6,18

2305,58

128,02

20106

3655,08

180,5

6,15

3503,93

96

13313

2912

60,9

5,88

3571,89

131,42

10771

3921

103,7

4,88

3741,4

127,21

15543

3865,67

126,8

5,5

4026,52

252,9

36194

7684,1

157,7

10343,81

409,2

34703

12446,33

169,4

10,78

11732,17

463,7

39204

14098,4

331,4

7,05

15414,94

510,22
86533
15524
371,6
6,35
18854,45
Sumber : Classical And Modern Regression With Applications, oleh
Raymond H. Myers, halaman 132.

Hasil Sesuai Prosedur


1. Model regresi Y sebagai fungsi X1 sampai X5,
The regression equation is
y = 1963 - 15,9 X1 + 0,0559 X2 + 1,59 X3 - 4,22 X4 - 394 X5
Predictor
Constant
X1
X2
X3
X4
X5

Coef
1963
-15,85
0,05593
1,590
-4,219
-394,3

SE Coef
1071
97,65
0,02126
3,092
7,177
209,6

T
1,83
-0,16
2,63
0,51
-0,59
-1,88

P
0,094
0,874
0,023
0,617
0,569
0,087

Analysis of Variance
Source
DF
SS
MS
F
P
Regression
5 490177488 98035498 237,79 0,000
Residual Error 11
4535052
412277
Total
16 494712540

2. Memilih prediktor untuk dikeluarkan.


Prediktor X1 mempunyai nilai T terkecil, yaitu -0,16,
berarti FPartial nya sebesar (-0,16)2 juga terkecil. Apabila Pout ditentukan 0,1, maka F(1,,out) = F(1,11,0.1) =
3,23. Karena nilai Fpartial = (-0,16)2 = 0,0256, maka X1
kurang dari 3,23, berarti harus dikeluarkan dari model.
3. Meregresikan Y dengan empat prediktor yang tersisa.
Regression Analysis: Y versus X2; X3; X4; X5
The regression equation is
Y = 2032 + 0,0561 X2 + 1,09 X3 - 5,00 X4
- 410 X5
Predictor
Constant
X2
X3
X4
X5

Coef
2032,2
0,05608
1,0884
-5,004
-410,1

SE Coef
942,1
0,02036
0,1534
5,081
178,1

T
2,16
2,75
7,10
-0,98
-2,30

P
0,052
0,017
0,000
0,344
0,040

Analysis of Variance
Source
DF
SS
MS
F
P
Regression
4 490166625 122541656 323,48 0,000
Residual Error 12
4545916
378826
Total
16 494712540

4. Prediktor X4 dengan Fpartial sebesar (-0,98)2= 0,9604.


Nilai F(1,,out) = F(1,12,0.1) = 3,18. Dengan Fpartial
sebesar 0,9604, yang berarti kurang dari 3,18, maka X4
dikeluarkan dari model.
5. Model selanjutnya adalah Y = f(X2 ,X3 ,X5).
Regression Analysis: y versus x2; x3; x5
The regression equation is
Y = 1523 + 0,0530 X2 + 0,978 X3 - 321 X5
Predictor
Coef
Constant 1523,4
X2
0,05299
X3
0,9785
X5
-321,0

SE Coef
786,9
0,02009
0,1052
153,2

T
1,94
2,64
9,31
-2,10

P
0,075
0,021
0,000
0,056

Analysis of Variance
Source
DF
SS
MS
F
P
Regression
3 489799142 163266381 431,97 0,000
Residual Error 13
4913399 377954
Total
16 494712540

6. Pada model ini menghasilkan nilai Fpartial terkecil untuk


X5 sebesar (-2,10)2 = 4,41. Nilai F(1,,out) =
F(1,13,0.1) = 3,14. Karena Fpartial > F(1,13,0.1) maka
X5 tidak perlu dikeluarkan dari model. Dengan demikian model terbaik adalah :
Y = 1523 + 0,0530 X2 + 0,978 X3 - 321 X5

PROSEDUR FORWARD
1. Meregresikan variabel respon, Y, dengan setiap variabel prediktor, misal X1, X2, ... , Xk. Kemudian dipilih
model yang mempunyai nilai R2 tertinggi. Misal model tersebut adalah yang memuat prediktor Xa, yaitu
= b0 + baXa.
Y
2. Meregresikan variabel respon, Y, dengan prediktor Xa,
ditambah dengan setiap prediktor selain Xa, satu-persatu, sehingga setiap model memuat dua prediktor, yaitu Xa dan prediktor lain. Kemudian dipilih model yang
nilai R2 nya tertinggi, misal yang mengandung tamba = b0 + baXa + bbXb.
han prediktor Xb, yaitu model Y
Prediktor terpilih, Xb, berarti mempunyai Fsequential tertinggi. Formula Fsequential untuk Xb adalah sbb :
Fseq = R(b|0,a)/MSE(model dg prediktor Xa dan Xb)/db
R(b|0,a) adalah tambahan jumlah kuadrat regresi akibat tambahan prediktor Xb pada model terdahulu
= b0 + baXa).
(yaitu : Y
Notasi db menyatakan derajat bebas Residual/Error
yang tercantum pada Tabel ANOVA.
Nilai Fsequential untuk Xb dapat diperoleh dengan cara
mengkuadratkan nilai statistik uji T prediktor Xb.
3. Pemodelan dilanjutkan dengan menambahkan setiap
satu variabel yang tersisa, sehingga model melibatkan tiga prediktor. Misal yang mempunyai nilai R2
terbesar adalah yang memuat Xc, maka model inilah
yang dipilih.
4. Proses diulang, sampai didapatkan Fsequential yang lebih
kecil dari Fin, yaitu suatu nilai yang menghasilkan tingkat signifikansi sebesar Pin , misal in, biasanya sebesar 0,1. Nilai Fin = F(1,,in), sehingga model terbaik yang

dipilih adalah model yang tidak mempunyai prediktor dengan

Fsequential < Fin.

Contoh :

Regression Analysis: Y versus X2


The regression equation is
Y = 492 + 0,247 X2
Predictor
Coef SE Coef
T
P
Constant
492,2
605,9 0,81 0,429
X2
0,24700 0,02204 11,21 0,000
S = 1875,46 R-Sq = 89,3% R-Sq(adj) = 88,6%
Analysis of Variance
Source
DF
SS
MS
F
P
Regression
1 441952483 441952483 125,65 0,000
Residual Error 15 52760057 3517337
Total
16 494712540
Regression Analysis: Y versus X3
The regression equation is
Y = - 28 + 1,12 X3
Predictor
Constant
X3

Coef SE Coef
-28,1
319,0
1,11739 0,04880

T
P
-0,09 0,931
22,90 0,000

S = 957,856 R-Sq = 97,2% R-Sq(adj) = 97,0%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
1 480950232 480950232 524,20 0,000
Residual Error 15 13762309
917487
Total
16 494712540
Regression Analysis: Y versus X4
The regression equation is
Y = - 171 + 48,4 X4
Predictor
Constant
X4

Coef
SE Coef
T
-171,1
675,2 -0,25
48,436
4,524 10,71

P
0,803
0,000

Data yang digunakan sama dengan pada Backward.

S = 1953,68 R-Sq = 88,4% R-Sq(adj) = 87,7%

Hasil Sesuai Prosedur

Analysis of Variance

1. Model regresi Y dengan setiap prediktor,

Source
DF
SS
MS
F
P
Regression
1 437459361 437459361 114,61 0,000
Residual Error 15 57253180
3816879
Total
16 494712540

Regression Analysis: Y versus X1


The regression equation is
Y = - 68 + 34,0 X1
Predictor Coef SE Coef
T
P
Constant -67,9 324,2 -0,21 0,837
X1
34,034 1,505 22,61 0,000
S = 969,531 R-Sq = 97,1% R-Sq(adj) = 97,0%
Analysis of Variance
Source
DF
SS
MS
F
P
Regression
1 480612694 480612694 511,30 0,000
Residual Error 15 14099847 939990
Total
16 494712540

Regression Analysis: Y versus X5


The regression equation is
Y = - 6991 + 2031 X5
Predictor
Constant
X5

Coef
-6991
2031,0

SE Coef
T
4502
-1,55
739,2
2,75

P
0,141
0,015

S = 4684,05 R-Sq = 33,5% R-Sq(adj) = 29,0%

Analysis of Variance
Source
DF
SS
MS
Regression
1 165607159 165607159
Residual Error 15 329105382 21940359
Total
16 494712540

F
P
7,55 0,015

2. Penambahan setiap prediktor selain X3 satu persatu


= - 28 + 1,12 X3.
pada model Y

Regression Analysis: Y versus X3; X1


The regression equation is
Y = 28 + 2,60 X3 - 45 X1
Coef
27,6
2,600
-45,2

Coef
-143,8
0,9516
8,077

SE Coef
322,5
0,1323
6,012

T
-0,45
7,19
1,34

P
0,662
0,000
0,200

S = 933,146 R-Sq = 97,5% R-Sq(adj) = 97,2%

Yang dipilih adalah model yang melibatkan X3 karena


mempunyai R2 tertinggi, yaitu 97,2 %. Bentuk model :
= - 28 + 1,12 X3
Y

Predictor
Constant
X3
X1

Predictor
Constant
X3
X4

Analysis of Variance
Source
DF
SS
MS
F
P
Regression
2 482521888 241260944 277,07 0,000
Residual Error 14 12190652
870761
Total
16 494712540
Source
X3
X4

DF
1
1

Seq SS
480950232
1571656

SE Coef
355,4
3,623
110,4

Regression Analysis: Y versus X3; X5


T
0,08
0,72
-0,41

P
0,939
0,485
0,689

The regression equation is


Y = 2586 + 1,23 X3 - 531 X5

S = 985,596 R-Sq = 97,3% R-Sq(adj) = 96,9%

Predictor
Constant
X3
X5

Analysis of Variance

S = 733,976 R-Sq = 98,5% R-Sq(adj) = 98,3%

Source
DF
SS
MS
F
P
Regression
2 481112959 240556479 247,64 0,000
Residual Error 14 13599582
971399
Total
16 494712540

Analysis of Variance

Source
X3
X1

DF
1
1

Seq SS
480950232
162727

Regression Analysis: Y versus X3; X2


The regression equation is
Y = - 68 + 0,823 X3 + 0,0749 X2
Predictor
Constant
X3
X2

Coef
-68,3
0,82287
0,07487

SE Coef
228,4
0,08296
0,01913

T
-0,30
9,92
3,91

P
0,769
0,000
0,002

S = 685,169 R-Sq = 98,7% R-Sq(adj) = 98,5%


Analysis of Variance

Coef
2585,5
1,23243
-530,9

SE Coef
807,1
0,05044
156,2

T
3,20
24,43
-3,40

P
0,006
0,000
0,004

Source
DF
SS
MS
F
P
Regression
2 487170454 243585227 452,16 0,000
Residual Error 14
7542086
538720
Total
16 494712540
Source
X3
X5

DF
1
1

Seq SS
480950232
6220223

Yang dipilih untuk dimasukkan atau ditambahkan adalah


prediktor X2, karena mempunyai tambahan Fsequensial tertinggi, yaitu sebesar 7189926/469456 = 15,3154, atau
didapatkan dari 3,912 = 15,288. Perbedaan terjadi karena
pembulatan. Pilihan pada X2 ini juga dapat dideteksi dari R2 model Y = - 68 + 0,823 X3 + 0,0749 X2 sebesar

98,7%; merupakan nilai tertinggi diantara model dengan


dua prediktor.
3. Pemodelan dengan menambahkan satu prediktor
selain X2 dan X3

Source
DF
SS
MS
F
P
Regression
2 488140158 244070079 519,90 0,000
Residual Error 14
6572383
469456
Total
16 494712540

Regression Analysis: Y versus X3; X2; X1

Source
X3
X2

Predictor
Constant
X3
X2
X1

DF
1
1

Seq SS
480950232
7189926

Regression Analysis: Y versus X3; X4


The regression equation is
Y = - 144 + 0,952 X3 + 8,08 X4

The regression equation is


Y = 7 + 2,84 X3 + 0,0757 X2 - 61,7 X1
Coef
7,4
2,845
0,07570
-61,72

SE Coef
250,5
2,554
0,01942
77,91

T
0,03
1,11
3,90
-0,79

P
0,977
0,285
0,002
0,442

S = 694,468 R-Sq = 98,7% R-Sq(adj) = 98,4%

Analysis of Variance
Source
DF
SS
MS
F
P
Regression
3 488442818 162814273 337,59 0,000
Residual Error 13 6269722
482286
Total
16 494712540
Source
X3
X2
X1

DF
1
1
1

Seq SS
480950232
7189926
302660

Regression Analysis: Y versus X3; X2; X4


The regression equation is
Y = - 81 + 0,810 X3 + 0,0731 X2 + 0,94 X4
Predictor
Constant
X3
X2
X4

Coef
-80,9
0,8103
0,07314
0,942

SE Coef
246,1
0,1092
0,02188
5,048

T
-0,33
7,42
3,34
0,19

P
0,748
0,000
0,005
0,855

S = 710,083 R-Sq = 98,7% R-Sq(adj) = 98,4%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
3 488157705 162719235 322,72 0,000
Residual Error 13
6554835
504218
Total
16 494712540
Source
X3
X2
X4

DF
1
1
1

SE Coef
786,9
0,1052
0,02009
153,2

T
1,94
9,31
2,64
-2,10

P
0,075
0,000
0,021
0,056

S = 614,779 R-Sq = 99,0% R-Sq(adj) = 98,8%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
3 489799142 163266381 431,97 0,000
Residual Error 13 4913399
377954
Total
16 494712540
Source
X3
X2
X5

DF
1
1
1

The regression equation is


Y = 1560 + 2,76 X3 + 0,0541 X2 - 315 X5
- 54,6 X1
Predictor
Constant
X3
X2
X5
X1

Coef
1559,9
2,763
0,05414
-314,8
-54,55

SE Coef
800,5
2,296
0,02046
155,8
70,13

T
1,95
1,20
2,65
-2,02
-0,78

P
0,075
0,252
0,021
0,066
0,452

S = 624,334 R-Sq = 99,1% R-Sq(adj) = 98,7%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
4 490035023 122508756 314,29 0,000
Residual Error 12
4677517
389793
Total
16 494712540
Source
X3
X2
X5
X1

DF
1
1
1
1

Seq SS
480950232
7189926
1658984
235881

The regression equation is


Y = 2032 + 1,09 X3 + 0,0561 X2 - 410 X5
- 5,00 X4

The regression equation is


Y = 1523 + 0,978 X3 + 0,0530 X2 - 321 X5
Coef
1523,4
0,9785
0,05299
-321,0

Regression Analysis: Y versus X3; X2; X5; X1

Regression Analysis: Y versus X3; X2; X5; X4

Seq SS
480950232
7189926
17547

Regression Analysis: Y versus X3; X2; X5

Predictor
Constant
X3
X2
X5

4. Pemodelan dengan menambahkan satu prediktor


selain X2 , X3, dan X5

Seq SS
480950232
7189926
1658984

Dapat dideteksi bahwa prediktor X5 mempunyai Jumlah


Kuadrat Sequensial (Seq SS) sebesar 1658984. Ini nilai
tertinggi bila dibandingkan dengan Seq SS X1 dan X4.
Nilai R2 pada model ini juga tertinggi.

Predictor
Constant
X3
X2
X5
X4

Coef
2032,2
1,0884
0,05608
-410,1
-5,004

SE Coef
942,1
0,1534
0,02036
178,1
5,081

T
2,16
7,10
2,75
-2,30
-0,98

P
0,052
0,000
0,017
0,040
0,344

S = 615,489 R-Sq = 99,1% R-Sq(adj) = 98,8%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
4 490166625 122541656 323,48 0,000
Residual Error 12
4545916
378826
Total
16 494712540
Source
X3
X2
X5
X4

DF
1
1
1
1

Seq SS
480950232
7189926
1658984
367483

Prediktor X1 dan X4 menghasilkan Seq SS masing-masing sebesar 235881 dan 367483. Adapun nilai Fsequenensial
masing-masing adalah (-0,78)2 dan (-0,98)2. Bila
nilai F(1,12,0.1) = 3,18, maka Fsequenensial prediktor X1 dan X4
lebih kecil dari pada Fin, sehingga tidak perlu dimasukkan ke dalam model. Dengan demikian model terbaik adalah :
Y = 1523 + 0,978 X3 + 0,0530 X2 - 321 X5

KORELASI PARSIAL
Perbedaan utama antara korelasi dengan korelasi parsial
ialah; pada korelasi antara variable X dengan Y hanya
terdapat variable X dan Y saja, sedang pada korelasi parsial antara variable X dengan Y terdapat variable lain, misal Z, yang disebut sebagai variable pengoreksi. Korelasi
parsial ini sangat berguna untuk memilih variabel prediktor yang dimasukkan ke dalam model.
Pengertian korelasi parsial lebih lanjut akan diuraikan sebagai berikut. Misal terdapat variable respon Y dengan k
predictor, yaitu X1, X2, , Xk..
Kemudian diregresikan Y terhadap X1, maka akan terbentuk model regresi :
Y = 0 + 1 X1 + ,
dan timbul variabel baru, yaitu Y*, X*2, X*3, ... , X*k,
dengan :
Y* adalah sisaan/residual model Y = 0 + 1 X1 + ,
X*2 adalah sisaan model X2 = 02 + 12 X1 + ,

X*k adalah sisaan model Xk = 0k + 1k X1 + .


Korelasi antara Y* dengan X*2 dinotasikan r2y.1, disebut
korelasi parsial, dibaca korelasi parsial antara X2
dengan Y, setelah kedua variabel tsb terkoreksi oleh X1.
Korelasi parsial ini dapat dinyatakan oleh persamaan
berikut :
r2y.1 = (r2y r12 r1y)/{(1 r21y)(1 r212)}1/2
Korelasi parsial yang lain : r3y.1 , r4y.1 , ... , rpy.1, dll. Variabel pengoreksi X2 menghasilan korelasi parsial : r1y.2, r3y.2,
r4y.2 , ... , rpy.2. Bentuk umum korelasi parsial dengan satu
variabel pengoreksi adalah rjy.t, dengan j t, j dan t masing-masing sama dengan 1, 2, ... , k.
Lebih lanjut adalah korelasi parsial yang dinotasikan r3y.12,
korelasi parsial dengan dua variabel pengoreksi, X1 dan
X2. Bila Y diregresikan terhadap X1 dan X2 akan terbentuk model :
Y = 0 + 1 X1 + 2 X2 + ,
dan terbentuk variabel baru Y**, X**3, X**4, ... , X**k,
dengan :
Y** adalah sisaan/residual model Y = 00 + 11X1 + 22X2 + ,
X**3 adalah sisaan model X3 = 003 + 113 X1+ 223 X2 + ,
X**4 adalah sisaan model X4 = 004 + 114 X1+ 224 X2 + ,

X**k adalah sisaan model Xk = 00k+ 11k X1 + 22k X2 + .


Korelasi parsial r3y.12 merupakan korelasi antara X**3
dengan Y**. Adapun bentuk umum korelasi parsial dengan

dua variabel pengoreksi adalah rjy.tu, dengan j t u,


dan j, t, u, masing-masing bernilai 1, 2, ... , k. Banyak variabel pengoreksi dapat ditingkatkan sesuai kebutuhan.

PROSEDUR STEPWISE
1. Meregresikan variabel respon, Y, dengan setiap variabel prediktor, misal X1, X2, ... , Xk. Kemudian dipilih
model yang mempunyai nilai R2 tertinggi. Misal model tersebut adalah yang memuat prediktor Xa, yaitu
= b0 + baXa. Bila pengaruh Xa bermakna, maka Xa
Y
dipertahankan.
Pemilihan juga dapat dilakukan melalui korelasi antara
respon dengan setiap prediktor. Prediktor yang korelasinya tertinggi dimasukkan ke dalam model. Apabila
terdapat dua prediktor bernilai korelasi sama, dipilih
yang memiliki R2 tertinggi.
2. Menghitung korelasi parsial antara setiap prediktor (kecuali Xa ) dengan respon, didapatkan : r1y.a , r2y.a , ... ,
rky.a . Prediktor yang korelasi parsial tertinggi dimasukkan kedalam model. Misal yang korelasinya tertinggi
adalah rby.a , maka prediktor yang dipilih ialah Xb.
3. Meregresikan Y terhadap Xa dan Xb. Bila kedua prediktor bermakna, keduanya dipertahankan.
4. Menghitung korelasi parsial antara setiap prediktor (kecuali Xa dan Xb) dengan respon (Xa dan Xb sebagai pengoreksi), didapatkan : r1y.ab , r2y.ab , dst. Kemudian dipilih prediktor dengan korelasi parsial tertinggi, misal
Xc.
5. Langkah dilanjutkan sampai tidak terdapat prediktor
yang bermakna.

Contoh :
Data yang digunakan sama dengan pada Backward.

Hasil Sesuai Prosedur


1. Model regresi Y dengan setiap prediktor,

Correlations: X1; X2; X3; X4; X5; Y


X1
0,907
0,000

X2

X3

1,000
0,000
0,936
0,000

0,907
0,000
0,910
0,000

0,933
0,000

X5

0,671
0,003

0,447
0,072

0,671
0,003

0,463
0,061

0,986
0,000

0,945
0,000

0,986
0,000

0,940
0,000

X2
X3
X4

X4

X5

0,579
0,015

Terdapat dua prediktor yang korelasinya dengan Y sama,


yaitu X1 dan X3, sebesar 0,986. Model dengan R2 tertinggi
ialah yang menggunakan prediktor X3, yaitu :
= - 28 + 1,12 X3.
Y
Prediktor X3 bermakna, maka X3 dipertahankan.

Correlations: Y**; X1**; X4**; X5**


Y**
-0,215
0,408

X1**

X4**

0,052
0,844

0,554
0,021

X5**

-0,502
0,040

0,051
0,847

X1**

2. Menghitung korelasi parsial


Correlations: Y*; X1*; X2*; X4*; X5*
Y*
0,109
0,678

X1*

X2*

-0,656
0,004

0,055
0,833

X4*

-0,315
0,218

0,494
0,044

0,509
0,037

X5*

0,451
0,069

0,020
0,939

-0,004
0,986

X1*

X2*

X4*

X4**

-0,508
0,037

Korelasi parsial antara X1 dengan Y terkoreksi oleh X3 dan


X2, dinotasikan r1y.32, sebesar -0,215,r4y.32 = 0,052,dan
r5y.32 = -0,502.Yang tertinggi adalah r5y.32, maka prediktor yang dimasukkan ke dalam model selanjutnya adalah X5.
5. Pemodelan dengan predictor X3, X2, dan X5

-0,118
0,653

Regression Analysis: Y versus X3; X2; X5


The regression equation is
Y = 1523 + 0,978 X3 + 0,0530 X2 - 321 X5

Cell Contents: Pearson correlation


P-Value

Korelasi antara X2* dengan Y*, atau korelasi parsial


antara X2 dengan Y yang terkoreksi oleh X3, dinotasikan
r2Y,3, adalah sebesar -0,656.Ini merupakan nilai korelasi
parsial terbesar, maka X2 dimasukkan ke dalam model.

Predictor
Constant
X3
X2
X5

3. Meregresikan Y terhadap X3 dan X2

Prediktor X5 bermakna bila digunakan taraf signifikansi


0,10, maka X5 dipertahankan di dalam model.

Regression Analysis: Y versus X3; X2


The regression equation is
Y = - 68 + 0,823 X3 + 0,0749 X2
Predictor
Constant
X3
X2

Coef
-68,3
0,82287
0,07487

SE Coef
228,4
0,08296
0,01913

T
-0,30
9,92
3,91

P
0,769
0,000
0,002

S = 685,169 R-Sq = 98,7% R-Sq(adj) = 98,5%


Analysis of Variance
Source
DF
SS
MS
F
P
Regression
2 488140158 244070079 519,90 0,000
Residual Error 14
6572383
469456
Total
16 494712540

Prediktor X3 dan X2 keduanya berpengaruh secara bermakna, maka keduanya dipertahankan berada didalam
model.
4. Menghitung korelasi parsial lanjutan
Selanjutnya dihitung korelasi parsial dengan dua variable
pengoreksi, yaitu X3 dan X2. Hasilnya ditampilkan sebagai berikut :

Coef
1523,4
0,9785
0,05299
-321,0

SE Coef
786,9
0,1052
0,02009
153,2

T
1,94
9,31
2,64
-2,10

P
0,075
0,000
0,021
0,056

Selanjutnya dihitung korelasi parsial dengan tiga variable


pengoreksi, yaitu X3, X2, dan X5. Hasilnya ditampilkan
sebagai berikut :

Correlations: Y***, X1***, X4***


X1***
X4***

Y***
-0.219
0.398

X1***

-0.273
0.288

0.674
0.003

Cell Contents: Pearson correlation


P-Value

Tampak bahwa r1y.325 = -0.219 dan r4y.325 = -0.273.


Nilai yang kecil dan tidak bermakna, ditandai oleh nilai P
masing-masing 0.398 dan 0.288. Model yang dipilih:
Y = 1523 + 0,978 X3 + 0,0530 X2 - 321 X5

Penggunaan MINITAB
Pada MINITAB, metode Backward dan Forward tersedia
di dalam menu Regresi Stepwise.
MTB > Stepwise 'Y' 'X1'-'X5';
SUBC>
Backward;
SUBC>
ARemove 0.1;
SUBC>
Best 0;
SUBC>
Constant.

Forward selection.

Response is Y on 5 predictors, with N =


17
Step
Constant

1
-28.13

2
-68.31

3
1523.39

X3
T-Value
P-Value

1.117
22.90
0.000

0.823
9.92
0.000

0.978
9.31
0.000

0.075
3.91
0.002

0.053
2.64
0.021

Stepwise Regression: Y versus X1, X2, X3,


X4, X5

X2
T-Value
P-Value

Backward elimination.

X5
T-Value
P-Value

Alpha-to-Remove: 0.1

Response is Y on 5 predictors, with N =


17
Model
Pertama

Step
Constant

1
1963

Model
Ke dua

Model
Ke tiga

2
2032

3
1523

X1
T-Value
P-Value

-16
-0.16
0.874

X2
T-Value
P-Value

0.056
2.63
0.023

0.056
2.75
0.017

0.053
2.64
0.021

X3
T-Value
P-Value

1.59
0.51
0.617

1.09
7.10
0.000

0.98
9.31
0.000

X4
T-Value
P-Value

-4.2
-0.59
0.569

-5.0
-0.98
0.344

X5
T-Value
P-Value

-394
-1.88
0.087

-410
-2.30
0.040

-321
-2.10
0.056

S
R-Sq
R-Sq(adj)
Mallows Cp

642
99.08
98.67
6.0

615
99.08
98.77
4.0

615
99.01
98.78
2.9

Alpha-to-Enter: 0.1

S
R-Sq
R-Sq(adj)
Mallows Cp

-321
-2.10
0.056
958
97.22
97.03
20.4

685
98.67
98.48
4.9

615
99.01
98.78
2.9

More? (Yes, No, Subcommand, or Help)


SUBC> Yes
No variables entered or removed
More? (Yes, No, Subcommand, or Help)
SUBC> no
MTB > Stepwise 'Y' 'X1'-'X5';
SUBC>
AEnter 0.1;
SUBC>
ARemove 0.1;
SUBC>
Best 0;
SUBC>
Constant.

Stepwise Regression: Y versus X1, X2, X3, X4,


X5
Alpha-to-Enter: 0.1

More? (Yes, No, Subcommand, or Help)


SUBC> Yes
No variables entered or removed
More? (Yes, No, Subcommand, or Help)
SUBC> No
MTB > Stepwise 'Y' 'X1'-'X5';
SUBC>
Forward;
SUBC>
AEnter 0.10;
SUBC>
Best 0;
SUBC>
Constant.

Stepwise Regression: Y versus X1, X2, X3,


X4, X5

Alpha-to-Remove: 0.1

Response is Y on 5 predictors, with N =


17
Step
Constant

1
-28.13

2
-68.31

3
1523.39

X3
T-Value
P-Value

1.117
22.90
0.000

0.823
9.92
0.000

0.978
9.31
0.000

0.075
3.91
0.002

0.053
2.64
0.021

X2
T-Value
P-Value
X5
T-Value
P-Value
S
R-Sq
R-Sq(adj)
Mallows Cp

-321
-2.10
0.056
958
97.22
97.03
20.4

685
98.67
98.48
4.9

615
99.01
98.78
2.9

More? (Yes, No, Subcommand, or Help)


SUBC> yes
No variables entered or removed

Model yang dipilih:


Y = 1523 + 0,978 X3 + 0,0530 X2 - 321 X5

Rangkaian command di MINITAB


MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >

Name c7 "RESI1"
Regress 'Y' 1 'X3';
Residuals 'RESI1';
Constant;
Brief 0.
name c7 'Y*'
Name c8 "RESI1"
Regress 'X3' 1 'X1';
Residuals 'RESI1';
Constant;
Brief 0.
name c8 'X1*'
Name c9 "RESI1"
Regress 'X3' 1 'X2';
Residuals 'RESI1';
Constant;
Brief 0.
name c9 'X2*'
Name c10 "RESI1"
Regress 'X3' 1 'X4';
Residuals 'RESI1';
Constant;
Brief 0.
name c10 'X4*'
Name c11 "RESI1"
Regress 'X3' 1 'X5';
Residuals 'RESI1';
Constant;
Brief 0.
name C11 'X5*'
Correlation 'Y*'-'X5*'.

Y*
0,109
0,678

X1*

X2*

-0,656
0,004

0,055
0,833

X4*

-0,315
0,218

0,494
0,044

0,509
0,037

X5*

0,451
0,069

0,020
0,939

-0,004
0,986

Y**
-0,215
0,408

X1**

X4**

0,052
0,844

0,554
0,021

X5**

-0,502
0,040

0,051
0,847

X1**

X4**

-0,508
0,037

Cell Contents: Pearson correlation


P-Value
MTB > Regress 'Y' 2 'X3' 'X2';
SUBC>
Constant;
SUBC>
Brief 1.

Regression Analysis: Y versus X3; X2

X2*

The regression equation is


Y = - 68 + 0,823 X3 + 0,0749 X2

X4*
Predictor
Constant
X3
X2

Coef
-68,3
0,82287
0,07487

S = 685,169
98,5%
-0,118
0,653

Cell Contents: Pearson correlation


P-Value
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>

name c13 'X1**'


Name c14 "RESI1"
Regress 'X4' 2 'X3' 'X2';
Residuals 'RESI1';
Constant;
Brief 0.
name c14 'X4**'
Name c15 "RESI1"
Regress 'X5' 2 'X3' 'X2';
Residuals 'RESI1';
Constant;
Brief 0.
name c15 'X5**'
Correlation 'Y**'-'X5**'.

Correlations: Y**; X1**; X4**; X5**

Correlations: Y*; X1*; X2*; X4*; X5*


X1*

MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >

Name c12 "RESI1"


Regress 'Y' 2 'X3' 'X2';
Residuals 'RESI1';
Constant;
Brief 0.
name c12 'Y**'
Name c13 "RESI1"
Regress 'X1' 2 'X3' 'X2';
Residuals 'RESI1';
Constant;
Brief 0.

SE Coef
228,4
0,08296
0,01913

T
-0,30
9,92
3,91

R-Sq = 98,7%

P
0,769
0,000
0,002

R-Sq(adj) =

Analysis of Variance
Source
F
P
Regression
519,90 0,000
Residual Error
Total

DF

SS

MS

488140158

244070079

14
16

6572383
494712540

469456

MTB > Name c16 "RESI1"


MTB > Regress 'Y' 3 'X3' 'X2' 'X5';
SUBC>
Residuals 'RESI1';
SUBC>
Constant;
SUBC>
Brief 0.

MTB > name c16 'Y***'


MTB > Name c17 "RESI1"
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >
MTB >
SUBC>
SUBC>
SUBC>
MTB >
MTB >

More? (Yes, No, Subcommand, or Help)

Regress 'X1' 3 'X3' 'X2' 'X5';


Residuals 'RESI1';
Constant;
Brief 0.
name c17 'X1***'
Name c18 "RESI1"
Regress 'X4' 3 'X3' 'X2' 'X5';
Residuals 'RESI1';
Constant;
Brief 0.
name c18 'X4***'
Correlation 'Y***' 'X1***' 'X4***'.

Correlations: Y***, X1***, X4***


Y***
-0.219
0.398

X1***

-0.273
0.288

0.674
0.003

X1***
X4***

SUBC> Yes
No variables entered or removed
More? (Yes, No, Subcommand, or Help)
SUBC> No
MTB > Stepwise 'Y' 'X1'-'X5';
SUBC>
Forward;
SUBC>
AEnter 0.10;
SUBC>
Best 0;
SUBC>
Constant.

Stepwise Regression: Y versus X1, X2, X3,


X4, X5
Forward selection.

Alpha-to-Enter: 0.1

Response is Y on 5 predictors, with N = 17

Cell Contents: Pearson correlation


P-Value

Step
Constant

1
-28.13

2
-68.31

3
1523.39

MTB > Stepwise 'Y' 'X1'-'X5';


SUBC>
Backward;
SUBC>
ARemove 0.1;
SUBC>
Best 0;
SUBC>
Constant.

X3
T-Value
P-Value

1.117
22.90
0.000

0.823
9.92
0.000

0.978
9.31
0.000

0.075
3.91
0.002

0.053
2.64
0.021

Stepwise Regression: Y versus X1, X2, X3,


X4, X5
Backward elimination.

Alpha-to-Remove: 0.1

Response is Y on 5 predictors, with N = 17


Step
Constant

1
1963

2
2032

3
1523

X2
T-Value
P-Value
X5
T-Value
P-Value
S
R-Sq
R-Sq(adj)
Mallows Cp

-321
-2.10
0.056
958
97.22
97.03
20.4

685
98.67
98.48
4.9

615
99.01
98.78
2.9

X1
T-Value
P-Value

-16
-0.16
0.874

X2
T-Value
P-Value

0.056
2.63
0.023

0.056
2.75
0.017

0.053
2.64
0.021

SUBC> Yes

X3
T-Value
P-Value

1.59
0.51
0.617

1.09
7.10
0.000

0.98
9.31
0.000

More? (Yes, No, Subcommand, or Help)

X4
T-Value
P-Value

-4.2
-0.59
0.569

-5.0
-0.98
0.344

X5
T-Value
P-Value

-394
-1.88
0.087

-410
-2.30
0.040

-321
-2.10
0.056

S
R-Sq
R-Sq(adj)
Mallows Cp

642
99.08
98.67
6.0

615
99.08
98.77
4.0

615
99.01
98.78
2.9

More? (Yes, No, Subcommand, or Help)

No variables entered or removed

SUBC> no
MTB > Stepwise 'Y' 'X1'-'X5';
SUBC>
AEnter 0.1;
SUBC>
ARemove 0.1;
SUBC>
Best 0;
SUBC>
Constant.

Stepwise Regression: Y versus X1, X2, X3,


X4, X5

Alpha-to-Enter: 0.1

Alpha-to-Remove: 0.1

Response is Y on 5 predictors, with N = 17


Step
Constant
X3
T-Value
P-Value

1
-28.13

2
-68.31

3
1523.39

1.117
22.90
0.000

0.823
9.92
0.000

0.978
9.31
0.000

0.075
3.91
0.002

0.053
2.64
0.021

X2
T-Value
P-Value
X5
T-Value
P-Value
S
R-Sq
R-Sq(adj)
Mallows Cp

-321
-2.10
0.056
958
97.22
97.03
20.4

685
98.67
98.48
4.9

615
99.01
98.78
2.9

More? (Yes, No, Subcommand, or Help)


SUBC> yes
No variables entered or removed
More? (Yes, No, Subcommand, or Help)
SUBC> no

WORKSHEET
C1

C2

C3

C4

C5

C6

C7

C8

C9

C10

C11

C12

C13

C14

C15

C16

C17

C18

X1

X2

X3

X4

X5

Y*

X2*

X4*

X5*

Y**

X1**

X4**

X5**

Y***

X1***

X4***

15.57

2463

472.92

18

4.45

566.52

66.21142

-723.448

-261.831

-1006.96

61.28538

-1.18464

-6.15525

-0.57073

-121.889

-1.12057

-16.321

44.02

2048

1339.75

9.5

6.92

696.82

-772.078

230.1936

965.5143

-5274.65

-490.638

-1.12983

-25.4444

1.450719

-25.0283

-1.29268

0.395689

20.42

3940

620.25

12.8

4.28

1033.15

368.216

-885.084

106.0495

-506.241

296.1043

-1.1818

-16.0243

-0.71147

67.757

-1.10193

-28.697

18.74

6505

568.33

36.7

3.9

1603.62

996.701

-1473.56

-959.555

231.7646

717.2669

-1.19548

3.868157

-0.89145

431.156

-1.09542

-12.0103

49.2

5723

1497.6

35.7

5.5

1611.37

-33.9082

-380.71

12.12865

-2164.97

18.8894

-1.17149

-8.08058

0.204705

84.58975

-1.19446

-4.43438

44.92

11520

1365.83

24

4.6

1613.27

115.2306

-1725.12

376.5975

-425.862

-304.778

-1.21281

-28.6456

-0.23624

-380.599

-1.1863

-32.8535

55.48

5779

1687

43.3

5.62

1854.17

-2.74231

-203.025

-120.815

-2225.02

101.6445

-1.09775

-3.10671

0.236696

177.6121

-1.12432

1.109298

59.28

5969

1639.92

46.7

5.15

2160.55

356.2445

-289.85

-312.101

-1295.09

432.5409

4.242203

0.572474

-0.19753

369.1446

4.264376

-2.94586

94.39

8461

2872.33

78.7

6.18

2305.58

-875.811

421.2716

-436.925

-2203.79

-623.114

-1.06029

11.58644

0.404837

-493.181

-1.10574

18.79737

128.02

20106

3655.08

180.5

6.15

3503.93

-552.1

-1231.94

-3971.88

-1358.68

-940.682

6.765704

81.62234

0.789152

-687.403

6.67712

95.67867

96

13313

2912

60.9

5.88

3571.89

346.172

-554.023

357.7066

-1540.49

247.3033

-0.81586

-15.6315

0.416355

380.9328

-0.8626

-8.2154

131.42

10771

3921

103.7

4.88

3741.4

-611.767

986.7248

-448.594

1547.258

-223.158

1.579736

18.38197

-1.24612

-623.102

1.719616

-3.81391

127.21

15543

3865.67

126.8

5.5

4026.52

-264.822

-66.8349

-1483.68

203.1017

-249.768

-0.88217

33.47637

-0.274

-337.709

-0.85141

28.59591

252.9

36194

7684.1

157.7

10343.81

1785.784

-568.28

1024.172

903.404

1379.377

-0.57939

-24.3346

0.782444

1630.503

-0.66722

-10.3977

409.2

34703

12446.33

169.4

10.78

11732.17

-2147.14

4505.845

5290.164

-2192.05

-1039.36

-0.2889

-73.3541

2.151926

-348.694

-0.53046

-35.0241

463.7

39204

14098.4

331.4

7.05

15414.94

-310.376

5216.374

71.23446

7213.766

946.996

0.021602

58.3877

-2.07223

281.9136

0.254213

21.47734

510.22

86533

15524

371.6

6.35

18854.45

1536.18

X1*
35.2939
7
35.3716
8
34.8647
9
34.1273
5
35.4087
8
34.0324
5
33.4834
9
129.367
33.3888
2
208.426
24.0088
7
46.0901
26.8409
4
16.0232
7
16.4471
5
8.13050
3
16.4610
2

-3258.53

-208.191

10094.49

-329.913

-0.80883

-7.11845

-0.23708

-406.003

-0.78221

-11.3412

Anda mungkin juga menyukai