Anda di halaman 1dari 235

ESTIMASI MULTIVARIATE ADAPTIVE

REGRESSION SPLINES (MARS) PADA INDEKS HARGA

SAHAM GABUNGAN (IHSG)

Skripsi

disusun sebagai salah satu syarat

untuk memperoleh gelar Sarjana Sains

Program Studi Matematika

oleh

Elisa Desi Asriani

4111412007

JURUSAN MATEMATIKA

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS NEGERI SEMARANG

2016
ii
iii
iv
MOTTO DAN PERSEMBAHAN

MOTTO

Sesungguhnya sesudah kesulitan itu ada kemudahan (QS. Al-Insyirah: 6).

Maka nikmat Tuhan kamu manakah yang kamu dustakan? (QS. Ar-Rahman: 55)

Bukanlah hidup kalau tidak ada masalah, bukanlah sukses kalau tidak melalui

rintangan, bukanlah lulus kalau tidak ada ujian, dan bukanlah berhasil kalau

tidak berusaha.

PERSEMBAHAN

Untuk kedua orang tua tercinta Ibu Surati dan Bapak

Santoso

Untuk Kakak dan Adikku tersayang, Elina Ninda Pamela

dan Elfan Handi Ardana

Untuk keluarga besar tercinta

Untuk sahabat-sahabatku Septi, Rizki, Vera, Nina, Uus

Untuk teman-teman Matematika Angkatan 2012

Untuk teman-teman Kos “Wisma Purnama Indah”

Untuk teman-teman PKL BPS Kabupaten Jepara

Untuk teman-teman KKN Alternatif 2A Hidroponik Boja

Untuk Universitas Negeri Semarang (UNNES)

v
KATA PENGANTAR

Puji syukur kehadirat Allah SWT yang telah memberikan nikmat dan karunia-

Nya serta kemudahan sehingga penulis dapat menyelesaikan skripsi yang berjudul

“Estimasi Multivariate Adaptive Regression Splines (MARS) pada Indeks Harga

Saham Gabungan (IHSG)”.

Penyusunan skripsi ini dapat diselesaikan berkat kerjasama, bantuan, dan

dorongan dari berbagai pihak. Oleh karena itu penulis mengucapkan terima kasih

kepada :

1. Prof. Dr. Fathur Rokhman, M.Hum., Rektor Universitas Negeri Semarang.

2. Prof. Dr. Zaenuri, S.E., M.Si., Akt., Dekan FMIPA Universitas Negeri

Semarang.

3. Drs. Arief Agoestanto, M.Si., Ketua Jurusan Matematika FMIPA Universitas

Negeri Semarang.

4. Drs. Mashuri, M.Si., Ketua Prodi Matematika FMIPA Universitas Negeri

Semarang.

5. Drs. Sugiman, M.Si., selaku Dosen Pembimbing I yang telah memberikan

bimbingan, pengarahan, nasehat, saran dan dorongan selama penyusunan

skripsi ini.

6. Putriaji Hendikawati, S.Si., M.Pd., M.Sc., selaku Dosen Pembimbing II yang

telah memberikan bimbingan, pengarahan, nasehat, saran dan dorongan

selama penyusunan skripsi ini.

vi
7. Drs. Arief Agoestanto, M.Si., selaku Dosen Penguji yang telah memberikan

penilaian dan saran dalam perbaikan skripsi ini.

8. Prof. Dr. St. Budi Waluya, M.Si., selaku Dosen Wali saya sejak Semester 1

hingga sekarang yang telah memberikan bimbingan dan arahan.

9. Staf Dosen Matematika Universitas Negeri Semarang yang telah membekali

penulis dengan berbagai ilmu selama mengikuti perkuliahan sampai akhir

penulisan skripsi ini.

10. Staf Tata Usaha Universitas Negeri Semarang yang telah banyak membantu

penulis selama mengikuti perkuliahan dan penulisan skripsi ini.

11. Ibu dan Bapak tercinta, Ibu Surati dan Bapak Santoso yang senantiasa

memberikan dukungan dan doa yang tiada putusnya.

12. Kakak dan Adik tersayang, Elina Ninda Pamela dan Elfan Handi Ardana yang

selalu memberikan semangat dan doa.

13. Sahabat dan teman terbaikku, Nur Septiani yang setia membantu, menemani,

selalu ada dalam susah maupun senang, serta selalu memberikan motivasi,

semangat, dan doa.

14. Sahabat dan teman terbaik di kos, Rizki Nurul Anifah yang setia membantu,

menemani disaat susah maupun senang, menghibur, memberikan semangat,

nasehat, dan doa.

15. Adik kos ku tersayang, Verannita Octaviani yang setia membantu, menemani

disaat susah maupun senang, menghibur, memberikan semangat, dan doa.

16. Teman sekamarku Nina Faradina dan Uswatun Khasanah yang senatiasa

memberikan dukungan, semangat, dan doa.

vii
17. Kakak-kakak Rizal Yunianto Ghofar, Kishartini, dan Yani Puspita Kristiani

yang membantu dalam skripsi ini, memberikan pengarahan, motivasi,

semangat, dan doa.

18. Teman-teman Matematika angkatan 2012 yang berjuang bersama untuk

mewujudkan cita-cita.

19. Teman-teman kos “Wisma Purnama Indah” yang memberikan dukungan,

semangat, dan doa.

20. Teman-teman PKL BPS Kabupaten Jepara yang memberikan semangat dan

doa.

21. Teman-teman KKN Alternatif 2A 2015 Hidroponik, Dusun Segunung,

Banjarejo, Boja, Kendal yang memberikan semangat dan doa.

22. Semua pihak yang tidak dapat disebutkan satu per satu yang telah

memberikan bantuan.

Penulis menyadari bahwa dalam penyusunan skripsi ini masih terdapat banyak

kekurangan. Oleh karena itu, penulis mengharapkan saran dan kritik yang

membangun dari pembaca.

Semarang, 9 Februari 2016

Penulis

viii
ABSTRAK

Asriani, Elisa Desi. 2016. Estimasi Multivariate Adaptive Regression Splines


(MARS) pada Indeks Harga Saham Gabungan (IHSG). Skripsi, Jurusan
Matematika Fakultas Matematika dan Ilmu Pengetahuan Alam Universitas Negeri
Semarang. Pembimbing Utama Drs. Sugiman, M.Si. dan Pembimbing Pendamping
Putriaji Hendikawati, S.Si., M.Pd., M.Sc.

Kata kunci: Regresi Nonparametrik, Estimasi, IHSG, MARS, GCV.

Analisis regresi nonparametrik digunakan apabila salah satu asumsi


parameter regresi tidak terpenuhi dan tidak diketahui bentuk kurva regresi. Indeks
harga saham gabungan (IHSG) merupakan suatu rangkaian informasi historis
mengenai pergerakan saham gabungan sampai tanggal tertentu, digunakan para
investor untuk melihat kenaikan atau penurunan harga saham. Variabel ekonomi
yang mempengaruhi IHSG diantaranya yaitu inflasi, tingkat suku bunga di
Indonesia, nilai tukar (kurs) rupiah terhadap dolar Amerika, indeks saham Dow
Jones, indeks saham Nikkei 225, dan indeks saham Hang Seng. Metode MARS
merupakan salah satu metode yang menggunakan pendekatan regresi
nonparametrik dan data berdimensi tinggi yaitu data yang memiliki jumlah variabel
prediktor sebesar 3 ≤ 𝑝 ≤ 20 dan sampel data yang berukuran 50 ≤ 𝑛 ≤ 1000.
MARS merupakan salah satu metode yang sangat cocok untuk menganalisis IHSG
karena nonparametrik untuk data berdimensi tinggi. Penelitian ini bertujuan untuk
mengetahui: (1) estimasi terbaik MARS pada variabel prediktor IHSG
menggunakan kriteria GCV; (2) besar tingkat pentingnya variabel-variabel
prediktor terhadap model terbaik yang diperoleh.
Metode analisis MARS pada IHSG dengan melakukan pengujian parameter
model regresi nonparametrik, standarisasi, dan model MARS diperoleh dari
kombinasi nilai fungsi basis (BF), Maksimum Interaksi (MI), dan Minimum
Observasi (MO) secara trial and error. Hasil penelitian estimasi MARS terbaik
pada IHSG adalah BF=18, MI=1, dan MO=1, GCV terkecil 0,05640 dengan bentuk
persamaan Y = −1,46041 + 0,910129∗ BF1 − 0,467099∗ BF2 − 6,69852∗ BF4 +
6,40946∗ BF6 + 1,70298∗ BF10 − 5,21855∗ BF12 + 3,10062∗ BF14 −
0,984699∗ BF16 . Variabel prediktor yang tingkat pentingnya secara signifikan yaitu
Inflasi (𝑋1 ); nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 ); indeks
saham Dow Jones (𝑋4 ); tingkat suku bunga di Indonesia (𝑋2 ); dan indeks saham
Nikkei 225 (𝑋5 ) dengan tingkat pentingnya masing-masing sebesar 100%;
86,54114%; 84,31259%; 38,18755%; dan 32,75410%.
Penelitian lanjutan dapat menggunakan metode MARS apabila regresi
nonparametrik dan data berdimensi tinggi. Model terbaik MARS dapat dilihat dari
kriteria GCV terkecil, apabila memiliki nilai GCV terkecil yang sama dapat dilihat
dengan pertimbangan nilai MSE terkecil, dan apabila masih memiliki nilai MSE
yang sama maka dapat dilihat dengan pertimbangan nilai 𝑅 2 terbesar.

ix
DAFTAR ISI

Halaman

HALAMAN JUDUL................................................................................... i

PENYATAAN KEASLIAN TULISAN ..................................................... iii

HALAMAN PENGESAHAN ..................................................................... iv

MOTTO DAN PERSEMBAHAN .............................................................. v

KATA PENGANTAR ................................................................................ vi

ABSTRAK ................................................................................................. ix

DAFTAR ISI .............................................................................................. x

DAFTAR TABEL ....................................................................................... xiv

DAFTAR SIMBOL..................................................................................... xv

DAFTAR GAMBAR .................................................................................. xvii

DAFTAR LAMPIRAN ............................................................................... xix

BAB 1 PENDAHULUAN

1.1 Latar Belakang ................................................................................ 1

1.2 Rumusan Masalah ........................................................................... 7

1.3 Batasan Masalah .............................................................................. 7

1.4 Tujuan Penelitian............................................................................. 7

1.5 Manfaat Penelitian........................................................................... 8

x
BAB 2 TINJAUAN PUSTAKA

2.1 Indeks Harga Saham Gabungan (IHSG) ......................................... 10

2.1.1 Inflasi .......................................................................................... 10

2.1.2 Tingkat Suku Bunga di Indonesia .............................................. 11

2.1.3 Nilai Tukar (Kurs) Rupiah .......................................................... 13

2.1.4 Indeks Dow Jones ....................................................................... 13

2.1.5 Indeks Nikkei 225 ....................................................................... 14

2.1.6 Indeks Hang Seng ....................................................................... 15

2.2 Skala Pengukuran ............................................................................ 16

2.3 Analisis Regresi............................................................................... 17

2.3.1 Regresi Nonparametrik ............................................................... 18

2.3.1.1 Regresi Splines ............................................................... 19

2.3.1.2 Basis B-Spline ................................................................ 20

2.3.1.3 Recursive Partitioning Regression (RPR) ...................... 24

2.3.1.4 Multivariate Adaptive Regression Splines (MARS)....... 26

2.4 Pengujian Parameter Model Regresi ............................................... 35

2.5 Estimasi Parameter .......................................................................... 38

2.6 Generalized Cross Validation (GCV) ............................................. 40

2.7 Algoritma MARS ............................................................................ 40

2.8 Pemilihan Model MARS Terbaik ................................................... 43

2.9 Pengujian Signifikansi Model MARS ............................................. 45

2.10Penelitian Terdahulu ....................................................................... 47

2.11 Salford Predictive Modeler (SPM) 7 ............................................. 53

xi
BAB 3 METODE PENELITIAN

3.1 Studi Pustaka ................................................................................... 57

3.2 Perumusan Masalah ......................................................................... 58

3.3 Pengumpulan Data .......................................................................... 58

3.4 Pemecahan Masalah ........................................................................ 59

3.4.1 Variabel Penelitian ............................................................. 59

3.4.2 Software yang Digunakan ................................................... 60

3.4.3 Metode Analisis................................................................... 60

3.4.4 Flowchart Penentuan Model MARS ................................... 62

3.5 Penarikan Kesimpulan ..................................................................... 63

BAB 4 HASIL DAN PEMBAHASAN

4.1 Hasil ............................................................................................. 64

4.1.1 Statistik Deskriptif Indeks Harga Saham Gabungan (IHSG) di

Indonesia.............................................................................. 64

4.1.2 Statistik Deskriptif Inflasi di Indonesia ............................... 66

4.1.3 Statistik Deskriptif Suku Bunga di Indonesia ...................... 67

4.1.4 Statistik Deskriptif Kurs Tengah Rupiah terhadap Dolar

Amerika ............................................................................... 69

4.1.5 Statistik Deskriptif Indeks Dow Jones ................................. 71

4.1.6 Statistik Deskriptif Indeks Nikkei 225................................. 73

4.1.7 Statistik Deskriptif Indeks Hang Seng ................................. 75

4.1.8 Uji Asumsi Model Regresi .................................................. 77

4.1.8.1 Uji Normalitas ......................................................... 77

xii
4.1.8.2 Uji Homoskedastisitas ............................................. 80

4.1.8.3 Uji Autokorelasi ...................................................... 81

4.1.8.4 Uji Multikolinieritas ................................................ 82

4.1.9 Estimasi Model MARS ........................................................ 84

4.1.10 Model MARS Terbaik ......................................................... 85

4.1.11 Pengujian Signifikansi Model MARS ................................. 86

4.1.11.1 Pengujian Koefisien Regresi Simultan .................. 87

4.1.11.2 Pengujian Koefisiensi Regresi Parsial ................... 88

4.1.12 Interpretasi Model MARS ................................................... 90

4.1.13 Tingkat Kepentingan Variabel Prediktor ............................. 92

4.2 Pembahasan .................................................................................... 93

BAB 5 PENUTUP

5.1 Kesimpulan...................................................................................... 98

5.2 Saran ................................................................................................ 99

DAFTAR PUSTAKA ................................................................................. 100

LAMPIRAN ................................................................................................ 103

xiii
DAFTAR TABEL

Tabel Halaman

Tabel 4.1 Statistik Deskriptif Variabel IHSG ............................................. 65

Tabel 4.2 Statistik Deskriptif Variabel Inflasi ............................................ 66

Tabel 4.3 Statistik Deskriptif Variabel Suku Bunga di Indonesia .............. 68

Tabel 4.4 Statistik Deskriptif Variabel Kurs Tengah Rupiah ..................... 69

Tabel 4.5 Statistik Deskriptif Variabel Indeks Dow Jones ......................... 71

Tabel 4.6 Statistik Deskriptif Variabel Indeks Nikkei 225 ......................... 73

Tabel 4.7 Statistik Deskriptif Variabel Indeks Hang Seng ......................... 75

Tabel 4.8 One-Sample Kolmogorov-Smirnov Test .................................... 79

Tabel 4.9 Koefisien Korelasi Pada Regresi................................................. 81

Tabel 4.10 Model Summary ........................................................................ 82

Tabel 4.11 𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑎 ......................................................................... 83

Tabel 4.12 Hasil seleksi Model MARS Menggunakan Kriteria GCV ........ 84

Tabel 4.13 MARS Regression...................................................................... 87

Tabel 4.14 MARS Regression...................................................................... 88

Tabel 4.15 Tingkat Kepentingan Variabel Prediktor .................................. 92

xiv
DAFTAR SIMBOL

𝑌 : data Indeks Harga Saham Gabungan (IHSG) di Indonesia


𝑋1 : data Inflasi di Indonesia
𝑋2 : data Suku Bunga di Indonesia
𝑋3 : data Kurs (Tengah) Rupiah terhadap Dollar Amerika di Indonesia
𝑋4 : data Indeks Saham Dow Jones
𝑋5 : data Indeks Saham Nikkei 225
𝑋6 : data Indeks Saham Hang Seng
𝑍𝑌 : data Standarisasi Indeks Harga Saham Gabungan (IHSG) di
Indonesia
𝑍𝑋1 : data Standarisasi Inflasi di Indonesia
𝑍𝑋2 : data Standarisasi Suku Bunga di Indonesia
𝑍𝑋3 : data Standarisasi Kurs (Tengah) Rupiah terhadap Dollar Amerika
di Indonesia
𝑍𝑋4 : data Standarisasi Indeks Saham Dow Jones
𝑍𝑋5 : data Standarisasi Indeks Saham Nikkei 225
𝑍𝑋6 : data Standarisasi Indeks Saham Hang Seng
BF : fungsi basis (Basis Function)
MI : maksimum Interaksi
MO : minimum Observasi
n : jumlah Sampel
p : jumlah Prediktor
LLt : laju Inflasi di Periode Waktu ke t
IHK t : nilai Indeks Harga Konsumen di Periode Waktu ke-t
IHK t−1 : nilai Indeks Harga Konsumen di Periode Waktu ke t − 1
𝑦𝑖 : variabel respon pada amatan ke-𝑖
𝑓(𝑥𝑖 ) : fungsi smooth yang tidak diketahui
𝜀𝑖 : error ke-𝑖 yang saling bebas
𝑎0 : Fungsi basis Induk

xv
𝑎𝑚 : koefisien dari fungsi basis ke m
𝑀 : maksimum fungsi basis
𝐾𝑚 : derajat Interaksi ke m
𝑆𝑘𝑚 : nilai 1 atau -1 jika data berada di sebelah kanan atau kiri knot
𝑋𝑝𝑛 (𝑘, 𝑚) : variabel prediktor dari p dengan observasi ke n
𝑍𝑘𝑚 : nilai knot dari variabel prediktor 𝑋𝑝𝑛 (𝑘, 𝑚)
𝑓𝑖 (𝑥𝑖 ) : semua fungsi basis untuk satu variabel
𝑓𝑖 (𝑥𝑖 , 𝑥𝑗 ) : semua fungsi basis untuk interaksi antar dua variabel
𝑓𝑖 (𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ) : semua fungsi basis untuk interaksi antar tiga variabel
[𝐻]𝑖𝑖 : elemen Matriks Hat ke ii

xvi
DAFTAR GAMBAR

Gambar Halaman

Gambar 2.1 Menu Utama SPM 7 ................................................................ 53

Gambar 2.2 Tampilan Membuka Dokumen................................................ 54

Gambar 2.3 Tampilan Variabel-variabel..................................................... 54

Gambar 2.4 Data dalam SPM 7................................................................... 55

Gambar 2.5 MARS dalam SPM 7 ............................................................... 55

Gambar 2.6 Model dalam SPM 7................................................................ 56

Gambar 2.7 Options and Limits dalam SPM 7 ........................................... 56

Gambar 3.1 Flowchart Penentuan Model Akhir ......................................... 62

Gambar 4.1 Grafik IHSG di Indonesia ....................................................... 65

Gambar 4.2 Grafik Inflasi di Indonesia....................................................... 66

Gambar 4.3 Scatterplot antara IHSG dengan Inflasi .................................. 67

Gambar 4.4 Grafik Suku Bunga di Indonesia ............................................. 68

Gambar 4.5 Scatterplot antara IHSG dengan Suku Bunga di Indonesia .... 69

Gambar 4.6 Grafik Kurs Tengah Rupiah di Indonesia ............................... 70

Gambar 4.7 Scatterplot antara IHSG dengan Kurs Tengah Rupiah ........... 72

Gambar 4.8 Scatterplot antara IHSG dengan Indeks Dow Jones ............... 73

xvii
Gambar 4.9 Grafik Indeks Nikkei 225 ........................................................ 74

Gambar 4.10 Scatterplot antara IHSG dengan Indeks Nikkei 225 ............. 75

Gambar 4.11 Grafik Indeks Hang Seng ...................................................... 76

Gambar 4.12 Scatterplot antara IHSG dengan Indeks Hang Seng ............. 77

Gambar 4.13 Normal P-P of Regression Standardized Residual ............... 78

xviii
DAFTAR LAMPIRAN

Lampiran Halaman

1. Data Penelitian Asli ............................................................................. 103

2. Output Pengolahan Data Menggunakan SPSS 16 ............................... 105

3. Tabel Durbin-Watson dengan 𝛼 = 0,05 .............................................. 108

4. Tabel F dengan 𝛼 = 0,05..................................................................... 109

5. Data Penelitian setelah Standarisasi ..................................................... 110

6. Output Simulasi Model MARS trial and error ................................... 115

7. Output Simulasi Model MARS terbaik................................................ 212

8. Surat Penetapan Dosen Pembimbing ................................................... 215

xix
BAB 1

PENDAHULUAN

1.1 Latar Belakang

Di era globalisasi ini, hampir semua negara menaruh perhatian besar

terhadap pasar modal karena memiliki peranan strategis bagi penguatan ketahanan

ekonomi suatu negara. Pasar modal yang ada di Indonesia merupakan pasar yang

sedang berkembang yang dalam perkembangannya sangat rentan terhadap kondisi

makroekonomi secara umum. Krisis ekonomi yang dimulai tahun 1998 merupakan

awal runtuhnya pilar-pilar perekonomian nasional Indonesia. Ini ditandai dengan

turunnya kepercayaan masyarakat terhadap perbankan Indonesia dalam bentuk

penarikan dana besar-besaran (rush) oleh deposan untuk kemudian disimpan di luar

negeri. Dampak lain dari menurunnya kepercayaan masyarakat berimbas sampai ke

pasar modal. Harga-harga saham menurun secara tajam sehingga menimbulkan

kerugian yang cukup signifikan bagi investor.

Pertumbuhan ekonomi yang terjadi di Indonesia cukup pesat dan telah

mengubah pola pikir masyarakat di bidang ekonomi dan investasi. Investasi dalam

bentuk saham merupakan investasi yang banyak dipilih para investor. Salah satu

indikator yang menunjukkan pergerakan harga saham adalah Indeks Harga Saham

Gabungan (IHSG). Indeks Harga Saham Gabungan (IHSG) sering digunakan

sebagai acuan para investor untuk melihat representasi harga saham keseluruhan

sehingga untuk menganalisis kemungkinan kenaikan atau penurunan harga saham

1
2

diperlukan suatu metode analisis (Sunariyah dalam Astuti et al., 2013).

Metode analisis sebelumnya pada pergerakan indeks harga saham di suatu

negara tidak terlepas dari kondisi perekonomian negara itu secara makro. Indeks

harga saham sangat dipengaruhi variabel-variabel makro seperti tingkat suku bunga

di Indonesia, nilai tukar (kurs) rupiah terhadap dolar Amerika, dan Inflasi. Pada

umumnya bursa efek yang berada dalam satu kawasan juga dapat mempengaruhi

karena letak geografisnya yang saling berdekatan seperti Nikkei 225 di Jepang dan

Hang Seng di Hongkong yang memiliki pengaruh yang kuat terhadap kinerja Bursa

Efek Indonesia (Astuti et al., 2013).

Analisis regresi merupakan salah satu metode statistika yang dapat

menggambarkan ketergantungan atau mencari hubungan fungsional antara satu

variabel respon (variabel dependen) dengan satu atau lebih variabel prediktor

(variabel independen). Dalam hal ini, indeks harga saham gabungan (IHSG) adalah

variabel respon dan variabel prediktornya adalah faktor-faktor yang mempengaruhi

indeks harga saham gabungan (IHSG) yaitu inflasi, tingkat suku bunga di

Indonesia, nilai tukar (kurs) tengah rupiah bulanan terhadap dolar Amerika, indeks

saham Dow Jones, indeks saham Nikkei 225, dan indeks saham Hang Seng.

Penelitian sebelumnya mengenai indeks harga saham gabungan telah

dilakukan oleh beberapa penelitian seperti Puspitasari et al. (2012) dan Astuti et al.

(2013). Penelitian yang dilakukan oleh Puspitasari et al. (2012) membandingkan

hasil peramalan data IHSG menggunakan metode time series klasik, regresi

parametrik linier, dan regresi nonparametrik kernel. Hasil analisis regresi

nonparametrik kernel lebih baik dari kedua metode lainnya karena mempunyai
3

nilai MSE terkecil. Pada metode regresi nonparametrik kernel, pemilihan

bandwidth optimal lebih penting dibanding pemilihan fungsi yang digunakan.

Penelitian yang dilakukan oleh Astuti et al. (2013) melakukan analisis

pengaruh antara variabel tingkat suku bunga di Indonesia, nilai tukar (kurs), inflasi,

Indeks Nikkei 225, dan Indeks Hang Seng. Hasilnya bahwa variabel tingkat suku

bunga di Indonesia, nilai tukar (kurs), dan inflasi memiliki pengaruh signifikan

terhadap IHSG. Artinya jika variabel tersebut mengalami peningkatan maka akan

diikuti peningkatan nilai IHSG dan begitu sebaliknya.

Berdasarkan penelitian Puspitasari et al. (2012) dan Astuti et al. (2013)

dalam menjelaskan pola hubungan variabel respon dengan variabel prediktor dapat

digunakan pendekatan kurva regresi. Pendekatan kurva regresi yang sering

digunakan adalah pendekatan regresi parametrik, dimana diasumsikan bentuk

kurva regresi diketahui (seperti linier, kuadratik, dan kubik) berdasarkan teori yang

dapat memberikan informasi hubungan (Draper dan Smith, 1992). Namun, tidak

semua pola hubungan dapat didekati dengan pendekatan parametrik, karena tidak

adanya suatu informasi mengenai bentuk hubungan variabel respon dan variabel

prediktor. Jika bentuk kurva tidak diketahui dan pola menyebar maka kurva regresi

dapat diduga menggunakan pendekatan model regresi nonparametrik. Apalagi tes

nonparametrik tidak memerlukan pengukuran seperti yang dibutuhkan untuk

menyelesaikan tes parametrik, tes nonparametrik paling berlaku untuk data dalam

skala ordinal, dan berlaku juga untuk sampel data skala nominal. Regresi

nonparametrik memiliki fleksibilitas yang tinggi dalam mengestimasi kurva

regresi. Dalam pandangan regresi nonparametrik data diharapkan mencari sendiri


4

estimasi kurva regresi, tanpa dipengaruhi oleh faktor subyektifitas dari perancangan

penelitian (Eubank, 1988).

Salah satu metode regresi nonparametrik adalah Multivariate Adaptive

Regression Splines (MARS) yang pertama kali dipopulerkan oleh Friedman (1991).

Karena MARS merupakan metode regresi nonparametrik sehingga model MARS

tidak bergantung pada asumsi tertentu. Model MARS berguna untuk mengatasi

permasalahan data yang berdimensi tinggi, yaitu data yang memiliki jumlah

variabel prediktor sebesar 3 ≤ 𝑝 ≤ 20 dan sampel data yang berukuran 50 ≤ 𝑛 ≤

1000. MARS merupakan pengembangan dari pendekatan Recursive Partitioning

Regression (RPR) yang dikombinasikan dengan metode Spline sehingga model

yang dihasilkan kontinu pada knot yaitu garis regresi selalu menyambung, dimana

tiap knot selalu menyambung dengan fungsi basisnya.

MARS merupakan metodologi regresi komputasional yang menyediakan

pendekatan sistematik membangun model regresi yang menghasilkan model

kontinu untuk data berdimensi tinggi dimana data tersebut mengandung Multiple

Partitions dan interaksi antara variabel prediktor. Metode MARS mengatasi

kelemahan Recursive Partitioning Regression (RPR) dimana sebelumnya model

yang dihasilkan RPR tidak kontinu terhadap knots, sedangkan MARS mampu

menghasilkan model yang kontinu terhadap knots. MARS banyak diadopsi oleh

bidang ilmu komputer sebagai Conpetitor metode lain seperti jaringan syaraf tiruan

dan Generalized Adaptive Models (Hastie dan Tibsjirani dalam Souri, 2009).

Salah satu penelitian mengenai model MARS yaitu penelitian yang

dilakukan oleh Wasis Wicaksono et al. (2014) melakukan analisis pada faktor-
5

faktor penyebab penyakit diare diantaranya variabel prediktornya meliputi

persentase keluarga yang memiliki jamban sehat (𝑋1 ), persentase keluarga yang

menggunakan air bersih (𝑋2 ), persentase TUPM (Tempat Umum dan Pengelolaan

Makanan) sehat (𝑋3 ), rata-rata lama sekolah (𝑋4 ), persentase melek huruf

penduduk usia di atas 10 tahun (𝑋5), rata-rata jiwa per rumah tangga (𝑋6 ), dan

persentase penduduk miskin (𝑋7 ). Dapat diketahui bahwa variabel yang

berpengaruh terhadap pemyakit diare adalah persentase keluarga yang

menggunakan air bersih (𝑋2 ), persentase TUPM (Tempat Umum dan Pengelolaan

Makanan) sehat (𝑋3 ), dan persentase melek huruf penduduk usia di atas 10 tahun

(𝑋5 ). Penelitian yang dilakukan guna menekan angka penyebaran diare

menggunakan pendekatan kurva regresi nonparametrik menggunakan model

Multivariate Adaptive Regression Splines (MARS) karena data berdimensi tinggi

dan memodelkan variabel-variabel prediktor yang mempengaruhi kesakitan diare.

Untuk mendapatkan model MARS terbaik dilakukan dengan cara

mengkombinasikan Maksimum Fungsi basis (BF), Maksimum Interaksi (MI), dan

Minimum Observasi (MO) secara trial and error dan melihat Generalized Cross

Validation (GCV) minimum.

Berdasarkan penelitian yang dilakukan oleh Wasis Wicaksono et al.

(2014) menggunakan model MARS untuk memodelkan dan mengetahui faktor-

faktor yang mempengaruhi kesakitan diare termasuk ke dalam data yang

berdimensi tinggi. Dan berdasarkan penelitian yang dilakukan oleh Puspitasari et

al. (2012) dan Astuti et al. (2013) mengenai faktor-faktor yang mempengaruhi

IHSG dibidang makro ekonomi yaitu variabel inflasi, nilai tukar (kurs), dan suku
6

bunga di Indonesia, sedangkan yang mempengaruhi IHSG dibidang mikro ekonomi

yaitu variabel indeks Dow Jones, indeks Nikkei 225, dan indeks Hang Seng

menggunakan pendekatan regresi nonparametrik kernel karena data berdimensi

tinggi. Oleh karena itu, berdasarkan penelitian yang dilakukan oleh Wasis

Wicaksono et al. (2014), Puspitasari et al. (2012), dan Astuti et al. (2013) tersebut

maka model MARS juga cocok digunakan untuk data Indeks Harga Saham

Gabungan (IHSG) dan faktor-faktor yang mempengaruhi IHSG dalam bidang

makro maupun mikro dengan pendekatan regresi nonparametrik, dengan skala

nominal, dan data berdimensi tinggi.

Sehingga, penulis akan menganalisis faktor-faktor yang mempengaruhi

indeks harga saham gabungan (IHSG) menggunakan model Multivariate Adaptive

Regression Splines (MARS), karena dengan pendekatan kurva regresi

nonparametrik data tersebut berdimensi tinggi, memodelkan variabel-variabel

prediktor yang mempengaruhi IHSG, dan pemilihan model terbaik pada Indeks

Harga Saham Gabungan (IHSG) model MARS menggunakan kriteria Generalized

Cross Validation (GCV) minimum.

Berdasarkan uraian tersebut penulis mengambil judul “Estimasi

Multivariate Adaptive Regression Splines (MARS) pada Indeks Harga Saham

Gabungan (IHSG)”. Harapannya dengan adanya penelitian ini dapat menekan

kerugian para investor dan meningkatkan kepercayaan investor terhadap perbankan

negara.
7

1.2 Rumusan Masalah

Berdasarkan latar belakang yang telah diuraikan, maka permasalahan

penelitian ini dirumuskan sebagai berikut.

1. Bagaimana estimasi Multivariate Adaptive Regression Splines (MARS) pada

variabel prediktor Indeks Harga Saham Gabungan (IHSG) terbaik

menggunakan kriteria Generalized Cross Validation (GCV) ?

2. Berapa besar tingkat pentingnya variabel-variabel prediktor terhadap model

terbaik yang diperoleh ?

1.3 Batasan Masalah

Berdasarkan permasalahan yang telah diuraikan, batasan masalah dalam

penelitian ini yaitu hanya mengkaji faktor ekonomi yang mempengaruhi IHSG

yaitu inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs) tengah rupiah

bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks saham Nikkei

225, dan indeks saham Hang Seng dari Bulan September 2010 hingga September

2015.

1.4 Tujuan Penelitian

Berdasarkan permasalahan di atas, maka tujuan penelitian ini adalah

sebagai berikut.

1. Mengetahui estimasi Multivariate Adaptive Regression Splines (MARS) pada

variabel prediktor Indeks Harga Saham Gabungan (IHSG) terbaik

menggunakan kriteria Generalized Cross Validation (GCV).


8

2. Mengetahui besar tingkat pentingnya variabel-variabel prediktor terhadap

model terbaik yang diperoleh.

1.5 Manfaat Penelitian

Manfaat yang akan diperoleh dari penelitian ini adalah sebagai berikut.

1. Bagi penulis

a. Menambah dan memperkaya pengetahuan mengenai model Multivariate

Adaptive Regression Splines (MARS) serta penerapannya pada Indeks Harga

Saham Gabungan (IHSG).

b. Membantu mengaplikasikan ilmu yang telah diperoleh selama di perkuliahan

sehingga menunjang kesiapan untuk terjun ke dalam dunia kerja.

2. Bagi Mahasiswa Matematika

a. Menambah pengetahuan mengenai model Multivariate Adaptive Regression

Splines (MARS).

b. Memberikan suatu metode alternatif untuk melakukan pemodelan regresi

nonparametrik menggunakan model Multivariate Adaptive Regression

Splines (MARS).

3. Bagi Jurusan Matematika

a. Sebagai bahan studi kasus bagi pembaca dan acuan bagi mahasiswa serta

dapat memberikan bahan referensi bagi pihak perpustakaan.

b. Sebagai bahan bacaan yang dapat menambah ilmu pengetahuan bagi pembaca

dalam hal ini mahasiswa yang lain.


9

4. Bagi Bank Indonesia

a. Pemodelan kasus Indeks Harga Saham Gabungan (IHSG) dapat membantu

untuk melihat representasi harga saham keseluruhan dan variabel prediktor

yang mempengaruhinya.

b. Sebagai acuan dan informasi para investor mengenai naik turunnya harga

saham.

5. Bagi peneliti selanjutnya

Diharapkan dengan adanya penelitian ini dapat digunakan sebagai bahan

informasi dan bahan pengembangan penelitian selanjutnya.


BAB 2

TINJAUAN PUSTAKA

2.1 Indeks Harga Saham Gabungan (IHSG)

Menurut Sunariyah dalam Astuti et al. (2013) indeks harga saham

gabungan (IHSG) adalah suatu rangkaian informasi historis mengenai pergerakan

saham gabungan sampai tanggal tertentu dan mencerminkan suatu nilai yang

berfungsi sebagai pengukur kinerja suatu saham gabungan di bursa efek. Beberapa

faktor makro dan mikro ekonomi yang mempengaruhi indeks harga saham

gabungan (IHSG) yaitu inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs)

tengah rupiah bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks

saham Nikkei 225, dan indeks saham Hang Seng.

2.1.1 Inflasi

Menurut Insukindro (1987) inflasi merupakan kecenderungan kenaikan

harga-harga secara umum dan terus menerus. Jika hanya terjadi kenaikan harga-

harga pada satu atau dua sektor, maka belum bisa dikatakan sebagai kenaikan

inflasi. Kenaikan inflasi terjadi jika hampir semua sektor mengalami kenaikan

harga. Terdapat beberapa cara untuk menghitung inflasi, yaitu.

a. Menggunakan Harga Umum

b. Menggunakan Angka Deflator

c. Menggunakan Indeks Harga Konsumen

d. Menggunakan Harga yang diharapkan

10
11

e. Menggunakan Indeks Harga dalam Negeri dan Luar Negeri

Dari kelima cara di atas, cara yang paling efektif untuk menghitung inflasi yaitu

menggunakan indeks harga konsumen (IHK) karena mudahnya mendapatkan harga

konsumen dari waktu ke waktu. Berikut rumus untuk menghitung inflasi dengan

menggunakan indeks harga konsumen.

𝐼𝐻𝐾𝑡 − 𝐼𝐻𝐾𝑡−1
𝐿𝐿𝑡 =
𝐼𝐻𝐾𝑡−1

dimana :

𝐿𝐿𝑡 : laju inflasi di periode waktu ke-t

𝐼𝐻𝐾𝑡 : nilai indeks harga konsumen di periode waktu ke-t

𝐼𝐻𝐾𝑡−1 : nilai indeks harga saham konsumen di periode waktu ke-(𝑡 − 1)

2.1.2 Tingkat Suku Bunga di Indonesia

Menurut Kasmir (1998) suku bunga dapat diartikan sebagai balas jasa

yang diberikan oleh bank berdasarkan prinsip konvensional kepada nasabah yang

membeli atau menjual produknya. Sedangkan tingkat suku bunga atau BI rate

menurut publikasi yang dilakukan oleh Bank Indonesia yaitu suku bunga kebijakan

yang mencerminkan sikap kebijakan moneter yang ditetapkan oleh Bank Indonesia

dan diumumkan kepada publik (www.bi.go.id/id/moneter/bi-rate/penjelasan/

contens/default.aspx).

Tingkat bunga, Sunariyah (2006: 80), dinyatakan sebagai presentase uang

pokok per unit waktu. Bunga merupakan suatu ukuran harga sumber daya yang

digunakan oleh debitur yang harus dibayarkan kepada kreditur. Unit waktu
12

biasanya dinyatakan dalam satuan tahun (satu tahun investasi) atau bisa lebih

pendek dari satu tahun. Uang pokok berarti jumlah uang yang diterima dari kreditur

kepada debitur. Menurut ekonom klasikal, permintaan dan penawaran investasi

pada pasar modal menentukan tingkat bunga.

Tingkat bunga akan menentukan keseimbangan antara jumlah tabungan

dan permintaan investasi. Tingkat bunga itu sendiri ditentukan oleh dua kekuatan,

yaitu penawaran tabungan dan permintaan investasi modal (terutama dari sektor

bisnis). Tingkat bunga pada dasarnya berperan sebagai pendorong utama agar

masyarakat bersedia menabung. Jumlah tabungan akan ditentukan oleh tinggi

rendahnya tingkat bunga. Semakin tinggi suku bunga, akan semakin tinggi pula

minat masyarakat untuk menabung, dan sebaliknya. Tinggi rendahnya penawaran

dana investasi ditentukan oleh tinggi rendahnya suku bunga tabungan masyarakat.

BI Rate adalah suku bunga kebijakan yang mencerminkan sikap atau

stance kebijakan moneter yang ditetapkan oleh Bank Indonesia dan diumumkan

kepada publik. BI Rate diumumkan oleh Dewan Gubernur Bank Indonesia setiap

Rapat Dewan Gubernur bulanan dan diimplementasikan pada operasi moneter yang

dilakukan Bank Indonesia melalui pengelolaan likuiditas (liquidity management) di

pasar uang untuk mencapai sasaran operasional kebijakan moneter.

Sasaran operasional kebijakan moneter dicerminkan pada perkembangan

suku bunga Pasar Uang Antar Bank Overnight (PUAB O/N). Pergerakan di suku

bunga PUAB ini diharapkan diikuti oleh perkembangan di suku bunga deposito,

dan pada gilirannya suku bunga kredit perbankan. Dengan mempertimbangkan pula

faktor-faktor dalam perekonomian, Bank Indonesia pada umumnya akan


13

menaikkan BI Rate apabila inflasi ke depan diperkirakan melampaui sasaran yang

telah ditetapkan, sebaliknya Bank Indonesia akan menurunkan BI Rate apabila

inflasi ke depan diperkirakan di bawah sasaran yang telah ditetapkan.

2.1.3 Nilai Tukar (Kurs) Rupiah

Menurut Mankiw yang diterjemahkan oleh Liza dan Nurmawan (2006)

menyebutkan bahwa kurs antar dua negara adalah tingkat harga yang disepakati

penduduk kedua Negara untuk saling melakukan perdagangan. Kurs dibedakan

menjadi kurs nominal dan kurs riil. Kurs nominal yaitu harga relatif dari mata uang

dua Negara. Sedangkan kurs riil adalah harga dari barang-barang diantara dua

Negara. Kurs riil menyatakan tingkat dimana bisa memperdagangkan barang-

barang dari suatu Negara untuk barang-barang dari Negara lain. Menurut publikasi

bank Indonesia, nilai kurs dibedakan menjadi dua, yaitu Kurs Transaksi BI dan

Kurs Uang Kertas Asing (UKA) BI. Kurs transaksi BI disajikan dalam bentuk kurs

jual dan kurs beli valas terhadap rupiah, digunakan sebagai acuan transaksi BI

dengan pihak ketiga seperti pemerintah. Sedangkan kurs UKA BI adalah kurs yang

digunakan sebagai indikasi transaksi bank antara Bank Indonesia dengan pihak

ketiga (www.bi.go.id/id/moneter/informasi-kurs/contens/default.aspx).

2.1.4 Indeks Dow Jones

Dow Jones Industrial Average (DJIA) adalah salah satu indeks pasar saham

yang didirikan oleh editor The Wall Street Journal dan pendiri Dow Jones dan

Company Charles Dow. Dow membuat indeks ini sebagai suatu cara untuk mengukur

performa komponen industri di pasar saham Amerika.


14

Cara penghitungan indeks Dow Jones sebagai berikut.

∑ 𝑃𝑠
𝐷𝐽𝐼𝐴 =
𝐷𝑖𝑣𝑖𝑠𝑜𝑟

Dimana ∑ 𝑃𝑠 adalah jumlah seluruh harga saham dan divisor adalah angka yang

ditentukan oleh Dow Jones sebagai pembagi. Angka pembagi ini selalu

diperbaharui dan disesuaikan dengan perkembangan pasar yang terjadi seperti stock

split, pembayaran dividen, pengumuman bonus, dan berita ekonomi lain.

2.1.5 Indeks Nikkei 225

Nikkei 225 adalah sebuah indeks pasar saham di Bursa Efek Tokyo. Indeks

ini telah dihitung oleh harian Nihon Keizai Shimbun (Nikkei) sejak 7 September

1950. Metode perhitungannya menggunakan perhitungan harga rata-rata (unit

dalam yen), dan komponen saham perusahaan yang tercantum dalam indeks akan

ditinjau setahun sekali. Saham perusahaan yang tercatat dalam Indeks Nikkei 225

merupakan saham yang paling aktif diperdagangkan dalam bursa efek Tokyo. Saat

ini, Nikkei adalah indeks yang paling banyak digunakan sebagai panduan bagi

investor ketika akan berinvestasi.

Indeks ini merupakan gabungan dari 225 perusahaan yang terpilih, dengan

persyaratan tertentu. Perusahaan yang terpilih merupakan perusahaan yang

memiliki aset yang besar dan memiliki kredibilitas yang baik di market. Metode

Perhitungan Indeks Nikkei 225 menggunakan rumus sebagai berikut.

∑ 𝑃𝑠
𝑁𝑖𝑘𝑘𝑒𝑖 225 =
𝐷𝑖𝑣𝑖𝑠𝑜𝑟
15

Dimana ∑ 𝑝 jumlah seluruh harga saham yang tercatat di Indeks Nikkei 225 dan

divisor adalah angka yang ditentukan oleh otoritas bursa sebagai bilangan pembagi.

Nilai divisor berdasar perhitungan otoritas bursa per April 2009 adalah sebesar

24.656. Bagi saham-saham yang harganya kurang dari 50 yen, maka harga

sahamnya akan dihitung 50 yen (www.en.wikipedia.org).

2.1.6 Indeks Hang Seng

Hang Seng Index (HSI) adalah indeks komulatif dari 38 saham blue chip

dari Hong Kong stock Market yang merupakan salah satu indeks saham terpercaya,

digunakan para investor dan fund manager untuk berinvestasi. Ke-38 constituent

stock yang dijadikan indikator berasal dari berbagai sektor seperti Industri,

Finance, Properties, dan sebagainya. Keseluruhan dari nilai saham-saham ini

merupakan 70% dari nilai kapitalisasi seluruh nilai saham yang tercatat pada The

Stock Exchange of Hong Kong Ltd. (SEHK). Karena itu naik atau turunnya indeks

HIS merupakan refleksi performance dari keseluruhan saham-saham yang

diperdagangkan. Pemilik lisensi dari Hang Seng Stock index adalah HIS Service

Limited, yang merupakan subsidiary dari Hang Seng Bank. HIS pertamakali

diperdagangkan pada 24 November 1969.

Hang Seng merupakan indeks saham utama Hongkong yang dihitung

memakai metode value weighted. Indeks Hang Seng dihitung berdasarkan nilai

dasar 100 pada tanggal 31 Juli 1964. Indeks ini dibagi menjadi empat subindeks,

yaitu perdagangan dan industri, keuangan, utilitas, dan properti. Hang Seng

merupakan indeks saham kedelapan terbesar di dunia dengan market capitalization

sebesar US$2,7 triliun pada tahun 2012 (Forbes dalam Andrew Hartanto, 2013).
16

2.2 Skala Pengukuran

Dalam analisis regresi data dibedakan menjadi dua jenis yaitu kuantitatif

dan kualitatif. Variabel kuantitatif adalah variabel yang dilaporkan dalam bentuk

angka atau metrik. Sedangkan variabel kualitatif adalah variabel yang dilaporkan

tidak dalam keadaan angka atau tidak dalam metrik (Widarjono, 2010).

Menurut Santoso dan Ashari (2005), pengukuran data adalah pemberian

angka pada suatu peristiwa sesuai dengan aturan-aturan tertentu. Dalam

pengukuran akan membentuk suatu skala dan kemudian mentransfer pengamatan

terhadap ciri-ciri kepada skala tersebut. Secara umum, skala pengukuran

dikelompokan menjadi 4 sebagai berikut.

1. Skala Nominal

Skala nominal adalah pemberian skala dimana skala digunakan hanya untuk

membedakan suatu ukuran dari ukuran yang lain tanpa memberikan atribut

lebih besar atau lebih kecil. Skala ini bersifat sejajar atau sama antara masing-

masing skala.

2. Skala Ordinal

Skala ordinal digunakan untuk menyatakan suatu objek untuk memiliki satu

sifat yang dapat dibandingkan dengan objek yang lain. Skala ini lebih baik

daripada skala nominal karena memberikan nilai lebih besar dan lebih kecil,

tetapi tidak dapat mencari selisih atau perbedaan antar skala.

3. Skala Interval

Skala interval adalah skala yang memiliki ciri-ciri skala ordinal tetapi jarak

dari masing-masing data bisa diukur. Skala ini dapat digunakan untuk
17

mancari perbedaan atau jarak dari masing-masing skala. Pengukuran dari

skala ini biasanya menggunakan alat ukur sehingga jarak masing-masing bisa

dicari. Kelemahan dari skala ini adalah tidak memiliki asal mula yang unik

karena nilai nol bukan merupakan nilai yang mutlak.

4. Skala Rasio

Skala rasio merupakan pengukuran suatu objek dalam dua tolok ukur yang

berbeda berkaitan satu sama lain dengan rasio tetap. Skala rasio

mencerminkan nilai sebenarnya dari data.

Berdasarkan skala pengukuran dalam analisis regresi tersebut, data Indeks

Harga Saham Gabungan (IHSG) merupakan data skala nominal yang termasuk ke

dalam pendekatan regresi nonparametrik.

2.3 Analisis Regresi

Istilah “regresi” pertama kali dikemukakan oleh Sir Francis Galton (1822-

1911), seorang antropolog dan ahli meteorologi terkenal dari Inggris. Dalam

makalahnya yang berjudul “Regression towards mediocrity in hereditary stature”,

yang dimuat dalam Journal of the Anthropological Institute, volume 15, halaman

246 sampai dengan 263, tahun 1885.

Galton menjelaskan bahwa biji keturunan tidak cenderung menyerupai biji

induknya dalam hal besarnya, namun lebih medioker (lebih mendekati rata-rata)

lebih kecil daripada induknya, kalau induknya besar dan lebih besar daripada

induknya, kalau induknya sangat kecil (Draper dan Smith, 1972).


18

Dalam analisis regresi, diperlukan suatu model yang digunakan untuk

mengetahui hubungan antara variabel tidak bebas (respon) dengan satu atau lebih

variabel bebas (prediktor) dan untuk melakukan peramalan terhadap variabel

respon. Model regresi dapat diperoleh dengan melakukan estimasi terhadap

parameter-parameternya menggunakan metode tertentu. Adapun metode yang

dapat digunakan untuk mengestimasi parameter model regresi, khususnya

parameter model regresi linier (sederhana dan berganda) adalah dengan metode

kuadrat terkecil (least square) dan metode kemungkinan maksimum (maximum

likelihood), (Kutner et al., 2004).

2.3.1 Regresi Nonparametrik

Menurut Eubank (1988), pendekatan nonparametrik merupakan metode

pendugaan model yang dilakukan berdasarkan pendekatan yang tidak terikat asumsi

bentuk kurva regresi tertentu dimana kurva regresi hanya diasumsikan smooth

(mulus), artinya termuat di dalam suatu ruang fungsi tertentu sehingga regresi

nonparametrik memiliki fleksibilitas yang tinggi karena data diharapkan mencari

sendiri bentuk estimasi kurva regresinya tanpa dipengaruhi oleh faktor subyektifitas

peneliti. Penggunaan statistik nonparametrik mengabaikan asumsi-asumsi yang

melandasi penggunaan metode statistika parametrik. Tidak semua pola hubungan

dapat didekati dengan pendekatan parametrik, karena tidak adanya suatu informasi

mengenai bentuk hubungan variabel respon dan variabel prediktor. Jika bentuk

kurva tidak diketahui dan pola menyebar maka kurva regresi dapat diduga

menggunakan pendekatan model regresi nonparametrik. Apalagi tes nonparametrik

tidak memerlukan pengukuran seperti yang dibutuhkan untuk menyelesaikan tes


19

parametrik, tes nonparametrik paling berlaku untuk data dalam skala ordinal, dan

berlaku juga untuk sampel data skala nominal. Secara umum model regresi

nonparametrik dapat dituliskan sebagai berikut.

𝑦𝑖 = 𝑓(𝑥𝑖 ) + 𝜀𝑖 (2.1)

dengan :

𝑦𝑖 : variabel respon pada amatan ke-𝑖

𝑓(𝑥𝑖 ) : fungsi smooth yang tidak diketahui

𝜀𝑖 : error ke-𝑖 yang saling bebas

Fungsi regresi 𝑓(𝑥𝑖 ) hanya diasumsikan termuat dalam suatu ruang fungsi

tertentu, dimana pemilihan ruang fungsi tersebut biasanya dimotivasi oleh sifat

kemulusan (smoothness) yang dimiliki oleh fungsi 𝑓(𝑥𝑖 ) tersebut. Salah satu

pendekatan dalam regresi nonparametrik adalah regresi spline. Spline mempunyai

keunggulan dalam mengatasi pola data yang menunjukkan naik atau turun yang

tajam dengan bantuan titik-titik knot, serta kurva yang dihasilkan relatif mulus

(Hardle, 1990).

2.3.1.1 Regresi Spline

Regresi spline merupakan salah satu metode regresi nonparametrik yang

bertujuan untuk memperkecil keragaman dan mengestimasi perilaku data yang

cenderung berbeda. Pendekatan spline memiliki kemampuan untuk mengatasi pola

data yang menunjukkan naik turun yang tajam dengan bantuan titik-titik knot, serta

kurva yang dihasilkan relatif mulus. Titik-titik knot ialah perpaduan bersama yang
20

menunjukkan terjadinya perubahan spline untuk menyesuaikan diri secara efektif

terhadap karakteristik lokal dari suatu fungsi atau data. Spline merupakan potongan

(piecewise) polinomial orde 𝑞 dan memiliki turunan yang kontinu dengan knot

sampai orde (𝑞 − 1) (Friedman, 1991). Dalam spline univariat dengan K knot

memiliki fungsi basis sebagai berikut.

𝑞 𝐾
{𝑥 𝑗 }1 , {(𝑥 − 𝑡𝑘 )𝑞+ }1 (2.2)

Sehingga model spline dapat ditulis menjadi


𝐾

𝑓(𝑥) = 𝛽0 + 𝛽1 𝑥 + ⋯ + 𝛽𝑞 𝑥 + ∑ 𝛾𝑘 (𝑥 − 𝑡𝑘 )𝑞+
𝑞 (2.3)
𝑘=1

dimana 𝑞 ≥ 1 dan (𝑡1 , 𝑡2 , … , 𝑡𝑘 ) merupakan titik-titik knot. Sedangkan fungsi dari

truncated power (𝑥 − 𝑡𝑘 )𝑞+ adalah

(𝑥 − 𝑡𝑘 )𝑞 ; 𝑥 − 𝑡𝑘 > 0
(𝑥 − 𝑡𝑘 )𝑞+ = { (2.4)
0 ; 𝑥 − 𝑡𝑘 ≤ 0

dimana 𝑞 menunjukkan orde polinomial dari fungsi spline. Di setiap titik knot,

diharapkan adanya dari fungsi basis antar satu region dengan region lainnya. Oleh

karena itu pada umumnya fungsi basis yang dipilih adalah berbentuk polinomial

dengan turunan (𝑞 − 1) yang kontinu disetiap titik knot.

2.3.1.2 Basis B-Spline

Model regresi 𝑦𝑖 = 𝑔(𝑡𝑖 ) + 𝜀𝑖 ∶ 𝑖 = 1,2, . . , 𝑛, merupakan residual dan

𝑔(𝑡𝑖 ) adalah kurva regresi. B-Spline mengatasi kelemahan regresi spline yaitu saat

order spline tinggi, knot yang banyak dan knot yang terlalu dekat akan membentuk

matriks dalam perhitungan yang hampir singular, sehingga persamaan tidak dapat

diselesaikan. Apabila digunakan pendekatan kurva spline truncated dikatakan


21

regresi nonparametrik, maka kurva regresi 𝑔 dapat ditulis sebagai berikut (Eubank,

1988).

𝑚 𝐾
𝑖−1
𝑔(𝑡) = ∑ 𝛼𝑖 𝑡 + ∑ 𝛽𝑖 (𝑡 − 𝑢𝑗 )𝑚−1
+ (2.5)
𝑖=1 𝑗=1

dengan 𝑢𝑗 , 𝑗 = 1,2, . . , 𝐾, dengan 𝑢1 < 𝑢2 < ⋯ < 𝑢𝐾 adalah titik knot dan 𝑚𝜀𝑁0

(integer non negatif). Nilai m menunjukkan derajat spline truncated, yang juga

merupakan potongan polinomial berderajat 𝑚 − 1 dengan 𝑚 − 2 turunan kontinu

di titik knot. Jika kurva regresi g didekati dengan fungsi B–Spline maka g dapat

ditulis menjadi.
𝑚+𝐾

𝑔(𝑡) = ∑ 𝛾𝑗 𝛽𝑗−𝑚,𝑚 (𝑡) (2.6)


𝑗=1

dengan 𝛽𝑗−𝑚,𝑚 merupakan basis B-Spline.

Cara membangun fungsi B-spline orde m dengan titik-titk knot 𝑎 < 𝑢𝑗 < ⋯ <

𝑢𝐾 < 𝑏 adalah dengan terlebih dahulu mendefinisikan knot tambahan sebanyak 2m,

yaitu 𝑢−(𝑚−1) , … , 𝑢−1 , 𝑢0 , … , 𝑢𝐾+𝑚 dimana 𝑢−(𝑚−1) = ⋯ = 𝑢0 = 𝑎 dan 𝑢𝐾+1 =

⋯ = 𝑢𝐾+𝑚 = 𝑏, biasanya 𝑎 diambil dari nilai minimum t dan 𝑏 diambil dari nilai

maksimum t. Fungsi B-Spline didefinisikan secara rekursif sebagai berikut. (Botella

dan Shariff, 2003).

𝑡 − 𝑢𝑖 𝑢𝑖+𝑚 − 𝑡
𝛽𝑖−𝑚 (𝑡) = 𝐵𝑖,𝑚−1 (𝑡) + 𝐵 (𝑡) (2.7)
𝑢𝑖+𝑚−1 − 𝑢𝑖 𝑢𝑖+𝑚 − 𝑢𝑖+1 𝑖+1,𝑚−1

1, 𝑢𝑗 < 𝑡 ≤ 𝑢𝑗+1 (2.8)


𝛽𝑗,1 (𝑡) = {
0, 𝑡 < 𝑢𝑗 , 𝑡 ≥ 𝑢𝑗

dengan m adalah derajat dari B–Spline. Untuk 𝑚 = 2 memberikan fungsi B–Spline

linier 𝑚 = 3 memberikan fungsi B–Spline kuadratik dan 𝑚 = 4 memberikan


22

fungsi B–Spline kubik. Untuk mengestimasi koefisien γ dapat didefinisikan matriks

sebagai berikut.

𝛽(𝜆) = (𝛽𝑗,𝑚 (𝑡)) (2.9)


𝑖=1,…,𝑛𝑗=−(𝑚−1),…,𝐾

atau dapat ditulis sebagai berikut.

𝐵−(𝑚−1),𝑚 (𝑡1 ) 𝐵−(𝑚−2),𝑚 (𝑡2 ) 𝐵𝐾,𝑚 (𝑡1 )


𝛽(𝜆) = [ ⋮ ⋮ ⋮ ] (2.10)
𝐵−(𝑚−1),𝑚 (𝑡𝑛 ) 𝐵−(𝑚−2),𝑚 (𝑡𝑛 ) 𝐵𝐾,𝑚 (𝑡𝑛 )

Jadi 𝛽(𝜆) adalah sebuah matriks berukuran 𝑛 × (𝑚 + 𝐾).

Sebagai gambaran untuk menjelaskan fungsi B–Spline, misalnya B–Spline

linier (𝑚 = 2), dengan satu (1) titik knot, pada 𝑡 = 5, dengan nilai 𝑡 minimum 1

dan nilai 𝑡 maksimum 10. Maka langkahnya adalah menentukan knot tambahan

sebanyak 2𝑚, yaitu diambil dari nilai minimum 1 dan maksimum 10, sehingga knot

menjadi 𝑢−1 = 𝑢0 = 1, 𝑢1 = 5, 𝑢2 = 𝑢3 = 10, maka matriks yang akan dibentuk

adalah 𝛽(𝜆) = (𝐵−1,2 (𝑡𝑖 ), 𝐵0,2 (𝑡𝑖 ), 𝐵1,2 (𝑡𝑖 )) , 𝑖 = 1,2, … , 𝑛 yaitu sebuah matriks

dengan ukuran 𝑛 × 3. Dengan persamaan (2.7), 𝐵−1,2 (𝑡𝑖 ) dapat ditulis sebagai

berikut.

𝑡−1 5−𝑡 (2.11)


𝐵−1,2 (𝑡) = 𝐵−1,1 (𝑡) + 𝐵 (𝑡)
1−1 5 − 1 0,1

𝐵−1,1 (𝑡) didefinisikan bernilai 0 karena 𝑢−1 = 𝑢0 (Eubank, 1988). Dan 𝐵0,1 (𝑡)

akan bernilai 1 pada t bernilai 𝑢0 = 0 sampai dengan 𝑢1 = 1, dan bernilai 0 untuk

yang lain, sehingga dapat ditulis seperti persamaan (2.8) sebagai berikut.

5−𝑡
𝐵−1,2 (𝑡) = { 4 , 1 < 𝑡 ≤ 5 (2.12)
0, 5 < 𝑡 ≤ 10
23

Sedangkan untuk basis 𝐵0,2 (𝑡) dengan menggunakan persamaan (2.10) dapat

ditulis sebagai berikut.


𝑡−1 10−𝑡
𝐵0,2 (𝑡) = 5−1 𝐵0,1 (𝑡) + 10−1 𝐵1,1 (𝑡) (2.13)

dan dapat juga ditulis seperti persamaan (2.12) sebagai berikut.

𝑡−1
, 1<𝑡≤5 (2.14)
𝐵0,2 (𝑡) ={ 4
10 − 𝑡
, 5 < 𝑡 ≤ 10
5

Untuk basis 𝐵1,2 (𝑡𝑖 ) dapat menggunakan persamaan (2.11) dan dapat ditulis sebagai

berikut.

𝑡−5 10 − 𝑡
𝐵1,2 (𝑡) = 𝐵1,1 (𝑡) + 𝐵 (𝑡)
10 − 5 10 − 1 2,1
(2.15)
𝑡−5
𝐵1,2 (𝑡) = 𝐵 (𝑡)
10 − 5 1,1

dan dapat ditulis juga seperti persamaan (2.10) sebagai berikut.

0, 1<𝑡≤5 (2.16)
𝐵1,2 (𝑡) = {𝑡 − 5
, 5 < 𝑡 ≤ 10
5

Untuk kurva B–Spline kuadratik dengan 2 titik knot, misalnya pada 𝑡 = 3 dan 𝑡 =

7 dapat dicari dengan cara yang serupa, dengan hasil sebagai berikut.

(𝑡 − 1)(13 − 3𝑡)
, 1<𝑡≤3
12
𝐵−1,3 (𝑡) = (7 − 𝑡)2 (2.17)
[ ], 3<𝑡≤7
24
{ 0, 7 < 𝑡 ≤ 10

Dengan cara sama, dapat dibuat kurva B–Spline dengan berbagai 𝑚 dan beberapa

titik knots.
24

2.3.1.3 Recursive Partitioning Regression (RPR)

Perhitungan komputasi sangat diperlukan dalam pengolahan data, karena

akan selalu memperoleh hasil yang sesuai dengan algoritmanya. Recursive

Partitioning Regression (RPR) merupakan salah satu dari program komputasi yang

memiliki keunggulan dalam mengolah data yang berdimensi tinggi. Tujuan dari

RPR adalah menggunakan data untuk mengestimasi subregion dan parameter yang

berasosiasi pada setiap subregion.

Pendekatan RPR dimulai dengan menghasilkan model yang memiliki

sejumlah fungsi basis untuk meningkatkan kecocokan model.

𝑓̂(𝑥) = ∑ 𝑎𝑚 𝐵𝑚 (𝑥) (2.18)


𝑚=1

𝑎𝑚 merupakan koefisien dari fungsi basis ke- 𝑚 dan fungsi basis 𝐵𝑚 diambil dari

𝐵𝑚 (𝑥) = 𝐼[𝑥 ∈ 𝑅𝑚 ] (2.19)

dimana 𝐼 adalah fungsi indikator yang memiliki nilai satu jika 𝑥 ∈ 𝑅𝑚 dan bernilai

0 untuk 𝑥 ∉ 𝑅𝑚 .

Misalkan 𝐿𝑂𝑓(𝑔) adalah prosedur perhitungan lack-of-fit dan fungsi 𝑔(𝑥)

dan 𝐻[𝜂] adalah fungsi yang memiliki nilai positif, yaitu

1 ,𝜂 ≥ 0 (2.20)
𝐻[𝜂] = {
0, 𝑙𝑎𝑖𝑛𝑛𝑦𝑎

Maka menurut Friedman (1991), RPR dapat diimplementasikan ke dalan forward

stepwise sesuai dengan algoritma berikut.


25

Algoritma 1

𝐵1 (𝑥) ← 1

𝐹𝑜𝑟 𝑀 = 2 𝑡𝑜 𝑀𝑚𝑎𝑥 do: 𝑙𝑜𝑓 ∗ ← ∞

𝐹𝑜𝑟 𝑚 = 1 𝑡𝑜 𝑀 − 1 do:

𝐹𝑜𝑟 𝑣 = 1 𝑡𝑜 𝑛 𝑑𝑜:

𝐹𝑜𝑟 𝑡 ∈ {𝑥𝑣𝑗 , (𝑥𝑗 ) > 0}

𝑔←∑ 𝑎𝑖 𝐵𝑖 (𝑥) + 𝑎𝑚 𝐵𝑚 (𝑥)𝐻[+(𝑥𝑣 − 𝑡)] + 𝑎𝑚 𝐵𝑚 (𝑥)𝐻[−(𝑥𝑣 − 𝑡)]


𝑖≠𝑚

𝑙𝑜𝑓 ← min𝑎1 ,…,𝑎𝑀+1 𝐿𝑂𝐹 (𝑔)

𝑖𝑓𝑙𝑜𝑓 < 𝑙𝑜𝑓 ∗ , 𝑡ℎ𝑒𝑛 𝑙𝑜𝑓 ∗ ← 𝑙𝑜𝑓; 𝑚∗ ← 𝑚; 𝑣 ∗ ← 𝑣; 𝑡 ∗ ← 𝑡 𝑒𝑛𝑑 𝑖𝑓

end for

end for

end for

𝐵𝑀 (𝑥) ← 𝐵𝑚∗ (𝑥)𝐻[−(𝑥𝑣∗ − 𝑡 ∗ )]+

𝐵𝑀+1 (𝑥) ← 𝐵𝑚∗ (𝑥)[+(𝑥𝑣∗ − 𝑡 ∗ )]+

end for

end algorithm

Fungsi basis pada RPR memiliki bentuk


𝐾𝑚

𝐵𝑚 (𝑥) = ∏ 𝐻[𝑠𝑘𝑚 . (𝑥𝑣(𝑘,𝑚) − 𝑡𝑘𝑚 )] (2.21)


𝑘=1

dengan :

𝐾𝑚 : dejarat interaksi

𝑠𝑘𝑚 : tanda pada titik knot (nilainya ± 1)


26

𝑥𝑣(𝑘,𝑚) : variabel prediktor

𝑡𝑘𝑚 : nilai knots dari variabel prediktor 𝑥𝑣(𝑘,𝑚)

Fungsi basis pada persamaan (2.21) ternyata masih memiliki kelemahan

yaitu tidak kontinu pada knot. Namun fungsi basis tersebut memiliki kesamaan

bentuk dengan fungsi basis dari truncated power pada orde 𝑞 = 0. Sehingga

diperoleh persamaan fungsi basis spline multivariate sebagai berikut.


𝐾𝑚
𝑞
𝐵𝑚 (𝑥) = ∏ 𝐻[𝑠𝑘𝑚 . (𝑥𝑣(𝑘,𝑚) − 𝑡𝑘𝑚 )]𝑠 (2.22)
𝑘=1

2.3.1.4 Multivariate Adaptive Regression Splines (MARS)

Beberapa modifikasi dilakukan Friedman untuk mengatasi kelemahan

metode Recursive Partitioning Regression (RPR). Dalam mengatasi kelemahan

Recursive Partitioning Regression (RPR) untuk mengidentifikasi fungsi linier dan

aditif, Friedman mengusulkan untuk tidak menghapus fungsi basis awal atau induk

(parent) selama pemilihan subregion berlangsung. Jadi, pada iterasi berikutnya

parent dan pilahan subregion dapat dipilah lebih lanjut, sehingga diperoleh

subregion yang saling tumpah tindih. Dengan modifikasi ini, Recursive

Partitioning Regression (RPR) dapat menghasilkan model linier dengan pemilihan

berulang pada peubah prediktor yang berbeda. Disamping itu dihasilkan pula model

yang lebih fleksibel. Untuk mengatasi adanya diskontinu pada titik knot yang

disebabkan perkalian fungsi peubah tunggal H[η], Friedman mengusulkan untuk

mengganti H[η] dengan regresi linier splines berordo satu dengan sisi kiri (-) dan

sisi kanan (+) (Friedman, 1991).


27

Spline adalah salah satu jenis potongan polinomial, yaitu polinomial yang

memiliki sifat tersegmen. Sifat tersegmen ini memberikan fleksibilitas lebih dari

polinomial biasa, sehingga memungkinkan untuk menyesuaikan diri secara lebih

efektif terhadap karakteristik lokal dari suatu fungsi atau data. Secara umum, fungsi

spline berorde 𝑘 adalah sembarang fungsi yang dinyatakan sebagai berikut.

𝑘−1 ℎ

𝑆 |(𝑡) = ∑ 𝛼𝑖 𝑡 + ∑ 𝛿𝑗 (𝑡 − 𝑢𝑗 )𝑘−1
𝑖 𝑘−1
+ dengan, (𝑡 − 𝑢𝑗 )+
𝑖=0 𝑗=1

(𝑡 − 𝑢𝑗 )𝑘−1 , 𝑡 ≥ 𝑢𝑗 (2.23)
={
0, 𝑡 < 𝑢𝑗

dengan :

𝛼 dan δ adalah konstanta riil

𝑢𝑗 , … , 𝑢ℎ adalah titik-titik knot.

Maka fungsi spline di atas menunjukkan fungsi S merupakan potongan

polinomial berorde k pada subinterval [𝑢𝑗 , 𝑢𝑗+1 ], memiliki turunan kontinu

tingkat 𝑘 − 2, 𝑆 (𝑘−1) merupakan fungsi tangga dengan titik–titik lompatan

𝑢1 , … , 𝑢ℎ , dan fungsi 𝑆 adalah adalah suatu polinomial dengan orde 𝑚 di luar

[𝑢1 , 𝑢𝑛 ].

Recursive Partitioing Regression (RPR) merupakan pendekatan dari

fungsi f(t) yang tidak diketahui.


𝑆

𝑓̂(𝑡) = ∑ 𝑐𝑗 (𝑡)𝐵𝑗 (𝑡) (2.24)


𝑗=1
28

dengan, 𝐵𝑗 (𝑡) = 𝐼[𝑡 ∈ 𝑅𝑗 ], I[. ] menunjukkan fungsi indikator yang mempunyai

nilai 1 (satu) jika pernyataan benar (𝑡 ∈ 𝑅𝑗 ) dan 0 (nol) jika salah, 𝑐𝑗 (𝑡) merupakan

koefisien (konstanta) yang ditentukan dalam subregion.

Penentuan knots pada regresi dummy atau regresi kategori dilakukan

secara manual, karena memiliki dimensi data yang rendah dan hal ini tidak akan

mengalami kesulitan, sedangkan untuk data yang berdimensi tinggi terdapat

kesulitan. Untuk mengatasi hal tersebut digunakan model Recursive Partitioning

Regression (RPR) karena penentuan knots tergantung (otomatis) dari data. Namun

demikian model ini masih terdapat kelemahan yaitu model yang dihasilkan tidak

kontinu pada knots, dan untuk mengatasinya digunakan model MARS.

Multivariate Adaptive Regression Splines (MARS) merupakan pendekatan

untuk regresi multivariate nonparametrik yang dikembangkan oleh Friedman.

Model MARS merupakan salah satu metode yang fleksibel untuk pemodelan

regresi dengan data berdimensi tinggi dengan variabel prediktor (𝑋𝑝 ) dimana 3 ≤

𝑝 ≤ 20 dan ukuran sampel 50 ≤ 𝑛 ≤ 1000. MARS merupakan pengembangan

dari pendekatan Recursive Partitioning Regression (RPR) dan rekursif. Beberapa

hal yang perlu diperhatikan dalam menggunakan model MARS sebagai berikut

(Nisa’ dan Budiantara, 2012).

1. Knot

Knot yaitu akhir dari sebuah garis regresi (region) dan awal dari sebuah

garis regresi (region) yang lain. Di setiap titik knot, diharapkan adanya

kontinuitas dari fungsi basis antar satu region dengan region lainnya.
29

2. Basis Function / Fungsi Basis (BF)

Basis Function yaitu suatu fungsi yang digunakan untuk menjelaskan

hubungan antara variabel respon dan variabel prediktor. Fungsi basis ini

merupakan fungsi parametrik yang didefinisikan pada tiap region. Pada

umumnya fungsi basis yang dipilih adalah berbentuk polinomial dengan

turunan yang kontinu pada setiap titik knot. Friedman menyarankan jumlah

maksimum fungsi basis (BF) adalah 2-4 kali jumlah variabel prediktornya.

3. Interaction / Interaksi

Interaksi merupakan hasil perkalian silang antara variabel yang saling

berkorelasi. Friedman membatasi jumlah maksimum interaksi (MI) yang

diperbolehkan yaitu 1, 2, dan 3. Apabila terdapat lebih dari 3 interaksi, maka

akan menimbulkan interpretasi model yang sangat kompleks dan sulit untuk

diinterpretasikan. Maksimum interaksi (MI) yaitu untuk maksimum garis BF

yang dapat melewati knotnya. MI = 1 artinya bahwa di dalam modelnya

maksimum garis BF dapat melewati 1 titik knot, MI = 2 artinya bahwa di

dalam modelnya maksimum garis BF dapat melewati 2 titik knot, dan MI =

3 artinya bahwa di dalam modelnya maksimum garis BF dapat melewati 3

titik knot.

Pemodelan MARS ditentukan berdasarkan trial and error untuk

kombinasi BF, MI, dan MO untuk mendapatkan nilai dari parameter pemulus yang

minimum. MO yaitu minimum jarak antara knot atau minimum observasi antara

knot (MO) sebesar 0, 1, 2, dan 3. M0 = 0 artinya bahwa di dalam modelnya jarak

antara titik knot 0, M0 = 1 artinya bahwa di dalam modelnya minimum jarak antara
30

titik knot 1, M0 = 2 artinya bahwa di dalam modelnya minimum jarak antara titik

knot 2, dan M0 = 3 artinya bahwa di dalam modelnya minimum jarak antara titik

knot 3 (Nisa’ dan Budiantara, 2012).

Didefinisikan variabel respon 𝑌1 dan variabel prediktor 𝑋1 , 𝑋2 , dan 𝑋3

maka estimator model MARS dapat ditulis sebagai berikut (Otok et al., 2008).

𝑀 𝐾𝑚

𝑓̂(𝑡) = 𝑎0 + ∑ 𝑎𝑚 ∏[𝑠𝑘𝑚 . (𝑥𝑝𝑛(𝑘,𝑚) − 𝑧𝑘𝑚 )] (2.25)


𝑚=1 𝑘=1

dengan :

𝛼0 : fungsi basis induk

𝛼𝑚 : koefisien dari fungsi basis ke-m

𝑀 : maksimum fungsi basis (nonconstant fungsi basis)

𝐾𝑚 : derajat interaksi ke m

𝑠𝑘𝑚 : nilainya 1 atau − 1 jika data berada di sebelah kanan atau kiri titik knot

𝑥𝑝𝑛(𝑘,𝑚) : variabel prediktor dari 𝑝 dengan observasi m

𝑧𝑘𝑚 : nilai knots dari variabel prediktor 𝑥𝑝𝑛 (𝑘,𝑚)

MARS merupakan pengembangan dari pendekatan Recursive Partitioning

Regression (RPR) yang dikombinasikan dengan metode spline, menggunakan

algoritma forward stepwise untuk memperoleh fungsi basis dengan cara

memodifikasi Algoritma 1 dengan fungsi basis truncated power pada orde 𝑞 = 1

seperti yang terlihat pada Algoritma 2 berikut.

Algoritma 2

𝐵1 (𝑥) ← 1; 𝑀 ← 2

𝐿𝑜𝑜𝑝 𝑢𝑛𝑡𝑖𝑙 𝑀 > 𝑀𝑚𝑎𝑥 ∶ 𝑙𝑜𝑓 ∗ ← ∞


31

𝐹𝑜𝑟 𝑚 = 1 𝑡𝑜 𝑀 − 1 do:

𝐹𝑜𝑟 𝑣 ∉ {𝑣(𝑘, 𝑚)⃒1 ≤ 𝑘 ≤ 𝐾𝑚

𝐹𝑜𝑟 𝑡 ∈ {𝑥𝑣𝑗 ⃒𝐵𝑚 (𝑥𝑗 ) > 0}

𝑀−1

𝑔 ← ∑ 𝑎𝑖 𝐵𝑖 (𝑥) + 𝑎𝑀 𝐵𝑚 (𝑥)[+(𝑥𝑣 − 𝑡)]+ + 𝑎𝑀+1 𝐵𝑚 (𝑥)[−(𝑥𝑣 − 𝑡)]+


𝑖=1

𝑙𝑜𝑓 ← min𝑎1 ,…,𝑎𝑀+1 𝐿𝑂𝐹 (𝑔)

𝑖𝑓𝑙𝑜𝑓 < 𝑙𝑜𝑓 ∗ ← 𝑙𝑜𝑓; 𝑚∗ ← 𝑚; 𝑣 ∗ ← 𝑣; 𝑡 ∗ ← 𝑡 end if

end for

end for

end for

𝐵𝑀 (𝑥) ← 𝐵𝑚∗ (𝑥)[+(𝑥𝑣∗ − 𝑡 ∗ )]+

𝐵𝑀+1 (𝑥) ← 𝐵𝑚∗ (𝑥)[−(𝑥𝑣∗ − 𝑡 ∗ )]+

end loop

end algorithm

setelah mendapatkan sejumlah fungsi basis pada Algoritma 2, maka untuk

menyederhanakan fungsi basis dilakukan algoritma backward stepwise agar

memenuhi fungsi basis yang memiliki kontribusi kecil terhadap respon dari forward

stepwise seperti yang tertera pada Algoritma 3.

Algoritma 3

𝐽∗ = [1,2, … , 𝑀𝑚𝑎𝑥 ]; 𝐾 ∗ ← 𝐽∗

𝑙𝑜𝑓 ∗ ← 𝑚𝑖𝑛 𝐿𝑂𝐹 (∑ 𝑎𝑗 𝐵𝑗 (𝑥))


{𝛼𝑗 ⃒𝐽∈𝐽∗ }
𝐽∈𝐽∗
32

𝐹𝑜𝑟 𝑀 = 𝑀𝑚𝑎𝑥 to 2 do; b ← ∞; 𝐿 ← 𝐾 ∗

𝐹𝑜𝑟𝑚 = 2 𝑡𝑜 𝑀 𝑑𝑜; 𝐾 ← 𝐿 − {𝑚}

𝑙𝑜𝑓 ← 𝑚𝑖𝑛𝑎 LOF ( ∑ 𝑎𝑘 𝐵𝑘 (𝑥))


𝑘⃒𝑘∈𝐾
𝑘∈𝐾 ∗

𝑖𝑓𝑙𝑜𝑓 < 𝑏, 𝑡ℎ𝑒𝑛 𝑏 ← 𝑙𝑜𝑓; 𝐾 ∗ ← 𝐾 𝑒𝑛𝑑 𝑖𝑓

𝑖𝑓𝑙𝑜𝑓 < 𝑙𝑜𝑓 ∗ , 𝑡ℎ𝑒𝑛 𝑙𝑜𝑓 ∗ ← 𝑙𝑜𝑓; 𝑙𝑜𝑡; 𝑗 ∗ ← 𝐾𝑒𝑛𝑑 𝑖𝑓

end for

end for

end for

𝐵𝑀 (𝑥) ← 𝐵𝑚∗ (𝑥)[+(𝑥𝑣∗ − 𝑡 ∗ )]+

𝐵𝑀+1 (𝑥) ← 𝐵𝑚∗ (𝑥)[−(𝑥𝑣∗ − 𝑡 ∗ )]+

end loop

end algorithm

sehingga model MARS dinyatakan dalam persamaan berikut:

𝑀 𝐾𝑚

𝑦𝑖 = 𝑎0 + ∑ 𝑎𝑚 ∏[𝑠𝑘𝑚 . (𝑥𝑝𝑛(𝑘,𝑚) − 𝑧𝑘𝑚 )] + εi


𝑚=1 𝑘=1

𝑦𝑖 = 𝑎0 + ∑ 𝑎𝑚 𝐵𝑚 (𝑥) + εi (2.26)
𝑚=1

𝐾
dengan 𝐵𝑚 (𝑥) = ∏𝑘=1
𝑚
[𝑠𝑘𝑚 . (𝑥𝑣(𝑘,𝑚) − 𝑡𝑘𝑚 )]

Dari model MARS pada persamaan (2.22) dalam bentuk matriks dapat

ditulis sebagai berikut (Otok et al., 2008).

𝑌 = 𝑩𝒂 + 𝜀 (2.27)
33

dengan :

𝑌 = (𝑦1 . 𝑦2 , 𝑦3 , … , 𝑦𝑛 )𝑇

𝒂 = (𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑀 )𝑇

𝐾1 𝐾𝑀

1 ∏[𝑠1𝑚 . (𝑥𝑝1 (1,𝑚) − 𝑧1𝑚 )] … ∏[𝑠𝑀𝑚 . (𝑥𝑝1 (𝑀,𝑚) − 𝑧𝑀𝑚 )]


𝑘=1 𝑘=1
𝐾1 𝐾𝑀

𝑩= 1 ∏[𝑠1𝑚 . (𝑥𝑝2 (1,𝑚) − 𝑧1𝑚 )] … ∏[𝑠𝑀𝑚 . (𝑥𝑝2 (𝑀,𝑚) − 𝑧𝑀𝑚 )]


𝑘=1 𝑘=1
⋮ ⋮ ⋱ ⋮
𝐾1 𝐾𝑀

1 ∏[𝑠1𝑚 . (𝑥𝑝𝑛(1,𝑚) − 𝑧1𝑚 )] … ∏[𝑠𝑀𝑚 . (𝑥𝑝𝑛(𝑀,𝑚) − 𝑧𝑀𝑚 )]


[ 𝑘=1 𝑘=1 ]

Menurut Budiantara et al. (2006) penjabaran model MARS yaitu


𝐾𝑚
𝑓̂(𝑥) = 𝑎0 + ∑𝑀
𝑚=1 𝑎𝑚 ∏𝑘=1[𝑠𝑘𝑚 . (𝑥𝑝𝑛 (𝑘,𝑚) − 𝑧𝑘𝑚 )]

𝑓̂(𝑥) = 𝛼0 + ∑ 𝛼𝑚 [𝑠1𝑚 . (𝑥𝑝𝑛(1,𝑚) − 𝑧1𝑚 )]


𝑚=1

+ ∑ 𝑎𝑚 [𝑠1𝑚 . (𝑥𝑝𝑛(1,𝑚) − 𝑧1𝑚 )][𝑠2𝑚 . (𝑥𝑝𝑛(2,𝑚) − 𝑧2𝑚 )]


𝑚=1

+ ∑ 𝛼𝑚 [𝑠1𝑚 . (𝑥𝑝𝑛(1,𝑚) − 𝑧1𝑚 )] [𝑠2𝑚 . (𝑥𝑝𝑛(2,𝑚)


𝑚=1

− 𝑧2𝑚 )][𝑠3𝑚 . (𝑥𝑝𝑛(3,𝑚) − 𝑧3𝑚 )] + ⋯ (2.28)

𝑓̂(𝑥) = 𝛼0 + 𝑓𝑖 (𝑥𝑖 ) + 𝑓𝑖𝑗 (𝑥𝑖 , 𝑥𝑗 ) + 𝑓𝑖𝑗𝑘 (𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ) + ⋯ (2.29)

Misal diambil BF = 6 dan MI = 2, maka persamaan (2.30) dapat ditulis sebagai

berikut.
6 2

𝑓̂(𝑥) = 𝑎0 + ∑ 𝑎𝑚 ∏[𝑠𝑘𝑚 . (𝑥𝑝𝑛(𝑘,𝑚) − 𝑧𝑘𝑚 )]


𝑚=1 𝑘=1
34

𝑓̂(𝑥) = 𝛼0 + 𝛼1 [𝑠11 . (𝑥𝑝𝑛(1,1) − 𝑧11 )] + 𝛼2 [𝑠12 . (𝑥𝑝𝑛(1,2) − 𝑧12 )]

+ 𝛼3 [𝑠13 . (𝑥𝑝𝑛(1,3) − 𝑧13 )] + 𝛼4 [𝑠14 . (𝑥𝑝𝑛(1,4) − 𝑧14 )]

+ 𝛼5 [𝑠15 . (𝑥𝑝𝑛(1,5) − 𝑧15 )] + 𝛼6 [𝑠16 . (𝑥𝑝𝑛(1,6) − 𝑧16 )]

+ 𝛼1 [𝑠11 . (𝑥𝑝𝑛(1,1) − 𝑧11 )][𝑠21. (𝑥𝑝𝑛(2,1) − 𝑧21 )]

+ 𝛼2 [𝑠12 . (𝑥𝑝𝑛(1,2) − 𝑧12 )][𝑠22 . (𝑥𝑝𝑛(2,2) − 𝑧22 )]

+ 𝛼3 [𝑠13 . (𝑥𝑝𝑛(1,3) − 𝑧13 )][𝑠23 . (𝑥𝑝𝑛(2,3) − 𝑧23 )]

+ 𝛼4 [𝑠14 . (𝑥𝑝𝑛(1,4) − 𝑧14 )][𝑠24 . (𝑥𝑝𝑛(2,4) − 𝑧24 )]

+ 𝛼5 [𝑠15 . (𝑥𝑝𝑛(1,5) − 𝑧15 )][𝑠25 . (𝑥𝑝𝑛(2,5) − 𝑧25 )]

+ 𝛼6 [𝑠16 . (𝑥𝑝𝑛(1,6) − 𝑧16 )][𝑠26 . (𝑥𝑝𝑛(2,6) − 𝑧26 )]

Menurut Budiantara et al. (2006) dari persamaan (2.28) menunjukkan bahwa

penjumlahan pertama meliputi semua fungsi basis untuk satu variabel, penjumlahan

kedua meliputi semua fungsi basis untuk interaksi antara dua variabel, penjumlahan

ketiga meliputi semua fungsi basis untuk interaksi antara tiga variabel dan

seterusnya. Dari model MARS pada persamaan (2.27) dapat dijabarkan berikut.
𝑀

𝑓𝑖 (𝑥𝑖 ) = ∑ 𝑎𝑚 𝐵𝑚 (𝑥𝑖 ) (2.31)


𝑚=1

𝑓𝑖 (𝑥𝑖 ) merupakan penjumlahan semua fungsi basis untuk satu variabel 𝑥𝑖 dan

merupakan spline dengan derajat 𝑚 = 1 yang merepresentasikan fungsi univariat.

Setiap fungsi bivariat dapat ditulis sebagai berikut.


𝑀

𝑓𝑖𝑗 (𝑥𝑖 , 𝑥𝑗 ) = ∑ 𝑎𝑚 𝐵𝑚 (𝑥𝑖 , 𝑥𝑗 ) (2.32)


𝑚=1
35

yang merepresentasikan penjumlahan semua fungsi basis dua variabel 𝑥𝑖 dan 𝑥𝑗 .

Untuk fungsi trivariat pada penjumlahan yang ketiga diperoleh dengan

menjumlahkan semua fungsi basis untuk tiga variabel, yang dituliskan sebagai

berikut.
𝑀

𝑓𝑖𝑗𝑘 (𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ) = ∑ 𝑎𝑚 𝐵𝑚 (𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ) (2.33)


𝑚=1

2.4 Pengujian Parameter Model Regresi

Regresi parametrik memiliki asumsi-asumsi yang harus terpenuhi dan

apabila salah satu asumsi tidak terpenuhi maka merupakan regresi nonparametrik.

Asumsi regresi klasik terdiri dari sebagai berikut.

1. Normalitas

Apabila asumsi ini terpenuhi, berarti data yang diambil berasal dari populasi

normal yang berarti bahwa 𝜀~𝑁𝐼𝐼𝐷(0, 𝜎 2 ). Asumsi kenormalan data diuji dengan

menggunakan uji Kolmogorov-Smirnov.

- Hipotesis :

𝐻0 : Residual berdistribusi normal

𝐻1 : Residual tidak berdistribusi normal

- Tingkat signifikansi 𝛼=0,05

- Statistik uji :

D = supremum |Sx − F0 |

Sx = probabilitas kumulatif normal

F0 = probabilitas kumulatif empiris

- Daerah kritis : 𝐻0 di tolak apabila nilai D > Dtabel(N,𝛼) atau sign < 𝛼.
36

Kenormalan distribusi dari residual dapat pula dilakukan dengan melihat

grafik Normal P-P Plot. Jika asumsi kenormalan dipenuhi, maka harga-harga

residual akan didistribusikan secara random dan terkumpul disekitar garis lurus

yang melalui titik nol.

2. Kesamaan Varian (Homoskedastisitas)

Uji Heterokedastisitas bertujuan menguji apakah dalam model regresi terjadi

ketidaksamaan variansi dari residual satu pengamatan yang lain. Jika variansi dari

residual satu pengamatan ke pengamatan lain tetap, maka disebut dengan

Homoskedastisitas. Sedangkan, apabila antara pengamatan satu ke pengamatan lain

berbeda disebut dengan Heteroskedastisitas. Model yang baik adalah model yang

Homoskedastisitas dan tidak terjadi Heterokedastisitas.

Ada beberapa cara untuk mendeteksi ada atau tidaknya heterokedastisitas :

a. Uji Glejser

Uji Glejser menggunakan nilai mutlak dari residual (absolut residual) sebagai

variabel dependen untuk diregresikan dengan variabel independen. Jika nilai

signifikansi antara variabel independen dengan absolut residual lebih dari 0,05

maka tidak terjadi masalah heteroskedastisitas.

- Hipotesis :

𝐻0 : Tidak ada gejala heteroskedastisitas

𝐻1 : Ada gejala heteroskedastisitas

- Tingkat signifikansi 𝛼 = 0,05

- Statistik uji : |𝑈𝑡 | = 𝑎 + 𝑏𝑋𝑖 + 𝜀𝑖

- Daerah kritis : 𝐻0 di tolak bila nilai sign < 𝛼.


37

3. Autokorelasi

Autokorelasi adalah ketergantungan antara residual yang ada sedangkan pada

asumsi kenormalan dinyatakan bahwa residual (𝜀𝑖 = 𝑌𝑡 − 𝑌̂𝑡 ) pada variabel-

variabel random todak saling berkorelasi atau independen. Salah satu cara untuk

mengetahui apakah error berkorelasi atau tidak adalah dengan pengujian stastistik

Durbin-Watson.

- Hipotesis :

𝐻0 : Tidak terjadi autokorelasi

𝐻1 : Terjadi autokorelasi

- Tingkat signifikansi 𝛼 = 0,05

∑𝑁
𝑖=2(𝑒𝑖 −𝑒𝑖−1 )
2
- Statistik uji : 𝑑 = ∑𝑁 2
𝑖=1 𝑒𝑖

- Daerah kritis :

Jika 𝑑 < 𝑑𝐿 atau 𝑑 > 4 − 𝑑𝐿, berarti terdapat autokorelasi

Jika 𝑑𝑈 < 𝑑 < 4 − 𝑑𝑈, berarti tidak terdapat autokorelasi

Jika 𝑑𝐿 < 𝑑 < 𝑑𝑈 atau 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿, tidak ditarik kesimpulan.

4. Multikolinieritas

Multikolinieritas adalah kejadian yang menginformasikan terjadinya

hubungan antara variabel-variabel bebas 𝑋𝑖 dan yang terjadi adalah hubungan yang

cukup erat. Sehingga informasi yang dihasilkan dari variabel-variabel yang saling

berhubungan (kolinier) sangat mirip dan sulit dipisahkan pengaruhnya. Hal ini juga

akan mengahasilkan perkiraan keberatian koefisien yang diperoleh. Cara

mengetahui adanya multikolinieritas, dengan memakai harga Faktor Inflasi Varian

(VIF) yang didefinisikan dengan rumus :


38

1
𝑉𝐼𝐹(𝑋𝑖 ) =
(1 − 𝑅𝑖2 )

dimana 𝑖 = 1,2,3, … , 𝑛

𝑅𝑖2 = koefisien determinasi ke- 𝑖 (kuadrat dari koefisien korelasi).

Nilai VIF yang semakin besar akan menunjukkan multikolinieritas yang lebih

kompleks. Jika nilai VIF < 10, maka secara signifikan dapat disimpulkan bahwa

tidak terdapat multikolinieritas (Neter, Wasserman, & Kutner, 1989).

2.5 Estimasi Parameter

Menurut Otok et al., (2008) menjelaskan bahwa misalkan 𝑌 menunjukkan

variabel respon tunggal tergantung pada 𝑀 variabel prediktor 𝑥, dimana 𝑥 =

(𝑥𝑙𝑖 , … , 𝑥𝑀𝑖 ), maka model regresi dapat ditulis sebagai berikut

𝑌𝑖 = 𝑓(𝑥𝑙𝑖 , … , 𝑥𝑀𝑖 ) + 𝜀𝑖 (2.34)

atas beberapa domain. (𝑥𝑙𝑖 , … , 𝑥𝑀𝑖 ) ∈ 𝐷 ⊂ 𝑅 𝑀 Variabel random 𝜀 diasumsikan

mempunyai rata-rata nol dan variansi 𝜎𝜀2 .

Estimasi dari kurva regresi 𝑓(𝑥) secara umum diperoleh melalui penalized

least squares (PLS) yakni meminimumkan persamaan berikut

𝑛 𝑏
1 2 2
∑(𝑦𝑖 − 𝑓(𝑥𝑖 )) + 𝛿 2 ∫(𝑓 𝑚 (𝑥)) 𝑑𝑥 (2.35)
𝑛
𝑖=1 𝑎

dengan 𝛿 2 = 0, maka persamaan (2.35) dapat ditulis sebagai berikut


𝑛
1 2
∑(𝑦𝑖 − 𝑓(𝑥𝑖 )) (2.36)
𝑛
𝑖=1

Dari persamaan (2.27), maka 𝑓̂(𝑥𝑖 ) = 𝑩𝒂, sehingga persamaan (2.36) menjadi
39

𝑛
1 2 𝑇
∑(𝑦𝑖 − 𝑩𝒂) = (𝑌 − 𝑩𝒂) (𝑌 − 𝑩𝒂) = 𝑇 (2.37)
𝑛
𝑖=1

̂ digunakan metode kuadrat metode kuadrat terkecil


Untuk memperoleh estinator 𝒂

yaitu meminimumkan T, sehingga dinyatakan sebagai berikut.


𝑇
𝑇 = (𝑌 − 𝑩𝒂) (𝑌 − 𝑩𝒂)

𝑇 = (𝑌 𝑻 𝑌 − 𝒂𝑻 𝑩𝑻 𝑌 − 𝑌 𝑻 𝑩𝒂 + 𝒂𝑻 𝑩𝑻 𝑩𝒂)

𝑇 = (𝑌 𝑻 𝑌 − 𝟐𝒂𝑻 𝑩𝑻 𝑌 + 𝒂𝑻 𝑩𝑻 𝑩𝒂)

Untuk memperoleh persamaan normal, dilakukan dengan menurunkan parsial

terhadap 𝒂 dengan hasil sebagai berikut.

𝜕𝑇
= −2𝑩𝑻 𝑌 + 𝟐𝑩𝑻 𝑩𝒂 = 0
𝜕𝒂

−𝑩𝑻 𝑌 + 𝑩𝑻 𝑩𝒂 = 0

−𝑩𝑻 𝑌 = 𝑩𝑻 𝑩𝒂

Karena 𝑩 adalah matriks non singular dan parameter smoothing 𝛿 2 = 0, maka

̂ = (𝑩𝑻 𝑩)−𝟏 𝑩𝑻 𝒀
𝒂

𝑘
dengan 𝑩 = [1, (𝑥1𝑚(1,𝑚) − 𝑧1𝑚 )1 ], 𝒀 = (𝑌1 , … , 𝑌𝑛 )𝑇 , dan 𝒂 = (𝑎1 , … , 𝑎𝑚 )𝑇 .

Sedangkan estimasi modelnya diperoleh dari persamaan (2.27) yaitu

𝑌̂ = 𝑩𝒂
̂

𝑌̂ = 𝑩(𝑩𝑻 𝑩)−𝟏 𝑩𝑻 𝒀

𝑌̂ = 𝑯𝒀

dengan 𝑯 = 𝑩(𝑩𝑻 𝑩)−𝟏 𝑩𝑻 didefinisikan sebagai matriks Hat berukuran 𝑛 × 𝑛.


40

2.6 Generalized Cross Validation (GCV)

Menurut Jerome H. Friedman (1991) menyebutkan bahwa dalam metode

MARS, Generalized Cross Validation (GCV) adalah kriteria yang paling baik

untuk seleksi model tebaik. Nilai GCV didefinisikan sebagai berikut.

1 𝑛 2
∑𝑖=1[𝑦𝑖 − 𝑓̂𝑀 (𝑥𝑖 )]
𝐺𝐶𝑉 = 𝑛
(2.38)
𝐶(𝑀̂) 2
[1 − 𝑛 ]

dimana:

𝑦𝑖 : variabel respon ke 𝑖

𝑓̂𝑀 (𝑥𝑖 ) : nilai taksiran variabel respon pada 𝑀 fungsi basis

𝑛 : banyaknya data

̂)
𝐶(𝑀 : 𝐶(𝑀) + 𝑑𝑀

𝐶(𝑀) : Trace [𝐵(𝐵 𝑇 𝐵)−1 𝐵 𝑇 ] + 1

𝑑 : nilai ketika setiap fungsi basis mencapai optimasi (2 ≤ 𝑑 ≤ 4)

2.7 Algoritma MARS

Pembentukan model Multivariate Adaptive Regression Splines (MARS)

diawali menentukan knot dan fungsi basis setiap variabel prediktor dengan cara

mem-plot setiap variabel prediktor dengan variabel respon. Jumlah knot yang

optimum akan menghasilkan model MARS yang baik sehingga kemudian

dilakukan tahap maju (forward) dan tahap mundur (backward) algoritma recursive

partitioning yang dimodifikasi, dimana jumlah knot yang optimum disesuaikan


41

dengan perilaku data. Gambaran secara umum algoritma MARS adalah sebagai

berikut (Friedman, 1991).

1. Forward Stepwise

Pada model MARS, pemilihan model menggunaan metode stepwise yang

terdiri dari forward dan backward. Forward stepwise dilakukan untuk mendapatkan

jumlah fungsi basis maksimum dan kriteria pemilihan fungsi basis adalah

meminimumkan Average Sum of Square Residual (ASR). Untuk memenuhi konsep

parsemoni dari forward stepwise dengan meminimumkan nilai Generalized Cross-

Validation (GCV) (Friedman, 1991).

Pada tahap ini dimungkinkan untuk memasukkan fungsi basis baru ke dalam

model. Maksimal fungsi basis yang akan masuk di dalam model ditentukan oleh

peneliti. Berikut adalah langkah yang dilakukan dalam forward stepwise.

a. Misalkan 𝐵0 = 1 sebagai fungsi basis awal.

b. Tentukan pasangan fungsi basis dan yang merupakan kombinasi prediktor 𝑥𝑖

dan knot sehingga model memiliki jumlah kuadrat sisaan minimum.

c. Misalkan 𝐵𝑚 adalah salah satu fungsi basis yang sudah ada didalam model

sebelumnya. Jika 𝑚 fungsi basis telah dimasukkan, tentukan perkalian dari

𝐵𝑚 dengan atau sehingga jika 𝐵𝑚 dan 𝐵𝑚 ditambahkan ke dalam model maka

akan dihasilkan model dengan jumlah kuadrat sisaan terkecil.

d. Ulangi langkah (c) sehingga banyaknya fungsi basis dalam model lebih atau

sama dengan maksimum banyaknya fungsi basis yang telah ditetapkan.

2. Backward Stepwise

Prosedur forward seperti yang dijelaskan sebelumnya akan menghasilkan


42

model dengan fungsi basis dengan jumlah yang sangat banyak. Dalam prakteknya,

biasanya maksimum banyaknya fungsi basis yang akan digunakan dalam model

dibatasi. Demikian juga dengan derajat interaksi, yang seringkali hanya dibatasi

hanya sampai derajat tiga. Dengan pembatasan tersebut, prosedur forward tersebut

tetap memberikan model dengan fungsi basis yang sangat banyak. Terkait dengan

model yang kompleks ini, harus dilakukan penghapusan beberapa fungsi basis,

sehingga dapat dihasilkan model yang lebih sederhana. Prosedur backward

dilakukan untuk tujuan ini. Prosedur backward dilakukan dengan tahap-tahap

berikut.

a. Mulai dari model yang diperoleh pada tahap prosedur forward yang

memiliki m fungsi basis.

b. Hapus salah satu fungsi basis tidak konstan yang memiliki kontribusi

terkecil. Berdasarkan kriteria kuadrat terkecil, fungsi basis yang memiliki

kontribusi terkecil adalah fungsi basis yang jika dihilangkan dari model

sebelumnya akan menyebabkan terjadinya penurunan jumlah kuadrat

sisaan terkecil.

c. Ulangi langkah (b), sampai model hanya mengandung fungsi basis

konstan.

Model MARS menentukan knot secara otomatis oleh data dan

menghasilkan model yang kontinu pada knot. Penentuan knot pada MARS

menggunakan algoritma forward stepwise dan backward stepwise. Pemilihan

model dengan menggunakan forward stepwise dilakukan untuk mendapatkan

jumlah fungsi basis dengan kriteria pemilihan fungsi basis adalah meminimumkan
43

Average Sum of Square Residual (ASR). Untuk memenuhi konsep parsimoni

(model yang sederhana) dilakukan backward stepwise yaitu membuang fungsi basis

yang memiliki kontribusi kecil terhadap respon dari forward stepwise dengan

meminimumkan nilai Generalized Cross Validation (GCV). Pada MARS, beberapa

hal yang perlu diperhatikan dalam pemilihan model yang paling optimum (terbaik)

adalah jika nilai GCV dari model tersebut mempunyai nilai yang paling rendah

(minimum) diantara model-model yang lain. Fungsi GCV minimum didefinisikan

sebagai berikut.

1 𝑛 2
𝐴𝑆𝑅 ∑𝑖=1[𝑦𝑖 − 𝑓̂𝑀 (𝑥𝑖 )]
𝐺𝐶𝑉(𝑀) = 𝑛
2 =
̂)
𝐶(𝑀 𝐶(𝑀̂) 2
[1 − 𝑛 ] [1 − 𝑛 ]

dengan :

𝑦𝑖 : variabel respon

𝑓̂𝑀 (𝑥𝑖 ) : nilai taksiran variabel respon pada M fungsi basis

𝑛 : banyaknya pengamatan

̂ ) : 𝐶(𝑀) + 𝑑𝑀
𝐶(𝑀

𝐶(𝑀) : Trace [𝐵(𝐵 𝑇 𝐵)−1 𝐵𝑇 ] + 1

𝑑 : nilai ketika setiap fungsi basis mencapai optimasi (2 ≤ 𝑑 ≤ 4)

𝑘 𝑘
Π𝑘=1
1
(𝑆1𝑀 (𝑋1(1,𝑚) − 𝑡1𝑀 )) ⋯ Π𝑘=1
𝑚
(𝑆𝑘𝑚𝑀 (𝑋1(𝑘𝑚,𝑚) − 𝑡𝑘𝑚𝑀 ))
𝐵=[ ⋮ ⋱ ⋮ ]
𝑘1 𝑘𝑚
Π𝑘=1 (𝑆1𝑀 (𝑋𝑛(1,𝑚) − 𝑡1𝑀 )) ⋯ Π𝑘=1 (𝑆𝑘𝑚𝑀 (𝑋𝑛(𝑘𝑚,𝑚) − 𝑡𝑘𝑚𝑀 ))

2.8 Pemilihan Model MARS Terbaik

Pemodelan MARS, pemilihan model digunakan metode stepwise.

Forward stepwise dilakukan untuk mendapatkan fungsi dengan jumlah fungsi basis
44

maksimum. Kriteria pemilihan fungsi basis pada forward adalah dengan

meminimumkan Average Square Residual (ASR). Untuk memenuhi konsep

parsemoni (model sederhana) dilakukan backward stepwise yaitu memilih fungsi

basis yang dihasilkan dari forward stepwise dengan meminimumkan nilai

Generalized Cross-Validation (GCV). Model terbaik MARS dapat dilihat dari

kriteria GCV terkecil, apabila memiliki nilai GCV terkecil yang sama dapat dilihat

dengan pertimbangan nilai MSE terkecil, dan apabila masih memiliki nilai MSE

yang sama maka dapat dilihat dengan pertimbangan nilai 𝑅 2 terbesar. Untuk

memperoleh matriks Hat diperlukan Teorema berikut.

Teorema 2.1 Apabila R matriks Kuadratik dengan 𝐴 𝑅 −1 (𝑅 −1 )𝑇 = 𝑌 ∗𝑇 𝑌 ∗

dan 𝐵 −1 adalah faktor cholesky dari 𝑌 ∗𝑇 𝑌 ∗ . Misalkan U dan Q matriks Diagonal

sedemikian hingga 𝑈𝑄 −1 𝑈 𝑇 = 𝑅𝐷𝑅 𝑇 . Selanjutnya 𝑍 = 𝑌 ∗ (𝑅 𝑇 𝑈) maka 𝑍 𝑇 =

𝑈 𝑇 𝑅𝑌 ∗𝑇 dan misalkan 𝜆̂ = 𝑈(𝑅 −1 )𝑇 𝛽 = (𝑅 𝑇 𝑈)−1 𝛽̂ maka penyelesaian 𝜆̂ adalah

(𝐼 + 𝛿 2 𝑄)𝜆̂ = 𝑍 𝑇 𝑌 = (𝑈 𝑇 𝐵)𝑌 ∗𝑇 𝑌 (2.39)

Selanjutnya 𝑌 ∗ 𝛽̂ = 𝑍𝜆̂ dan matriks Hat, 𝑆(𝛿 2 ) = 𝑍(𝐼 + 𝛿 2 𝑄)−1 𝑍 𝑇 dengan derajat

bebas, 𝑡𝑟[𝑆(𝛿 2 )] = 𝑡𝑟{(𝐼 + 𝛿 2 𝑄)−1 𝑍 𝑇 𝑍} = 𝑡𝑟{(𝐼 + 𝛿 2 𝑄)−1 } = ∑𝑖(𝐼 + 𝛿 2 𝑄𝑖 )−1

dimana 𝑄𝑖 adalah matriks Diagonal ke-𝑖 dari 𝑄.

Bukti :

𝑌 ∗𝑇 𝑌 ∗ + 𝛿 2 𝐷 = 𝑅 −1 (𝑅 −1 )𝑇 + 𝛿 2 𝐷

= 𝑅 −1 (𝑅−1 )𝑇 + 𝑅 −1 𝑅𝛿 2 𝐷𝑅 𝑇 (𝑅 −1 )𝑇

= 𝑅 −1 (𝐼 + 𝛿 2 𝑅𝐷𝑅 𝑇 )(𝑅 −1 )𝑇

= 𝑅 −1 𝑈(𝐼 + 𝛿 2 𝑄)𝑈 𝑇 (𝑅−1 )𝑇

dan juga, 𝑈 𝑇 𝑅(𝑌 ∗𝑇 𝑌 ∗ + 𝛿 2 𝐷)𝑅 𝑇 𝑈 = 𝐼 + 𝛿 2 𝑄


45

ini berarti, 𝑈 𝑇 𝑅(𝑌 ∗𝑇 𝑌 ∗ + 𝛿 2 𝐷)𝑅 𝑇 𝑈(𝑈 𝑇 (𝑅 −1 )𝑇 𝛽̂ ) = 𝑈 𝑇 𝑅(𝑌 ∗𝑇 𝑌)

atau, (𝐼 + 𝛿 2 𝑅)𝜆̂ = 𝑍 𝑇 𝑌 𝑗𝑢𝑔𝑎 𝑌 ∗ = 𝑍𝑈 𝑇 (𝑅 −1 )𝑇

sehingga 𝑋𝛽̂ = 𝑍𝑈 𝑇 (𝑅−1 )𝑇 𝛽̂ = 𝑍𝜆̂.

Jadi, Teorema 2.1 terbukti.

Berdasarkan Teorema 2.1 dapat diperoleh matriks Hat pada persamaan

(2.37) yaitu 𝑆(𝛿 2 ) = 𝐵(𝐵 𝑇 𝐵 + 𝛿 2 𝐷)−1 𝐵𝑇 . Selanjutnya pemilihan 𝛿 2 optimal,

yang merupakan parameter pengontrol keseimbangan antara kesesuaian kurva

terhadap data dan kemulusan kurva. Dengan diperoleh 𝛿 2 optimal maka estimator

yang diperoleh juga optimal.

Teorema 2.2 (Freidman and Silverman, 1989) Misalkan digunakan model MARS

Friedman pada persamaan (2.39) maka 𝛿 2 optimal diperoleh dengan kriteria GCV

sebagai berikut.

1 𝑁 2
∑𝑡=1 (𝑦𝑡 − 𝑓̂(𝑦𝑡−𝑝 , 𝜃))
𝐺𝐶𝑉(𝑀) = 𝑁
𝐶(𝑀 ̃) 2
{1 − 𝑁 }

dengan :

̃ ) = 𝐶(𝑀) + 𝑑. 𝑀, nilai d yang terbaik berada dalam interval 2 ≤ 𝑑 ≤ 4,


𝐶(𝑀

dan 𝐶(𝑀) = 𝑇𝑟𝑎𝑐𝑒 [𝐵(𝐵′𝐵)−1 𝐵 ′ ] +1 adalah banyak parameter yang diestimasi.

2.9 Pengujian Signifikansi Model MARS

Apabila telah ditemukan model MARS terbaik, maka dilakukan pengujian

untuk mengecek signifikansi parameter untuk mengevaluasi kecocokan model.

Pengujian dilakukan dengan menguji koefisien regresi secara simultan maupun

secara parsial.
46

1. Pengujian koefisien regresi simultan

a. Rumusan hipotesis :

𝐻0 : 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑀 = 0 (model tidak signifikan)

𝐻1 : minimal terdapat satu αm ≠ 0; 𝑚 = 1,2, … , 𝑀 (model signifikan)

b. Taraf signifikansi : α

c. Statsitik uji :

(𝑦̂𝑖 − 𝑦̂)2
∑𝑛𝑖=1
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 𝑀
(𝑦̂ − 𝑦̂)2
∑𝑛𝑖=1 𝑖
𝑁−𝑀−1

d. Daerah kritis :

Tolak 𝐻𝑜 jika nilai 𝐹 > 𝐹α(M;N−M−1) atau P-Value < α.

2. Pengujian koefisien regresi parsial

a. Rumusan hipotesis:

𝐻𝑜 : αm = 0 (koefisien αm tidak berpengaruh terhadap model)

𝐻1 : αm ≠ 0 ; untuk setiap m, dimana m=1,2,...,M (koefisien αm

berpengaruh terhadap model)

b. Taraf signifikan : α

c. Statistik Uji :

𝑎̂𝑚
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 =
𝑆𝑒(𝑎̂𝑚 )

dengan

𝑆𝑒(𝑎̂𝑚 ) = √𝑣𝑎𝑟 (𝑎̂𝑚 )

d. Daerah kritis:
47

Tolak 𝐻0 jika 𝑡 > 𝑡(𝛼,𝑁−𝑀) atau P-Value < 𝛼.


2

2.10 Penelitian Terdahulu

Penelitian yang berkaitan Multivariate Adaptive Regression Splines

(MARS) diantaranya.

1. Penelitian oleh Noviyanti Santoso Jurusan Statistika ITS Surabaya (2009)

yang berjudul “Klasifikasi Kabupaten/Kota di Jawa Timur Berdasarkan

Tingkat Pengangguran Terbuka dengan Pendekatan Multivariate

Adaptive Regression Splines (MARS)”. Penelitian ini membahas

pengangguran di Jawa Timur Indonesia, tingkat pengangguran yang tinggi

akan menimbulkan berbagai permasalahan sosial. Pendekatan model

MARS dipilih karena beberapa penelitian sebelumnya menyatakan bahwa

metode ini lebih baik dibandingkan dengan metode klasifikasi lainnya.

Hasil pemodelan dengan Multivariate Adaptive Regression Spline

(MARS) terdapat tiga variabel yang berkontribusi dalam pengelompokan,

yaitu tingkat investasi daerah, rasio banyaknya perusahaan, dan persentase

angkatan kerja berpendidikan SMA keatas. Ketepatan klasifikasi model

secara keseluruhan adalah 97,4% dengan nilai GCV yaitu 0,096 dan 𝑅 2

sebesar 82,9%.

2. Penelitian oleh Nurul Astuty Yensy Program Studi Matematika FKIP

Universitas Bengkulu yang berjudul “Penggunaan Regresi Splines Adaptif

Berganda untuk Peramalan Indeks ENSO dan Hujan Bulanan”. Penelitian

ini membahas metode Regresi Splines Adaptif Berganda (RSAB) yang


48

digunakan untuk peramalan indeks ENSO dan hujan bulanan melalui

proses (stepwise) berdasarkan Recursive Partitioning dengan splines.

Dibahas pula metode Adaptive Splines Treshold Autoregression (ASTAR)

yaitu analisis deret waktu nonlinier yang berdasarkan algoritma RSAB.

RSAB merupakan metode alternatif dari metode kuadrat terkecil bila

asumsi bentuk fungsi hubungan model tidak diketahui. Hasil validasi

model dari metode ini mampu meramal curah hujan antara 30% − 70%.

Metode ASTAR mempunyai daya ramal mencapai 60% hingga lebih 90%

dalam jangka 3 bulan ke depan.

3. Penelitian oleh Bambang Widjanarko Otok Jurusan Statistika ITS

Surabaya, Vol.10 No.2, 107–120 Nopember 2010 yang berjudul

“Pendekatan Multivariate Adaptive Regression Spline (MARS) pada

Pengelompokkan Zona Musim Suatu Wilayah”. Hasil penelitian

menunjukkan bahwa estimasi parameter model MARS untuk variabel

respon kontinu dilakukan dengan Penalized Least Square (PLS).

Pemilihan model MARS terbaik dilakukan dengan prosedur forward dan

backward stepwise didasarkan pada nilai GCV. Hasil kajian juga

menunjukkan bahwa GCV dengan potongan regresi linier dapat terbukti

bekerja dengan baik dalam menentukan pemilihan model terbaik pada

MARS respon kontinu.

4. Penelitian Petra Surabaya oleh I Nyoman Budiantara, dkk. Jurusan

Statistika ITS Surabaya yang berjudul “Pemodelan B-Spline dan MARS

pada Nilai Ujian Masuk terhadap IPK Mahasiswa Jurusan Disain


49

Komunikasi Visual UK”. Penelitian ini mengenai Analisis regresi,

pendekatan yang paling umum dan seringkali digunakan adalah

pendekatan parametrik, mendapatkan model terbaik mengenai nilai ujian

masuk terhadap nilai IPK (Indek Prestasi Kumulatif) mahasiswa jurusan

Disain Komunikasi Visual tahun 1999 di Universitas Kristen Petra

Surabaya dengan analisis regresi, baik parametrik maupun nonparametrik.

Pendekatan regresi parametrik menggunakan regresi linier sederhana,

kuadratik dan kubik, sedangkan regresi nonparametrik digunakan B-Spline

dan Multivariate Adaptive Regression Splines (MARS). Secara

keseluruhan, model terbaik dipilih berdasarkan koefisien determinasi

terbesar. Namun demikian untuk MARS, model terbaik dipilih

berdasarkan pada GCV, minimum MSA dan koefisien determinasi

terbesar.

5. Penelitian Wasis Wicaksono Jurusan FSM UNDIP (2014) yang berjudul

“Pemodelan Multivariate Adaptive Regression Splines (MARS) pada

Faktor-faktor Resiko Angka Kesakitan Diare”. Penelitian ini membahas

penyebaran penyakit diare dan untuk menekan angka penyebaran diare

perlu dilakukan analisis faktor-faktor terhadap penyakit diare. Analisis

kurva regresi menggunakan model regresi nonparametrik. MARS

merupakan salah satu metose regresi nonparametrik yang digunakan untuk

data berdimensi tinggi. Model MARS terbaik mengkombinasikan MO,

BF, dan MI secara trial and error. Model MARS digunakan untuk

memprediksi angka kesakitan diare di Jawa Tengah, Jawa Timur, dan


50

Daerah Istimewa Yogyakarta adalah model MARS (MO=2, BF=28, dan

MI=3) dengan bentuk persamaan 𝑌̂ = −0,526742 + 0,264444∗ 𝐵𝐹2 +

12,2382∗ 𝐵𝐹5 − 7,76719∗ 𝐵𝐹15 + 4,96445∗ 𝐵𝐹17.

6. Penelitian Kishartini Jurusan Statistika FSM UNDIP (2014) yang berjudul

“Multivariate Adaptive Regression Splines (MARS) Untuk Klasifikasi

Status Kerja Di Kabupaten Demak”. Penelitian ini membahas model

MARS pada klasifikasi kerja di Kabupaten Demak adalah model MARS

(BF=24, MI=3, dan MO=1) karena memiliki nilai GCV paling kecil yaitu

sebesar 0,03451 dengan bentuk persamaan:

𝑌̂ = 𝑓̂(𝑥) = −0,526742 + 0,264444∗ 𝐵𝐹2 + 12,2382∗ 𝐵𝐹5 −

7,76719∗ 𝐵𝐹15 + 4,96445∗ 𝐵𝐹17.

7. Penelitian Icha Puspitasari Jurusan Statistika FSM UNDIP yang berjudul

“Analisis Indeks Harga Saham Gabungan (IHSG) dengan menggunakan

Model Regresi Kernel”. Penelitian ini membahas tentang analisis IHSG

menggunakan metode runtun waktu klasik. Namun dengan metode tersebut

banyak asumsi yang harus dipenuhi, sehingga diperlukan metode alternatif

salah satunya metode regresi nonparametrik karena dalam model regresi

nonparametrik tidak ada asumsi khusus sehingga model ini merupakan

metode alternatif yang dapat digunakan dalam analisis IHSG. Dalam

penelitian tersebut dibandingkan nilai MSE yang dihasilkan dari analisis

runtun waktu klasik, regresi parametrik linier sederhana dan regresi

nonparametrik kernel. Data IHSG yang digunakan adalah periode minggu

pertama Januari 2011 sampai dengan minggu ke empat Februari 2012. Data
51

tersebut merupakan data closing price saham mingguan pada periode

perdagangan terakhir. Hasil perbandingan nilai MSE dari data IHSG yang

sering fluktuatif pada tiga analisis diperoleh nilai MSE terkecil adalah pada

analisis menggunakan regresi nonparametrik kernel dengan fungsi triangle

dan badwidth h sebesar 58,2 dengan nilai MSE = 6987,787. Model terbaik

tersebut dapat digunakan untuk memprediksikan nilai IHSG selanjutnya.

8. Penelitian Dimas Okky S Jurusan Statistika ITS yang berjudul “ Pemodelan

Indeks Harga Saham Gabungan (IHSG), Kurs, dan Minyak Dunia dengan

Pendekatan Vector Autoregressive”. Penelitian ini membahas Vector

Autoregressive (VAR) merupakan salah satu analisis time series

multivariate dimana dapat digunakan dalam memprediksi variabel dan

berguna untuk menilai keterkaitan antara variabel. Tahapan-tahapan dalam

metode VAR meliputi tahap identifikasi, estimasi parameter, dan cek

diagnosa. Data yang digunakan dalam penelitian ini adalah Indek Harga

Saham Gabungan (IHSG), kurs, dan harga minyak dunia pada periode 2011-

2012. Dari hasil analisis diperoleh model VAR yang sesuai adalah VAR (4,

1, 0) dengan nilai AIC terkecil sebesar 15,7437. Selain itu, hasil MAPE dan

RMSE pada ketiga variabel yaitu variabel IHSG sebesar 1,85 dan 88,076;

variabel kurs sebesar 0,89 dan 84,9237; sedangkan variabel harga minyak

dunia sebesar 0,83 dan 0,009694.

9. Penelitian Silvia Roshita Dewi Jurusan Statistika ITS yang berjudul

“Pemodelan Indeks Harga Saham di Indonesia dan Dunia dengan Model

Univariate dan Multivariate Time Series”. Penelitian ini membahas tentang


52

Peramalan Indeks Harga saham dapat dilakukan dengan metode time series.

Secara Univariate time series dapat menggunakan metode Autoregressive

Integrated Moving Average (ARIMA) sedangkan multivariate time series

dapat menggunakan Vector Autoregression (VAR). Dalam penelitian ini,

dilakukan penerapan metode ARIMA dan VAR pada peramalan indeks

harga saham IHSG Indonesia. Dow Jones Industrial Average (DJI)

Amerika, FTSE 100 London, Hang Seng Index (HSI) Hongkong, Nikkei

225 (N225) Jepang, dan Strait Time Index (STI) Singapura. Melalui metode

multivariate tidak hanya bisa meramal indeks harga saham, namun juga bisa

melihat keterkaitan harga saham antara satu negara dengan yang lain.

Berdasarkan hasil pengamatan diketahui bahwa indeks harga saham

Amerika mempengaruhi semua indeks harga saham negara lain, namun

tidak dipengaruhi oleh indeks harga saham manapun. Perbandingan antara

kedua model, ARIMA dan VAR tersebut memberikan hasil bahwa beberapa

model memiliki keakuratan lebih tinggi untuk meramal jika menggunakan

model univariate.

Berdasarkan hasil penelitian yang terdahulu menggunakan model MARS

dengan pendekatan kurva regresi nonparametrik juga cocok pada penelitian Indeks

Harga Saham Gabungan (IHSG) karena data nominal dengan pendekatan regresi

nonparametrik, data yang berdimensi tinggi, dan untuk memodelkan dan

mengetahui variabel-variabel prediktor yang mempengaruhi Indeks Harga Saham

Gabungan (IHSG). Model terbaik varibel-variabel prediktor yang mempengaruhi

Indeks Harga Saham Gabungan (IHSG) dengan kriteria Generalized Cross


53

Validation (GCV) minimum. Sehingga guna menekan kerugian para investor dan

meningkatkan kepercayaan investor terhadap perbankan negara, dan mengetahui

variabel-variabel prediktor terbaik yang mempengaruhi Indeks Harga Saham

Gabungan (IHSG) maka penulis akan melakukan penelitian menggunakan model

MARS yaitu yang berjudul “Estimasi Multivariate Adaptive Regression Splines

(MARS) pada Indeks Harga Saham Gabungan (IHSG)”.

2.11 Salford Predictive Modeler (SPM) 7

Salford Predictive Modeler atau SPM 7 merupakan software yang

membantu dalam pengerjaan dalam memodelkan Multivariate Adaptive Regression

Splines (MARS). Salford Predictive Modeler atau SPM 7 diperkenalkan sejak 30

November 2012 oleh Salford System (salford-systems.com). Adapun tampilan

jendela utama dari SPM 7 adalah sebagai berikut.

Gambar 2.1 Menu Utama SPM 7


54

Gambar 2.2 Tampilan Membuka Dokumen

Gambar 2.2 merupakan tampilan membuka dokumen yang akan diproses

menggunakan progrmam SPM 7.

Gambar 2.3 Tampilan Variabel-variabel

Gambar 2.3 terdapat record mengenai banyaknya data, variabel penelitian, karakter,

dan numerik. Pilih Sort yaitu File Order.


55

Gambar 2.4 Data dalam SPM 7

Gambar 2.4 merupakan tampilan data penelitian yang sudah di standarisasikan dan

akan diproses menggunakan model MARS.

Gambar 2.5 Mars dalam SPM 7

Gambar 2.5 merupakan tampilan model MARS pada SPM 7.


56

Gambar 2.6 Model dalam SPM 7

Gambar 2.6 merupakan tampilan model MARS pada SPM 7. Pilih sort yaitu File

Order, pilih target yaitu Y, centang select predictors prediktor pada variabel

prediktor terhadap Y, analysis type yaitu regression, analysis method yaitu MARS.

Gambar 2.7 Options and Limits dalam SPM 7

Gambar 2.7 merupakan model Fungsi basis (BF), Maksimum Interaksi (MI), dan

Minimum Observasi (MO) sesuai yang akan dimodelkan.


BAB 3

METODE PENELITIAN

Rencana Penelitian harus logis, diikuti oleh unsur-unsur yang urut,

konsisten, dan operasional, menyangkut bagaimana penelitian tersebut akan

dijalankan (Suharto, et al., 2004: 98). Langkah-langkah yang digunakan pada

penelitian ini adalah sebagai berikut.

3.1 Studi Pustaka

Dalam studi pustaka ini digunakan sumber pustaka yang relevan yang

digunakan untuk mengumpulkan informasi yang diperlukan dalam penelitian. Studi

pustaka dengan mengumpulkan sumber pustaka yang dapat berupa buku, teks,

jurnal, dan sebagainya. Setelah sumber pustaka terkumpul, dilanjutkan dengan

penelaahan sumber pustaka tersebut. Pada akhirnya sumber pustaka itu dijadikan

landasan untuk menganalisis permasalahan.

Dalam penelitian ini, perlu adanya studi pustaka yang berkaitan dengan

permasalahan yang ada yaitu tentang teori Analisis Regresi, Regresi

Nonparametrik, Recursive Partitioning Regression (RPR), Regresi Spline,

Multivariate Adaptive Regression Splines (MARS), Indeks Harga Saham

Gabungan (IHSG), inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs)

tengah rupiah bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks

saham Nikkei 225, indeks saham Hang Seng, SPSS versi 16.0, dan software SPM

7 yang akan dimanfaatkan untuk membantu menyelesaikan masalah yang ada.

57
58

3.2 Perumusan Masalah

Tahap ini dimaksudkan untuk memperjelas permasalahan sehingga

mempermudah pembahasan selanjutnya. Selain itu, perumusan masalah juga

menjadi sangat penting karena hal ini menjadi dasar dan tujuan akhir dilakukan

penelitian ini. Masalah yang diangkat dalam penelitian ini adalah menentukan

model terbaik pada variabel-variabel prediktor yang mempengaruhi Indeks Harga

Saham Gabungan (IHSG), membuat pemprograman dengan SPSS versi 16.0 dan

SPM 7 agar dapat dimanfaatkan sebagai upaya untuk menentukan model MARS

terbaik dengan nilai Generalized Cross-Validation (GCV) terkecil, serta melihat

besar tingkat pentingnya variabel prediktor terhadap model terbaik yang diperoleh.

1. Bagaimana estimasi Multivariate Adaptive Regression Splines (MARS) pada

variabel prediktor Indeks Harga Saham Gabungan (IHSG) terbaik

menggunakan kriteria Generalized Cross Validation (GCV) ?

2. Berapa besar tingkat pentingnya variabel prediktor terhadap model terbaik

yang diperoleh ?

3.3 Pengumpulan Data

Data yang digunakan dalam penelitian ini adalah data sekunder, yaitu data

yang diperoleh dari sumber yang telah dipublikasikan oleh Bank Indonesia melalui

situs www.bi.go.id. Data IHSG bulanan diperoleh dari situs www.bi.go.id/id/

statistik/seki/terkini/moneter/contens/default.aspx. Data inflasi www.bi.go.id/id/

moneter/informasi_kurs/default.aspx. Data suku bunga di Indonesia bulanan

diperoleh dari situs www.bi.go.id/id/moneter/bi-rate/data/default.aspx. Data nilai


59

tukar (kurs) tengah rupiah bulanan terhadap dolar Amerika diperoleh dari situs

www.bi.go.id/id/moneter/kalkulator-kurs/default.aspx. Data indeks saham Dow

Jones, indeks saham Nikkei 225, dan indeks Hang Seng diperoleh dari

www.yahoo.finance.com.

3.4 Pemecahan Masalah

Dari permasalahan yang ada, yaitu bagaimana estimasi Multivariate

Adaptive Regression Splines (MARS) pada variabel prediktor Indeks Harga Saham

Gabungan (IHSG) terbaik menggunakan kriteria Generalized Cross Validation

(GCV). Kemudian, model MARS diperoleh dari kombinasi nilai BF, MI, dan MO

secara trial and error. Model terbaik MARS dilihat dari nilai GCV terkecil.

Selanjutnya, dilihat berapa besar tingkat pentingnya variabel prediktor terhadap

model terbaik yang diperoleh. Langkah-langkah untuk memecahkan masalah di

atas sebagai berikut.

3.4.1 Variabel Penelitian

Dalam penelitian ini terdapat satu variabel respon (𝑌) yaitu Indeks Harga

Saham Gabungan (IHSG) dan terdapat enam variabel prediktor (𝑋) yaitu Inflasi

bulanan (𝑋1 ), Suku Bunga di Indonesia bulanan (𝑋2 ), Nilai Tukar (Kurs) Rupiah

bulanan terhadap Dolar Amerika bulanan (𝑋3 ) di Indonesia, Indeks saham Dow

Jones (𝑋4 ), Indeks saham Nikkei 225 (𝑋5 ), dan Indeks Hang Seng (𝑋6 ) dimulai

pada Bulan September 2010 hingga September 2015.


60

3.4.2 Software yang Digunakan

Dalam penelitian ini software yang digunakan yaitu software SPSS versi

16.0 dan SPM 7.

3.4.3 Metode Analisis

Langkah-langkah penerapan pengujian analisis sebagai berikut.

1. Melakukan statistik deskriptif dan grafik plot antara variabel respon IHSG

dengan masing-masing variabel prediktor sebagai langkah awal mengetahui

pola hubungan antar variabel tersebut.

2. Melakukan pengujian parameter model regresi nonparametrik. Apabila tidak

memenuhi parameter model regresi nonparametrik maka dilakukan

pengurangan variabel prediktor dan kembali ke input data. Apabila memenuhi

parameter model regresi nonparametrik maka dilakukan langkah selanjutnya.

3. Melakukan standarisasi terhadap setiap variabel yang terlibat (variabel respon

dan variabel prediktor) agar memiliki skala nilai yang sama.

4. Menentukan maksimum jumlah fungsi basis (BF), maksimum fungsi basis

yang dibolehkan adalah sebanyak dua sampai empat kali dari banyaknya

variabel prediktor yang digunakan. Dalam penelitian ini digunakan 6 variabel

prediktor sehingga maksimum jumlah BF adalah 12, 18, dan 24.

5. Menentukan jumlah maksimum interaksi, dalam penelitian ini jumlah

maksimum interaksi (MI) yaitu 1, 2, dan 3. Apabila terdapat lebih dari 3

interaksi, maka akan menimbulkan interpretasi model yang sangat kompleks.

6. Menentukan minimum observasi (MO) yaitu 0, 1, 2, dan 3.

7. Melakukan Estimasi MARS.


61

8. Menentukan model MARS berdasarkan nilai Generalized Cross Validation

(GCV) yang terkecil yang diperoleh dari kombinasi antara BF, MI, dan MO.

9. Menguji signifikansi model MARS untuk mengevaluasi kecocokan model

dengan uji koefisien regresi secara simultan (Uji F) maupun secara parsial

(Uji t). Apabila tidak terjadi kecocokan model maka mengembalikan nilai asli

setiap variabel, tanpa dilakukan standarisasi, dan kemudian kembali

dilakukan estimasi model. Apabila kecocokan model terpenuhi maka

dilakukan langkah selanjutnya.

10. Melakukan interpretasi model MARS terbaik dan interpretasi variabel-

variabel yang berpengaruh di model tersebut.


62

3.4.4 Flowchart Penentuan Model MARS

Mulai

Input Data

Melakukan Statistik Deskriptif

Membuat Scatterplot

Tidak Pengurangan
Pengujian Parameter Model Regresi
Varibel Prediktor
Nonparametrik

Ya
Melakukan Standarisasi

Mengombinasikan Nilai BF,MI,dan MO

Estimasi Model

Memilih model terbaik berdasarkan (GCV) terkecil

Mengembalikan
Tidak
Menguji signifikansi Model MARS Nilai Asli Setiap
Ya Variabel
Interpretasi Model MARS terbaik

Interpretasi variabel-variabel yang berpengaruh

Selesai

Gambar 3.1 Flowchart Penentuan Model Terbaik


63

3.5 Penarikan Kesimpulan

Langkah ini merupakan langkah terakhir dari penelitian. Penarikan

simpulan didasarkan pada penelaahan sumber pustaka dan pembahasan

permasalahan. Simpulan yang diperoleh merupakan hasil analisis dari penelitian.

Simpulan yang diambil dari penelitian ini adalah tentang bagaimana melakukan

estimasi Multivaraite Adaptive Regression Splines (MARS) pada Indeks Harga

Saham Gabungan (IHSG) yang diunduh di laman www.bi.go.id dan

www.yahoo.finance.com menggunakan bantuan software SPSS versi 16.0 dan

SPM 7. Model MARS diperoleh dari kombinasi nilai BF, MI, dan MO. Model

terbaik MARS dilihat dari nilai GCV terkecil.


BAB 4

HASIL DAN PEMBAHASAN

4.1 Hasil

Bab ini akan dipaparkan bagaimana langkah-langkah pengujian. Pengujian

akan terdiri dari beberapa tahap penelitian untuk dapat menjawab pertanyaan-

pertanyaan penelitian. Tahap pertama akan dilakukan statistik deskriptif terhadap

variabel respon (𝑌) yaitu Indeks Harga Saham Gabungan (IHSG) maupun variabel

prediktor (𝑋) yaitu Inflasi bulanan (𝑋1 ), Suku Bunga di Indoensia bulanan (𝑋2 ),

Nilai Tukar (Kurs) Rupiah bulanan terhadap Dolar Amerika bulanan di Indonesia

(𝑋3 ), Indeks saham Dow Jones (𝑋4 ), Indeks saham Nikkei 225 (𝑋5 ), dan Indeks

saham Hang Seng (𝑋6 ). Selanjutnya dilakukan uji asumsi model regresi yaitu uji

normalitas, uji homoskedastisitas, uji autokorelasi, dan uji multikolinieritas.

Apabila terdapat uji asumsi yang tidak terpenuhi maka termasuk model regresi

nonparametrik dan dapat menggunakan metode MARS.

4.1.1 Statistik Deskriptif Indeks Harga Saham Gabungan (IHSG) di

Indonesia

Tabel 4.1 menunjukkan statistik deskriptif mengenai variabel indeks harga

saham gabungan (IHSG) di Indonesia berdasarkan publikasi yang dilakukan oleh

Bank Indonesia setiap bulannya mulai Bulan September 2010 hingga September

2015.

64
65

Tabel 4.1 Statistik Deskriptif Variabel IHSG

N Minimum Maksimum Rata-rata Standar Deviasi


IHSG 61 3409,17 5518,68 4398,1 576,639
Valid (N) 61
Nilai maksimum dan minimum dari variabel indeks harga saham gabungan (IHSG)

dengan banyaknya data sebesar 61 buah yaitu masing-masing sebesar 5518,68 dan

3409,17 dengan rata-rata sebesar 4398,1. Gambar 4.1 menunjukkan grafik indeks

harga saham gabungan (IHSG) di Indonesia berdasarkan publikasi yang dilakukan

oleh Bank Indonesia setiap bulanannya mulai Bulan September 2010 hingga

September 2015.

Y IHSG
6000
5000
4000
IHSG

3000
2000
1000
0
Juni

Juni

Juni

Juni

Juni
Desember

Desember

Desember

Desember

Desember
Maret

Maret

Maret

Maret

Maret
September

September

September

September

September

September

2010 2011 2012 2013 2014 2015


TAHUN

Gambar 4.1 Grafik IHSG di Indonesia

Gambar 4.1 menunjukkan nilai IHSG yang cenderung trend atau mengalami

kenaikan walaupun terdapat beberapa bulan yang turun. Beberapa faktor yang

mempengaruhi IHSG yaitu tingkat inflasi, suku bunga di Indonesia, nilai tengah
66

(kurs) Rupiah terhadap Dolar Amerika, indeks Dow Jones, indeks Nikkei 225, dan

indeks Hang Seng.

4.1.2 Statistik Deskriptif Inflasi di Indonesia

Faktor yang mempengaruhi Indeks Harga Saham Gabungan (IHSG) salah

satunya yaitu tingkat inflasi di Indonesia. Tabel 4.2 memperlihatkan statistik

deskriptif mengenai variabel inflasi bulanan di Indonesia

Tabel 4.2 Statistik Deskriptif Variabel Inflasi

N Minimum Maksimum Rata-rata Standar Deviasi


Inflasi 61 3,56 8,79 5,9570 1,49369
Valid (N) 61
Nilai maksimum dan minimum dari variabel inflasi dengan banyaknya data sebesar

61 buah yaitu masing-masing sebesar 8,79 dan 3,56 dengan rata-rata sebesar

5,9570. Gambar 4.2 menunjukkan grafik inflasi bulanan di Indonesia berdasarkan

publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai Bulan

September 2010 hingga September 2015.

X1_INFLASI
10
INFLASI

8
6
4
2
0
Januari

Januari

Januari

Januari

Januari
September

September

September

September

September

September
Mei

Mei

Mei

Mei

Mei

2010 2011 2012 2013 2014 2015


TAHUN

Gambar 4.2 Grafik Inflasi di Indonesia


67

Gambar 4.2 menunjukkan nilai Inflasi yang cenderung naik turun disetiap bulan.

Gambar 4.3 menunjukkan scatterplot antara variabel IHSG (Y) dengan variabel

Inflasi (𝑋1).

Gambar 4.3 Scatterplot antara IHSG dengan Inflasi

Gambar 4.3 menunjukkan pola penyebaran data inflasi terhadap IHSG yang

menyebar, sehingga digunakan metode regresi nonparametrik. Menurut Eubank

(1988), pendekatan regresi nonparametrik digunakan apabila tidak adanya suatu

informasi mengenai bentuk hubungan variabel respon dan variabel prediktor,

bentuk kurva tidak diketahui, dan bentuk pola menyebar. Pendekatan regresi

nonparametrik berlaku untuk data skala ordinal dan data skala nominal.

4.1.3 Statistik Deskriptif Suku Bunga di Indonesia

Faktor lain yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

yaitu Suku Bunga di Indonesia. Tabel 4.3 memperlihatkan statistik deskriptif

mengenai variabel suku bunga bank di Indonesia.


68

Tabel 4.3 Statistik Deskriptif Variabel Suku Bunga di Indoneisa

N Minimum Maksimum Rata-rata Standar Deviasi


SUKU
BUNGA 61 5,75 7,75 6,7254 0,74681
Valid (N) 61
Nilai maksimum dan minimum dari variabel suku bunga di Indonesia dengan

banyaknya data sebesar 61 buah yaitu masing-masing sebesar 7,75 dan 5,75 dengan

rata-rata sebesar 6,7254. Gambar 4.4 menunjukkan grafik suku bunga di Indonesia

berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai

Bulan September 2010 hingga September 2015.

X2_SBI
9
8
SUKU BUNGA

7
6
5
4
3
2
1
0
September

September

September

September

September

September
Desember

Desember

Desember

Desember

Desember
Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni

2010 2011 2012 2013 2014 2015


TAHUN

Gambar 4.4 Grafik Suku Bunga di Indonesia

Gambar 4.4 menunjukkan nilai suku bunga di Indonesia di beberapa bulan berturut-

turut stabil. Gambar 4.5 menunjukkan scatterplot antara variabel IHSG (Y) dengan

variabel suku bunga di Indonesia (𝑋2).


69

Gambar 4.5 Scatterplot antara IHSG dengan Suku Bunga di Indonesia

Gambar 4.5 menunjukkan pola penyebaran data suku bunga di Indonesia terhadap

IHSG yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti

suatu pola tertentu sehingga digunakan metode regresi nonparametrik.

4.1.4 Statistik Deskriptif Kurs Tengah Rupiah terhadap Dolar Amerika

Faktor lain yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

yaitu Kurs Tengah Rupiah terhadap Dolar Amerika. Tabel 4.4 memperlihatkan

statistik deskriptif mengenai variabel kurs tengah di Indonesia.

Tabel 4.4 Statistik Deskriptif Variabel Kurs Tengah Rupiah

N Minimum Maksimum Rata-rata Standar Deviasi


Kurs 61 8532,00 14396,10 1050,9 1656,35621
Valid (N) 61
70

Nilai maksimum dan minimum dari variabel kurs tengah rupiah dengan banyaknya

data sebesar 61 buah yaitu masing-masing sebesar 14396,10 dan 8532,00 dengan

rata-rata sebesar 1050,9. Gambar 4.6 menunjukkan grafik kurs tengah rupiah di

Indonesia berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap

bulanannya mulai Bulan September 2010 hingga September 2015.

X3_KURS
16000
14000
KURS TRNGAH

12000
10000
8000
6000
4000
2000
0
Desember

Desember

Desember

Desember

Desember
Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni
September

September

September

September

September

September
2010 2011 2012 2013 2014 2015
TAHUN

Gambar 4.6 Grafik Kurs Tengah Rupiah di Indonesia

Gambar 4.6 menunjukkan nilai kurs tengah rupiah terhadap Dolar Amerika

cenderung stabil di beberapa bulan. Gambar 4.7 menunjukkan scatterplot antara

variabel IHSG (Y) dengan variabel kurs tengah rupiah terhadap Dolar Amerika

(𝑋3).
71

Gambar 4.7 Scatterplot antara IHSG dengan Kurs Tengah Rupiah

Gambar 4.7 menunjukkan pola penyebaran data kurs tengah rupiah terhadap IHSG

yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti suatu

pola tertentu sehingga digunakan metode regresi nonparametrik.

4.1.5 Statistik Deskriptif Indeks Dow Jones

Faktor lain yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

yaitu indeks Dow Jones. Tabel 4.5 memperlihatkan statistik deskriptif mengenai

variabel indeks Dow Jones.

Tabel 4.5 Statistik Deskriptif Variabel Indeks Dow Jones

N Minimum Maksimum Rata-rata Standar Deviasi


Dow Jones 61 10788,05 18132,70 14526 2270,58139
Valid (N) 61
72

Nilai maksimum dan minimum dari variabel indeks Dow Jones dengan banyaknya

data sebesar 61 buah yaitu masing-masing sebesar 18132,70 dan 10788,05 dengan

rata-rata sebesar 14526. Gambar 4.7 menunjukkan grafik indeks Dow Jones

berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai

Bulan September 2010 hingga September 2015.

X4_DOW JONES
20000
18000
16000
DOW JONES

14000
12000
10000
8000
6000
4000
2000
0
Desember

Desember

Desember

Desember

Desember
Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni

Maret
Juni
September

September

September

September

September

September
2010 2011 2012 2013 2014 2015
TAHUN

Gambar 4.7 Grafik Indeks Dow Jones

Gambar 4.7 menunjukkan nilai indeks Dow Jones cenderung trend atau mengalami

kenaikan yang stabil. Gambar 4.8 menunjukkan scatterplot antara variabel IHSG

(Y) dengan variabel indeks Dow Jones (𝑋4).


73

Gambar 4.8 Scatterplot antara IHSG dengan Indeks Dow Jones

Gambar 4.8 menunjukkan pola data indeks Dow Jones terhadap IHSG yang

cenderung naik atau trend tetapi dilihat keseluruhan pola data indeks Dow Jones

terhadap IHSG menyebar, sehingga sulit untuk menentukan data tersebut mengikuti

suatu pola tertentu sehingga digunakan metode regresi nonparametrik.

4.1.6 Statistik Deskriptif Indeks Nikkei 225

Faktor lain yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

yaitu Indeks Nikkei 225. Tabel 4.6 memperlihatkan statistik deskriptif mengenai

variabel indeks Nikkei 225.

Tabel 4.6 Statistik Deskriptif Variabel Indeks Nikkei 225

N Minimum Maksimum Rata-rata Standar Deviasi


Nikkei 225 61 8434,61 20585,24 12909 3781,38952
Valid (N) 61
74

Nilai maksimum dan minimum dari indeks Nikkei 225 dengan banyaknya data

sebesar 61 buah yaitu masing-masing sebesar 20585,24 dan 8434,61 dengan rata-

rata sebesar 12909. Gambar 4.9 menunjukkan grafik indeks Nikkei 225 berdasarkan

publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai Bulan

September 2010 hingga September 2015.

X5_NIKKEI 225
25000

20000
NIKKEI 225

15000

10000

5000

0
Desember

Juni

Desember

Juni

Desember

Juni

Desember

Juni

Desember

Juni
Maret

September

Maret

Maret

Maret

Maret
September

September

September

September

September

2010 2011 2012 2013 2014 2015


TAHUN

Gambar 4.9 Grafik Indeks Nikkei 225

Gambar 4.9 menunjukkan nilai indeks Nikkei 225 cenderung trend atau mengalami

kenaikan di beberapa bulan. Gambar 4.10 menunjukkan scatterplot antara variabel

IHSG (Y) dengan variabel Indeks Nikkei 225 (𝑋5).


75

Gambar 4.10 Scatterplot antara IHSG dengan Indeks Nikkei 225

Gambar 4.10 menunjukkan pola penyebaran data indeks Nikkei 225 terhadap IHSG

yang cenderung naik atau trend tetapi dilihat keseluruhan pola data indeks Nikkei

225 terhadap IHSG menyebar, sehingga sulit untuk menentukan data tersebut

mengikuti suatu pola tertentu sehingga digunakan metode regresi nonparametrik.

4.1.7 Statistik Deskriptif Indeks Hang Seng

Faktor lain yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

yaitu Indeks Hang Seng. Tabel 4.7 memperlihatkan statistik deskriptif mengenai

variabel indeks Hang Seng.

Tabel 4.7 Statistik Deskriptif Variabel Indeks Hang Seng

N Minimum Maksimum Rata-rata Standar Deviasi


Hang Seng 61 17592,41 28133,00 22462 2088,84048
Valid (N) 61
76

Nilai maksimum dan minimum dari indeks Hang Seng dengan banyaknya data

sebesar 61 buah yaitu masing-masing sebesar 28133,00 dan 17592,41 dengan rata-

rata sebesar 22462. Gambar 4.11 menunjukkan grafik indeks Hang Seng

berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai

Bulan September 2010 hingga September 2015.

X6_HANG SENG
30000
25000
HANG SENG

20000
15000
10000
5000
0
Desember
Desember
Maret
Juni

Desember
Maret
Juni

Maret
Juni

Desember
Maret
Juni

Desember
Maret
Juni
September

September

September

September

September

September
2010 2011 2012 2013 2014 2015
TAHUN

Gambar 4.11 Grafik Indeks Hang Seng

Gambar 4.11 menunjukkan nilai indeks Hang Seng cenderung naik turun di setiap

bulan. Gambar 4.12 menunjukkan scatterplot antara variabel IHSG (Y) dengan

variabel Indeks Hang Seng (𝑋6).


77

Gambar 4.12 Scatterplot antara IHSG dengan Indeks Hang Seng

Gambar 4.12 menunjukkan pola penyebaran data indeks Hang Seng terhadap IHSG

yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti suatu

pola tertentu sehingga digunakan metode regresi nonparametrik.

4.1.8 Uji Asumsi Model Regresi

Sebelum dilakukan metode MARS dilakukan pengujian asumsi regresi

klasik. Apabila memenuhi asumsi regresi klasik maka termasuk model regresi

parametrik, dan sebaliknya apabila terdapat salah satu uji tidak memenuhi asumsi

regresi klasik maka termasuk model regresi nonparametrik dan dapat menggunakan

metode MARS.

4.1.8.1 Uji Normalitas

Untuk mengetahui apakah nilai residual pada regresi mengikuti distribusi

normal atau tidak, dapat dilihat dari :


78

a. Plot Grafik Normal P-P

Gambar 4.13 Normal P-P of Regression Standardized Residual

Berdasarkan Gambar 4.13 terlihat bahwa titik menyebar disekitar garis lurus

sehingga dapat diartikan bahwa residual pada regresi mengikuti distribusi

normal.

b. Uji Kolmogorov Smirnov

- Hipotesis :

𝐻0 : Residual berdistribusi normal

𝐻1 : Residual tidak berdistribusi normal

- Tingkat signifikansi 𝛼 = 0,05

Statistik uji : D = supremum |Sx − F0 |

- Daerah kritis : 𝐻0 di tolak apabila nilai D > Dtabel(N,𝛼) atau sign < 𝛼.
79

Tabel 4.8 One-Sample Kolmogorov-Smirnov Test

SUKU
BUNG DOW NIKKEI HANG
IHSG INFLASI A KURS JONES 225 SENG
N 61 61 61 61 61 61 61
Normal Mean 4398, 6,725 14525,5 22462,3
5,9570 10509 12909
Parametersa 1 4 915 748
Std. 576,6 0,746 2270,58 2088,84
1,49369 1656,36 3781,39
Deviation 39 81 139 048
Most Extreme Absolute 0,100 0,161 0,227 0,215 0,161 0,190 0,101
Differences Positive 0,081 0,161 0,167 0,215 0,161 0,190 0,084
Negative -0,100 -0,072 -0,227 -0,116 -0,125 -0,118 -0,101
Kolmogorov-Smirnov Z 0,783 1,255 1,775 1,682 1,257 1,480 0,791
Asymp. Sig. (2-tailed) 0,572 0,086 0,004 0,007 0,085 0,025 0,558
- Keputusan :

Berdasarkan Tabel 4.8 diperoleh nilai P-Value Asymp. Sig.(2-tailed) IHSG

(𝑌) = 0,572, inflasi (𝑋1 ) = 0,86, nilai kurs tengah (𝑋3 ) = 0,07, indeks

Dow Jones (𝑋4 ) = 0,85, dan indeks Hang Seng (𝑋6 ) = 0,558 lebih dari

𝛼 = 0,05 maka 𝐻0 diterima yang berarti residual berdistribusi normal.

Sedangkan nilai P-Value Asymp. Sig.(2-tailed) suku bunga di Indonesia

(𝑋2 ) = 0,04 dan indeks Nikkei 225 (𝑋5 ) = 0,025 kurang dari 𝛼 = 0,05

maka 𝐻0 ditolak yang berarti residual berdistribusi tidak normal.

- Kesimpulan :

Berdasarkan taraf signifikansi 5% dapat disimpulkan bahwa

𝑌, 𝑋1 , 𝑋3 , 𝑋4 , dan 𝑋6 berdistribusi normal, sedangkan 𝑋2 dan 𝑋5

berdistribusi tidak normal.


80

4.1.8.2 Uji Homoskedastisitas

Untuk mengetahui apakah varian dari residual untuk semua pengamatan

homogen atau tidak, dapat dilihat dari :

Uji Glejser :

- Hipotesis :

𝐻0 : Tidak ada gejala heteroskedastisitas

𝐻1 : Ada gejala heteroskedastisitas

- Tingkat signifikansi 𝛼 = 0,05

- Statistik uji : |𝑈𝑡 | = 𝑎 + 𝑏𝑋𝑖 + 𝜀𝑖

- Daerah kritis : 𝐻0 di tolak bila nilai sign < 𝛼

- Keputusan :

Berdasarkan Tabel 4.9 dengan ABS RES sebagai variabel respon, didapat nilai

signifikansi setiap variabel prediktor :

Inflasi (𝑋1 ) : 0,581 > 𝛼;

Suku bunga (𝑋2 ) : 0,952 > 𝛼;

Nilai kurs tengah (𝑋3 ) : 0,862 > 𝛼;

Indeks Dow Jones (𝑋4 ) : 0,851 > 𝛼;

Indeks Nikkei 225 (𝑋5 ) : 0,954 > 𝛼; dan

Indeks Hang Seng (𝑋6 ) : 0,828 > 𝛼.

sehingga 𝐻0 diterima yang berarti tidak terjadi gejala heteroskedastisitas.

- Kesimpulan :

Berdasarkan taraf signifikansi 5% dapat disimpulkan bahwa residual bernilai

konstan pada setiap pengamatan atau tidak terjadi gejala heteroskedastisitas.


81

Tabel 4.9 Koefisien Korelasi pada Regresi


SUKU DOW NIKKEI HANG Unstandardized
INFLASI BUNGA KURS JONES 225 SENG Residual
Spearman's Correlation
rho INFLASI Coefficients 1 0,627 0,4 0,429 0,616 0,44 0,072
Sig. (2-
tailed) 0 0 0 0 0 0,581
N 61 61 61 61 61 61 61
Correlation
SUKU BUNGA Coefficients 0,627 1 0,636 0,666 0,777 0,602
Sig. (2-
tailed) 0 0 0 0 0 0,952
N 61 61 61 61 61 61 61
Correlation
KURS Coefficients 0,48 0,638 1 0,932 0,872 0,455 0,023
Sig. (2-
tailed) 0 0 0 0 0 0
N 61 61 61 61 61 61 61
Correlation
DOW JONES Coefficients 0,429 0,666 0,932 1 0,883 0,563 0,024
Sig. (2-
tailed) 0,001 0 0 0 0 0,851
N 61 61 61 61 61 61 61
Correlation
NIKKEI 225 Coefficients 0,616 0,777 0,872 0,883 1 0,725 0,008
Sig. (2-
tailed) 0 0 0 0 0 0,954
N 61 61 61 61 61 61 61
Correlation
HANG SENG Coefficients 0,44 0,602 0,455 0,563 0,725 1 -0,28
Sig. (2-
tailed) 0 0 0 0 0 0,828
N 61 61 61 61 61 61 61
Unstandardized Correlation
Residual Coefficients 0,072 -0,008 0,023 -0,024 0,008 -0,028 1
Sig. (2-
tailed) 0,581 0,952 0,862 0,851 0,954 0,828
N 61 61 61 61 61 61 61
4.1.8.3 Uji Autokorelasi

- Hipotesis :

𝐻0 : Tidak terjadi autokorelasi

𝐻1 : Terjadi autokorelasi

- Tingkat signifikansi 𝛼 = 0,05

- Statistik uji :

∑𝑁
𝑖=2(𝑒𝑖 − 𝑒𝑖−1 )
2
𝑑=
∑𝑁 2
𝑖=1 𝑒𝑖
82

- Daerah kritis

Jika 𝑑 < 𝑑𝐿 atau 𝑑 > 4 − 𝑑𝐿, berarti terdapat autokorelasi

Jika 𝑑𝑈 < 𝑑 < 4 − 𝑑𝑈, berarti tidak terdapat autokorelasi

Jika 𝑑𝐿 < 𝑑 < 𝑑𝑈 atau 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿, tidak dapat ditarik kesimpulan

Tabel 4.10 Model Summary

Std. Error
R Adjusted of the
Model R Square R Square Estimate Durbin-Watson
𝑎
1 0,959 0,919 0,910 0,03956 1,067
a. Predictors : (Constant), HANG SENG, INFLASI, KURS, SUKU BUNGA,
DOW JONES, NIKKEI 225
b. Dependent Variable: lag_Y

- Keputusan :

Berdasarkan Tabel 4.10 didapat nilai 𝑑 = 1,067

Dalam Tabel Durbin-Watson pada Lampiran 3 nilai tabel dengan N = 61, k = 6

didapat:

𝑑𝑈 = 1,8073 4 − 𝑑𝑈 = 2,1927 𝑑𝐿 = 1,3787

Jadi 𝑑 < 𝑑𝐿, maka 𝐻0 ditolak

- Kesimpulan :

Berdasarkan taraf signifikansi 5% dapat disimpulkan bahwa ada autokorelasi

antara residual pada setiap pengamatan.

4.1.8.4 Uji Multikolinieritas

Uji ini mengetahui apakah ada korelasi antar variabel prediktor. Ada

tidaknya multikolinieritas bisa dilihat dari nilai VIF (𝑋𝑖 ) dengan 𝑖 = 1, 2, … , 6.


83

Tabel 4.11 𝐶𝑜𝑒𝑓𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑠 𝑎

Unstandardized Standardized Collinearity


Coefficients Coefficients Statistics
Std.
Model B Error Beta t Sig. Tolerance VIF
1 (Constant) 2229,802 537,423 4,149 0,000
INFLASI -76,252 20,817 -0,198 -3,663 0,001 0,544 1,839
SUKU
-149,537 55,394 -0,194 -2,700 0,009 0,307 3,256
BUNGA
KURS -0,184 0,051 -0,529 -3,585 0,001 0,073 13,756
DOW 10,22
0,323 0,032 1,273 0,000 0,102 9,804
JONES 8
NIKKEI
0,053 0,029 0,347 1,836 0,072 0,044 22,584
225
HANG
0,008 0,018 0,029 0,460 0,648 0,386 2,589
SENG
a. Dependent Variable: IHSG
Berdasarkan Tabel 4.11 dapat dilihat bahwa nilai VIF pada masing-

masing variabel prediktor berturut-turut adalah 1,839; 3,256; 13,756; 9,804;

22,584; dan 2,589.

Karena nilai VIF (𝑋𝑖 ) untuk 𝑋1 , 𝑋2 , 𝑋4 , dan 𝑋6 ≤ 10, maka tidak ada

korelasi antar variabel prediktor, sehingga dapat dikatakan tidak terjadi

multikolinieritas. Sedangkan, nilai VIF (𝑋𝑖 ) untuk 𝑋3 dan 𝑋5 > 10, maka ada

korelasi antar variabel prediktor, sehingga dapat dikatakan terjadi multikolinieritas.

Berdasarkan uji asumsi regresi klasik diantaranya uji normalitas, uji

homoskedastisitas, uji autokorelasi, dan uji multikolinieritas diperoleh bahwa

terdapat asumsi yang tidak memenuhi yaitu terjadi autokorelasi, sehingga data

IHSG beserta variabel-variabel prediktornya menggunakan pendekatan regresi

nonparametrik dengan model MARS.


84

4.1.9 Estimasi Model MARS

Dalam penelitian ini metode MARS akan diterapkan dalam pemodelan

indeks harga saham gabungan (IHSG) berdasarkan faktor-faktor yang diduga

mempengaruhinya antara lain inflasi (𝑋1 ), suku bunga di Indonesia (𝑋2 ), nilai kurs

tengah (𝑋3 ), indeks Dow Jones (𝑋4 ), indeks Nikkei 225 (𝑋5 ), dan indeks Hang

Seng (𝑋6 ). Variabel respon (𝑌) dalam penelitian ini adalah indeks harga saham

gabungan (IHSG). Dalam penelitian ini satuan dalam masing-masing variabel tidak

sama, sehingga diperlukan standar nilai yang sama.

Langkah selanjutnya yaitu menentukan model MARS berdasarkan nilai

GCV minimum. Nilai GCV minimum diperoleh dengan cara trial end error dalam

mengkombinasikan jumlah fungsi basis (BF), maksimum interaksi (MI), dan

minimum observasi (MO). Nilai dari BF sebesar 12, 18, dan 24. Sedangkan nilai

dari MI sebesar 1, 2, dan 3. Nilai dari MO sebesar 0, 1, 2, dan 3. Tabel 4.12

menunjukkan hasil perhitungan nilai GCV untuk keseluruhan model.

Tabel 4.12 Hasil seleksi Model MARS Menggunakan Kriteria GCV

Model BF MI MO GCV
1 12 1 0 0,08571
2 12 1 1 0,07935
3 12 1 2 0,08218
4 12 1 3 0,08173
5 12 2 0 0,09628
6 12 2 1 0,09971
7 12 2 2 0,09985
8 12 2 3 0,10332
9 12 3 0 0,09628
10 12 3 1 0,10632
11 12 3 2 0,09985
12 12 3 3 0,10332
13 18 1 0 0,08892
14 18 1 1 0,05640
85

Model BF MI MO GCV
15 18 1 2 0,05974
16 18 1 3 0,06542
17 18 2 0 0,10424
18 18 2 1 0,07229
19 18 2 2 0,07561
20 18 2 3 0,08287
21 18 3 0 0,09358
22 18 3 1 0,09861
23 18 3 2 0,09390
24 18 3 3 0,07325
25 24 1 0 0,09102
26 24 1 1 0,05768
27 24 1 2 0,06294
28 24 1 3 0,06985
29 24 2 0 0,08720
30 24 2 1 0,07297
31 24 2 2 0,07598
32 24 2 3 0,09092
33 24 3 0 0,10363
34 24 3 1 0,08677
35 24 3 2 0,08118
36 24 3 3 0,07686

4.1.10 Model MARS Terbaik

Model MARS terbaik adalah model yang menghasilkan nilai GCV

terkecil. Nilai GCV dihasilkan dari mengkombinasikan jumlah fungsi basis (BF),

maksismum interaksi (MI), dan minimum observasi (MO) secara trial end error

sehingga dari 36 model di Lampiran 7 yang terbentuk dihasilkan model terbaiknya

yaitu dari kombinasi BF=18, MI=1, dan MO=1 karena memiliki nilai GCV

minimum sebesar 0,05640 dengan persamaan model sebagai berikut.

Y = −1,46041 + 0,910129∗ BF1 − 0,467099∗ BF2 − 6,69852∗ BF4

+ 6,40946∗ BF6 + 1,70298∗ BF10 − 5,21855∗ BF12

+ 3,10062∗ BF14 − 0,984699∗ BF16


86

Model ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16

dengan :

BF1 = max(0, ZX 4 + 1,64607);

BF2 = max(0, ZX1 + 0,433188);

BF4 = max(0, ZX 3 + 0,474128);

BF6 = max(0, ZX 3 + 0,609492);

BF10 = max(0, ZX 2 − 1,0372);

BF12 = max(0, ZX 3 − 1,54402);

BF14 = max(0, ZX 3 − 0,952527); dan

BF16 = max(0, ZX 5 − 0,40898227);

Dari model terbaik yang dihasilkan, dapat disimpulkan bahwa variabel-variabel

prediktor yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

menggunakan model MARS dengan nilai GCV terkecil adalah Inflasi (𝑋1 ), Tingkat

Suku Bunga (𝑋2 ), Kurs (𝑋3 ), indeks Dow Jones (𝑋4 ), dan indeks Nikkei 225 (𝑋5 ).

Sedangkan, indeks Hang Seng (𝑋6 ) tidak mempengaruhi IHSG. Sehingga, variabel

prediktor indeks Hang Seng (𝑋6 ) hilang dan tidak terdapat di dalam persamaaan

model terbaik yang diperoleh.

4.1.11 Pengujian Signifikansi Model MARS

Pengujian signifikansi model MARS dilakukan pengujian mengecek

signifikan parameter untuk mengevaluasi kecocokan model.


87

4.1.11.1 Pengujian Koefisien Regresi Simultan

a. Rumusan hipotesis:

𝐻0 : 𝑎1 = 𝑎2 = 𝑎4 = 𝑎6 = 𝑎10 = 𝑎12 = 𝑎14 = 𝑎16 = 0.

𝐻1 : minimal terdapat satu 𝑎𝑚 ≠ 0; 𝑚 = 1, 2, 4, 6, 10, 12, 14, dan 16

(model signifikan).

b. Taraf signifikansi:

𝛼 = 0,05

c. Statistik Uji :

(𝑦̂𝑖 − 𝑦̂)2
∑𝑛𝑖=1
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 𝑀
𝑛 (𝑦̂𝑖 − 𝑦̂)2
∑𝑖=1
𝑁−𝑀−1

d. Daerah kritis :

Tolak 𝐻0 jika nilai 𝐹 > 𝐹0.05(6;61) atau P-Value < 𝛼.

Tabel 4.13 MARS Regression

F-Statistic = 249,78263 S.E. Of Regression = 0,17107


P-Value = 0,00000 Residual Sum Of Squares = 1,52176
[MDF,NDF] = [ 8, 52 ] Regression Sum Of Squares = 58,47824
e. Keputusan :

Berdasarkan Tabel 4.13 diperoleh P-Value sebesar 0,00000 dan 𝐹 =

249,78263 serta dalam tabel F pada Lampiran 4 diperoleh nilai

𝐹0,05(6;61) = 2,25 .Sehingga P-Value < 𝛼 atau 𝐹 > 𝐹0,05(6;61) maka 𝐻0

ditolak yang berarti bahwa model signifikan.

f. Kesimpulan :

Berdasarkan taraf signifikansi 5% dapat disimpulkan bahwa model

signifikan sehingga dapat digunakan untuk IHSG.


88

4.1.11.2 Pengujian Koefisien Regresi Parsial

a. Rumusan hipotesis:

𝐻0 : 𝑎1 = 𝑎2 = 𝑎4 = 𝑎6 = 𝑎10 = 𝑎12 = 𝑎14 = 𝑎16 = 0.

𝐻1 : minimal terdapat satu 𝑎𝑚 ≠ 0; 𝑚 = 1, 2, 4, 6, 10, 12, 14, dan 16

(model signifikan).

b. Taraf signifikansi:

𝛼 = 0,05

c. Statistik Uji:

𝑎̂𝑚
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 =
𝑆𝑒(𝑎̂𝑚 )

dengan

𝑆𝑒(𝑎̂𝑚 ) = √𝑣𝑎𝑟 (𝑎̂𝑚 )

d. Daerah kritis:

Tolak 𝐻0 jika 𝑡 > 𝑡(𝛼,61) atau P-Value < 𝛼.


2

Tabel 4.14 MARS Regression

MARS Regression: Training Data


W: 61,00 R-Squared: 0,97464
Mean Dep Var: 0,00000 Adj R-Squared: 0,97074
Uncentered R-Squared = R-0 Squared: 0,97464
Parameter Estimate S.E. T-Ratio P-Value
Constant -1,46032 0,06963 -20,97326 0
Basis Function 1 0,90996 0,09264 9,82249 0
Basis Function 2 -0,46712 0,04048 -11,54079 0
Basis Function 4 -6,70064 0,92777 -7,22235 0
Basis Function 6 6,41161 0,94246 6,80303 0
Basis Function 10 1,70308 0,34126 4,99057 0,00001
Basis Function 12 -5,21865 0,72958 -7,15298 0
Basis Function 14 3,10058 0,46185 6,71341 0
Basis Function 16 -0,98462 0,22013 -4,47284 0,00004
89

e. Keputusan :

Berdasarkan Tabel 4.14, diperoleh P-Value dari masing-masing fungsi

basis sebagai berikut.

Fungsi Basis 1 (m=1) : 0,00000;

Fungsi Basis 2 (m=2) : 0,00000;

Fungsi Basis 4 (m=4) : 0,00000;

Fungsi Basis 6 (m=6) : 0,00000;

Fungsi Basis 10 (m=10) : 0,00001;

Fungsi Basis 12 (m=12) : 0,00000;

Fungsi Basis 14 (m=14) : 0,00000; dan

Fungsi Basis 16 (m=16) : 0,00004.

Dapat dilihat nilai P-Value pada setiap 𝑚 < 𝛼. Sehingga 𝐻0 ditolak,

bahwa koefisien 𝛼1 , 𝛼2 , 𝛼4 , 𝛼6 , 𝛼10 , 𝛼12 , 𝛼14 , dan 𝛼16 berpengaruh

signifikan terhadap model.

f. Kesimpulan :

Berdasarkan taraf signifikansi 5% dapat disimpulkan bahwa model

signifikansi sehingga dapat digunakan untuk Indeks Harga Saham

Gabungan (IHSG).

Berdasarkan Pengujian signifikansi model MARS terbaik menggunakan

pengujian koefisiensi simultan (Uji F) dan pengujian koefisiensi parsial (Uji t),

didapat dari uji keduanya bahwa model terbaik MARS dengan variabel prediktor

yang mempengaruhi IHSG diantaranya Inflasi (𝑋1 ), Tingkat Suku Bunga (𝑋2 ),

Kurs (𝑋3 ), indeks Dow Jones (𝑋4 ), dan indeks Nikkei 225 (𝑋5 ) signifikan.
90

Sehingga, model tersebut cocok digunakan untuk Indeks Harga Saham Gabungan

(IHSG).

4.1.12 Interpretasi Model MARS

Hasil kombinasi antara BF, MI, dan MO yang telah dilakukan secara trial

and error berdasarkan model persamaan terbaik, diketahui terdapat variabel-

variabel prediktor yang mempengaruhi variabel respon yaitu Inflasi (𝑋1 ), Tingkat

Suku Bunga (𝑋2 ), Kurs (𝑋3 ), Dow Jones (𝑋4 ), dan Nikkei 225 (𝑋5 ). Fungsi basis

yang merupakan komponen interaksi dari fungsi basis lainnya yaitu

𝐵𝐹1 , 𝐵𝐹2 , 𝐵𝐹4 , 𝐵𝐹6 , 𝐵𝐹10 , 𝐵𝐹12 , 𝐵𝐹14 , dan 𝐵𝐹16 . Interpretasi MARS pada

persamaan terbaik tersebut sebagai berikut.

1. BF1 = max(0, ZX4 + 1,64607)

dengan koefisien 0,910129

Artinya bahwa setiap kenaikan 𝐵𝐹1 akan menambah nilai indeks harga saham

gabungan (IHSG) sebesar 0,910129 pada indeks saham Dow Jones dengan

nilai baku persentase lebih dari -1,64607.

2. BF2 = max(0, ZX1 + 0,433188)

dengan koefisien −0,467099

Artinya bahwa setiap kenaikan 𝐵𝐹2 akan mengurangi nilai indeks harga

saham gabungan (IHSG) sebesar 0,467099 pada inflasi dengan nilai baku

persentase lebih dari -0,433188.

3. BF4 = max(0, ZX3 + 0,474128)

dengan koefisien −6,69852


91

Artinya bahwa setiap kenaikan 𝐵𝐹4 akan mengurangi nilai indeks harga

saham gabungan (IHSG) sebesar 6,69852 pada kurs dengan nilai baku

persentase lebih dari -0,474128.

4. BF6 = max(0, ZX3 + 0,609492)

dengan koefisien 6,40946

Artinya bahwa setiap kenaikan 𝐵𝐹6 akan menambah nilai indeks harga saham

gabungan (IHSG) sebesar 6,40946 pada kurs dengan nilai baku persentase

lebih dari -0,609492.

5. BF10 = max(0, ZX2 − 1,0372)

dengan koefisien 1,70298

Artinya bahwa setiap kenaikan 𝐵𝐹10 akan menambah nilai indeks harga

saham gabungan (IHSG) sebesar 1,70298 pada suku bunga di Indonesia

dengan nilai baku persentase lebih dari 1,0372.

6. BF12 = max(0, ZX3 − 1,54402)

dengan koefisien −5,21855

Artinya bahwa setiap kenaikan 𝐵𝐹12 akan mengurangi nilai indeks harga

saham gabungan (IHSG) sebesar 5,21855 pada kurs dengan nilai baku

persentase lebih dari 1,54402.

7. BF14 = max(0, ZX3 − 0,952527)

dengan koefisien 3,10062

Artinya bahwa setiap kenaikan 𝐵𝐹14 akan menambah nilai indeks harga

saham gabungan (IHSG) sebesar 3,10062 pada kurs dengan nilai baku

persentase lebih dari 0,952527.


92

8. BF16 = max(0, ZX5 − 0,40898227)

dengan koefisien −0,984699

Artinya setiap kenaikan 𝐵𝐹16 akan mengurangi nilai indeks harga saham

gabungan (IHSG) sebesar 0,984699 pada indeks saham Nikkei 225 dengan

nilai baku persentase lebih dari 0,408982.

4.1.13 Tingkat Kepentingan Variabel Prediktor

Tingkat pentingnya pada masing-masing variabel prediktor terhadap

fungsi pengelompokan disajikan dalam Tabel 4.15. Fungsi yang diperoleh

menunjukkan bahwa variabel prediktor yang memiliki tingkat pentingnya dalam

pengelompokan dari tingkat tinggi hingga terendah adalah variabel Inflasi (𝑋1 ),

nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow

Jones (𝑋4 ), tingkat suku bunga di Indonesia (𝑋2 ), indeks saham Nikkei 225 (𝑋5 ),

dan indeks saham Hang Seng (𝑋6 ).

Tabel 4.15 Tingkat Kepentingan Variabel Prediktor

Variabel Tingkat Kepentingan -GCV


𝑍𝑋1 100% 0,17880
𝑍𝑋3 86,54114% 0,14808
𝑍𝑋4 84,31259% 0,14342
𝑍𝑋2 38,18755% 0,07428
𝑍𝑋5 32,75410% 0,6956
𝑍𝑋6 0% 0,05643

Tabel 4.15 diperoleh variabel-variabel prediktor yang tingkat pentingnya terhadap

model terbaik yang diperoleh secara signifikan mempengaruhi Indeks Harga Saham

Gabungan (IHSG) berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah

rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat suku
93

bunga di Indonesia (𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat

pentingnya masing-masing sebesar 100%; 86,54114%; 84,31259%; 38,18755%;

dan 32,75410%. Inflasi (𝑋1 ) dengan tingkat pentingnya 100% artinya bahwa Inflasi

yang memiliki tingkat pentingnya sangat mempengaruhi Indeks Harga Saham

Gabungan (IHSG), nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 )

dengan tingkat pentingnya 86,54114% artinya bahwa nilai tukar (kurs) tengah

rupiah terhadap dolar Amerika memiliki tingkat pentingnya yang mempengaruhi

indeks harga saham gabungan (IHSG) sebesar 86,54114%, indeks saham Dow

Jones (𝑋4 ) dengan tingkat pentingnya 84,31259% artinya bahwa indeks saham

Dow Jones memiliki tingkat pentingnya yang mempengaruhi indeks harga saham

gabungan (IHSG) sebesar 84,31259%, suku bunga di Indonesia (𝑋2 ) dengan

tingkat pentingnya 38,18755% artinya bahwa suku bunga di Indonesia memiliki

tingkat pentingnya yang mempengaruhi indeks harga saham gabungan (IHSG)

sebesar 38,18755%, dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya

32,75410% artinya bahwa indeks saham Nikkei 225 memiliki tingkat pentingnya

yang mempengaruhi indeks harga saham gabungan (IHSG) sebesar 32,75410%.

4.2 Pembahasan

Pembahasan penelitian ini diawali melakukan statistik deskriptif untuk

mengetahui pola data mengikuti pendekatan regresi parametrik ataupun regresi

nonparametrik. Berdasarkan statistik deskriptif, variabel-variabel prediktor yang

mempengaruhi Indeks Harga Saham Gabungan (IHSG) menggunakan pendekatan

regresi nonparametrik karena berdasarkan scatterplot pola data cenderung tidak

diketahui dan menyebar. Selain itu, untuk mengetahui data tersebut menggunakan
94

pendekatan regresi nonparametrik dapat menggunakan uji asumsi model regresi

yaitu uji normalitas, uji homoskedastisitas, uji autokorelasi, dan uji

multikolinieritas. Apabila termasuk asumsi regresi nonparametrik yaitu terdapat

salah satu atau beberapa asumsi model regresi yang tidak terpenuhi, maka

dilakukan langkah selanjutnya dengan melakukan standarisasi. Jika parameter

model bukan regresi nonparametrik maka dilakukan pengurangan variabel

prediktor dan dilakukan langkah dari awal. Berdasarkan uji asumsi model regresi

tersebut terdapat asumsi regresi yang tidak terpenuhi yaitu terjadi autokorelasi

sehingga data IHSG beserta variabel-variabel prediktornya menggunakan

pendekatan regresi nonparametrik dengan model MARS.

Model MARS diterapkan dalam pemodelan Indeks Harga Saham

Gabungan (IHSG) berdasarkan faktor-faktor yang mempengaruhinya antara lain

inflasi (𝑋1 ), suku bunga di Indonesia (𝑋2 ), nilai kurs tengah (𝑋3 ), indeks Dow

Jones (𝑋4 ), indeks Nikkei 225 (𝑋5 ), dan indeks Hang Seng (𝑋6 ). Variabel respon

(𝑌) dalam penelitian ini adalah indeks harga saham gabungan (IHSG).

Sebelumnya, dilakukan standarisasi pada masing-masing variabel respon dan

variabel-variabel prediktor yaitu agar memiliki skala nilai yang sama. Selanjutnya,

model MARS diperoleh dari kombinasi nilai BF, MI, dan MO secara trial end error

untuk memperoleh model MARS terbaik dilihat dari kriteria nilai GCV terkecil.

Karena pada penelitian ini terdapat 6 variabel prediktor sehingga maksimum jumlah

BF adalah 12, 18, dan 24, maksimum interaksi (MI) adalah 1, 2, dan 3, minimum

observasi (MO) adalah 0, 1, 2, dan 3. Sehingga, dari 36 model yang terbentuk

dihasilkan model terbaiknya yaitu dari kombinasi BF=18, MI=1, dan MO=1 karena
95

memiliki nilai GCV minimum sebesar 0,05640 dengan persamaan model sebagai

berikut.

Y = −1,46041 + 0,910129∗ BF1 − 0,467099∗ BF2 − 6,69852∗ BF4

+ 6,40946∗ BF6 + 1,70298∗ BF10 − 5,21855∗ BF12

+ 3,10062∗ BF14 − 0,984699∗ BF16

Model ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16

dengan :

BF1 = max(0, ZX 4 + 1,64607); BF2 = max(0, ZX1 + 0,433188); BF4 =

max(0, ZX3 + 0,474128); BF6 = max(0, ZX3 + 0,609492); BF10 =

max(0, ZX2 − 1,0372); BF12 = max(0, ZX3 − 1,54402); BF14 = max(0, ZX3 −

0,952527); dan BF16 = max(0, ZX5 − 0,40898227).

Berdasarkan model terbaik MARS di atas, 0,910129∗ BF1 yang artinya

bahwa setiap kenaikan BF1 akan menambah nilai Indeks Harga Saham Gabungan

(IHSG) sebesar 0,910129 pada indeks saham Dow Jones dengan nilai baku

persentase lebih dari −1,64607; −0,467099∗ BF2 yang artinya bahwa setiap

kenaikan BF2 akan mengurangi nilai Indeks Harga Saham Gabungan (IHSG)

sebesar 0,467099 pada inflasi dengan nilai baku persentase lebih dari −0,433188;

−6,69852∗ BF4 yang artinya bahwa setiap kenaikan BF4 akan mengurangi nilai

Indeks Harga Saham Gabungan (IHSG) sebesar 6,69852 pada kurs dengan nilai

persentase lebih dari −0,474128; 6,40946∗ BF6 yang artinya bahwa setiap

kenaikan BF6 akan menambah nilai Indeks Harga Saham Gabungan (IHSG) sebesar

6,40946 pada kurs dengan nilai baku lebih dari −0,609492; 1,70298∗ BF10 yang
96

artinya bahwa setiap kenaikan BF10 akan menambah nilai Indeks Harga Saham

Gabungan (IHSG) sebesar 1,70298 pada suku bunga di Indonesia dengan nilai

baku lebih dari 1,0372; −5,21855∗ BF12 yang artinya bahwa setiap kenaikan BF12

akan mengurangi nilai Indeks Harga Saham Gabungan (IHSG) sebesar 5,21855

pada kurs dengan nilai baku lebih dari 1,54402; 3,10062∗ BF14 yang artinya bahwa

setiap kenaikan BF12 akan menambah nilai Indeks Harga Saham Gabungan (IHSG)

sebesar 3,10062 pada kurs dengan nilai baku lebih dari 0,952527; dan

−0,984699∗ BF16 yang artinya bahwa setiap kenaikan BF12 akan mengurangi nilai

Indeks Harga Saham Gabungan (IHSG) sebesar 0,984699 pada indeks saham

Nikkei 225 dengan nilai baku lebih dari 0,40898227.

Setelah diperoleh model terbaik MARS di atas, selanjutnya dilakukan uji

signifikansi model MARS dengan cara melakukan uji signifikan parameter untuk

mengevaluasi kecocokan model. Apabila uji signifikansi model MARS tidak

terpenuhi maka mengembalikan nilai asli setiap variabel. Berdasarkan pengujian

signifikansi model MARS dengan uji koefisien regresi secara simultan (Uji F)

maupun uji koefisien regresi parsial (Uji t) diperoleh bahwa pengujian signifikansi

terpenuhi sehingga model MARS cocok digunakan untuk Indeks Harga Saham

Gabungan (IHSG). Hasil kombinasi antara BF, MI, dan MO yang telah dilakukan

secara trial and error berdasarkan model persamaan terbaik, diketahui terdapat

variabel-variabel prediktor yang mempengaruhi variabel respon yaitu Inflasi (𝑋1 ),

Tingkat Suku Bunga (𝑋2 ), Kurs (𝑋3 ), Dow Jones (𝑋4 ), dan Nikkei 225 (𝑋5 ).

Fungsi basis yang merupakan komponen interaksi dari fungsi basis lainnya yaitu

𝐵𝐹1 , 𝐵𝐹2 , 𝐵𝐹4 , 𝐵𝐹6 , 𝐵𝐹10 , 𝐵𝐹12 , 𝐵𝐹14 , dan 𝐵𝐹16 .


97

Tingkat pentingnya variabel-variabel prediktor terhadap model terbaik yang

diperoleh secara signifikan mempengaruhi Indeks Harga Saham Gabungan (IHSG)

berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah rupiah terhadap dolar

Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat suku bunga di Indonesia

(𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya masing-masing

sebesar 100%; 86,54114%; 84,31259%; 38,18755%; dan 32,75410%. Inflasi (𝑋1 )

dengan tingkat pentingnya 100% artinya bahwa Inflasi yang memiliki tingkat

pentingnya sangat mempengaruhi Indeks Harga Saham Gabungan (IHSG) sebesar

100%, nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 ) dengan tingkat

pentingnya 86,54114% artinya bahwa nilai tukar (kurs) tengah rupiah terhadap

dolar Amerika memiliki tingkat pentingnya yang mempengaruhi Indeks Harga

Saham Gabungan (IHSG) sebesar 86,54114%, indeks saham Dow Jones (𝑋4)

dengan tingkat pentingnya 84,31259% artinya bahwa indeks saham Dow Jones

memiliki tingkat pentingnya yang mempengaruhi Indeks Harga Saham Gabungan

(IHSG) sebesar 84,31259%, tingkat suku bunga di Indonesia (𝑋2 ) dengan tingkat

pentingnya 38,18755% artinya bahwa suku bunga di Indonesia (𝑋2 ) memiliki

tingkat pentingnya yang mempengaruhi Indeks Harga Saham Gabungan (IHSG)

sebesar 38,18755%, dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya

32,75410% artinya bahwa indeks saham Nikkei 225 memiliki tingkat pentingnya

yang mempengaruhi Indeks Harga Saham Gabungan (IHSG) sebesar 32,75410%.


BAB 5

PENUTUP

5.1 Simpulan

Berdasarkan hasil analisis dan pembahasan pada bab 4, maka dapat

disimpulkan sebagai berikut.

1. Estimasi Multivariate Adaptive Regression Splines (MARS) pada variabel

prediktor Indeks Harga Saham Gabungan (IHSG) dengan persamaan model

sebagai berikut.

Y = −1,46041 + 0,910129∗ BF1 − 0,467099∗ BF2 − 6,69852∗ BF4

+ 6,40946∗ BF6 + 1,70298∗ BF10 − 5,21855∗ BF12

+ 3,10062∗ BF14 − 0,984699∗ BF16

Model ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16

dengan :

BF1 = max(0, ZX4 + 1,64607); BF2 = max(0, ZX1 + 0,433188); BF4 =

max(0, ZX3 + 0,474128); BF6 = max(0, ZX3 + 0,609492); BF10 =

max(0, ZX2 − 1,0372); BF12 = max(0, ZX3 − 1,54402); BF14 =

max(0, ZX3 − 0,952527); dan BF16 = max(0, ZX5 − 0,40898227).

Model MARS terbaik di atas diperoleh dari kombinasi BF=18, MI=1, dan

MO=1 secara trial and error dengan nilai GCV terkecil sebesar 0,05640.

98
99

2. Besar tingkat pentingnya variabel-variabel prediktor terhadap model terbaik

yang diperoleh secara signifikan mempengaruhi Indeks Harga Saham

Gabungan (IHSG) berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah

rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat

suku bunga di Indonesia (𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan

tingkat pentingnya masing-masing sebesar 100%; 86,54114%; 84,31259%;

38,18755%; dan 32,75410%. Inflasi (𝑋1 ) dengan tingkat pentingnya 100%

artinya bahwa Inflasi yang memiliki tingkat pentingnya sangat

mempengaruhi Indeks Harga Saham Gabungan (IHSG).

5.2 Saran

Berdasarkan simpulan di atas peneliti memberikan saran sebagai berikut.

1. Penelitian lanjutan dapat menambahkan variabel-variabel prediktor yang lain

yang dapat mempengaruhi Indeks Harga Saham Gabungan (IHSG) dengan

lebih baik menggunakan metode MARS.

2. Apabila pengujian asumsi klasik parameter model regresi tidak terpenuhi

maka dapat digunakan pendekatan regresi nonparametrik dan data berdimensi

tinggi, sehingga dapat menggunakan metode MARS.

3. Model terbaik MARS dapat dilihat dari kriteria GCV terkecil, apabila

memiliki nilai GCV terkecil yang sama dapat dilihat dengan pertimbangan

nilai MSE terkecil, dan apabila masih memiliki nilai MSE yang sama maka

dapat dilihat dengan pertimbangan nilai 𝑅 2 terbesar.


100

DAFTAR PUSTAKA

Arleina, Oktiva D dan Bambang W. Otok. 2014. Bootstrap Aggregating


Multivariate Adaptive Regression Splines (Bagging MARS) untuk
Mengklasifikasikan Rumah Tangga Miskin di Kabupaten Jombang. Jurnal
Sains dan Seni Pomits, 3(2): 91-96.

Ashari, Purbayu Budi Santoso. 2015. Analisis Statistic dengan Microsoft Excel dan
SPSS. Yogyakarta.

Astuti, R., Aprianti, E.P., dan Susanta, H. 2013. Analisis Pengaruh Tingkat Bunga
(SBI), Nilai Tukar (Kurs) Rupiah, Inflasi, dan Indeks Internasional terhadap
IHSG (Studi pada IHSG di BEI Periode 2008-2012). Diponegoro Journal
of Social and Politic of Science, Semarang: Universitas Diponegoro.

B, Nurul Astuty Yensy. 2011. Penggunaan Regresi Splines Adaptif Berganda untuk
Peramalan Indeks ENSO dan Hujan Bulanan. Skripsi. Bengkulu: FMIPA
Universitas Bengkulu.

Botella, O., dan Shariff K. 2013. B-Spline Methods in Fluid Dynamics.


International Journal of Computational Fluid Dynamics, 17(2): 133-149.

Budiantara, I.N, dkk. 2006. Pemodelan B-Spline dan MARS pada Nilai Ujian
Masuk Terhadap IPK Mahasiswa Jurusan Disain Komunikasi Visual UK
Petra Surabaya. Jurnal Teknik Industri, 8(1): 1-13.

Dewi, Silvia Roshita. 2012. Pemodelan Indeks Harga Saham di Indonesia dan
Dunia dengan Model Univariate dan Multivariate Time Series. Jurnal
Statistika.

Draper, N. R., dan Smith H., 1992. Analisis Regresi Terapan, Terjemahan
Bambang Sumantri. Jakarta: Gramedia.

Eubank, R. L. 1988. Spline Smoothing and Nonparametric Regression. New York:


Marcel Deker.

Friedman, J. H. 1991. Multivariate Adaptive Regression Splines. The Annals of


Statistics. Vol. 19, No. 1 (Mar., 1991), pp. 1 – 67. Institute of Mathematical
Statistics.

Hardle, W. 1990. Applied Nonparametric Regression. Cambridge University.

Hartanto, Andrew. 2013. Analisa Hubungan Indeks Saham antar Negara G 20 dan
Pengaruh terhadap Indeks Harga Saham Gabungan. Jurnal FINESTA, 1(2):
136-140.
101

Insukindro. 1987. Pengantar Ekonomi Moneter: Teori Soal dan Penyelesaiannya.


Yogyakarta: BPFE.

Kasmir. 1998. Bank dan Lembaga Keuangan Lainnya Edisi Keenam. Jakarta: Raja
Grafinfo Persada.

Kishartini. 2014. Multivariate Adaptive Regression Splines (MARS) untuk


Klasifikasi Status Kerja di Kabupaten Demak. Skripsi. Semarang: FSM
Universitas Diponegoro.

Kutner, M. H., C. J. Nachtsherm. dan J Neter. 2004. Applied Linear Regression


Models. New York: Mc Graw-Hill Companies, Inc.

Liza, F., dan Nurmawan, I. 2006. Makro Ekonomi Edisi Keenam. Jakrta: Erlangga.

Neter J., Wasserman W., dan Kutner M. H. 1997. Analisis Regresi Linear
Sederhana, Alih Bahasa Bambang Sumantri. Bogor: FMIPA IPB.

Nisa’, Shofa F., dan I Nyoman Budiantara. 2012. Analisis Survival dengan
Pendekatan Multivariate Adaptive Rehression Splines pada Kasus Demam
Berdarah Dengue (DBD). Jurnal Sains dan Seni, 1(1): 318-323.

Otok, Bambang Widjanarko. 2010. Pendekatan Multivariate Adaptive Regression


Spline (MARS) pada Pengelompokan Zona Musim Suatu Wilayah. Jurnal
Statistika, 10(2): 107 – 120.

Otok, Bambang Widjanarko, dkk. 2008. Asimtotik Model Multivariate Adaptive


Regression Spline. Jurnal S3 Matematika UGM, 10(2): 112-119.

Puspitasari, Icha, Suparti, dan Wilandari, Y. 2012. Analisis Indeks Harga Saham
Gabungan (IHSG) dengan Menggunakan Model Regresi Kernel. Jurnal
Gaussian, 1(1): 93-102.

S, Dimas Okky, dan Setiawan. 2012. Pemodelan Indeks Harga Saham Gabungan
(IHSG), Krs, dan Harga Minyak Dunia dengan Pendekatan Vector
Autoregressive. Jurnal Sains dan Seni, 1(1): 87-92.

Santoso, Noviyanti. 2009. Klasifikasi Kabupaten/Kota Di Jawa Timur Berdasarkan


Tingkat Pengangguran Terbuka dengan Pendekatan Multivariate Adaptive
Regression Spline (Mars). Tugas Akhir. Surabaya: FMIPA Institut
Teknologi Sepuluh Nopember.

Souri, I. A. S., 2009. Pemodelan Krisis Finansial Indonesia dengan Pendekatan


Multivariate Adaptive Splines. Tesis. Surabaya: FMIPA Institut Teknologi
Sepuluh Nopember.
102

Sunariyah. 2006. Pengantar Pengetahuan Pasar Modal, Edisi Kelima. UPP STIM.

Suharto, I., B. Girisuta, dan A. Miryanti. 2004. Perekayasaan Metodologi


Penelitian. Yogyakarta: Andi.

Web.standford.edu/-clint/bench/dw05a.htm diakses pada tanggal 7 November


2015.

Wei, W. S William. 1990. Univariate and Multivariate Methods. California.


Addison Wesley Publishing Company.

Wicaksono, Wasis. 2014. Pemodelan Multivariate Adaptive Regression Splines


(MARS) pada Faktor-faktor Resiko Angka Kesakitan Diare. Skripsi.
Semarang: FSM Universitas Diponegoro.

Widarjono. 2010. Analisis Statistika Multivariat Terapan. Yogyakarta: UPP STIM


YPKN.

www.bi.go.id diakses pada tanggal 7 November 2015.

www.bi.go.id/id/statistik/seki/terkini/moneter/contens/default.aspx diakses pada


tanggal 7 November 2015.

www.bi.go.id/id/moneter/informasi_kurs/default.aspx diakses pada tanggal 7


November 2015.

www.bi.go.id/id/moneter/bi-rate/data/default.aspx diakses pada tanggal 7


November 2015.

www.bi.go.id/id /moneter/kalkulator-kurs/default.aspx diakses pada tanggal 7


November 2015.

www.finance.yahoo.com diakses pada tanggal 10 November 2015.

www.salford-system.com diakses pada tanggal 7 November 2015.


103

LAMPIRAN

Lampiran 1. Data Penelitian Asli

Keterangan :
𝑌 : Variabel Indeks Harga Saham Gabungan (IHSG)
𝑋1 : Variabel Inflasi (persen)
𝑋2 : Variabel Suku Bunga di Indonesia (persen)
𝑋3 : Variabel Kurs Tengah Rupiah terhadap Dolar Amerika (rupiah)
𝑋4 : Variabel Indeks Dow Jones
𝑋5 : Variabel Indeks Nikkei 225
𝑋6 : Variabel Indeks Hang Seng

TAH BULAN Y IHSG 𝑿𝟏 𝑿𝟐 𝑿𝟑 𝑿𝟒 𝑿𝟓 𝑿𝟔


UN INFL SUKU KURS DOW NIKKEI HANG
ASI BUNG JONES 225 SENG
A
2010 September 3501,3 5,8 6,50 8975,84 10788,05 9369,35 22358,17
Oktober 3635,32 5,67 6,50 8927,9 11118,49 9202,45 23096,32
November 3531,21 6,33 6,50 8938,38 11006,02 9937,04 23007,99
Desember 3703,51 6,96 6,50 9022,62 11577,51 10228,92 23035,45
2011 Januari 3409,17 7,02 6,50 9037,38 11891,93 10237,92 23447,34
Februari 3470,35 6,84 6,75 8912,56 12226,34 10624,09 23338,02
Maret 3678,67 6,65 6,75 8761,48 12319,73 9755,10 23527,52
April 3819,62 6,16 6,75 8651,3 12810,54 9849,74 23720,81
Mei 3836,97 5,98 6,75 8555,8 12569,79 9693,73 23684,13
Juni 3888,57 5,54 6,75 8564 12414,34 9816,09 22398,10
Juli 4130,8 4,61 6,75 8533,24 12143,24 9833,03 22440,25
Agustus 3841,73 4,79 6,75 8532 11613,53 8955,20 20534,85
September 3549,03 4,61 6,75 8765,5 10913,38 8700,29 17592,41
Oktober 3790,85 4,42 6,50 8895,24 11955,01 8988,39 19864,87
November 3715,08 4,15 6,00 9015,18 12045,68 8434,61 17989,35
Desember 3821,99 3,79 6,00 9088,48 12217,56 8455,35 18434,39
2012 Januari 3941,69 3,65 6,00 9109,14 12632,91 8802,51 20390,49
Februari 3985,21 3,56 5,75 9025,76 12952,07 9723,24 21680,08
Maret 4121,55 3,97 5,75 9165,33 13212,04 10083,56 20555,58
April 4180,73 4,5 5,75 9175,5 13213,63 9520,89 21094,21
Mei 3832,82 4,45 5,75 9290,24 12393,45 8542,73 17629,52
Juni 3955,58 4,53 5,75 9452,14 12880,09 9006,78 19441,46
Juli 4142,34 4,56 5,75 9456,59 13008,68 8695,06 19796,81
104

BULAN 𝑿𝟏 𝑿𝟑 𝑿𝟑 𝑿𝟒 𝑿𝟓 𝑿𝟔
INFL KURS KURS DOW NIKKEI HANG
Y IHSG
ASI JONES 225 SENG

Agustus 4060,33 4,58 5,75 9499,84 13090,84 8839,91 19482,57


September 4262,56 4,31 5,75 9566,35 13437,13 8870,16 20840,38
Oktober 4350,29 4,61 5,75 9597,14 13096,46 8928,29 21641,82
November 4276,14 4,32 5,75 9627,95 13025,58 9446,01 22030,39
Desember 4316,69 4,3 5,75 9645,89 13104,14 10395,18 22656,92
2013 Januari 4453,7 4,57 5,75 9687,33 13860,58 11138,66 23729,53
Februari 4795,79 5,31 5,75 9686,65 14054,49 11559,36 23020,27
Maret 4940,99 5,9 5,75 9709,42 14578,54 12397,91 22299,63
April 5034,07 5,57 5,75 9724,05 14839,80 13860,86 22737,01
Mei 5068,63 5,47 5,75 9760,91 15115,57 13774,54 22392,16
Juni 4818,9 5,9 6,00 9881,53 14909,60 13677,32 20803,29
Juli 4610,38 8,61 6,50 10073,39 15499,54 13668,32 21883,66
Agustus 4195,09 8,79 7,00 10572,5 14810,31 13388,86 21731,37
September 4316,18 8,4 7,25 11346,24 15129,67 14455,80 22859,86
Oktober 4510,63 8,32 7,25 11366,9 15545,75 14327,94 23206,37
November 4256,44 8,37 7,50 11613,1 16086,41 15661,87 23881,29
Desember 4274,18 8,38 7,50 12087,1 16576,66 16291,31 23306,39
2014 Januari 4418,76 8,22 7,50 12179,65 15698,85 14914,53 22035,42
Februari 4620,22 7,75 7,50 11935,1 16321,71 14841,07 22836,96
Maret 4768,28 7,32 7,50 11427,05 16457,66 14827,83 22151,06
April 4840,15 7,25 7,50 11435,75 16580,84 14304,11 22133,97
Mei 4893,91 7,32 7,50 11525,94 16717,17 14632,38 23081,65
Juni 4878,58 6,7 7,50 11892,62 16826,60 15162,10 23190,72
Juli 5088,8 4,53 7,50 11689,06 16563,30 15620,77 24756,85
Agustus 5136,86 3,99 7,50 11706,67 17098,45 15424,59 24742,06
September 5137,58 4,53 7,50 11890,77 17042,52 16413,76 22932,98
Oktober 5089,55 4,83 7,50 12144,87 17390,52 16413,76 23998,06
November 5149,89 6,23 7,75 12158,3 17828,24 17459,85 23987,45
Desember 5226,95 8,36 7,75 12438,29 17823,07 17450,77 23605,04
2015 Januari 5289,4 6,96 7,75 12579,1 17164,95 17674,39 24507,05
Februari 5450,29 6,29 7,50 12749,84 18132,70 18797,94 24823,29
Maret 5518,68 6,38 7,50 13066,82 17776,12 19206,99 24900,89
April 5086,43 6,79 7,50 12947,76 17840,52 19520,01 28133,00
Mei 5216,38 7,15 7,50 13140,53 18010,68 20563,15 27424,19
Juni 4910,66 7,26 7,50 13313,24 17619,51 20235,73 26250,03
Juli 4802,53 7,26 7,50 13374,79 17689,86 20585,24 24636,28
Agustus 4509,61 7,18 7,50 13781,75 16528,03 18890,48 21670,58
September 4223,91 6,83 7,50 14396,1 16284,70 17388,15 20846,30
105

Lampiran 2. Output Pengolahan Data Menggunakan SPSS 16

1. Uji Normalitas

One-Sample Kolmogorov-Smirnov Test

SUKU
BUN DOW NIKKEI HANG
IHSG INFLASI GA KURS JONES 225 SENG

N 61 61 61 61 61 61 61

Normal Parametersa Mean 4.3981 6.725 1.050 14525. 1.2909 22462.


5.9570
E3 4 9E4 5915 E4 3748

Std. 5.7663 .7468 1.656 2270.5 3.7813 2088.8


1.49369
Deviation 9E2 1 36E3 8139 9E3 4048

Most Extreme Absolute .100 .161 .227 .215 .161 .190 .101
Differences Positive .081 .161 .167 .215 .161 .190 .084

Negative -.100 -.072 -.227 -.116 -.125 -.118 -.101

Kolmogorov-Smirnov Z .783 1.255 1.775 1.682 1.257 1.480 .791

Asymp. Sig. (2-tailed) .572 .086 .004 .007 .085 .025 .558

a. Test distribution is Normal.


106

2. Uji Homoskedastisitas

3. Uji Autokorelasi

Model Summaryb

Adjusted R Std. Error of the


Model R R Square Square Estimate Durbin-Watson

1 .959a .919 .910 .03956 1.067

a. Predictors: (Constant), HANG SENG, INFLASI, KURS, SUKU BUNGA, DOW JONES,
NIKKEI 225

b. Dependent Variable: lag_Y


107

4. Uji Multikolinieritas

Coefficientsa

Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics

Model B Std. Error Beta T Sig. Tolerance VIF

1 (Constant) 2229.802 537.423 4.149 .000

INFLASI -76.252 20.817 -.198 -3.663 .001 .544 1.839

SUKU BUNGA -149.537 55.394 -.194 -2.700 .009 .307 3.256

KURS -.184 .051 -.529 -3.585 .001 .073 13.756

DOW JONES .323 .032 1.273 10.228 .000 .102 9.804

NIKKEI 225 .053 .029 .347 1.836 .072 .044 22.584

HANG SENG .008 .018 .029 .460 .648 .386 2.589

a. Dependent Variable: IHSG


108

Lampiran 3. Tabel Durbin-Watson dengan 𝛼 = 0,05


109

Lampiran 4. Tabel F dengan 𝛼 = 0,05


110

Lampiran 5. Data Penelitian setelah Standarisasi

TAH BULAN ZY 𝒁𝑿𝟏 𝒁𝑿𝟐 𝒁𝑿𝟑 𝒁𝑿𝟒 𝒁𝑿𝟓 𝒁𝑿𝟔


UN IHSG INFLAS SUKU KURS DOW NIKKEI HANG
I BUNG JONES 225 SENG
A
2010 September - - - - -1,64607 -0,93614 -
1,5551 0,1051 0,301 0,92585 0,0498
7 4 83 9
Oktober - - - - -1,50054 -0,98028 0,3034
1,3227 0,1921 0,301 0,95479 9
6 7 83
November - 0,2496 - - -1,55008 -0,78602 0,2612
1,5033 86 0,301 0,94846 0
0 83
Desember - 0,6714 - - - -0,70883 0,2743
1,2045 6 0,301 0,89761 1.,29838 5
0 83
2011 Januari - 0,7116 - - -1,15991 -0,70645 0,4715
1,7149 3 0,301 0,88869 4
4 83
Februari - 0,5911 0.032 - -1,01263 -0,60432 0,4192
1,6088 2 93 0,96405 0
5
Maret - 0,4639 0.032 - -0,97150 -0,83413 0,5099
1,2475 2 93 1,05527 2
8
April - 0,1358 0.032 - -0,75534 -0,80910 0,6024
1,0031 7 93 1,12178 6
5
Mei - 0,0153 0.032 - -0,86137 -0,85036 0,5849
0,9730 7 93 1,17944 0
6
Juni - - 0.032 - -0,92983 -0,81800 -
0,8835 0,2792 93 1,17449 0,0307
7 1 7
Juli - - 0.032 - -1,04923 -0,81352 -
0,4635 0,9018 93 1,19306 0,0105
0 3 9
Agustus - - 0.032 - -1,28252 -1,04567 -
0,9648 0,7813 93 1,19381 0,9227
0 2 7

September - - 0.032 - -1,59088 -1,11308 -


1,4724 0,9018 93 1,05284 2,3314
0 3 2
111

BULAN 𝒁𝑿𝟏 𝒁𝑿𝟐 𝒁𝑿𝟑 𝒁𝑿𝟒 𝒁𝑿𝟓 𝒁𝑿𝟔


INFLAS SUKI KURS DOW NIKKEI HANG
ZY
I U JONES 225 SENG
IHSG
BUNG
A

Oktober - - - - -1,13212 -1,03689 -


1,0530 1,0290 0,301 0,97451 1,2435
4 3 83 2
November - - - - -1,09219 -1,18334 -
1,1844 1,2097 0,971 0,90210 2,1413
4 9 35 9
Desember - - - - -1,01649 -1,17785 -
0,9990 1,4508 0,971 0,85784 1,9283
4 0 35 4
2012 Januari - - - - -0,83357 -1,08605 -
0,7914 1,5445 0,971 0,84537 0,9918
5 3 35 8
Februari - - - - -0,69300 -0,84256 -
0,7159 1,6047 1,306 0,89571 0,3745
8 8 11 1
Maret - - - - -0,57851 -0,74727 -
0,4795 1,3303 1,306 0,81145 0,9128
4 0 11 5
April - - - - -0,57781 -0,89607 -
0,3769 0,9754 1,306 0,80531 0,6549
1 7 11 9
Mei - - - - -0,93903 -1,15475 -
0,9802 1,0089 1,306 0,73603 2,3136
6 4 11 5
Juni - - - - -0,72470 -1,03203 -
0,7673 0,9553 1,306 0,63829 1,4462
7 8 11 2
Juli - - - - -0,66807 -1,11446 -
0,4434 0,9353 1,306 0,63560 1,2761
9 0 11 0
Agustus - - - - -0,63189 -1,07616 -
0,5857 0,9219 1,306 0,60949 1,4265
1 1 11 4
September - - - - -0,47938 -1,06816 -
0,2350 1,1026 1,306 0,56934 0,7765
1 7 11 0
Oktober - - - - -0,62941 -1,05278 -
0,0828 0,9018 1,306 0,55075 0,3928
7 3 11 3
112

BULAN ZY 𝒁𝑿𝟏 𝒁𝑿𝟐 𝒁𝑿𝟑 𝒁𝑿𝟒 𝒁𝑿𝟓 𝒁𝑿𝟔


IHSG INFLAS SUKU KURS DOW NIKKEI HANG
I BUNG JONES 225 SENG
A
November - - - - -0,66063 -0,9158 -
0,2114 1,0959 1,306 0,53215 0,2068
6 8 11 1
Desember - - - - -0,62603 -0,66486 0,0931
0,1411 1,1093 1,306 0,52132 34
3 7 11
2013 Januari 0,0964 - - - -0,29288 -0,46825 0,6066
7 0,9286 1,306 0,49630 3
1 11
Februari 0,6897 - - - -0,20748 -0,35699 0,2670
1 0,4331 1,306 0,49671 8
9 11
Maret 0,9415 - - - 0,02332 -0,13523 -
2 0,0381 1,306 0,48296 0,0779
9 11 1
April 1,1029 - - - 0,13838 0,25165 0,1314
4 0,2591 1,306 0,47413 8
2 11
Mei 1,1628 - - - 0,25984 0,22882 -
7 0,3260 1,306 0,45187 0,0336
7 11 1
Juni 0,7297 - - - 0,16912 0,20311 -
9 0,0381 0,971 0,37905 0,7942
9 35 6
Juli 0,3681 1,7761 - - 0,42894 0,20073 -
8 0 0,301 0,26322 0,2770
83 5
Agustus - 1.8966 0,367 0,03811 0,12539 0,12683 -
0,3520 1 69 0,3499
1 6
September - 1,6355 0,702 0,50524 0,26605 0,40898 0,1902
0,1420 1 45 9
2
Oktober 0,1951 1,5819 0,702 0,51772 0,44929 0,37517 0,3561
9 5 45 8
November - 1,6154 1,037 0,66636 0,68741 0,72793 0,6792
0,2456 3 20 8
2
Desember - 1,6221 1,037 0,95253 0,90332 0,89439 0,4040
0,2148 2 20 6
5
113

BULAN ZY 𝒁𝑿𝟏 𝒁𝑿𝟐 𝒁𝑿𝟑 𝒁𝑿𝟒 𝒁𝑿𝟓 𝒁𝑿𝟔


IHSG INFLAS SUKU KURS DOW NIKKEI HANG
I BUNG JONES 225 SENG
A
2014 Januari 0,0358 1,5150 1,037 1,00840 0,51672 0,53029 -
7 1 20 0,2044
0
Februari 0,3852 1,2003 1,037 0,86076 0,79104 0,51087 0,1793
4 5 20 3
Maret 0,6420 0,9124 1,037 0,55403 0,85091 0,50737 -
1 7 20 0,1490
4
April 0,7666 0,8656 1,037 0,55928 0,90521 0,36887 -
4 1 20 0,1572
2
Mei 0,8598 0,9124 1,037 0,61374 0,96521 0,45568 0,2964
7 7 20 7
Juni 0,8332 0,4973 1,037 0,83511 1,01340 0,59577 0,3486
9 9 20 8
Juli 1,1978 - 1,037 0,71222 0,89744 0,71706 1,0984
5 0,9553 20 4
8
Agustus 1,2811 - 1,037 0,72285 1,13313 0,66518 1,0913
9 1,3169 20 6
1
September 1,2824 - 1,037 0,83400 1,10850 0,92677 0,2252
4 0,9553 20 9
8
Oktober 1,1991 - 1,037 0,98741 1,26176 0,92677 0,7351
5 0,7545 20 9
4
November 1,3037 0,1827 1,371 0,99551 1,45454 1,20341 0,7301
9 4 96 1
Desember 1,4374 1,6087 1,371 1,16455 1,45226 1,20101 0,5470
3 3 96 3
2015 Januari 1,5457 0,6714 1,371 1,24957 1,16242 1,26015 0,9788
3 6 96 6
Februari 1,8247 0,2229 1,037 1,35265 1,58863 1,55727 1,1302
4 0 20 5
Maret 1,9433 0,2831 1,037 1,54402 1,43158 1,66545 1,1674
4 6 20 0
April 1,1937 0,5576 1,037 1,47214 1,45995 1,74823 2,7147
4 5 20 2
Mei 1,4191 0,7986 1,037 1,58852 1,53489 2,02409 2,3753
0 6 20 9
Juni 0,8889 0,8723 1,037 1,69279 1,36261 1,93750 1,8132
2 0 20 8
114

BULAN ZY 𝒁𝑿𝟏 𝒁𝑿𝟐 𝒁𝑿𝟑 𝒁𝑿𝟒 𝒁𝑿𝟓 𝒁𝑿𝟔


IHSG INFLAS SUKU KURS DOW NIKKEI HANG
I BUNG JONES 225 SENG
A
Juli 0,7014 0,8723 1,037 1,72995 1,39359 2,02993 1,0407
0 0 20 2
Agustus 0,1934 0,8187 1,037 1,97565 0,88191 1,58175 -
2 4 20 0,3790
6
September - 0,5844 1,037 2,34655 0,77474 1,18445 -
0,3020 3 20 0,7736
3 7
115

Lampiran 6. Output Simulasi Model MARS trial and error

1. BF=12, MI=1, dan MO=0

============
MARS Results
============

-------------------------
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
------------------------------------------------------------------
------------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14519 3.0 8.0 ZX1 -0.32607
5 4 0.09799 5.0 12.0 ZX3 -0.48296
7 6 0.10244 6.0 15.0 ZX4 -0.86137
9 8 0.10653 7.0 18.0 ZX3 -0.94846
11 10 0.10879 9.0 22.0 ZX2 1.03720
12 0.12282 10.0 25.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
------------------------------------------------------------------
-----
116

0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720

Piecewise Linear GCV = 0.08571, #efprms = 15.40000


========================================
ANOVA Decomposition on 6 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.18890 0.10456 1 2.40000 ZX1
2 0.31247 0.12229 3 7.20000 ZX3
3 1.41078 0.30275 1 2.40000 ZX4
4 0.29829 0.09377 1 2.40000 ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.30275
ZX3 41.04828 0.12229
ZX1 29.46915 0.10456
ZX2 19.26678 0.09377
ZX5 0.00000 0.08572
ZX6 0.00000 0.08572

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -2.96330 0.42539 -6.96602
0.00000
Basis Function 2 | -0.27020 0.06200 -4.35793
0.00006
Basis Function 4 | -3.97568 0.74395 -5.34404
0.00000
Basis Function 5 | 2.61562 0.63309 4.13154
0.00013
Basis Function 6 | 1.59400 0.12708 12.54362
0.00000
Basis Function 8 | 3.56117 0.75396 4.72331
0.00002
Basis Function 11 | 0.30707 0.09071 3.38507
0.00133
-------------------------------------------------------------------
----------
F-STATISTIC = 175.82431 S.E. OF REGRESSION =
0.23261
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.92169
[MDF,NDF] = [ 6, 54 ] REGRESSION SUM OF SQUARES =
57.07831
117

-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);

Y = -2.96311 - 0.270198 * BF2 - 3.97527 * BF4 + 2.6153 * BF5 +


1.59401 * BF6 + 3.56074 * BF8 + 0.307064 * BF11;
MODEL ZY = BF2 BF4 BF5 BF6 BF8 BF11;

2. BF=12, MI=1, dan MO=1

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
118

0 1.01667 0.0 1.0


1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09752 5.0 12.0 ZX3 -0.47413
7 6 0.09906 6.0 15.0 ZX3 -0.60949
9 8 0.09422 7.0 18.0 ZX4 0.90332
11 10 0.10574 9.0 22.0 ZX2 1.03720
12 0.12410 10.0 25.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
------------------------------------------------------------------
-----
0 -1.43514
1 0.83360 ZX4 -1.64607
2 -0.37286 ZX1 -0.43319
4 -7.25232 ZX3 -0.47413
6 6.79978 ZX3 -0.60949
8 0.97454 ZX4 0.90332

Piecewise Linear GCV = 0.07935, #efprms = 13.00000

========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.96483 0.22161 2 4.80000 ZX4
2 0.27472 0.14196 1 2.40000 ZX1
3 0.30457 0.15616 2 4.80000 ZX3

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.22161
ZX3 73.47256 0.15616
ZX1 66.33234 0.14196
ZX5 0.00000 0.07938
ZX2 0.00000 0.07938
ZX6 0.00000 0.07938

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95005
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94551
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95005

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.43505 0.08724 -16.44960
0.00000
Basis Function 1 | 0.83342 0.11710 7.11710
0.00000
Basis Function 2 | -0.37288 0.05099 -7.31276
0.00000
119

Basis Function 4 | -7.25461 1.27423 -5.69333


0.00000
Basis Function 6 | 6.80210 1.28848 5.27916
0.00000
Basis Function 8 | 0.97474 0.25160 3.87417
0.00029
-------------------------------------------------------------------
----------
F-STATISTIC = 209.22727 S.E. OF REGRESSION =
0.23343
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.99690
[MDF,NDF] = [ 5, 55 ] REGRESSION SUM OF SQUARES =
57.00310
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF8 = max( 0, ZX4 - 0.903323);

Y = -1.43514 + 0.833595 * BF1 - 0.372863 * BF2 - 7.25232 * BF4 +


6.79978 * BF6 + 0.974536 * BF8;
MODEL ZY = BF1 BF2 BF4 BF6 BF8;

3. BF=12, MI=1, dan MO=2


120

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09756 5.0 12.0 ZX3 -0.45187
7 6 0.10100 6.0 15.0 ZX3 -0.63560
9 8 0.09654 7.0 18.0 ZX4 0.90516
11 10 0.10720 9.0 22.0 ZX2 1.03720
12 0.12566 10.0 25.0 ZX5 -1.18334

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.43045
1 0.82204 ZX4 -1.64607
2 -0.37917 ZX1 -0.43319
4 -5.70029 ZX3 -0.45187
6 5.23551 ZX3 -0.63560
8 0.99149 ZX4 0.90516

Piecewise Linear GCV = 0.08218, #efprms = 13.00000

========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.95542 0.21894 2 4.80000 ZX4
2 0.27937 0.14634 1 2.40000 ZX1
3 0.30563 0.15616 2 4.80000 ZX3

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.21894
ZX3 73.54479 0.15616
ZX1 68.49094 0.14634
ZX5 0.00000 0.08219
ZX2 0.00000 0.08219
ZX6 0.00000 0.08219

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.94827
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94356
UNCENTERED R-SQUARED = R-0 SQUARED: 0.94827
121

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.43040 0.08982 -15.92510
0.00000
Basis Function 1 | 0.82195 0.12340 6.66065
0.00000
Basis Function 2 | -0.37918 0.05210 -7.27855
0.00000
Basis Function 4 | -5.70116 1.03601 -5.50298
0.00000
Basis Function 6 | 5.23639 1.04842 4.99454
0.00001
Basis Function 8 | 0.99160 0.25973 3.81783
0.00034
-------------------------------------------------------------------
----------
F-STATISTIC = 201.63360 S.E. OF REGRESSION =
0.23756
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
3.10393
[MDF,NDF] = [ 5, 55 ] REGRESSION SUM OF SQUARES =
56.89607
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF6 = max( 0, ZX3 + 0.635603);
BF8 = max( 0, ZX4 - 0.905164);

Y = -1.43045 + 0.82204 * BF1 - 0.379175 * BF2 - 5.70029 * BF4 +


5.23551 * BF6 + 0.991495 * BF8;

MODEL ZY = BF1 BF2 BF4 BF6 BF8;

4. BF=12, MI=1, dan MO=3


122

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09759 5.0 12.0 ZX3 -0.48296
7 6 0.09899 6.0 15.0 ZX3 -0.63829
9 8 0.09548 7.0 18.0 ZX4 0.90332
11 10 0.10796 9.0 22.0 ZX2 1.03720
12 0.12605 10.0 25.0 ZX5 -1.18334

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.47216
1 0.86907 ZX4 -1.64607
2 -0.35469 ZX1 -0.43319
4 -5.84014 ZX3 -0.48296
6 5.39604 ZX3 -0.63829
8 0.94013 ZX4 0.90332

Piecewise Linear GCV = 0.08173, #efprms = 13.00000

========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.99451 0.23342 2 4.80000 ZX4
2 0.26134 0.13877 1 2.40000 ZX1
3 0.29395 0.15616 2 4.80000 ZX3
123

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.23342
ZX3 70.04274 0.15616
ZX1 61.31765 0.13877
ZX5 0.00000 0.08175
ZX2 0.00000 0.08175
ZX6 0.00000 0.08175

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.94855
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94387
UNCENTERED R-SQUARED = R-0 SQUARED: 0.94855

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.47213 0.08561 -17.19478
0.00000
Basis Function 1 | 0.86899 0.11581 7.50386
0.00000
Basis Function 2 | -0.35470 0.05122 -6.92453
0.00000
Basis Function 4 | -5.84108 1.05182 -5.55333
0.00000
Basis Function 6 | 5.39700 1.06772 5.05468
0.00001
Basis Function 8 | 0.94023 0.25396 3.70222
0.00050
-------------------------------------------------------------------
----------
F-STATISTIC = 202.79258 S.E. OF REGRESSION =
0.23692
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
3.08710
[MDF,NDF] = [ 5, 55 ] REGRESSION SUM OF SQUARES =
56.91290
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.482961);
BF6 = max( 0, ZX3 + 0.63829);
BF8 = max( 0, ZX4 - 0.903323);

Y = -1.47216 + 0.869072 * BF1 - 0.354692 * BF2 - 5.84014 * BF4


+ 5.39604 * BF6 + 0.940132 * BF8;

MODEL ZY = BF1 BF2 BF4 BF6 BF8;


124

5. BF=12, MI=2, dan MO=0

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13940 11.0 30.0 ZX4 0.77474 ZX3
4
12 0.17261 12.0 34.0 ZX6 -2.33142 ZX1
3

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04178
125

1 1.17963 ZX4 -1.64607


2 -0.53859 ZX1 -0.32607
3 -0.53830 ZX1 -0.32607
4 -0.46709 ZX3 -0.48296
5 -1.01838 ZX3 -0.48296
7 3.35882 ZX3 ZX1 -0.80531
8 1.00009 ZX2 ZX1 1.03720

Piecewise Linear GCV = 0.09628, #efprms = 20.25000

========================================
ANOVA Decomposition on 7 Basis Functions
========================================

fun std. dev. -gcv #bsfns #efprms variable


-------------------------------------------------------
1 1.16992 0.39946 1 2.75000 ZX4
2 0.29164 0.19323 2 5.50000 ZX1
3 0.31084 0.17771 2 5.50000 ZX3
4 0.15298 0.10929 1 2.75000 ZX1
ZX3
5 0.09395 0.09984 1 2.75000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.39946
ZX1 49.28065 0.16991
ZX3 45.38276 0.15872
ZX2 10.84544 0.09984
ZX5 0.00000 0.09628
ZX6 0.00000 0.09628

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.04178 0.16119 -6.46298
0.00000
Basis Function 1 | 1.17963 0.08392 14.05638
0.00000
Basis Function 2 | -0.53859 0.05876 -9.16610
0.00000
Basis Function 3 | -0.53830 0.10817 -4.97631
0.00001
Basis Function 4 | -0.46709 0.07574 -6.16723
0.00000
Basis Function 5 | -1.01838 0.24656 -4.13038
0.00013
Basis Function 7 | 3.35882 0.85148 3.94466
0.00024
Basis Function 8 | 1.00009 0.32225 3.10351
0.00307
126

-------------------------------------------------------------------
----------
F-STATISTIC = 165.76008 S.E. OF REGRESSION =
0.22238
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.62091
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
57.37909
-------------------------------------------------------------------
----------
===============
Basis Functions
===============

BF1 = max( 0, ZX4 + 1.64607);


BF2 = max( 0, ZX1 + 0.326071);
BF3 = max( 0, -0.326071 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.805307 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;

Y = -1.04178 + 1.17963 * BF1 - 0.538595 * BF2 - 0.538302 * BF3 -


0.467086 * BF4 - 1.01838 * BF5 + 3.35882 * BF7 + 1.00009 * BF8;

MODEL ZY = BF1 BF2 BF3 BF4 BF5 BF7 BF8;

6. BF= 12, MI=2, dan MO=1


127

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
12 0.15823 12.0 34.0 ZX6 -2.33142 ZX3
5

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.67191
1 0.89278 ZX4 -1.64607
2 -0.70209 ZX1 -0.43319
3 -0.78853 ZX1 -0.43319
5 -1.40640 ZX3 -0.47413
7 3.64497 ZX3 ZX1 -0.73603
8 0.98443 ZX2 ZX1 1.03720
9 0.23406 ZX2 ZX1 1.03720
10 -1.22194 ZX3 ZX1 1.54402

Piecewise Linear GCV = 0.09971, #efprms = 23.00000

========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.88543 0.49474 1 2.75000 ZX4
2 0.39927 0.27544 2 5.50000 ZX1
3 0.34100 0.14657 1 2.75000 ZX3
4 0.26065 0.14465 2 5.50000 ZX1
ZX3
5 0.15249 0.10601 2 5.50000 ZX1
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.49474
ZX1 56.46937 0.22567
ZX3 36.02997 0.15099
ZX2 12.63407 0.10601
ZX5 0.00000 0.09971
ZX6 0.00000 0.09971
128

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96066
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95461
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96066

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.67191 0.14884 -4.51420
0.00004
Basis Function 1 | 0.89278 0.05707 15.64333
0.00000
Basis Function 2 | -0.70209 0.06018 -11.66673
0.00000
Basis Function 3 | -0.78853 0.13807 -5.71124
0.00000
Basis Function 5 | -1.40640 0.23471 -5.99216
0.00000
Basis Function 7 | 3.64497 0.82319 4.42787
0.00005
Basis Function 8 | 0.98443 0.29211 3.37008
0.00142
Basis Function 9 | 0.23406 0.06757 3.46378
0.00107
Basis Function 10 | -1.22194 0.22469 -5.43843
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 158.73432 S.E. OF REGRESSION =
0.21305
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.36028
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
57.63972
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.474128 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;

Y = -0.671908 + 0.892777 * BF1 - 0.702094 * BF2 - 0.788534 * BF3-


1.4064 * BF5 + 3.64497 * BF7 + 0.984432 * BF8 + 0.234063 * BF9 -
1.22194 * BF10;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10;


129

7. BF=12, MI=2, dan MO=2

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
12 0.15833 12.0 34.0 ZX6 -2.33142 ZX1
3

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
130

Basis Fun Coefficient Variable Parent Knot


-------------------------------------------------------------------
----
0 -0.62405
1 0.87498 ZX4 -1.64607
2 -0.70941 ZX1 -0.43319
3 -0.78463 ZX1 -0.43319
5 -1.41130 ZX3 -0.45187
7 3.60536 ZX3 ZX1 -0.73603
8 1.01756 ZX2 ZX1 1.03720
9 0.23556 ZX2 ZX1 1.03720
10 -1.33217 ZX3 ZX1 1.58852

Piecewise Linear GCV = 0.09985, #efprms = 23.00000

========================================
ANOVA Decomposition on 8 Basis Functions
========================================

fun std. dev. -gcv #bsfns #efprms variable


-------------------------------------------------------
1 0.86778 0.45974 1 2.75000 ZX4
2 0.40415 0.27877 2 5.50000 ZX1
3 0.35368 0.14739 1 2.75000 ZX3
4 0.25808 0.14483 2 5.50000 ZX1
ZX3
5 0.15501 0.10748 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.45974
ZX1 59.46965 0.22713
ZX3 37.69616 0.15099
ZX2 14.56427 0.10748
ZX5 0.00000 0.09985
ZX6 0.00000 0.09985
==============================
MARS Regression: Training Data
==============================

W: 61.00 R-SQUARED: 0.96061


MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95455
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96061

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.62405 0.15456 -4.03752
0.00018
Basis Function 1 | 0.87498 0.05855 14.94444
0.00000
Basis Function 2 | -0.70941 0.06034 -11.75630
0.00000
Basis Function 3 | -0.78463 0.13797 -5.68675
0.00000
Basis Function 5 | -1.41130 0.23434 -6.02244
0.00000
Basis Function 7 | 3.60536 0.82086 4.39216
0.00006
131

Basis Function 8 | 1.01756 0.29188 3.48628


0.00100
Basis Function 9 | 0.23556 0.06756 3.48676
0.00100
Basis Function 10 | -1.33217 0.24327 -5.47613
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 158.50174 S.E. OF REGRESSION =
0.21320
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.36361
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
57.63639
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.451875 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;

Y = -0.624052 + 0.874977 * BF1 - 0.70941 * BF2 - 0.784627 * BF3 -


1.4113 * BF5 + 3.60536 * BF7 + 1.01756 * BF8 + 0.235556 * BF9 -
1.33217 * BF10;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10;

8. BF=12, MI=2, dan MO=3


132

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
12 0.16068 12.0 34.0 ZX6 -2.33142 ZX1
3
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.70362
1 0.90781 ZX4 -1.64607
2 -0.70046 ZX1 -0.43319
3 -0.79083 ZX1 -0.43319
5 -1.38649 ZX3 -0.48296
7 3.65653 ZX3 ZX1 -0.73603
8 0.95306 ZX2 ZX1 1.03720
9 0.23403 ZX2 ZX1 1.03720
10 -1.04551 ZX3 ZX1 1.47214

Piecewise Linear GCV = 0.10332, #efprms = 23.00000

========================================
ANOVA Decomposition on 8 Basis Functions
133

========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90034 0.51791 1 2.75000 ZX4
2 0.39811 0.27744 2 5.50000 ZX1
3 0.33164 0.14774 1 2.75000 ZX3
4 0.26034 0.14477 2 5.50000 ZX1
ZX3
5 0.15070 0.10763 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.51791
ZX1 54.24297 0.22531
ZX3 33.90793 0.15099
ZX2 10.19263 0.10763
ZX5 0.00000 0.10332
ZX6 0.00000 0.10332

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95924
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95296
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95924

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.70362 0.14945 -4.70800
0.00002
Basis Function 1 | 0.90781 0.05768 15.74005
0.00000
Basis Function 2 | -0.70046 0.06124 -11.43770
0.00000
Basis Function 3 | -0.79083 0.14082 -5.61594
0.00000
Basis Function 5 | -1.38649 0.23953 -5.78845
0.00000
Basis Function 7 | 3.65654 0.83981 4.35402
0.00006
Basis Function 8 | 0.95306 0.29836 3.19430
0.00238
Basis Function 9 | 0.23403 0.06886 3.39863
0.00131
Basis Function 10 | -1.04552 0.20245 -5.16439
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 152.95533 S.E. OF REGRESSION =
0.21688
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.44583
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
57.55417
-------------------------------------------------------------------
----------
===============
Basis Functions
134

===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;

Y = -0.703618 + 0.907813 * BF1 - 0.700461 * BF2 - 0.790831 * BF3


- 1.38649 * BF5 + 3.65653 * BF7 + 0.953055 * BF8
+ 0.23403 * BF9 - 1.04551 * BF10;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10;

9. BF=12, MI=3, dan MO=0

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
135

0 1.01667 0.0 1.0


1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13492 11.0 30.0 ZX6 0.26120 ZX2
9
12 0.16887 12.0 34.0 ZX6 -2.33142 ZX1
3
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04178
1 1.17963 ZX4 -1.64607
2 -0.53859 ZX1 -0.32607
3 -0.53830 ZX1 -0.32607
4 -0.46709 ZX3 -0.48296
5 -1.01838 ZX3 -0.48296
7 3.35882 ZX3 ZX1 -0.80531
8 1.00009 ZX2 ZX1 1.03720

Piecewise Linear GCV = 0.09628, #efprms = 20.25000

========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.16992 0.39946 1 2.75000 ZX4
2 0.29164 0.19323 2 5.50000 ZX1
3 0.31084 0.17771 2 5.50000 ZX3
4 0.15298 0.10929 1 2.75000 ZX1
ZX3
5 0.09395 0.09984 1 2.75000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.39946
ZX1 49.28065 0.16991
ZX3 45.38276 0.15872
ZX2 10.84544 0.09984
ZX5 0.00000 0.09628
ZX6 0.00000 0.09628

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632

Parameter Estimate S.E. T-Ratio


P-Value
136

-------------------------------------------------------------------
----------
Constant | -1.04178 0.16119 -6.46298
0.00000
Basis Function 1 | 1.17963 0.08392 14.05638
0.00000
Basis Function 2 | -0.53859 0.05876 -9.16610
0.00000
Basis Function 3 | -0.53830 0.10817 -4.97631
0.00001
Basis Function 4 | -0.46709 0.07574 -6.16723
0.00000
Basis Function 5 | -1.01838 0.24656 -4.13038
0.00013
Basis Function 7 | 3.35882 0.85148 3.94466
0.00024
Basis Function 8 | 1.00009 0.32225 3.10351
0.00307
-------------------------------------------------------------------
----------
F-STATISTIC = 165.76008 S.E. OF REGRESSION =
0.22238
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.62091
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
57.37909
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.326071);
BF3 = max( 0, -0.326071 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.805307 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;

Y = -1.04178 + 1.17963 * BF1 - 0.538595 * BF2 - 0.538302 * BF3-


0.467086 * BF4 - 1.01838 * BF5 + 3.35882 * BF7 + 1.00009 * BF8;

MODEL ZY = BF1 BF2 BF3 BF4 BF5 BF7 BF8;

10. BF=12, MI=3, dan MO=1


137

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
12 0.16305 12.0 34.0 ZX5 -1.18334 ZX1
2

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.74788
1 0.90722 ZX4 -1.64607
3 -0.73544 ZX1 -0.43319
5 -1.15051 ZX3 -0.47413
7 2.95877 ZX3 ZX1 -0.73603
8 0.86884 ZX2 ZX1 1.03720
9 0.52607 ZX2 ZX1 1.03720
10 -1.46042 ZX3 ZX1 1.54402
11 -0.42556 ZX3 ZX1 1.54402
12 -0.20178 ZX5 ZX1 -1.18334

Piecewise Linear GCV = 0.10632, #efprms = 25.75000


138

========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.89976 0.52445 1 2.75000 ZX4
2 0.25000 0.14623 1 2.75000 ZX1
3 0.27896 0.13551 1 2.75000 ZX3
4 0.49982 0.17464 3 8.25000 ZX1
ZX3
5 0.28814 0.13453 2 5.50000 ZX1
ZX2
6 0.30515 0.14470 1 2.75000 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.52445
ZX1 53.42767 0.22567
ZX3 40.33397 0.17434
ZX5 30.29970 0.14470
ZX2 25.97710 0.13453
ZX6 0.00000 0.10632

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96391
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95754
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96391

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.74788 0.14306 -5.22781
0.00000
Basis Function 1 | 0.90722 0.05840 15.53595
0.00000
Basis Function 3 | -0.73544 0.13313 -5.52431
0.00000
Basis Function 5 | -1.15051 0.23224 -4.95401
0.00001
Basis Function 7 | 2.95878 0.83801 3.53072
0.00089
Basis Function 8 | 0.86884 0.29145 2.98103
0.00439
Basis Function 9 | 0.52607 0.10767 4.88584
0.00001
Basis Function 10 | -1.46042 0.24526 -5.95466
0.00000
Basis Function 11 | -0.42556 0.07064 -6.02468
0.00000
Basis Function 12 | -0.20178 0.03705 -5.44683
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 151.33056 S.E. OF REGRESSION =
0.20607
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.16564
139

[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =


57.83436
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.474128 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 + 1.18334) * BF2;

Y = -0.747879 + 0.907224 * BF1 - 0.735442 * BF3 - 1.15051 * BF5


+ 2.95877 * BF7 + 0.868836 * BF8 + 0.526073 * BF9
- 1.46042 * BF10 - 0.42556 * BF11 - 0.201785 * BF12;

MODEL ZY = BF1 BF3 BF5 BF7 BF8 BF9 BF10 BF11 BF12;

11. BF=12, MI=3, dan MO=2


140

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
12 0.15833 12.0 34.0 ZX6 -2.33142 ZX1
3

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.62405
1 0.87498 ZX4 -1.64607
2 -0.70941 ZX1 -0.43319
3 -0.78463 ZX1 -0.43319
5 -1.41130 ZX3 -0.45187
7 3.60536 ZX3 ZX1 -0.73603
8 1.01756 ZX2 ZX1 1.03720
9 0.23556 ZX2 ZX1 1.03720
10 -1.33217 ZX3 ZX1 1.58852

Piecewise Linear GCV = 0.09985, #efprms = 23.00000

========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.86778 0.45974 1 2.75000 ZX4
2 0.40415 0.27877 2 5.50000 ZX1
3 0.35368 0.14739 1 2.75000 ZX3
4 0.25808 0.14483 2 5.50000 ZX1
ZX3
5 0.15501 0.10748 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.45974
ZX1 59.46965 0.22713
ZX3 37.69616 0.15099
ZX2 14.56427 0.10748
ZX5 0.00000 0.09985
ZX6 0.00000 0.09985
141

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96061
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95455
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96061

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.62405 0.15456 -4.03752
0.00018
Basis Function 1 | 0.87498 0.05855 14.94444
0.00000
Basis Function 2 | -0.70941 0.06034 -11.75630
0.00000
Basis Function 3 | -0.78463 0.13797 -5.68675
0.00000
Basis Function 5 | -1.41130 0.23434 -6.02244
0.00000
Basis Function 7 | 3.60536 0.82086 4.39216
0.00006
Basis Function 8 | 1.01756 0.29188 3.48628
0.00100
Basis Function 9 | 0.23556 0.06756 3.48676
0.00100
Basis Function 10 | -1.33217 0.24327 -5.47613
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 158.50174 S.E. OF REGRESSION =
0.21320
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.36361
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
57.63639
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.451875 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;

Y = -0.624052 + 0.874977 * BF1 - 0.70941 * BF2 - 0.784627 * BF3 -


1.4113 * BF5 + 3.60536 * BF7 + 1.01756 * BF8 + 0.235556 * BF9-
1.33217 * BF10;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10;


142

12. BF=12, MI=3, dan MO=3

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
12 0.16068 12.0 34.0 ZX6 -2.33142 ZX1
3

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
143

Basis Fun Coefficient Variable Parent Knot


-------------------------------------------------------------------
----
0 -0.70362
1 0.90781 ZX4 -1.64607
2 -0.70046 ZX1 -0.43319
3 -0.79083 ZX1 -0.43319
5 -1.38649 ZX3 -0.48296
7 3.65653 ZX3 ZX1 -0.73603
8 0.95306 ZX2 ZX1 1.03720
9 0.23403 ZX2 ZX1 1.03720
10 -1.04551 ZX3 ZX1 1.47214

Piecewise Linear GCV = 0.10332, #efprms = 23.00000

========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90034 0.51791 1 2.75000 ZX4
2 0.39811 0.27744 2 5.50000 ZX1
3 0.33164 0.14774 1 2.75000 ZX3
4 0.26034 0.14477 2 5.50000 ZX1
ZX3
5 0.15070 0.10763 2 5.50000 ZX1
ZX2

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.51791
ZX1 54.24297 0.22531
ZX3 33.90793 0.15099
ZX2 10.19263 0.10763
ZX5 0.00000 0.10332
ZX6 0.00000 0.10332

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95924
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95296
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95924

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.70362 0.14945 -4.70800
0.00002
Basis Function 1 | 0.90781 0.05768 15.74005
0.00000
Basis Function 2 | -0.70046 0.06124 -11.43770
0.00000
Basis Function 3 | -0.79083 0.14082 -5.61594
0.00000
Basis Function 5 | -1.38649 0.23953 -5.78845
0.00000
144

Basis Function 7 | 3.65654 0.83981 4.35402


0.00006
Basis Function 8 | 0.95306 0.29836 3.19430
0.00238
Basis Function 9 | 0.23403 0.06886 3.39863
0.00131
Basis Function 10 | -1.04552 0.20245 -5.16439
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 152.95533 S.E. OF REGRESSION =
0.21688
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.44583
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
57.55417
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;

Y = -0.703618 + 0.907813 * BF1 - 0.700461 * BF2 - 0.790831 * BF3 -


1.38649 * BF5 + 3.65653 * BF7 + 0.953055 * BF8 + 0.23403 * BF9 -
1.04551 * BF10;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10;

13. BF=18, MI=1, dan MO=0


145

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14519 3.0 8.0 ZX1 -0.32607
5 4 0.09799 5.0 12.0 ZX3 -0.48296
7 6 0.10244 6.0 15.0 ZX4 -0.86137
9 8 0.10653 7.0 18.0 ZX3 -0.94846
11 10 0.10879 9.0 22.0 ZX2 1.03720
13 12 0.12252 10.0 25.0 ZX3 -0.73603
14 0.14276 11.0 28.0 ZX6 -2.33142
16 15 0.16862 12.0 31.0 ZX6 -0.20681
18 17 0.19804 13.0 34.0 ZX6 0.73011

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720

Piecewise Linear GCV = 0.08892, #efprms = 16.23078

========================================
ANOVA Decomposition on 6 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
146

-------------------------------------------------------
1 0.18890 0.10765 1 2.53846 ZX1
2 0.31247 0.12423 3 7.61539 ZX3
3 1.41078 0.31167 1 2.53846 ZX4
4 0.29829 0.09653 1 2.53846 ZX2

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.31168
ZX3 39.81205 0.12423
ZX1 28.98978 0.10765
ZX2 18.48402 0.09654
ZX5 0.00000 0.08893
ZX6 0.00000 0.08893

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -2.96330 0.42539 -6.96602
0.00000
Basis Function 2 | -0.27020 0.06200 -4.35793
0.00006
Basis Function 4 | -3.97568 0.74395 -5.34404
0.00000
Basis Function 5 | 2.61562 0.63309 4.13154
0.00013
Basis Function 6 | 1.59400 0.12708 12.54362
0.00000
Basis Function 8 | 3.56117 0.75396 4.72331
0.00002
Basis Function 11 | 0.30707 0.09071 3.38507
0.00133
-------------------------------------------------------------------
----------
F-STATISTIC = 175.82431 S.E. OF REGRESSION =
0.23261
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.92169
[MDF,NDF] = [ 6, 54 ] REGRESSION SUM OF SQUARES =
57.07831
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);
147

Y = -2.96311 - 0.270198 * BF2 - 3.97527 * BF4 + 2.6153 * BF5 +


1.59401 * BF6 + 3.56074 * BF8 + 0.307064 * BF11;

MODEL ZY = BF2 BF4 BF5 BF6 BF8 BF11;

14. BF=18, MI=1, dan MO=1

MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09752 5.0 12.0 ZX3 -0.47413
7 6 0.09906 6.0 15.0 ZX3 -0.60949
9 8 0.09422 7.0 18.0 ZX4 0.90332
11 10 0.10574 9.0 22.0 ZX2 1.03720
13 12 0.10901 10.0 25.0 ZX3 1.54402
15 14 0.10902 11.0 28.0 ZX3 0.95253
17 16 0.09547 13.0 32.0 ZX5 0.40898
18 0.11834 14.0 35.0 ZX6 -2.33142
148

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.46041
1 0.91013 ZX4 -1.64607
2 -0.46710 ZX1 -0.43319
4 -6.69852 ZX3 -0.47413
6 6.40946 ZX3 -0.60949
10 1.70298 ZX2 1.03720
12 -5.21855 ZX3 1.54402
14 3.10062 ZX3 0.95253
16 -0.98470 ZX5 0.40898

Piecewise Linear GCV = 0.05640, #efprms = 20.42858

========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90264 0.14342 1 2.42857 ZX4
2 0.34416 0.17880 1 2.42857 ZX1
3 0.56169 0.14808 4 9.71429 ZX3
4 0.12328 0.07427 1 2.42857 ZX2
5 0.45821 0.06956 1 2.42857 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.17880
ZX3 86.54114 0.14808
ZX4 84.31259 0.14342
ZX2 38.18755 0.07428
ZX5 32.75410 0.06956
ZX6 0.00000 0.05643

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97464
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97074
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97464

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.46032 0.06963 -20.97326
0.00000
Basis Function 1 | 0.90996 0.09264 9.82249
0.00000
Basis Function 2 | -0.46712 0.04048 -11.54079
0.00000
Basis Function 4 | -6.70064 0.92777 -7.22235
0.00000
Basis Function 6 | 6.41161 0.94246 6.80303
0.00000
149

Basis Function 10 | 1.70308 0.34126 4.99057


0.00001
Basis Function 12 | -5.21865 0.72958 -7.15298
0.00000
Basis Function 14 | 3.10058 0.46185 6.71341
0.00000
Basis Function 16 | -0.98462 0.22013 -4.47284
0.00004
-------------------------------------------------------------------
----------
F-STATISTIC = 249.78263 S.E. OF REGRESSION =
0.17107
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.52176
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
58.47824
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);

Y = -1.46041 + 0.910129 * BF1 - 0.467099 * BF2 - 6.69852 * BF4


+ 6.40946 * BF6 + 1.70298 * BF10 - 5.21855 * BF12
+ 3.10062 * BF14 - 0.984699 * BF16;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16;

15. BF= 18, MI=1, dan MO=2


150

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09756 5.0 12.0 ZX3 -0.45187
7 6 0.10100 6.0 15.0 ZX3 -0.63560
9 8 0.09654 7.0 18.0 ZX4 0.90516
11 10 0.10720 9.0 22.0 ZX2 1.03720
13 12 0.11103 10.0 25.0 ZX3 1.58852
15 14 0.11710 11.0 28.0 ZX3 0.98741
17 16 0.09335 13.0 32.0 ZX5 0.40898
18 0.11587 14.0 35.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.87337
1 0.83076 ZX4 -1.64607
2 -0.54115 ZX1 -0.43319
4 -3.82268 ZX3 -0.45187
6 3.51126 ZX3 -0.63560
10 2.19176 ZX2 1.03720
12 -5.99836 ZX3 1.58852
14 3.46380 ZX3 0.98741
16 -1.12492 ZX5 0.40898
17 -0.38004 ZX5 0.40898

Piecewise Linear GCV = 0.05974, #efprms = 22.85715

========================================
ANOVA Decomposition on 9 Basis Functions
151

========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.82392 0.12995 1 2.42857 ZX4
2 0.39872 0.20726 1 2.42857 ZX1
3 0.52615 0.15389 4 9.71429 ZX3
4 0.15866 0.09274 1 2.42857 ZX2
5 0.43121 0.07512 2 4.85714 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.20726
ZX3 79.88677 0.15389
ZX4 68.98500 0.12995
ZX2 47.28880 0.09274
ZX5 32.27654 0.07512
ZX6 0.00000 0.05975

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97625
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97206
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97625

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.87345 0.21869 -3.99404
0.00021
Basis Function 1 | 0.83072 0.09625 8.63066
0.00000
Basis Function 2 | -0.54115 0.04431 -12.21392
0.00000
Basis Function 4 | -3.82348 0.86199 -4.43564
0.00005
Basis Function 6 | 3.51208 0.88131 3.98505
0.00022
Basis Function 10 | 2.19178 0.35294 6.21003
0.00000
Basis Function 12 | -5.99834 0.80160 -7.48294
0.00000
Basis Function 14 | 3.46375 0.48118 7.19845
0.00000
Basis Function 16 | -1.12488 0.23323 -4.82309
0.00001
Basis Function 17 | -0.37997 0.13536 -2.80717
0.00706
-------------------------------------------------------------------
----------
F-STATISTIC = 232.95908 S.E. OF REGRESSION =
0.16715
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.42483
[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =
58.57517
-------------------------------------------------------------------
----------
152

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF6 = max( 0, ZX3 + 0.635603);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.58852);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.408982);
BF17 = max( 0, 0.408982 - ZX5);

Y = -0.873366 + 0.830757 * BF1 - 0.541152 * BF2 - 3.82268 * BF4


+ 3.51126 * BF6 + 2.19176 * BF10 - 5.99836 * BF12
+ 3.4638 * BF14 - 1.12492 * BF16 - 0.380043 * BF17;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF17;

16. BF= 18, MI=1, dan MO=3

============
MARS Results
============

-------------------------
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
153

-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09759 5.0 12.0 ZX3 -0.48296
7 6 0.09899 6.0 15.0 ZX3 -0.63829
9 8 0.09548 7.0 18.0 ZX4 0.90332
11 10 0.10796 9.0 22.0 ZX2 1.03720
13 12 0.11473 10.0 25.0 ZX3 1.47214
15 14 0.11467 11.0 28.0 ZX3 0.98741
17 16 0.10852 13.0 32.0 ZX5 0.36887
18 0.13280 14.0 35.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.86470
1 0.82695 ZX4 -1.64607
2 -0.50109 ZX1 -0.43319
4 -4.07501 ZX3 -0.48296
6 3.73193 ZX3 -0.63829
10 1.67012 ZX2 1.03720
12 -4.99016 ZX3 1.47214
14 3.30153 ZX3 0.98741
16 -0.74628 ZX5 0.36887
17 -0.40816 ZX5 0.36887

Piecewise Linear GCV = 0.06542, #efprms = 22.85715

========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.82015 0.13559 1 2.42857 ZX4
2 0.36920 0.19596 1 2.42857 ZX1
3 0.38320 0.15068 4 9.71429 ZX3
4 0.12090 0.08362 1 2.42857 ZX2
5 0.29429 0.07470 2 4.85714 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.19596
ZX3 80.81754 0.15068
ZX4 73.31625 0.13559
ZX2 37.33162 0.08362
ZX5 26.63797 0.07469
ZX6 0.00000 0.06543

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97400
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96941
154

UNCENTERED R-SQUARED = R-0 SQUARED: 0.97400

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.86477 0.21899 -3.94895
0.00024
Basis Function 1 | 0.82691 0.09986 8.28057
0.00000
Basis Function 2 | -0.50108 0.04540 -11.03737
0.00000
Basis Function 4 | -4.07584 0.88006 -4.63130
0.00003
Basis Function 6 | 3.73279 0.90505 4.12442
0.00014
Basis Function 10 | 1.67013 0.35018 4.76940
0.00002
Basis Function 12 | -4.99017 0.73961 -6.74703
0.00000
Basis Function 14 | 3.30149 0.51063 6.46547
0.00000
Basis Function 16 | -0.74626 0.20533 -3.63434
0.00065
Basis Function 17 | -0.40810 0.13560 -3.00959
0.00406
-------------------------------------------------------------------
----------
F-STATISTIC = 212.24050 S.E. OF REGRESSION =
0.17491
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.56030
[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =
58.43970
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.482961);
BF6 = max( 0, ZX3 + 0.63829);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.47214);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.368868);
BF17 = max( 0, 0.368868 - ZX5);

Y = -0.864697 + 0.826954 * BF1 - 0.501087 * BF2 - 4.07501 * BF4 +


3.73193 * BF6 + 1.67012 * BF10 - 4.99016 * BF12 + 3.30153 * BF14 -
0.746281 * BF16 - 0.408158 * BF17;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF17;
155

17. BF=18, MI=2, dan M0=0

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13940 11.0 30.0 ZX4 0.77474 ZX3
4
13 12 0.16066 12.0 34.0 ZX4 0.90332
15 14 0.19870 14.0 39.0 ZX6 0.27435 ZX4
13
17 16 0.27768 16.0 44.0 ZX3 -0.26322 ZX4
13
18 0.42755 17.0 48.0 ZX2 -1.30611 ZX4
12
156

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.72705
1 1.38766 ZX4 -1.64607
2 -0.36645 ZX1 -0.32607
4 -0.50407 ZX3 -0.48296

Piecewise Linear GCV = 0.10424, #efprms = 9.29412

========================================
ANOVA Decomposition on 3 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.37624 0.67472 1 2.76471 ZX4
2 0.25619 0.15398 1 2.76471 ZX1
3 0.41836 0.14487 1 2.76471 ZX3

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.67472
ZX1 29.52779 0.15398
ZX3 26.68634 0.14487
ZX5 0.00000 0.10424
ZX2 0.00000 0.10424
ZX6 0.00000 0.10424

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.92386
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.91985
UNCENTERED R-SQUARED = R-0 SQUARED: 0.92386

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.72705 0.08583 -20.12194
0.00000
Basis Function 1 | 1.38766 0.07391 18.77377
0.00000
Basis Function 2 | -0.36645 0.06070 -6.03680
0.00000
Basis Function 4 | -0.50407 0.09066 -5.55997
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 230.52563 S.E. OF REGRESSION =
0.28311
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
4.56867
[MDF,NDF] = [ 3, 57 ] REGRESSION SUM OF SQUARES =
55.43133
-------------------------------------------------------------------
----------
157

===============
Basis Functions
===============

BF1 = max( 0, ZX4 + 1.64607);


BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);

Y = -1.72705 + 1.38766 * BF1 - 0.36645 * BF2 - 0.504072 * BF4;

MODEL ZY = BF1 BF2 BF4;

18. BF=18, MI=2, dan MO=1

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
158

7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1


3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.15761 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.16936 14.0 39.0 ZX3 -0.60949
17 16 0.23509 16.0 44.0 ZX3 0.98741 ZX4
1
18 0.35755 17.0 48.0 ZX6 -2.33142 ZX3
4

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.40164
1 0.80299 ZX4 -1.64607
2 -0.44012 ZX1 -0.43319
4 -7.81996 ZX3 -0.47413
8 1.11854 ZX2 ZX1 1.03720
10 -1.92402 ZX3 ZX1 1.54402
14 7.40267 ZX3 -0.60949
16 0.40611 ZX3 ZX4 0.98741

Piecewise Linear GCV = 0.07229, #efprms = 20.35294

========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.79638 0.13649 1 2.76471 ZX4
2 0.32428 0.18360 1 2.76471 ZX1
3 0.32586 0.15213 2 5.52941 ZX3
4 0.11281 0.08485 1 2.76471 ZX1
ZX2
5 0.24666 0.09525 1 2.76471 ZX1
ZX3
6 0.29666 0.09521 1 2.76471 ZX3
ZX4

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.16697
ZX4 92.94525 0.15409
ZX3 92.81944 0.15387
ZX2 36.36826 0.08485
ZX5 0.00000 0.07233
ZX6 0.00000 0.07233

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96737
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96306
159

UNCENTERED R-SQUARED = R-0 SQUARED: 0.96737

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.40155 0.07803 -17.96074
0.00000
Basis Function 1 | 0.80280 0.10271 7.81629
0.00000
Basis Function 2 | -0.44016 0.04390 -10.02720
0.00000
Basis Function 4 | -7.82231 1.01926 -7.67448
0.00000
Basis Function 8 | 1.11866 0.26413 4.23527
0.00009
Basis Function 10 | -1.92433 0.37280 -5.16180
0.00000
Basis Function 14 | 7.40508 1.04694 7.07307
0.00000
Basis Function 16 | 0.40616 0.07874 5.15815
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 224.46669 S.E. OF REGRESSION =
0.19220
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.95781
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
58.04219
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF14 = max( 0, ZX3 + 0.609492);
BF16 = max( 0, ZX3 - 0.987405) * BF1;

Y = -1.40164 + 0.802986 * BF1 - 0.440122 * BF2 - 7.81996 * BF4 +


1.11854 * BF8 - 1.92402 * BF10 + 7.40267 * BF14 + 0.406113 * BF16;

MODEL ZY = BF1 BF2 BF4 BF8 BF10 BF14 BF16;


160

19. BF=18, MI=2, dan MO=2

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.16043 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.18797 15.0 40.0 ZX3 0.98741 ZX4
1
17 16 0.22719 17.0 45.0 ZX6 -0.14904 ZX4
1
18 0.31076 18.0 49.0 ZX5 -1.18334 ZX3
4
161

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.25951
1 1.23895 ZX4 -1.64607
3 -0.32530 ZX1 -0.43319
4 1.03769 ZX3 -0.45187
8 0.72458 ZX2 ZX1 1.03720
9 0.75359 ZX2 ZX1 1.03720
10 -2.97906 ZX3 ZX1 1.58852
11 -0.69879 ZX3 ZX1 1.58852
14 1.01813 ZX3 ZX4 0.98741
17 -0.29552 ZX6 ZX4 -0.14904
18 -0.81334 ZX5 ZX3 -1.18334

Piecewise Linear GCV = 0.07561, #efprms = 27.66666

=========================================
ANOVA Decomposition on 10 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.22875 0.66262 1 2.66667 ZX4
2 0.11058 0.08003 1 2.66667 ZX1
3 0.84791 0.08422 1 2.66667 ZX3
4 0.40523 0.12507 2 5.33333 ZX1
ZX2
5 0.73214 0.20565 2 5.33333 ZX1
ZX3
6 0.74372 0.10694 1 2.66667 ZX3
ZX4
7 0.13010 0.09166 1 2.66667 ZX4
ZX6
8 1.76455 0.12051 1 2.66667 ZX3
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.52094
ZX3 69.82972 0.29276
ZX1 48.55721 0.18061
ZX2 33.32592 0.12507
ZX5 31.75175 0.12051
ZX6 18.98395 0.09166

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97705
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97245
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97705

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
162

Constant | -1.25951 0.07848 -16.04948


0.00000
Basis Function 1 | 1.23895 0.05770 21.47287
0.00000
Basis Function 3 | -0.32530 0.09499 -3.42472
0.00124
Basis Function 4 | 1.03774 0.26832 3.86754
0.00032
Basis Function 8 | 0.72459 0.22631 3.20181
0.00238
Basis Function 9 | 0.75360 0.10397 7.24837
0.00000
Basis Function 10 | -2.97915 0.54000 -5.51697
0.00000
Basis Function 11 | -0.69880 0.06231 -11.21495
0.00000
Basis Function 14 | 1.01816 0.17863 5.69975
0.00000
Basis Function 17 | -0.29552 0.06495 -4.54964
0.00003
Basis Function 18 | -0.81336 0.12411 -6.55364
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 212.82494 S.E. OF REGRESSION =
0.16597
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.37725
[MDF,NDF] = [ 10, 50 ] REGRESSION SUM OF SQUARES =
58.62275
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.451875);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF11 = max( 0, 1.58852 - ZX3) * BF2;
BF14 = max( 0, ZX3 - 0.987405) * BF1;
BF17 = max( 0, -0.149037 - ZX6) * BF1;
BF18 = max( 0, ZX5 + 1.18334) * BF4;

Y = -1.25951 + 1.23895 * BF1 - 0.325304 * BF3 + 1.03769 * BF4 +


0.724584 * BF8 + 0.753588 * BF9 - 2.97906 * BF10 - 0.698794 * BF11 +
1.01813 * BF14 - 0.295519 * BF17 - 0.813336 * BF18;

MODEL ZY = BF1 BF3 BF4 BF8 BF9 BF10 BF11 BF14 BF17 BF18;
163

20. BF=18, MI=2, dan MO=3

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.18508 16.0 44.0 ZX3 0.55928 ZX4
1
164

18 0.28051 17.0 48.0 ZX5 -1.18334 ZX1


2

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.27816
1 1.25486 ZX4 -1.64607
3 -0.35773 ZX1 -0.43319
8 0.96673 ZX2 ZX1 1.03720
9 0.72161 ZX2 ZX1 1.03720
10 -2.77329 ZX3 ZX1 1.47214
11 -0.65867 ZX3 ZX1 1.47214
12 1.15871 ZX3 ZX4 0.98741
14 -0.09520 ZX6 ZX4 -0.14904
15 -0.25128 ZX6 ZX4 -0.14904
16 -0.65095 ZX3 ZX4 0.55928
18 -0.11685 ZX5 ZX1 -1.18334

Piecewise Linear GCV = 0.08287, #efprms = 31.41177

=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.24453 1.40992 1 2.76471 ZX4
2 0.12160 0.09181 1 2.76471 ZX1
3 0.39120 0.16393 2 5.52941 ZX1
ZX2
4 0.67434 0.24893 2 5.52941 ZX1
ZX3
5 0.28033 0.12693 2 5.52941 ZX3
ZX4
6 0.17663 0.08949 2 5.52941 ZX4
ZX6
7 0.17670 0.09053 1 2.76471 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.95624
ZX1 48.73580 0.29031
ZX3 39.14486 0.21670
ZX2 30.46453 0.16393
ZX5 9.36334 0.09053
ZX6 8.70379 0.08949

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98018
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97573
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98018

Parameter Estimate S.E. T-Ratio


P-Value
165

-------------------------------------------------------------------
----------
Constant | -1.27816 0.06957 -18.37174
0.00000
Basis Function 1 | 1.25486 0.04076 30.78506
0.00000
Basis Function 3 | -0.35773 0.08971 -3.98776
0.00022
Basis Function 8 | 0.96674 0.24136 4.00540
0.00021
Basis Function 9 | 0.72161 0.09199 7.84435
0.00000
Basis Function 10 | -2.77330 0.44894 -6.17750
0.00000
Basis Function 11 | -0.65867 0.06911 -9.53011
0.00000
Basis Function 12 | 1.15872 0.16439 7.04860
0.00000
Basis Function 14 | -0.09520 0.02555 -3.72603
0.00050
Basis Function 15 | -0.25128 0.06064 -4.14352
0.00013
Basis Function 16 | -0.65096 0.09445 -6.89187
0.00000
Basis Function 18 | -0.11685 0.03017 -3.87272
0.00032
-------------------------------------------------------------------
----------
F-STATISTIC = 220.26467 S.E. OF REGRESSION =
0.15580
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.18936
[MDF,NDF] = [ 11, 49 ] REGRESSION SUM OF SQUARES =
58.81064
-------------------------------------------------------------------
----------

===============
Basis Functions
===============

BF1 = max( 0, ZX4 + 1.64607);


BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF11 = max( 0, 1.47214 - ZX3) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF14 = max( 0, ZX6 + 0.149037) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX3 - 0.559285) * BF1;
BF18 = max( 0, ZX5 + 1.18334) * BF2;

Y = -1.27816 + 1.25486 * BF1 - 0.357733 * BF3 + 0.966733 * BF8+


0.721614 * BF9 - 2.77329 * BF10 - 0.658672 * BF11+ 1.15871 * BF12 -
0.0952015 * BF14 - 0.251282 * BF15 - 0.650952 * BF16 - 0.116847 *
BF18;

MODEL ZY = BF1 BF3 BF8 BF9 BF10 BF11 BF12 BF14 BF15 BF16 BF18;
166

21. BF=18, MI=3, dan MO=0

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13492 11.0 30.0 ZX6 0.26120 ZX2
9
13 12 0.17159 13.0 35.0 ZX4 0.77474 ZX3
4
14 0.18786 14.0 39.0 ZX2 -1.30611 ZX4
12
16 15 0.27524 16.0 44.0 ZX1 0.79866 ZX4
12
167

18 17 0.46988 18.0 49.0 ZX6 -0.20681

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04178
1 1.17963 ZX4 -1.64607
2 -0.53859 ZX1 -0.32607
3 -0.53830 ZX1 -0.32607
4 -0.46709 ZX3 -0.48296
5 -1.01838 ZX3 -0.48296
7 3.35882 ZX3 ZX1 -0.80531
8 1.00009 ZX2 ZX1 1.03720

Piecewise Linear GCV = 0.09358, #efprms = 19.66666

========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.16992 0.39044 1 2.66667 ZX4
2 0.29164 0.18980 2 5.33333 ZX1
3 0.31084 0.17455 2 5.33333 ZX3
4 0.15298 0.10682 1 2.66667 ZX1
ZX3
5 0.09395 0.09759 1 2.66667 ZX1
ZX2

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.39044
ZX1 50.16326 0.16828
ZX3 46.06943 0.15658
ZX2 11.61991 0.09759
ZX5 0.00000 0.09358
ZX6 0.00000 0.09358

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.04178 0.16119 -6.46298
0.00000
Basis Function 1 | 1.17963 0.08392 14.05638
0.00000
Basis Function 2 | -0.53859 0.05876 -9.16610
0.00000
Basis Function 3 | -0.53830 0.10817 -4.97631
0.00001
168

Basis Function 4 | -0.46709 0.07574 -6.16723


0.00000
Basis Function 5 | -1.01838 0.24656 -4.13038
0.00013
Basis Function 7 | 3.35882 0.85148 3.94466
0.00024
Basis Function 8 | 1.00009 0.32225 3.10351
0.00307
-------------------------------------------------------------------
----------
F-STATISTIC = 165.76008 S.E. OF REGRESSION =
0.22238
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.62091
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
57.37909
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.326071);
BF3 = max( 0, -0.326071 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.805307 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;

Y = -1.04178 + 1.17963 * BF1 - 0.538595 * BF2 - 0.538302 * BF3 -


0.467086 * BF4 - 1.01838 * BF5 + 3.35882 * BF7 + 1.00009 * BF8;

MODEL ZY = BF1 BF2 BF3 BF4 BF5 BF7 BF8;

22. BF=18, MI=3, dan MO=1


169

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.14691 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.18568 15.0 40.0 ZX5 1.26015 ZX1
2
17 16 0.22908 16.0 44.0 ZX3 0.99551
18 0.32277 17.0 48.0 ZX6 -2.33142 ZX3
17

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.92708
1 1.13832 ZX4 -1.64607
3 -0.91667 ZX1 -0.43319
4 -0.79520 ZX3 -0.47413
5 -0.96215 ZX3 -0.47413
6 0.67914 ZX3 ZX1 -0.73603
7 3.44981 ZX3 ZX1 -0.73603
8 1.22470 ZX2 ZX1 1.03720
10 -3.11898 ZX3 ZX1 1.54402
170

11 -0.25191 ZX3 ZX1 1.54402


12 -1.34715 ZX5 ZX3 0.45568
14 -0.79627 ZX5 ZX1 1.26015
16 2.05390 ZX3 0.99551

Piecewise Linear GCV = 0.09861, #efprms = 34.17647

=========================================
ANOVA Decomposition on 12 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.12895 0.47407 1 2.76471 ZX4
2 0.31160 0.18273 1 2.76471 ZX1
3 0.37390 0.20250 3 8.29412 ZX3
4 0.54966 0.22877 4 11.05882 ZX1
ZX3
5 0.12352 0.11513 1 2.76471 ZX1
ZX2
6 0.17381 0.11694 1 2.76471 ZX1
ZX5
7 0.16597 0.12805 1 2.76471 ZX1
ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.47407
ZX3 68.94151 0.27707
ZX1 44.86306 0.17418
ZX5 30.25442 0.13298
ZX2 20.97098 0.11513
ZX6 0.00000 0.09861

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98061
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97577
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98061

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.92708 0.13196 -7.02561
0.00000
Basis Function 1 | 1.13832 0.07461 15.25683
0.00000
Basis Function 3 | -0.91667 0.11812 -7.76024
0.00000
Basis Function 4 | -0.79520 0.09028 -8.80804
0.00000
Basis Function 5 | -0.96215 0.19154 -5.02331
0.00001
Basis Function 6 | 0.67914 0.13923 4.87779
0.00001
Basis Function 7 | 3.44981 0.67078 5.14297
0.00000
Basis Function 8 | 1.22469 0.27260 4.49265
0.00004
171

Basis Function 10 | -3.11899 0.47233 -6.60335


0.00000
Basis Function 11 | -0.25191 0.02762 -9.11890
0.00000
Basis Function 12 | -1.34715 0.25533 -5.27609
0.00000
Basis Function 14 | -0.79627 0.17270 -4.61077
0.00003
Basis Function 16 | 2.05391 0.33386 6.15210
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 202.33430 S.E. OF REGRESSION =
0.15567
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.16316
[MDF,NDF] = [ 12, 48 ] REGRESSION SUM OF SQUARES =
58.83684
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.474128);
BF5 = max( 0, -0.474128 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.26015) * BF2;
BF16 = max( 0, ZX3 - 0.995513);

Y = -0.927077 + 1.13832 * BF1 - 0.916673 * BF3 - 0.795199 * BF4-


0.962147 * BF5 + 0.679138 * BF6 + 3.44981 * BF7+ 1.2247 * BF8 -
3.11898 * BF10 - 0.251907 * BF11- 1.34715 * BF12 - 0.796271 * BF14 +
2.0539 * BF16;

MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16;

23. BF=18, MI=3, dan MO=2


172

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.15628 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.19533 15.0 40.0 ZX5 1.55727 ZX1
2
17 16 0.21431 16.0 44.0 ZX3 1.00840
18 0.29560 17.0 48.0 ZX6 -2.33142 ZX3
17

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.89683
1 1.12252 ZX4 -1.64607
3 -0.90465 ZX1 -0.43319
4 -0.79717 ZX3 -0.45187
5 -0.96119 ZX3 -0.45187
6 0.66933 ZX3 ZX1 -0.73603
7 3.39321 ZX3 ZX1 -0.73603
8 1.38380 ZX2 ZX1 1.03720
173

10 -3.36972 ZX3 ZX1 1.58852


11 -0.24772 ZX3 ZX1 1.58852
12 -1.27132 ZX5 ZX3 0.45568
14 -1.50666 ZX5 ZX1 1.55727
16 1.99523 ZX3 1.00840

Piecewise Linear GCV = 0.09390, #efprms = 34.17647

=========================================
ANOVA Decomposition on 12 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.11328 0.45677 1 2.76471 ZX4
2 0.30752 0.17718 1 2.76471 ZX1
3 0.36085 0.19869 3 8.29412 ZX3
4 0.54639 0.23516 4 11.05882 ZX1
ZX3
5 0.13957 0.12163 1 2.76471 ZX1
ZX2
6 0.18662 0.13154 1 2.76471 ZX1
ZX5
7 0.17133 0.12493 1 2.76471 ZX1
ZX3
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.45677
ZX3 71.04144 0.27704
ZX1 47.53134 0.17588
ZX5 36.20962 0.14148
ZX2 27.64308 0.12163
ZX6 0.00000 0.09390

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98154
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97693
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98154

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.89684 0.13224 -6.78193
0.00000
Basis Function 1 | 1.12252 0.07305 15.36603
0.00000
Basis Function 3 | -0.90465 0.11470 -7.88704
0.00000
Basis Function 4 | -0.79717 0.08821 -9.03686
0.00000
Basis Function 5 | -0.96119 0.18510 -5.19287
0.00000
Basis Function 6 | 0.66933 0.13538 4.94399
0.00001
Basis Function 7 | 3.39322 0.64910 5.22755
0.00000
174

Basis Function 8 | 1.38380 0.26315 5.25852


0.00000
Basis Function 10 | -3.36972 0.46545 -7.23972
0.00000
Basis Function 11 | -0.24772 0.02630 -9.41922
0.00000
Basis Function 12 | -1.27132 0.23325 -5.45037
0.00000
Basis Function 14 | -1.50666 0.25909 -5.81513
0.00000
Basis Function 16 | 1.99523 0.29806 6.69406
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 212.69778 S.E. OF REGRESSION =
0.15190
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.10753
[MDF,NDF] = [ 12, 48 ] REGRESSION SUM OF SQUARES =
58.89247
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.451875);
BF5 = max( 0, -0.451875 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF11 = max( 0, 1.58852 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.55727) * BF2;
BF16 = max( 0, ZX3 - 1.0084);

Y = -0.896834 + 1.12252 * BF1 - 0.904649 * BF3 - 0.797171 * BF4


- 0.961191 * BF5 + 0.669333 * BF6 + 3.39321 * BF7
+ 1.3838 * BF8 - 3.36972 * BF10 - 0.247722 * BF11
- 1.27132 * BF12 - 1.50666 * BF14 + 1.99523 * BF16;

MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16;

24. BF=18, MI=3, dan MO=3


175

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.19572 17.0 45.0 ZX6 0.27435 ZX2
9
18 0.31023 18.0 49.0 ZX5 -1.18334 ZX1
2

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04638
1 0.88258 ZX4 -1.64607
3 -0.51283 ZX1 -0.43319
5 -1.02952 ZX3 -0.48296
7 2.56382 ZX3 ZX1 -0.73603
8 1.39364 ZX2 ZX1 1.03720
10 -1.95108 ZX3 ZX1 1.47214
12 0.50137 ZX3 ZX4 0.98741
176

13 0.22184 ZX3 ZX4 0.98741


15 -0.25964 ZX6 ZX4 -0.14904
16 -2.38463 ZX6 ZX2 0.27435
18 -0.31049 ZX5 ZX1 -1.18334

Piecewise Linear GCV = 0.07325, #efprms = 30.33333

=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.87532 0.51223 1 2.66667 ZX4
2 0.17433 0.09419 1 2.66667 ZX1
3 0.24625 0.09255 1 2.66667 ZX3
4 0.33050 0.11727 2 5.33333 ZX1
ZX3
5 0.14056 0.11556 1 2.66667 ZX1
ZX2
6 0.31773 0.15131 2 5.33333 ZX3
ZX4
7 0.11431 0.08556 1 2.66667 ZX4
ZX6
8 0.46954 0.28167 1 2.66667 ZX1
ZX5
9 0.13593 0.09802 1 2.66667 ZX1
ZX2
ZX6

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.64451
ZX5 60.40186 0.28167
ZX1 53.47475 0.23661
ZX3 32.58381 0.13390
ZX2 31.92883 0.13149
ZX6 21.02950 0.09851

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98118
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97695
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98118

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.04638 0.12461 -8.39734
0.00000
Basis Function 1 | 0.88258 0.04679 18.86329
0.00000
Basis Function 3 | -0.51283 0.10167 -5.04414
0.00001
Basis Function 5 | -1.02952 0.20952 -4.91363
0.00001
Basis Function 7 | 2.56382 0.65828 3.89472
0.00030
177

Basis Function 8 | 1.39364 0.21420 6.50636


0.00000
Basis Function 10 | -1.95108 0.28399 -6.87030
0.00000
Basis Function 12 | 0.50137 0.06436 7.79028
0.00000
Basis Function 13 | 0.22184 0.03204 6.92382
0.00000
Basis Function 15 | -0.25964 0.06018 -4.31468
0.00008
Basis Function 16 | -2.38463 0.44692 -5.33567
0.00000
Basis Function 18 | -0.31049 0.02356 -13.17602
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 232.21020 S.E. OF REGRESSION =
0.15181
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.12933
[MDF,NDF] = [ 11, 49 ] REGRESSION SUM OF SQUARES =
58.87067
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF13 = max( 0, 0.987405 - ZX3) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX6 - 0.274351) * BF9;
BF18 = max( 0, ZX5 + 1.18334) * BF2;

Y = -1.04638 + 0.882582 * BF1 - 0.51283 * BF3 - 1.02952 * BF5 +


2.56382 * BF7 + 1.39364 * BF8 - 1.95108 * BF10 + 0.501371 * BF12 +
0.221843 * BF13 - 0.259643 * BF15 - 2.38463 * BF16 - 0.31049 * BF18;

MODEL ZY = BF1 BF3 BF5 BF7 BF8 BF10 BF12 BF13 BF15 BF16 BF18;
178

25. BF=24, MI=1, dan MO=0

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14519 3.0 8.0 ZX1 -0.32607
5 4 0.09799 5.0 12.0 ZX3 -0.48296
7 6 0.10244 6.0 15.0 ZX4 -0.86137
9 8 0.10653 7.0 18.0 ZX3 -0.94846
11 10 0.10879 9.0 22.0 ZX2 1.03720
13 12 0.12252 10.0 25.0 ZX3 -0.73603
14 0.14276 11.0 28.0 ZX6 -2.33142
16 15 0.16862 12.0 31.0 ZX6 -0.20681
18 17 0.19804 13.0 34.0 ZX6 0.73011
20 19 0.24001 14.0 37.0 ZX4 -1.01649
22 21 0.30447 15.0 40.0 ZX6 0.26708
24 23 0.38916 16.0 43.0 ZX6 0.35618

=================================================
Final Model (After Backward Stepwise Elimination)
179

=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720

Piecewise Linear GCV = 0.09102, #efprms = 16.75001

========================================
ANOVA Decomposition on 6 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.18890 0.10964 1 2.62500 ZX1
2 0.31247 0.12547 3 7.87500 ZX3
3 1.41078 0.31745 1 2.62500 ZX4
4 0.29829 0.09832 1 2.62500 ZX2

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.31746
ZX3 39.00401 0.12547
ZX1 28.67419 0.10964
ZX2 17.95745 0.09833
ZX5 0.00000 0.09102
ZX6 0.00000 0.09102

==============================
MARS Regression: Training Data
=============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -2.96330 0.42539 -6.96602
0.00000
Basis Function 2 | -0.27020 0.06200 -4.35793
0.00006
Basis Function 4 | -3.97568 0.74395 -5.34404
0.00000
Basis Function 5 | 2.61562 0.63309 4.13154
0.00013
Basis Function 6 | 1.59400 0.12708 12.54362
0.00000
Basis Function 8 | 3.56117 0.75396 4.72331
0.00002
Basis Function 11 | 0.30707 0.09071 3.38507
0.00133
-------------------------------------------------------------------
----------
180

F-STATISTIC = 175.82431 S.E. OF REGRESSION =


0.23261
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.92169
[MDF,NDF] = [ 6, 54 ] REGRESSION SUM OF SQUARES =
57.07831
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);

Y = -2.96311 - 0.270198 * BF2 - 3.97527 * BF4 + 2.6153 * BF5 +


1.59401 * BF6 + 3.56074 * BF8 + 0.307064 * BF11;

MODEL ZY = BF2 BF4 BF5 BF6 BF8 BF11;

26. BF=24, MI=1, dan MO=1

============
MARS Results
============
181

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09752 5.0 12.0 ZX3 -0.47413
7 6 0.09906 6.0 15.0 ZX3 -0.60949
9 8 0.09422 7.0 18.0 ZX4 0.90332
11 10 0.10574 9.0 22.0 ZX2 1.03720
13 12 0.10901 10.0 25.0 ZX3 1.54402
15 14 0.10902 11.0 28.0 ZX3 0.95253
17 16 0.09547 13.0 32.0 ZX5 0.40898
19 18 0.10750 15.0 36.0 ZX6 -0.01059
21 20 0.12524 16.0 39.0 ZX4 -0.75534
23 22 0.14244 17.0 42.0 ZX1 -0.32607
24 0.17792 17.0 44.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.33818
1 0.70079 ZX4 -1.64607
2 -0.45815 ZX1 -0.43319
4 -5.71854 ZX3 -0.47413
6 5.23477 ZX3 -0.60949
10 1.61129 ZX2 1.03720
12 -5.16502 ZX3 1.54402
14 3.40637 ZX3 0.95253
16 -1.15166 ZX5 0.40898
20 0.51039 ZX4 -0.75534

Piecewise Linear GCV = 0.05768, #efprms = 23.76471

========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.12588 0.14825 2 5.05883 ZX4
2 0.33757 0.19426 1 2.52941 ZX1
3 0.45839 0.16586 4 10.11765 ZX3
4 0.11664 0.07551 1 2.52941 ZX2
5 0.53590 0.07922 1 2.52941 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.19426
ZX3 88.99358 0.16586
ZX4 81.42690 0.14825
ZX5 39.69644 0.07923
ZX2 36.11008 0.07552
ZX6 0.00000 0.05771
182

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97815
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97430
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97815

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.33815 0.07796 -17.16500
0.00000
Basis Function 1 | 0.70072 0.11347 6.17563
0.00000
Basis Function 2 | -0.45818 0.03806 -12.03776
0.00000
Basis Function 4 | -5.72062 0.93438 -6.12236
0.00000
Basis Function 6 | 5.23693 0.97383 5.37769
0.00000
Basis Function 10 | 1.61140 0.32142 5.01338
0.00001
Basis Function 12 | -5.16513 0.68400 -7.55134
0.00000
Basis Function 14 | 3.40625 0.44580 7.64080
0.00000
Basis Function 16 | -1.15154 0.21438 -5.37157
0.00000
Basis Function 20 | 0.51023 0.17813 2.86436
0.00605
-------------------------------------------------------------------
----------
F-STATISTIC = 253.70245 S.E. OF REGRESSION =
0.16032
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.31087
[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =
58.68913
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);
BF20 = max( 0, ZX4 + 0.755336);

Y = -1.33818 + 0.700794 * BF1 - 0.458154 * BF2 - 5.71854 * BF4


+ 5.23477 * BF6 + 1.61129 * BF10 - 5.16502 * BF12
+ 3.40637 * BF14 - 1.15166 * BF16 + 0.510386 * BF20;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF20;
183

27. BF=24, MI=1, dan MO=2

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09756 5.0 12.0 ZX3 -0.45187
7 6 0.10100 6.0 15.0 ZX3 -0.63560
9 8 0.09654 7.0 18.0 ZX4 0.90516
11 10 0.10720 9.0 22.0 ZX2 1.03720
13 12 0.11103 10.0 25.0 ZX3 1.58852
15 14 0.11710 11.0 28.0 ZX3 0.98741
17 16 0.09335 13.0 32.0 ZX5 0.40898
19 18 0.10566 15.0 36.0 ZX6 -0.01059
21 20 0.12243 16.0 39.0 ZX1 -0.27921
23 22 0.14133 17.0 42.0 ZX4 -0.57781
24 0.17654 17.0 44.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
184

Basis Fun Coefficient Variable Parent Knot


-------------------------------------------------------------------
----
0 -1.34880
1 0.74749 ZX4 -1.64607
2 -0.48651 ZX1 -0.43319
4 -4.73480 ZX3 -0.45187
6 4.29489 ZX3 -0.63560
10 1.99722 ZX2 1.03720
12 -5.77590 ZX3 1.58852
14 3.61720 ZX3 0.98741
16 -1.29017 ZX5 0.40898
22 0.46198 ZX4 -0.57781

Piecewise Linear GCV = 0.06294, #efprms = 23.76471

========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.10085 0.14830 2 5.05883 ZX4
2 0.35846 0.21065 1 2.52941 ZX1
3 0.52778 0.16699 4 10.11765 ZX3
4 0.14458 0.09013 1 2.52941 ZX2
5 0.60036 0.08578 1 2.52941 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.21065
ZX3 83.92895 0.16699
ZX4 76.01754 0.14830
ZX2 42.89649 0.09013
ZX5 39.31845 0.08578
ZX6 0.00000 0.06295

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97616
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97195
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97616

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.34877 0.07871 -17.13694
0.00000
Basis Function 1 | 0.74743 0.10911 6.85055
0.00000
Basis Function 2 | -0.48652 0.04059 -11.98628
0.00000
Basis Function 4 | -4.73553 0.74011 -6.39840
0.00000
Basis Function 6 | 4.29564 0.76510 5.61447
0.00000
Basis Function 10 | 1.99727 0.35151 5.68199
0.00000
185

Basis Function 12 | -5.77593 0.79883 -7.23050


0.00000
Basis Function 14 | 3.61715 0.49342 7.33084
0.00000
Basis Function 16 | -1.29011 0.24267 -5.31626
0.00000
Basis Function 22 | 0.46194 0.16705 2.76523
0.00790
-------------------------------------------------------------------
----------
F-STATISTIC = 232.01190 S.E. OF REGRESSION =
0.16748
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.43050
[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =
58.56950
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF6 = max( 0, ZX3 + 0.635603);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.58852);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.408982);
BF22 = max( 0, ZX4 + 0.577809);

Y = -1.3488 + 0.747486 * BF1 - 0.48651 * BF2 - 4.7348 * BF4 +


4.29489 * BF6 + 1.99722 * BF10 - 5.7759 * BF12 + 3.6172 * BF14 -
1.29017 * BF16 + 0.461977 * BF22;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF22;

28. BF=24, MI=1, dan MO=3


186

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09759 5.0 12.0 ZX3 -0.48296
7 6 0.09899 6.0 15.0 ZX3 -0.63829
9 8 0.09548 7.0 18.0 ZX4 0.90332
11 10 0.10796 9.0 22.0 ZX2 1.03720
13 12 0.11473 10.0 25.0 ZX3 1.47214
15 14 0.11467 11.0 28.0 ZX3 0.98741
17 16 0.10852 13.0 32.0 ZX5 0.36887
19 18 0.11947 15.0 36.0 ZX6 -0.03077
21 20 0.14236 16.0 39.0 ZX5 -0.60433
23 22 0.16313 17.0 42.0 ZX1 -0.25912
24 0.20377 17.0 44.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.39699
1 0.81938 ZX4 -1.64607
2 -0.48114 ZX1 -0.43319
4 -4.36384 ZX3 -0.48296
6 3.94911 ZX3 -0.63829
10 1.67236 ZX2 1.03720
12 -4.87031 ZX3 1.47214
14 3.27895 ZX3 0.98741
16 -1.27342 ZX5 0.36887
20 0.58295 ZX5 -0.60433

Piecewise Linear GCV = 0.06985, #efprms = 23.76471


187

========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.81264 0.13808 1 2.52941 ZX4
2 0.35450 0.20825 1 2.52941 ZX1
3 0.36307 0.16268 4 10.11765 ZX3
4 0.12106 0.08811 1 2.52941 ZX2
5 0.27186 0.07721 2 5.05883 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.20825
ZX3 81.89901 0.16268
ZX4 70.21337 0.13808
ZX2 36.31503 0.08811
ZX5 23.04353 0.07721
ZX6 0.00000 0.06986

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97354
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96887
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97354

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.39698 0.07728 -18.07635
0.00000
Basis Function 1 | 0.81934 0.10245 7.99774
0.00000
Basis Function 2 | -0.48114 0.04349 -11.06378
0.00000
Basis Function 4 | -4.36465 0.85259 -5.11930
0.00000
Basis Function 6 | 3.94996 0.88818 4.44724
0.00005
Basis Function 10 | 1.67237 0.35364 4.72904
0.00002
Basis Function 12 | -4.87034 0.74364 -6.54929
0.00000
Basis Function 14 | 3.27891 0.51453 6.37263
0.00000
Basis Function 16 | -1.27331 0.27371 -4.65205
0.00002
Basis Function 20 | 0.58287 0.20573 2.83321
0.00658
-------------------------------------------------------------------
----------
F-STATISTIC = 208.50132 S.E. OF REGRESSION =
0.17643
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.58754
[MDF,NDF] = [ 9, 51 ] REGRESSION SUM OF SQUARES =
58.41246
188

-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.482961);
BF6 = max( 0, ZX3 + 0.63829);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.47214);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.368868);
BF20 = max( 0, ZX5 + 0.604325);

Y = -1.39699 + 0.819385 * BF1 - 0.481141 * BF2 - 4.36384 * BF4


+ 3.94911 * BF6 + 1.67236 * BF10 - 4.87031 * BF12
+ 3.27895 * BF14 - 1.27342 * BF16 + 0.582952 * BF20;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF20;

29. BF=24, MI=2, dan MO=0

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
189

BasFn(s) GCV IndBsFns EfPrms Variable Knot


Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13940 11.0 30.0 ZX4 0.77474 ZX3
4
13 12 0.16066 12.0 34.0 ZX4 0.90332
15 14 0.19870 14.0 39.0 ZX6 0.27435 ZX4
13
17 16 0.27768 16.0 44.0 ZX3 -0.26322 ZX4
13
19 18 0.49713 18.0 49.0 ZX1 0.24968 ZX4
1
20 0.95881 19.0 53.0 ZX2 -1.30611 ZX4
12
22 21 6.18500 21.0 58.0 ZX6 -0.27705 ZX4
1

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.41859
1 1.50708 ZX4 -1.64607
2 -0.93214 ZX1 -0.32607
4 -0.52473 ZX3 -0.48296
8 3.22498 ZX2 ZX1 1.03720
9 0.28946 ZX2 ZX1 1.03720
12 14.88751 ZX4 0.90332
14 -0.96705 ZX6 ZX4 0.27435
16 1.28509 ZX3 ZX4 -0.26322
19 -0.22330 ZX1 ZX4 0.24968
20 -6.37656 ZX2 ZX4 -1.30611
22 -0.37560 ZX6 ZX4 -0.27705

Piecewise Linear GCV = 0.08720, #efprms = 30.85713

=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 4.05081 0.98625 2 5.42857 ZX4
2 0.65168 0.26366 1 2.71429 ZX1
3 0.43551 0.17042 1 2.71429 ZX3
4 0.32339 0.13030 2 5.42857 ZX1
ZX2
5 0.17541 0.13213 2 5.42857 ZX4
ZX6
6 0.14214 0.10565 1 2.71429 ZX3
ZX4
7 0.20811 0.13099 1 2.71429 ZX1
ZX4
190

8 3.00124 0.10857 1 2.71429 ZX2


ZX4
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.77813
ZX1 39.81606 0.19674
ZX3 31.56146 0.15604
ZX6 25.49786 0.13213
ZX2 19.37224 0.11314
ZX5 0.00000 0.08721

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97835
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97349
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97835

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.41859 0.06383 -22.22428
0.00000
Basis Function 1 | 1.50709 0.05606 26.88483
0.00000
Basis Function 2 | -0.93215 0.08270 -11.27137
0.00000
Basis Function 4 | -0.52474 0.06519 -8.04887
0.00000
Basis Function 8 | 3.22529 0.48603 6.63604
0.00000
Basis Function 9 | 0.28946 0.06426 4.50421
0.00004
Basis Function 12 | 14.88989 3.12011 4.77224
0.00002
Basis Function 14 | -0.96705 0.17345 -5.57541
0.00000
Basis Function 16 | 1.28513 0.27690 4.64111
0.00003
Basis Function 19 | -0.22331 0.03601 -6.20144
0.00000
Basis Function 20 | -6.37756 1.31587 -4.84664
0.00001
Basis Function 22 | -0.37560 0.06274 -5.98625
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 201.32350 S.E. OF REGRESSION =
0.16281
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.29884
[MDF,NDF] = [ 11, 49 ] REGRESSION SUM OF SQUARES =
58.70116
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
191

BF2 = max( 0, ZX1 + 0.326071);


BF4 = max( 0, ZX3 + 0.482961);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF12 = max( 0, ZX4 - 0.903323);
BF13 = max( 0, 0.903323 - ZX4);
BF14 = max( 0, ZX6 - 0.274351) * BF13;
BF16 = max( 0, ZX3 + 0.263219) * BF13;
BF19 = max( 0, 0.249684 - ZX1) * BF1;
BF20 = max( 0, ZX2 + 1.30611) * BF12;
BF22 = max( 0, -0.277051 - ZX6) * BF1;

Y = -1.41859 + 1.50708 * BF1 - 0.93214 * BF2 - 0.524734 * BF4 +


3.22498 * BF8+ 0.289455 * BF9 + 14.8875 * BF12 - 0.967051 * BF14 +
1.28509 * BF16 - 0.223301 * BF19 - 6.37656 * BF20 - 0.375603 * BF22;

MODEL ZY = BF1 BF2 BF4 BF8 BF9 BF12 BF14 BF16 BF19 BF20 BF22;

30. BF=24, MI=2, dan MO=1

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
192

-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.15761 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.16936 14.0 39.0 ZX3 -0.60949
17 16 0.23509 16.0 44.0 ZX3 0.98741 ZX4
1
19 18 0.37517 18.0 49.0 ZX6 -0.14904 ZX4
1
21 20 0.69697 19.0 53.0 ZX3 0.61374 ZX4
1
22 2.41555 20.0 57.0 ZX5 -1.18334 ZX1
2

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.52384
1 0.86634 ZX4 -1.64607
4 -7.71841 ZX3 -0.47413
8 1.44235 ZX2 ZX1 1.03720
10 -2.39064 ZX3 ZX1 1.54402
14 7.31664 ZX3 -0.60949
16 0.61458 ZX3 ZX4 0.98741
22 -0.28066 ZX5 ZX1 -1.18334

Piecewise Linear GCV = 0.07297, #efprms = 20.60001

========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.85921 0.15308 1 2.80000 ZX4
2 0.32222 0.14967 2 5.60000 ZX3
3 0.14547 0.09804 1 2.80000 ZX1
ZX2
4 0.30648 0.11128 1 2.80000 ZX1
ZX3
5 0.44894 0.13711 1 2.80000 ZX3
ZX4
6 0.42443 0.18540 1 2.80000 ZX1
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.22294
193

ZX5 86.58045 0.18540


ZX1 79.56944 0.16794
ZX3 69.27109 0.14496
ZX2 40.86031 0.09804
ZX6 0.00000 0.07301

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96746
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96317
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96746

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.52376 0.07385 -20.63334
0.00000
Basis Function 1 | 0.86616 0.10063 8.60713
0.00000
Basis Function 4 | -7.72071 1.01447 -7.61056
0.00000
Basis Function 8 | 1.44249 0.27064 5.33001
0.00000
Basis Function 10 | -2.39098 0.38083 -6.27840
0.00000
Basis Function 14 | 7.31900 1.04230 7.02199
0.00000
Basis Function 16 | 0.61464 0.07878 7.80178
0.00000
Basis Function 22 | -0.28068 0.02793 -10.04896
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 225.12704 S.E. OF REGRESSION =
0.19192
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.95225
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
58.04775
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF14 = max( 0, ZX3 + 0.609492);
BF16 = max( 0, ZX3 - 0.987405) * BF1;
BF22 = max( 0, ZX5 + 1.18334) * BF2;

Y = -1.52384 + 0.866337 * BF1 - 7.71841 * BF4 + 1.44235 * BF8 -


2.39064 * BF10 + 7.31664 * BF14 + 0.614581 * BF16 - 0.280658 * BF22;

MODEL ZY = BF1 BF4 BF8 BF10 BF14 BF16 BF22;


194

31. BF=24, MI=2, dan MO=2

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.16043 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.18797 15.0 40.0 ZX3 0.98741 ZX4
1
17 16 0.22719 17.0 45.0 ZX6 -0.14904 ZX4
1
19 18 0.33719 19.0 50.0 ZX5 1.55727 ZX3
4
195

21 20 1.05343 21.0 55.0 ZX4 -0.93903 ZX1


3
23 22 28.40256 23.0 60.0 ZX4 -0.69300 ZX3
5

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.71389
1 0.88399 ZX4 -1.64607
2 -0.48768 ZX1 -0.43319
5 -1.12977 ZX3 -0.45187
8 1.23064 ZX2 ZX1 1.03720
10 -3.60101 ZX3 ZX1 1.58852
14 0.81126 ZX3 ZX4 0.98741
15 0.48518 ZX3 ZX4 0.98741
17 -0.24894 ZX6 ZX4 -0.14904
18 -0.77379 ZX5 ZX3 1.55727
19 0.35420 ZX5 ZX3 1.55727
23 2.02268 ZX4 ZX3 -0.69300

Piecewise Linear GCV = 0.07598, #efprms = 29.21740

=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.87671 0.25229 1 2.56522 ZX4
2 0.35932 0.25434 1 2.56522 ZX1
3 0.28313 0.12569 1 2.56522 ZX3
4 0.12412 0.09764 1 2.56522 ZX1
ZX2
5 0.42302 0.12107 1 2.56522 ZX1
ZX3
6 0.48766 0.13529 3 7.69565 ZX3
ZX4
7 0.10959 0.08597 1 2.56522 ZX4
ZX6
8 0.25317 0.08464 2 5.13043 ZX3
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.47742
ZX1 56.92438 0.20606
ZX3 41.51295 0.14516
ZX2 23.22923 0.09764
ZX6 15.77974 0.08597
ZX5 14.69369 0.08464

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97903
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97432
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97903
196

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.71389 0.16616 -10.31498
0.00000
Basis Function 1 | 0.88399 0.07444 11.87596
0.00000
Basis Function 2 | -0.48768 0.04084 -11.94060
0.00000
Basis Function 5 | -1.12977 0.16717 -6.75839
0.00000
Basis Function 8 | 1.23064 0.24840 4.95432
0.00001
Basis Function 10 | -3.60102 0.55436 -6.49581
0.00000
Basis Function 14 | 0.81126 0.13900 5.83647
0.00000
Basis Function 15 | 0.48518 0.05321 9.11895
0.00000
Basis Function 17 | -0.24894 0.06271 -3.96966
0.00024
Basis Function 18 | -0.77379 0.18412 -4.20274
0.00011
Basis Function 19 | 0.35420 0.11625 3.04687
0.00372
Basis Function 23 | 2.02269 0.34220 5.91086
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 207.97948 S.E. OF REGRESSION =
0.16024
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.25814
[MDF,NDF] = [ 11, 49 ] REGRESSION SUM OF SQUARES =
58.74186
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF5 = max( 0, -0.451875 - ZX3);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF14 = max( 0, ZX3 - 0.987405) * BF1;
BF15 = max( 0, 0.987405 - ZX3) * BF1;
BF17 = max( 0, -0.149037 - ZX6) * BF1;
BF18 = max( 0, ZX5 - 1.55727) * BF4;
BF19 = max( 0, 1.55727 - ZX5) * BF4;
BF23 = max( 0, -0.693004 - ZX4) * BF5;

Y = -1.71389 + 0.883991 * BF1 - 0.487681 * BF2 - 1.12977 * BF5


+ 1.23064 * BF8 - 3.60101 * BF10 + 0.811257 * BF14
+ 0.485184 * BF15 - 0.248937 * BF17 - 0.77379 * BF18
+ 0.354197 * BF19 + 2.02268 * BF23;

MODEL ZY = BF1 BF2 BF5 BF8 BF10 BF14 BF15 BF17 BF18 BF19 BF23;
197

32. BF=24, MI=2, dan MO=3

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.18508 16.0 44.0 ZX3 0.55928 ZX4
1
198

18 0.28051 17.0 48.0 ZX5 -1.18334 ZX1


2
20 19 0.56868 18.0 52.0 ZX4 1.39359
22 21 2.64680 20.0 57.0 ZX6 0.26708 ZX4
20

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.25418
1 1.21009 ZX4 -1.64607
3 -0.40814 ZX1 -0.43319
8 1.13865 ZX2 ZX1 1.03720
9 0.73167 ZX2 ZX1 1.03720
10 -1.56169 ZX3 ZX1 1.47214
11 -0.66987 ZX3 ZX1 1.47214
12 0.93740 ZX3 ZX4 0.98741
15 -0.20204 ZX6 ZX4 -0.14904
16 -0.72587 ZX3 ZX4 0.55928
18 -0.10717 ZX5 ZX1 -1.18334

Piecewise Linear GCV = 0.09092, #efprms = 29.00001

=========================================
ANOVA Decomposition on 10 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.20013 1.25692 1 2.80000 ZX4
2 0.13874 0.10278 1 2.80000 ZX1
3 0.39936 0.16982 2 5.60000 ZX1
ZX2
4 0.62675 0.22493 2 5.60000 ZX1
ZX3
5 0.29184 0.13282 2 5.60000 ZX3
ZX4
6 0.08895 0.09113 1 2.80000 ZX4
ZX6
7 0.16207 0.09242 1 2.80000 ZX1
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.96564
ZX1 44.96617 0.26779
ZX3 34.01457 0.19213
ZX2 30.03343 0.16982
ZX5 4.13694 0.09242
ZX6 1.52737 0.09113

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97456
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96947
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97456
199

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.25418 0.07769 -16.14388
0.00000
Basis Function 1 | 1.21009 0.04368 27.70264
0.00000
Basis Function 3 | -0.40814 0.09945 -4.10382
0.00015
Basis Function 8 | 1.13865 0.26568 4.28579
0.00008
Basis Function 9 | 0.73167 0.10312 7.09528
0.00000
Basis Function 10 | -1.56170 0.34712 -4.49902
0.00004
Basis Function 11 | -0.66987 0.07744 -8.65065
0.00000
Basis Function 12 | 0.93740 0.17190 5.45314
0.00000
Basis Function 15 | -0.20204 0.06638 -3.04393
0.00372
Basis Function 16 | -0.72587 0.10350 -7.01343
0.00000
Basis Function 18 | -0.10717 0.03371 -3.17906
0.00254
-------------------------------------------------------------------
----------
F-STATISTIC = 191.54762 S.E. OF REGRESSION =
0.17472
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.52635
[MDF,NDF] = [ 10, 50 ] REGRESSION SUM OF SQUARES =
58.47365
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF11 = max( 0, 1.47214 - ZX3) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX3 - 0.559285) * BF1;
BF18 = max( 0, ZX5 + 1.18334) * BF2;

Y = -1.25418 + 1.21009 * BF1 - 0.408137 * BF3 + 1.13865 * BF8 +


0.731667 * BF9- 1.56169 * BF10 - 0.669872 * BF11 + 0.937395 * BF12 -
0.202044 * BF15 - 0.725866 * BF16 - 0.107169 * BF18;

MODEL ZY = BF1 BF3 BF8 BF9 BF10 BF11 BF12 BF15 BF16 BF18;
200

33. BF=24, MI=3, dan MO=0

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13492 11.0 30.0 ZX6 0.26120 ZX2
9
13 12 0.17159 13.0 35.0 ZX4 0.77474 ZX3
4
14 0.18786 14.0 39.0 ZX2 -1.30611 ZX4
12
16 15 0.27524 16.0 44.0 ZX1 0.79866 ZX4
12
18 17 0.46988 18.0 49.0 ZX6 -0.20681
201

20 19 1.19786 20.0 54.0 ZX1 0.24968 ZX4


1
22 21 5.50719 21.0 58.0 ZX1 0.58443 ZX4
1

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================

Basis Fun Coefficient Variable Parent Knot


-------------------------------------------------------------------
----
0 -1.72705
1 1.38766 ZX4 -1.64607
2 -0.36645 ZX1 -0.32607
4 -0.50407 ZX3 -0.48296

Piecewise Linear GCV = 0.10363, #efprms = 9.14285

========================================
ANOVA Decomposition on 3 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.37624 0.67223 1 2.71429 ZX4
2 0.25619 0.15341 1 2.71429 ZX1
3 0.41836 0.14433 1 2.71429 ZX3

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.67223
ZX1 29.58817 0.15341
ZX3 26.75430 0.14433
ZX5 0.00000 0.10363
ZX2 0.00000 0.10363
ZX6 0.00000 0.10363

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.92386
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.91985
UNCENTERED R-SQUARED = R-0 SQUARED: 0.92386

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.72705 0.08583 -20.12194
0.00000
Basis Function 1 | 1.38766 0.07391 18.77377
0.00000
Basis Function 2 | -0.36645 0.06070 -6.03680
0.00000
Basis Function 4 | -0.50407 0.09066 -5.55997
0.00000
-------------------------------------------------------------------
----------
F-STATISTIC = 230.52563 S.E. OF REGRESSION =
0.28311
202

P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =


4.56867
[MDF,NDF] = [ 3, 57 ] REGRESSION SUM OF SQUARES =
55.43133
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);

Y = -1.72705 + 1.38766 * BF1 - 0.36645 * BF2 - 0.504072 * BF4;

MODEL ZY = BF1 BF2 BF4;

34. BF=24, MI=3, dan MO=1

============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
203

-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.14691 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.18568 15.0 40.0 ZX5 1.26015 ZX1
2
17 16 0.22908 16.0 44.0 ZX3 0.99551
19 18 0.31755 18.0 49.0 ZX6 0.09314
21 20 0.75518 20.0 54.0 ZX6 0.27435 ZX2
9
23 22 7.45441 22.0 59.0 ZX3 -0.96405 ZX2
9

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.80761
1 1.08808 ZX4 -1.64607
3 -0.79275 ZX1 -0.43319
4 -0.76319 ZX3 -0.47413
5 -1.05395 ZX3 -0.47413
6 0.56259 ZX3 ZX1 -0.73603
7 3.63064 ZX3 ZX1 -0.73603
8 1.24060 ZX2 ZX1 1.03720
10 -3.05053 ZX3 ZX1 1.54402
11 -0.26247 ZX3 ZX1 1.54402
12 -1.38931 ZX5 ZX3 0.45568
14 -0.82527 ZX5 ZX1 1.26015
16 2.02762 ZX3 0.99551
19 -0.13359 ZX6 0.09314

Piecewise Linear GCV = 0.08677, #efprms = 35.27272

=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================

fun std. dev. -gcv #bsfns #efprms variable


-------------------------------------------------------
1 1.07912 0.44371 1 2.63636 ZX4
2 0.26948 0.14526 1 2.63636 ZX1
3 0.36535 0.20819 3 7.90909 ZX3
4 0.08731 0.08819 1 2.63636 ZX6
5 0.54421 0.24416 4 10.54545 ZX1
ZX3
6 0.12512 0.10943 1 2.63636 ZX1
ZX2
7 0.18014 0.11322 1 2.63636 ZX1
ZX5
8 0.17116 0.12563 1 2.63636 ZX1
204

ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.44371
ZX3 76.00161 0.29295
ZX1 53.63220 0.18944
ZX5 36.82760 0.13518
ZX2 25.19626 0.10943
ZX6 6.31376 0.08820

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98431
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97997
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98431

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.80761 0.12524 -6.44846
0.00000
Basis Function 1 | 1.08808 0.06950 15.65603
0.00000
Basis Function 3 | -0.79276 0.11368 -6.97355
0.00000
Basis Function 4 | -0.76319 0.08265 -9.23418
0.00000
Basis Function 5 | -1.05395 0.17632 -5.97738
0.00000
Basis Function 6 | 0.56259 0.13135 4.28304
0.00009
Basis Function 7 | 3.63064 0.61231 5.92941
0.00000
Basis Function 8 | 1.24059 0.24790 5.00441
0.00001
Basis Function 10 | -3.05054 0.42995 -7.09509
0.00000
Basis Function 11 | -0.26247 0.02532 -10.36732
0.00000
Basis Function 12 | -1.38930 0.23250 -5.97551
0.00000
Basis Function 14 | -0.82527 0.15726 -5.24768
0.00000
Basis Function 16 | 2.02763 0.30365 6.67747
0.00000
Basis Function 19 | -0.13359 0.04016 -3.32608
0.00172
-------------------------------------------------------------------
----------
F-STATISTIC = 226.77585 S.E. OF REGRESSION =
0.14154
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
0.94154
[MDF,NDF] = [ 13, 47 ] REGRESSION SUM OF SQUARES =
59.05846
-------------------------------------------------------------------
----------
205

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.474128);
BF5 = max( 0, -0.474128 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.26015) * BF2;
BF16 = max( 0, ZX3 - 0.995513);
BF19 = max( 0, 0.0931355 - ZX6);

Y = -0.807605 + 1.08808 * BF1 - 0.792754 * BF3 - 0.763188 * BF4 -


1.05395 * BF5 + 0.562588 * BF6 + 3.63064 * BF7 + 1.2406 * BF8 -
3.05053 * BF10 - 0.262471 * BF11- 1.38931 * BF12 - 0.825267 * BF14 +
2.02762 * BF16 - 0.133592 * BF19;

MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16
BF19;

35. BF=24, MI=3, dan MO=2


206

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.15628 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.19533 15.0 40.0 ZX5 1.55727 ZX1
2
17 16 0.21431 16.0 44.0 ZX3 1.00840
19 18 0.29349 18.0 49.0 ZX6 0.13148
21 20 0.68926 20.0 54.0 ZX6 0.26120 ZX2
9
23 22 6.55065 22.0 59.0 ZX3 -0.95479 ZX2
9

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.76824
1 1.07080 ZX4 -1.64607
3 -0.77990 ZX1 -0.43319
4 -0.76749 ZX3 -0.45187
5 -1.06195 ZX3 -0.45187
6 0.55058 ZX3 ZX1 -0.73603
7 3.59661 ZX3 ZX1 -0.73603
8 1.40617 ZX2 ZX1 1.03720
10 -3.27426 ZX3 ZX1 1.58852
11 -0.25832 ZX3 ZX1 1.58852
12 -1.31186 ZX5 ZX3 0.45568
14 -1.53841 ZX5 ZX1 1.55727
16 1.95834 ZX3 1.00840
19 -0.13380 ZX6 0.13148

Piecewise Linear GCV = 0.08118, #efprms = 35.27272

=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.06199 0.42445 1 2.63636 ZX4
2 0.26511 0.13898 1 2.63636 ZX1
3 0.35170 0.20500 3 7.90909 ZX3
4 0.08912 0.08398 1 2.63636 ZX6
207

5 0.54013 0.25077 4 10.54545 ZX1


ZX3
6 0.14182 0.11670 1 2.63636 ZX1
ZX2
7 0.19056 0.12837 1 2.63636 ZX1
ZX5
8 0.17680 0.12196 1 2.63636 ZX1
ZX3
ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.42445
ZX3 78.54503 0.29295
ZX1 56.65736 0.19137
ZX5 42.70758 0.14379
ZX2 32.17178 0.11671
ZX6 9.03437 0.08398

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98532
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.98126
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98532

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.76825 0.12478 -6.15679
0.00000
Basis Function 1 | 1.07080 0.06749 15.86496
0.00000
Basis Function 3 | -0.77990 0.10942 -7.12776
0.00000
Basis Function 4 | -0.76750 0.07996 -9.59881
0.00000
Basis Function 5 | -1.06195 0.16931 -6.27214
0.00000
Basis Function 6 | 0.55058 0.12670 4.34564
0.00007
Basis Function 7 | 3.59662 0.58791 6.11768
0.00000
Basis Function 8 | 1.40617 0.23725 5.92699
0.00000
Basis Function 10 | -3.27426 0.42037 -7.78893
0.00000
Basis Function 11 | -0.25832 0.02390 -10.80980
0.00000
Basis Function 12 | -1.31186 0.21054 -6.23098
0.00000
Basis Function 14 | -1.53842 0.23368 -6.58342
0.00000
Basis Function 16 | 1.95835 0.26883 7.28472
0.00000
Basis Function 19 | -0.13380 0.03847 -3.47818
0.00110
-------------------------------------------------------------------
----------
208

F-STATISTIC = 242.66060 S.E. OF REGRESSION =


0.13690
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
0.88081
[MDF,NDF] = [ 13, 47 ] REGRESSION SUM OF SQUARES =
59.11919
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.451875);
BF5 = max( 0, -0.451875 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF11 = max( 0, 1.58852 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.55727) * BF2;
BF16 = max( 0, ZX3 - 1.0084);
BF19 = max( 0, 0.131477 - ZX6);

Y = -0.768244 + 1.0708 * BF1 - 0.779898 * BF3 - 0.767492 * BF4 -


1.06195 * BF5 + 0.550584 * BF6 + 3.59661 * BF7 + 1.40617 * BF8 -
3.27426 * BF10 - 0.258323 * BF11 - 1.31186 * BF12 - 1.53841 * BF14 +
1.95834 * BF16 - 0.133797 * BF19;

MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16
BF19;

36. BF=24, MI=3, dan MO=3


209

============
MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.19572 17.0 45.0 ZX6 0.27435 ZX2
9
19 18 0.34151 19.0 50.0 ZX5 -0.60433 ZX1
2
21 20 0.92923 21.0 55.0 ZX5 0.92677 ZX3
4
23 22 30.31231 23.0 60.0 ZX4 1.39359 ZX3
4

=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.90280
1 0.80706 ZX4 -1.64607
2 -0.73857 ZX1 -0.43319
3 -0.56240 ZX1 -0.43319
5 -0.96509 ZX3 -0.48296
7 2.13650 ZX3 ZX1 -0.73603
8 1.62298 ZX2 ZX1 1.03720
9 0.23521 ZX2 ZX1 1.03720
10 -1.74015 ZX3 ZX1 1.47214
12 0.41955 ZX3 ZX4 0.98741
13 0.19500 ZX3 ZX4 0.98741
15 -0.25587 ZX6 ZX4 -0.14904
16 -1.50088 ZX6 ZX2 0.27435
21 0.82296 ZX5 ZX3 0.92677

Piecewise Linear GCV = 0.07686, #efprms = 34.34784

=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.80041 0.50057 1 2.56522 ZX4
2 0.44453 0.26413 2 5.13043 ZX1
210

3 0.23084 0.09866 1 2.56522 ZX3


4 0.29082 0.11645 2 5.13043 ZX1
ZX3
5 0.19672 0.12450 2 5.13043 ZX1
ZX2
6 0.26596 0.11968 2 5.13043 ZX3
ZX4
7 0.11265 0.09362 1 2.56522 ZX4
ZX6
8 0.15276 0.09307 1 2.56522 ZX3
ZX5
9 0.08556 0.08081 1 2.56522 ZX1
ZX2
ZX6

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.62701
ZX1 49.15402 0.20978
ZX3 29.19796 0.12376
ZX2 27.50216 0.11847
ZX5 17.16705 0.09307
ZX6 14.96964 0.08919

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98508
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.98096
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98508

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -0.90280 0.11807 -7.64652
0.00000
Basis Function 1 | 0.80706 0.04505 17.91282
0.00000
Basis Function 2 | -0.73857 0.05483 -13.46910
0.00000
Basis Function 3 | -0.56240 0.09699 -5.79858
0.00000
Basis Function 5 | -0.96509 0.19109 -5.05046
0.00001
Basis Function 7 | 2.13650 0.59391 3.59735
0.00077
Basis Function 8 | 1.62298 0.22297 7.27903
0.00000
Basis Function 9 | 0.23521 0.05223 4.50327
0.00004
Basis Function 10 | -1.74015 0.26979 -6.44994
0.00000
Basis Function 12 | 0.41955 0.07136 5.87931
0.00000
Basis Function 13 | 0.19500 0.03179 6.13477
0.00000
Basis Function 15 | -0.25587 0.05480 -4.66915
0.00003
211

Basis Function 16 | -1.50088 0.42638 -3.52009


0.00097
Basis Function 21 | 0.82296 0.17791 4.62579
0.00003
-------------------------------------------------------------------
----------
F-STATISTIC = 238.75890 S.E. OF REGRESSION =
0.13799
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
0.89499
[MDF,NDF] = [ 13, 47 ] REGRESSION SUM OF SQUARES =
59.10501
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF13 = max( 0, 0.987405 - ZX3) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX6 - 0.274351) * BF9;
BF21 = max( 0, 0.926771 - ZX5) * BF4;

Y = -0.902801 + 0.807057 * BF1 - 0.738569 * BF2 - 0.562401 * BF3 -


0.965094 * BF5 + 2.1365 * BF7 + 1.62298 * BF8 + 0.235212 * BF9 -
1.74015 * BF10 + 0.419547 * BF12 + 0.195001 * BF13 - 0.255871 * BF15
- 1.50088 * BF16 + 0.822958 * BF21;

MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10 BF12 BF13 BF15 BF16
BF21;
212

Lampiran 7. Output Simulasi Model MARS terbaik

BF=18, MI=1, dan MO=1

MARS Results
============

Forward Stepwise Knot Placement


===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09752 5.0 12.0 ZX3 -0.47413
7 6 0.09906 6.0 15.0 ZX3 -0.60949
9 8 0.09422 7.0 18.0 ZX4 0.90332
11 10 0.10574 9.0 22.0 ZX2 1.03720
13 12 0.10901 10.0 25.0 ZX3 1.54402
15 14 0.10902 11.0 28.0 ZX3 0.95253
17 16 0.09547 13.0 32.0 ZX5 0.40898
18 0.11834 14.0 35.0 ZX6 -2.33142

=================================================
Final Model (After Backward Stepwise Elimination)
213

=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.46041
1 0.91013 ZX4 -1.64607
2 -0.46710 ZX1 -0.43319
4 -6.69852 ZX3 -0.47413
6 6.40946 ZX3 -0.60949
10 1.70298 ZX2 1.03720
12 -5.21855 ZX3 1.54402
14 3.10062 ZX3 0.95253
16 -0.98470 ZX5 0.40898

Piecewise Linear GCV = 0.05640, #efprms = 20.42858

========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90264 0.14342 1 2.42857 ZX4
2 0.34416 0.17880 1 2.42857 ZX1
3 0.56169 0.14808 4 9.71429 ZX3
4 0.12328 0.07427 1 2.42857 ZX2
5 0.45821 0.06956 1 2.42857 ZX5

===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.17880
ZX3 86.54114 0.14808
ZX4 84.31259 0.14342
ZX2 38.18755 0.07428
ZX5 32.75410 0.06956
ZX6 0.00000 0.05643

==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97464
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97074
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97464

Parameter Estimate S.E. T-Ratio


P-Value
-------------------------------------------------------------------
----------
Constant | -1.46032 0.06963 -20.97326
0.00000
Basis Function 1 | 0.90996 0.09264 9.82249
0.00000
Basis Function 2 | -0.46712 0.04048 -11.54079
0.00000
Basis Function 4 | -6.70064 0.92777 -7.22235
0.00000
Basis Function 6 | 6.41161 0.94246 6.80303
0.00000
Basis Function 10 | 1.70308 0.34126 4.99057
0.00001
214

Basis Function 12 | -5.21865 0.72958 -7.15298


0.00000
Basis Function 14 | 3.10058 0.46185 6.71341
0.00000
Basis Function 16 | -0.98462 0.22013 -4.47284
0.00004
-------------------------------------------------------------------
----------
F-STATISTIC = 249.78263 S.E. OF REGRESSION =
0.17107
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.52176
[MDF,NDF] = [ 8, 52 ] REGRESSION SUM OF SQUARES =
58.47824
-------------------------------------------------------------------
----------

===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);

Y = -1.46041 + 0.910129 * BF1 - 0.467099 * BF2 - 6.69852 * BF4


+ 6.40946 * BF6 + 1.70298 * BF10 - 5.21855 * BF12
+ 3.10062 * BF14 - 0.984699 * BF16;

MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16;


215

Lampiran 8. Surat Penetapan Dosen Pembimbing

Anda mungkin juga menyukai