Skripsi
oleh
4111412007
JURUSAN MATEMATIKA
2016
ii
iii
iv
MOTTO DAN PERSEMBAHAN
MOTTO
Maka nikmat Tuhan kamu manakah yang kamu dustakan? (QS. Ar-Rahman: 55)
Bukanlah hidup kalau tidak ada masalah, bukanlah sukses kalau tidak melalui
rintangan, bukanlah lulus kalau tidak ada ujian, dan bukanlah berhasil kalau
tidak berusaha.
PERSEMBAHAN
Santoso
v
KATA PENGANTAR
Puji syukur kehadirat Allah SWT yang telah memberikan nikmat dan karunia-
Nya serta kemudahan sehingga penulis dapat menyelesaikan skripsi yang berjudul
dorongan dari berbagai pihak. Oleh karena itu penulis mengucapkan terima kasih
kepada :
2. Prof. Dr. Zaenuri, S.E., M.Si., Akt., Dekan FMIPA Universitas Negeri
Semarang.
Negeri Semarang.
Semarang.
skripsi ini.
vi
7. Drs. Arief Agoestanto, M.Si., selaku Dosen Penguji yang telah memberikan
8. Prof. Dr. St. Budi Waluya, M.Si., selaku Dosen Wali saya sejak Semester 1
10. Staf Tata Usaha Universitas Negeri Semarang yang telah banyak membantu
11. Ibu dan Bapak tercinta, Ibu Surati dan Bapak Santoso yang senantiasa
12. Kakak dan Adik tersayang, Elina Ninda Pamela dan Elfan Handi Ardana yang
13. Sahabat dan teman terbaikku, Nur Septiani yang setia membantu, menemani,
selalu ada dalam susah maupun senang, serta selalu memberikan motivasi,
14. Sahabat dan teman terbaik di kos, Rizki Nurul Anifah yang setia membantu,
15. Adik kos ku tersayang, Verannita Octaviani yang setia membantu, menemani
16. Teman sekamarku Nina Faradina dan Uswatun Khasanah yang senatiasa
vii
17. Kakak-kakak Rizal Yunianto Ghofar, Kishartini, dan Yani Puspita Kristiani
mewujudkan cita-cita.
20. Teman-teman PKL BPS Kabupaten Jepara yang memberikan semangat dan
doa.
22. Semua pihak yang tidak dapat disebutkan satu per satu yang telah
memberikan bantuan.
Penulis menyadari bahwa dalam penyusunan skripsi ini masih terdapat banyak
kekurangan. Oleh karena itu, penulis mengharapkan saran dan kritik yang
Penulis
viii
ABSTRAK
ix
DAFTAR ISI
Halaman
HALAMAN JUDUL................................................................................... i
ABSTRAK ................................................................................................. ix
DAFTAR SIMBOL..................................................................................... xv
BAB 1 PENDAHULUAN
x
BAB 2 TINJAUAN PUSTAKA
xi
BAB 3 METODE PENELITIAN
Indonesia.............................................................................. 64
Amerika ............................................................................... 69
xii
4.1.8.2 Uji Homoskedastisitas ............................................. 80
BAB 5 PENUTUP
5.1 Kesimpulan...................................................................................... 98
xiii
DAFTAR TABEL
Tabel Halaman
Tabel 4.12 Hasil seleksi Model MARS Menggunakan Kriteria GCV ........ 84
xiv
DAFTAR SIMBOL
xv
𝑎𝑚 : koefisien dari fungsi basis ke m
𝑀 : maksimum fungsi basis
𝐾𝑚 : derajat Interaksi ke m
𝑆𝑘𝑚 : nilai 1 atau -1 jika data berada di sebelah kanan atau kiri knot
𝑋𝑝𝑛 (𝑘, 𝑚) : variabel prediktor dari p dengan observasi ke n
𝑍𝑘𝑚 : nilai knot dari variabel prediktor 𝑋𝑝𝑛 (𝑘, 𝑚)
𝑓𝑖 (𝑥𝑖 ) : semua fungsi basis untuk satu variabel
𝑓𝑖 (𝑥𝑖 , 𝑥𝑗 ) : semua fungsi basis untuk interaksi antar dua variabel
𝑓𝑖 (𝑥𝑖 , 𝑥𝑗 , 𝑥𝑘 ) : semua fungsi basis untuk interaksi antar tiga variabel
[𝐻]𝑖𝑖 : elemen Matriks Hat ke ii
xvi
DAFTAR GAMBAR
Gambar Halaman
Gambar 4.5 Scatterplot antara IHSG dengan Suku Bunga di Indonesia .... 69
Gambar 4.7 Scatterplot antara IHSG dengan Kurs Tengah Rupiah ........... 72
Gambar 4.8 Scatterplot antara IHSG dengan Indeks Dow Jones ............... 73
xvii
Gambar 4.9 Grafik Indeks Nikkei 225 ........................................................ 74
Gambar 4.10 Scatterplot antara IHSG dengan Indeks Nikkei 225 ............. 75
Gambar 4.12 Scatterplot antara IHSG dengan Indeks Hang Seng ............. 77
xviii
DAFTAR LAMPIRAN
Lampiran Halaman
xix
BAB 1
PENDAHULUAN
terhadap pasar modal karena memiliki peranan strategis bagi penguatan ketahanan
ekonomi suatu negara. Pasar modal yang ada di Indonesia merupakan pasar yang
makroekonomi secara umum. Krisis ekonomi yang dimulai tahun 1998 merupakan
penarikan dana besar-besaran (rush) oleh deposan untuk kemudian disimpan di luar
mengubah pola pikir masyarakat di bidang ekonomi dan investasi. Investasi dalam
bentuk saham merupakan investasi yang banyak dipilih para investor. Salah satu
indikator yang menunjukkan pergerakan harga saham adalah Indeks Harga Saham
sebagai acuan para investor untuk melihat representasi harga saham keseluruhan
1
2
negara tidak terlepas dari kondisi perekonomian negara itu secara makro. Indeks
harga saham sangat dipengaruhi variabel-variabel makro seperti tingkat suku bunga
di Indonesia, nilai tukar (kurs) rupiah terhadap dolar Amerika, dan Inflasi. Pada
umumnya bursa efek yang berada dalam satu kawasan juga dapat mempengaruhi
karena letak geografisnya yang saling berdekatan seperti Nikkei 225 di Jepang dan
Hang Seng di Hongkong yang memiliki pengaruh yang kuat terhadap kinerja Bursa
variabel respon (variabel dependen) dengan satu atau lebih variabel prediktor
(variabel independen). Dalam hal ini, indeks harga saham gabungan (IHSG) adalah
indeks harga saham gabungan (IHSG) yaitu inflasi, tingkat suku bunga di
Indonesia, nilai tukar (kurs) tengah rupiah bulanan terhadap dolar Amerika, indeks
saham Dow Jones, indeks saham Nikkei 225, dan indeks saham Hang Seng.
dilakukan oleh beberapa penelitian seperti Puspitasari et al. (2012) dan Astuti et al.
hasil peramalan data IHSG menggunakan metode time series klasik, regresi
nonparametrik kernel lebih baik dari kedua metode lainnya karena mempunyai
3
pengaruh antara variabel tingkat suku bunga di Indonesia, nilai tukar (kurs), inflasi,
Indeks Nikkei 225, dan Indeks Hang Seng. Hasilnya bahwa variabel tingkat suku
bunga di Indonesia, nilai tukar (kurs), dan inflasi memiliki pengaruh signifikan
terhadap IHSG. Artinya jika variabel tersebut mengalami peningkatan maka akan
dalam menjelaskan pola hubungan variabel respon dengan variabel prediktor dapat
kurva regresi diketahui (seperti linier, kuadratik, dan kubik) berdasarkan teori yang
dapat memberikan informasi hubungan (Draper dan Smith, 1992). Namun, tidak
semua pola hubungan dapat didekati dengan pendekatan parametrik, karena tidak
adanya suatu informasi mengenai bentuk hubungan variabel respon dan variabel
prediktor. Jika bentuk kurva tidak diketahui dan pola menyebar maka kurva regresi
menyelesaikan tes parametrik, tes nonparametrik paling berlaku untuk data dalam
skala ordinal, dan berlaku juga untuk sampel data skala nominal. Regresi
estimasi kurva regresi, tanpa dipengaruhi oleh faktor subyektifitas dari perancangan
Regression Splines (MARS) yang pertama kali dipopulerkan oleh Friedman (1991).
tidak bergantung pada asumsi tertentu. Model MARS berguna untuk mengatasi
permasalahan data yang berdimensi tinggi, yaitu data yang memiliki jumlah
yang dihasilkan kontinu pada knot yaitu garis regresi selalu menyambung, dimana
kontinu untuk data berdimensi tinggi dimana data tersebut mengandung Multiple
yang dihasilkan RPR tidak kontinu terhadap knots, sedangkan MARS mampu
menghasilkan model yang kontinu terhadap knots. MARS banyak diadopsi oleh
bidang ilmu komputer sebagai Conpetitor metode lain seperti jaringan syaraf tiruan
dan Generalized Adaptive Models (Hastie dan Tibsjirani dalam Souri, 2009).
dilakukan oleh Wasis Wicaksono et al. (2014) melakukan analisis pada faktor-
5
persentase keluarga yang memiliki jamban sehat (𝑋1 ), persentase keluarga yang
menggunakan air bersih (𝑋2 ), persentase TUPM (Tempat Umum dan Pengelolaan
Makanan) sehat (𝑋3 ), rata-rata lama sekolah (𝑋4 ), persentase melek huruf
penduduk usia di atas 10 tahun (𝑋5), rata-rata jiwa per rumah tangga (𝑋6 ), dan
menggunakan air bersih (𝑋2 ), persentase TUPM (Tempat Umum dan Pengelolaan
Makanan) sehat (𝑋3 ), dan persentase melek huruf penduduk usia di atas 10 tahun
Minimum Observasi (MO) secara trial and error dan melihat Generalized Cross
al. (2012) dan Astuti et al. (2013) mengenai faktor-faktor yang mempengaruhi
IHSG dibidang makro ekonomi yaitu variabel inflasi, nilai tukar (kurs), dan suku
6
yaitu variabel indeks Dow Jones, indeks Nikkei 225, dan indeks Hang Seng
tinggi. Oleh karena itu, berdasarkan penelitian yang dilakukan oleh Wasis
Wicaksono et al. (2014), Puspitasari et al. (2012), dan Astuti et al. (2013) tersebut
maka model MARS juga cocok digunakan untuk data Indeks Harga Saham
prediktor yang mempengaruhi IHSG, dan pemilihan model terbaik pada Indeks
negara.
7
penelitian ini yaitu hanya mengkaji faktor ekonomi yang mempengaruhi IHSG
yaitu inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs) tengah rupiah
bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks saham Nikkei
225, dan indeks saham Hang Seng dari Bulan September 2010 hingga September
2015.
sebagai berikut.
Manfaat yang akan diperoleh dari penelitian ini adalah sebagai berikut.
1. Bagi penulis
Splines (MARS).
Splines (MARS).
a. Sebagai bahan studi kasus bagi pembaca dan acuan bagi mahasiswa serta
b. Sebagai bahan bacaan yang dapat menambah ilmu pengetahuan bagi pembaca
yang mempengaruhinya.
b. Sebagai acuan dan informasi para investor mengenai naik turunnya harga
saham.
TINJAUAN PUSTAKA
saham gabungan sampai tanggal tertentu dan mencerminkan suatu nilai yang
berfungsi sebagai pengukur kinerja suatu saham gabungan di bursa efek. Beberapa
faktor makro dan mikro ekonomi yang mempengaruhi indeks harga saham
gabungan (IHSG) yaitu inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs)
tengah rupiah bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks
2.1.1 Inflasi
harga-harga secara umum dan terus menerus. Jika hanya terjadi kenaikan harga-
harga pada satu atau dua sektor, maka belum bisa dikatakan sebagai kenaikan
inflasi. Kenaikan inflasi terjadi jika hampir semua sektor mengalami kenaikan
10
11
Dari kelima cara di atas, cara yang paling efektif untuk menghitung inflasi yaitu
konsumen dari waktu ke waktu. Berikut rumus untuk menghitung inflasi dengan
𝐼𝐻𝐾𝑡 − 𝐼𝐻𝐾𝑡−1
𝐿𝐿𝑡 =
𝐼𝐻𝐾𝑡−1
dimana :
Menurut Kasmir (1998) suku bunga dapat diartikan sebagai balas jasa
yang diberikan oleh bank berdasarkan prinsip konvensional kepada nasabah yang
membeli atau menjual produknya. Sedangkan tingkat suku bunga atau BI rate
menurut publikasi yang dilakukan oleh Bank Indonesia yaitu suku bunga kebijakan
yang mencerminkan sikap kebijakan moneter yang ditetapkan oleh Bank Indonesia
contens/default.aspx).
pokok per unit waktu. Bunga merupakan suatu ukuran harga sumber daya yang
digunakan oleh debitur yang harus dibayarkan kepada kreditur. Unit waktu
12
biasanya dinyatakan dalam satuan tahun (satu tahun investasi) atau bisa lebih
pendek dari satu tahun. Uang pokok berarti jumlah uang yang diterima dari kreditur
dan permintaan investasi. Tingkat bunga itu sendiri ditentukan oleh dua kekuatan,
yaitu penawaran tabungan dan permintaan investasi modal (terutama dari sektor
bisnis). Tingkat bunga pada dasarnya berperan sebagai pendorong utama agar
rendahnya tingkat bunga. Semakin tinggi suku bunga, akan semakin tinggi pula
dana investasi ditentukan oleh tinggi rendahnya suku bunga tabungan masyarakat.
stance kebijakan moneter yang ditetapkan oleh Bank Indonesia dan diumumkan
kepada publik. BI Rate diumumkan oleh Dewan Gubernur Bank Indonesia setiap
Rapat Dewan Gubernur bulanan dan diimplementasikan pada operasi moneter yang
suku bunga Pasar Uang Antar Bank Overnight (PUAB O/N). Pergerakan di suku
bunga PUAB ini diharapkan diikuti oleh perkembangan di suku bunga deposito,
dan pada gilirannya suku bunga kredit perbankan. Dengan mempertimbangkan pula
menyebutkan bahwa kurs antar dua negara adalah tingkat harga yang disepakati
menjadi kurs nominal dan kurs riil. Kurs nominal yaitu harga relatif dari mata uang
dua Negara. Sedangkan kurs riil adalah harga dari barang-barang diantara dua
barang dari suatu Negara untuk barang-barang dari Negara lain. Menurut publikasi
bank Indonesia, nilai kurs dibedakan menjadi dua, yaitu Kurs Transaksi BI dan
Kurs Uang Kertas Asing (UKA) BI. Kurs transaksi BI disajikan dalam bentuk kurs
jual dan kurs beli valas terhadap rupiah, digunakan sebagai acuan transaksi BI
dengan pihak ketiga seperti pemerintah. Sedangkan kurs UKA BI adalah kurs yang
digunakan sebagai indikasi transaksi bank antara Bank Indonesia dengan pihak
ketiga (www.bi.go.id/id/moneter/informasi-kurs/contens/default.aspx).
Dow Jones Industrial Average (DJIA) adalah salah satu indeks pasar saham
yang didirikan oleh editor The Wall Street Journal dan pendiri Dow Jones dan
Company Charles Dow. Dow membuat indeks ini sebagai suatu cara untuk mengukur
∑ 𝑃𝑠
𝐷𝐽𝐼𝐴 =
𝐷𝑖𝑣𝑖𝑠𝑜𝑟
Dimana ∑ 𝑃𝑠 adalah jumlah seluruh harga saham dan divisor adalah angka yang
ditentukan oleh Dow Jones sebagai pembagi. Angka pembagi ini selalu
diperbaharui dan disesuaikan dengan perkembangan pasar yang terjadi seperti stock
Nikkei 225 adalah sebuah indeks pasar saham di Bursa Efek Tokyo. Indeks
ini telah dihitung oleh harian Nihon Keizai Shimbun (Nikkei) sejak 7 September
dalam yen), dan komponen saham perusahaan yang tercantum dalam indeks akan
ditinjau setahun sekali. Saham perusahaan yang tercatat dalam Indeks Nikkei 225
merupakan saham yang paling aktif diperdagangkan dalam bursa efek Tokyo. Saat
ini, Nikkei adalah indeks yang paling banyak digunakan sebagai panduan bagi
Indeks ini merupakan gabungan dari 225 perusahaan yang terpilih, dengan
memiliki aset yang besar dan memiliki kredibilitas yang baik di market. Metode
∑ 𝑃𝑠
𝑁𝑖𝑘𝑘𝑒𝑖 225 =
𝐷𝑖𝑣𝑖𝑠𝑜𝑟
15
Dimana ∑ 𝑝 jumlah seluruh harga saham yang tercatat di Indeks Nikkei 225 dan
divisor adalah angka yang ditentukan oleh otoritas bursa sebagai bilangan pembagi.
Nilai divisor berdasar perhitungan otoritas bursa per April 2009 adalah sebesar
24.656. Bagi saham-saham yang harganya kurang dari 50 yen, maka harga
Hang Seng Index (HSI) adalah indeks komulatif dari 38 saham blue chip
dari Hong Kong stock Market yang merupakan salah satu indeks saham terpercaya,
digunakan para investor dan fund manager untuk berinvestasi. Ke-38 constituent
stock yang dijadikan indikator berasal dari berbagai sektor seperti Industri,
merupakan 70% dari nilai kapitalisasi seluruh nilai saham yang tercatat pada The
Stock Exchange of Hong Kong Ltd. (SEHK). Karena itu naik atau turunnya indeks
diperdagangkan. Pemilik lisensi dari Hang Seng Stock index adalah HIS Service
Limited, yang merupakan subsidiary dari Hang Seng Bank. HIS pertamakali
memakai metode value weighted. Indeks Hang Seng dihitung berdasarkan nilai
dasar 100 pada tanggal 31 Juli 1964. Indeks ini dibagi menjadi empat subindeks,
yaitu perdagangan dan industri, keuangan, utilitas, dan properti. Hang Seng
sebesar US$2,7 triliun pada tahun 2012 (Forbes dalam Andrew Hartanto, 2013).
16
Dalam analisis regresi data dibedakan menjadi dua jenis yaitu kuantitatif
dan kualitatif. Variabel kuantitatif adalah variabel yang dilaporkan dalam bentuk
angka atau metrik. Sedangkan variabel kualitatif adalah variabel yang dilaporkan
tidak dalam keadaan angka atau tidak dalam metrik (Widarjono, 2010).
1. Skala Nominal
Skala nominal adalah pemberian skala dimana skala digunakan hanya untuk
membedakan suatu ukuran dari ukuran yang lain tanpa memberikan atribut
lebih besar atau lebih kecil. Skala ini bersifat sejajar atau sama antara masing-
masing skala.
2. Skala Ordinal
Skala ordinal digunakan untuk menyatakan suatu objek untuk memiliki satu
sifat yang dapat dibandingkan dengan objek yang lain. Skala ini lebih baik
daripada skala nominal karena memberikan nilai lebih besar dan lebih kecil,
3. Skala Interval
Skala interval adalah skala yang memiliki ciri-ciri skala ordinal tetapi jarak
dari masing-masing data bisa diukur. Skala ini dapat digunakan untuk
17
skala ini biasanya menggunakan alat ukur sehingga jarak masing-masing bisa
dicari. Kelemahan dari skala ini adalah tidak memiliki asal mula yang unik
4. Skala Rasio
Skala rasio merupakan pengukuran suatu objek dalam dua tolok ukur yang
berbeda berkaitan satu sama lain dengan rasio tetap. Skala rasio
Harga Saham Gabungan (IHSG) merupakan data skala nominal yang termasuk ke
Istilah “regresi” pertama kali dikemukakan oleh Sir Francis Galton (1822-
1911), seorang antropolog dan ahli meteorologi terkenal dari Inggris. Dalam
yang dimuat dalam Journal of the Anthropological Institute, volume 15, halaman
induknya dalam hal besarnya, namun lebih medioker (lebih mendekati rata-rata)
lebih kecil daripada induknya, kalau induknya besar dan lebih besar daripada
mengetahui hubungan antara variabel tidak bebas (respon) dengan satu atau lebih
parameter model regresi linier (sederhana dan berganda) adalah dengan metode
pendugaan model yang dilakukan berdasarkan pendekatan yang tidak terikat asumsi
bentuk kurva regresi tertentu dimana kurva regresi hanya diasumsikan smooth
(mulus), artinya termuat di dalam suatu ruang fungsi tertentu sehingga regresi
sendiri bentuk estimasi kurva regresinya tanpa dipengaruhi oleh faktor subyektifitas
dapat didekati dengan pendekatan parametrik, karena tidak adanya suatu informasi
mengenai bentuk hubungan variabel respon dan variabel prediktor. Jika bentuk
kurva tidak diketahui dan pola menyebar maka kurva regresi dapat diduga
parametrik, tes nonparametrik paling berlaku untuk data dalam skala ordinal, dan
berlaku juga untuk sampel data skala nominal. Secara umum model regresi
𝑦𝑖 = 𝑓(𝑥𝑖 ) + 𝜀𝑖 (2.1)
dengan :
Fungsi regresi 𝑓(𝑥𝑖 ) hanya diasumsikan termuat dalam suatu ruang fungsi
tertentu, dimana pemilihan ruang fungsi tersebut biasanya dimotivasi oleh sifat
kemulusan (smoothness) yang dimiliki oleh fungsi 𝑓(𝑥𝑖 ) tersebut. Salah satu
keunggulan dalam mengatasi pola data yang menunjukkan naik atau turun yang
tajam dengan bantuan titik-titik knot, serta kurva yang dihasilkan relatif mulus
(Hardle, 1990).
data yang menunjukkan naik turun yang tajam dengan bantuan titik-titik knot, serta
kurva yang dihasilkan relatif mulus. Titik-titik knot ialah perpaduan bersama yang
20
terhadap karakteristik lokal dari suatu fungsi atau data. Spline merupakan potongan
(piecewise) polinomial orde 𝑞 dan memiliki turunan yang kontinu dengan knot
𝑞 𝐾
{𝑥 𝑗 }1 , {(𝑥 − 𝑡𝑘 )𝑞+ }1 (2.2)
𝑓(𝑥) = 𝛽0 + 𝛽1 𝑥 + ⋯ + 𝛽𝑞 𝑥 + ∑ 𝛾𝑘 (𝑥 − 𝑡𝑘 )𝑞+
𝑞 (2.3)
𝑘=1
(𝑥 − 𝑡𝑘 )𝑞 ; 𝑥 − 𝑡𝑘 > 0
(𝑥 − 𝑡𝑘 )𝑞+ = { (2.4)
0 ; 𝑥 − 𝑡𝑘 ≤ 0
dimana 𝑞 menunjukkan orde polinomial dari fungsi spline. Di setiap titik knot,
diharapkan adanya dari fungsi basis antar satu region dengan region lainnya. Oleh
karena itu pada umumnya fungsi basis yang dipilih adalah berbentuk polinomial
𝑔(𝑡𝑖 ) adalah kurva regresi. B-Spline mengatasi kelemahan regresi spline yaitu saat
order spline tinggi, knot yang banyak dan knot yang terlalu dekat akan membentuk
matriks dalam perhitungan yang hampir singular, sehingga persamaan tidak dapat
regresi nonparametrik, maka kurva regresi 𝑔 dapat ditulis sebagai berikut (Eubank,
1988).
𝑚 𝐾
𝑖−1
𝑔(𝑡) = ∑ 𝛼𝑖 𝑡 + ∑ 𝛽𝑖 (𝑡 − 𝑢𝑗 )𝑚−1
+ (2.5)
𝑖=1 𝑗=1
dengan 𝑢𝑗 , 𝑗 = 1,2, . . , 𝐾, dengan 𝑢1 < 𝑢2 < ⋯ < 𝑢𝐾 adalah titik knot dan 𝑚𝜀𝑁0
(integer non negatif). Nilai m menunjukkan derajat spline truncated, yang juga
di titik knot. Jika kurva regresi g didekati dengan fungsi B–Spline maka g dapat
ditulis menjadi.
𝑚+𝐾
Cara membangun fungsi B-spline orde m dengan titik-titk knot 𝑎 < 𝑢𝑗 < ⋯ <
𝑢𝐾 < 𝑏 adalah dengan terlebih dahulu mendefinisikan knot tambahan sebanyak 2m,
⋯ = 𝑢𝐾+𝑚 = 𝑏, biasanya 𝑎 diambil dari nilai minimum t dan 𝑏 diambil dari nilai
𝑡 − 𝑢𝑖 𝑢𝑖+𝑚 − 𝑡
𝛽𝑖−𝑚 (𝑡) = 𝐵𝑖,𝑚−1 (𝑡) + 𝐵 (𝑡) (2.7)
𝑢𝑖+𝑚−1 − 𝑢𝑖 𝑢𝑖+𝑚 − 𝑢𝑖+1 𝑖+1,𝑚−1
sebagai berikut.
linier (𝑚 = 2), dengan satu (1) titik knot, pada 𝑡 = 5, dengan nilai 𝑡 minimum 1
dan nilai 𝑡 maksimum 10. Maka langkahnya adalah menentukan knot tambahan
sebanyak 2𝑚, yaitu diambil dari nilai minimum 1 dan maksimum 10, sehingga knot
adalah 𝛽(𝜆) = (𝐵−1,2 (𝑡𝑖 ), 𝐵0,2 (𝑡𝑖 ), 𝐵1,2 (𝑡𝑖 )) , 𝑖 = 1,2, … , 𝑛 yaitu sebuah matriks
dengan ukuran 𝑛 × 3. Dengan persamaan (2.7), 𝐵−1,2 (𝑡𝑖 ) dapat ditulis sebagai
berikut.
𝐵−1,1 (𝑡) didefinisikan bernilai 0 karena 𝑢−1 = 𝑢0 (Eubank, 1988). Dan 𝐵0,1 (𝑡)
yang lain, sehingga dapat ditulis seperti persamaan (2.8) sebagai berikut.
5−𝑡
𝐵−1,2 (𝑡) = { 4 , 1 < 𝑡 ≤ 5 (2.12)
0, 5 < 𝑡 ≤ 10
23
Sedangkan untuk basis 𝐵0,2 (𝑡) dengan menggunakan persamaan (2.10) dapat
𝑡−1
, 1<𝑡≤5 (2.14)
𝐵0,2 (𝑡) ={ 4
10 − 𝑡
, 5 < 𝑡 ≤ 10
5
Untuk basis 𝐵1,2 (𝑡𝑖 ) dapat menggunakan persamaan (2.11) dan dapat ditulis sebagai
berikut.
𝑡−5 10 − 𝑡
𝐵1,2 (𝑡) = 𝐵1,1 (𝑡) + 𝐵 (𝑡)
10 − 5 10 − 1 2,1
(2.15)
𝑡−5
𝐵1,2 (𝑡) = 𝐵 (𝑡)
10 − 5 1,1
0, 1<𝑡≤5 (2.16)
𝐵1,2 (𝑡) = {𝑡 − 5
, 5 < 𝑡 ≤ 10
5
Untuk kurva B–Spline kuadratik dengan 2 titik knot, misalnya pada 𝑡 = 3 dan 𝑡 =
7 dapat dicari dengan cara yang serupa, dengan hasil sebagai berikut.
(𝑡 − 1)(13 − 3𝑡)
, 1<𝑡≤3
12
𝐵−1,3 (𝑡) = (7 − 𝑡)2 (2.17)
[ ], 3<𝑡≤7
24
{ 0, 7 < 𝑡 ≤ 10
Dengan cara sama, dapat dibuat kurva B–Spline dengan berbagai 𝑚 dan beberapa
titik knots.
24
Partitioning Regression (RPR) merupakan salah satu dari program komputasi yang
memiliki keunggulan dalam mengolah data yang berdimensi tinggi. Tujuan dari
RPR adalah menggunakan data untuk mengestimasi subregion dan parameter yang
𝑎𝑚 merupakan koefisien dari fungsi basis ke- 𝑚 dan fungsi basis 𝐵𝑚 diambil dari
dimana 𝐼 adalah fungsi indikator yang memiliki nilai satu jika 𝑥 ∈ 𝑅𝑚 dan bernilai
0 untuk 𝑥 ∉ 𝑅𝑚 .
1 ,𝜂 ≥ 0 (2.20)
𝐻[𝜂] = {
0, 𝑙𝑎𝑖𝑛𝑛𝑦𝑎
Algoritma 1
𝐵1 (𝑥) ← 1
𝐹𝑜𝑟 𝑚 = 1 𝑡𝑜 𝑀 − 1 do:
𝐹𝑜𝑟 𝑣 = 1 𝑡𝑜 𝑛 𝑑𝑜:
end for
end for
end for
end for
end algorithm
dengan :
𝐾𝑚 : dejarat interaksi
yaitu tidak kontinu pada knot. Namun fungsi basis tersebut memiliki kesamaan
bentuk dengan fungsi basis dari truncated power pada orde 𝑞 = 0. Sehingga
aditif, Friedman mengusulkan untuk tidak menghapus fungsi basis awal atau induk
parent dan pilahan subregion dapat dipilah lebih lanjut, sehingga diperoleh
berulang pada peubah prediktor yang berbeda. Disamping itu dihasilkan pula model
yang lebih fleksibel. Untuk mengatasi adanya diskontinu pada titik knot yang
mengganti H[η] dengan regresi linier splines berordo satu dengan sisi kiri (-) dan
Spline adalah salah satu jenis potongan polinomial, yaitu polinomial yang
memiliki sifat tersegmen. Sifat tersegmen ini memberikan fleksibilitas lebih dari
efektif terhadap karakteristik lokal dari suatu fungsi atau data. Secara umum, fungsi
𝑘−1 ℎ
𝑆 |(𝑡) = ∑ 𝛼𝑖 𝑡 + ∑ 𝛿𝑗 (𝑡 − 𝑢𝑗 )𝑘−1
𝑖 𝑘−1
+ dengan, (𝑡 − 𝑢𝑗 )+
𝑖=0 𝑗=1
(𝑡 − 𝑢𝑗 )𝑘−1 , 𝑡 ≥ 𝑢𝑗 (2.23)
={
0, 𝑡 < 𝑢𝑗
dengan :
[𝑢1 , 𝑢𝑛 ].
nilai 1 (satu) jika pernyataan benar (𝑡 ∈ 𝑅𝑗 ) dan 0 (nol) jika salah, 𝑐𝑗 (𝑡) merupakan
secara manual, karena memiliki dimensi data yang rendah dan hal ini tidak akan
Regression (RPR) karena penentuan knots tergantung (otomatis) dari data. Namun
demikian model ini masih terdapat kelemahan yaitu model yang dihasilkan tidak
Model MARS merupakan salah satu metode yang fleksibel untuk pemodelan
regresi dengan data berdimensi tinggi dengan variabel prediktor (𝑋𝑝 ) dimana 3 ≤
hal yang perlu diperhatikan dalam menggunakan model MARS sebagai berikut
1. Knot
Knot yaitu akhir dari sebuah garis regresi (region) dan awal dari sebuah
garis regresi (region) yang lain. Di setiap titik knot, diharapkan adanya
kontinuitas dari fungsi basis antar satu region dengan region lainnya.
29
hubungan antara variabel respon dan variabel prediktor. Fungsi basis ini
turunan yang kontinu pada setiap titik knot. Friedman menyarankan jumlah
maksimum fungsi basis (BF) adalah 2-4 kali jumlah variabel prediktornya.
3. Interaction / Interaksi
akan menimbulkan interpretasi model yang sangat kompleks dan sulit untuk
titik knot.
kombinasi BF, MI, dan MO untuk mendapatkan nilai dari parameter pemulus yang
minimum. MO yaitu minimum jarak antara knot atau minimum observasi antara
antara titik knot 0, M0 = 1 artinya bahwa di dalam modelnya minimum jarak antara
30
titik knot 1, M0 = 2 artinya bahwa di dalam modelnya minimum jarak antara titik
knot 2, dan M0 = 3 artinya bahwa di dalam modelnya minimum jarak antara titik
maka estimator model MARS dapat ditulis sebagai berikut (Otok et al., 2008).
𝑀 𝐾𝑚
dengan :
𝐾𝑚 : derajat interaksi ke m
𝑠𝑘𝑚 : nilainya 1 atau − 1 jika data berada di sebelah kanan atau kiri titik knot
Algoritma 2
𝐵1 (𝑥) ← 1; 𝑀 ← 2
𝐹𝑜𝑟 𝑚 = 1 𝑡𝑜 𝑀 − 1 do:
𝑀−1
end for
end for
end for
end loop
end algorithm
memenuhi fungsi basis yang memiliki kontribusi kecil terhadap respon dari forward
Algoritma 3
𝐽∗ = [1,2, … , 𝑀𝑚𝑎𝑥 ]; 𝐾 ∗ ← 𝐽∗
end for
end for
end for
end loop
end algorithm
𝑀 𝐾𝑚
𝑦𝑖 = 𝑎0 + ∑ 𝑎𝑚 𝐵𝑚 (𝑥) + εi (2.26)
𝑚=1
𝐾
dengan 𝐵𝑚 (𝑥) = ∏𝑘=1
𝑚
[𝑠𝑘𝑚 . (𝑥𝑣(𝑘,𝑚) − 𝑡𝑘𝑚 )]
Dari model MARS pada persamaan (2.22) dalam bentuk matriks dapat
𝑌 = 𝑩𝒂 + 𝜀 (2.27)
33
dengan :
𝑌 = (𝑦1 . 𝑦2 , 𝑦3 , … , 𝑦𝑛 )𝑇
𝒂 = (𝑎0 , 𝑎1 , 𝑎2 , … , 𝑎𝑀 )𝑇
𝐾1 𝐾𝑀
berikut.
6 2
penjumlahan pertama meliputi semua fungsi basis untuk satu variabel, penjumlahan
kedua meliputi semua fungsi basis untuk interaksi antara dua variabel, penjumlahan
ketiga meliputi semua fungsi basis untuk interaksi antara tiga variabel dan
seterusnya. Dari model MARS pada persamaan (2.27) dapat dijabarkan berikut.
𝑀
𝑓𝑖 (𝑥𝑖 ) merupakan penjumlahan semua fungsi basis untuk satu variabel 𝑥𝑖 dan
menjumlahkan semua fungsi basis untuk tiga variabel, yang dituliskan sebagai
berikut.
𝑀
apabila salah satu asumsi tidak terpenuhi maka merupakan regresi nonparametrik.
1. Normalitas
Apabila asumsi ini terpenuhi, berarti data yang diambil berasal dari populasi
normal yang berarti bahwa 𝜀~𝑁𝐼𝐼𝐷(0, 𝜎 2 ). Asumsi kenormalan data diuji dengan
- Hipotesis :
- Statistik uji :
D = supremum |Sx − F0 |
- Daerah kritis : 𝐻0 di tolak apabila nilai D > Dtabel(N,𝛼) atau sign < 𝛼.
36
grafik Normal P-P Plot. Jika asumsi kenormalan dipenuhi, maka harga-harga
residual akan didistribusikan secara random dan terkumpul disekitar garis lurus
ketidaksamaan variansi dari residual satu pengamatan yang lain. Jika variansi dari
berbeda disebut dengan Heteroskedastisitas. Model yang baik adalah model yang
a. Uji Glejser
Uji Glejser menggunakan nilai mutlak dari residual (absolut residual) sebagai
signifikansi antara variabel independen dengan absolut residual lebih dari 0,05
- Hipotesis :
3. Autokorelasi
variabel random todak saling berkorelasi atau independen. Salah satu cara untuk
mengetahui apakah error berkorelasi atau tidak adalah dengan pengujian stastistik
Durbin-Watson.
- Hipotesis :
𝐻1 : Terjadi autokorelasi
∑𝑁
𝑖=2(𝑒𝑖 −𝑒𝑖−1 )
2
- Statistik uji : 𝑑 = ∑𝑁 2
𝑖=1 𝑒𝑖
- Daerah kritis :
Jika 𝑑𝐿 < 𝑑 < 𝑑𝑈 atau 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿, tidak ditarik kesimpulan.
4. Multikolinieritas
hubungan antara variabel-variabel bebas 𝑋𝑖 dan yang terjadi adalah hubungan yang
cukup erat. Sehingga informasi yang dihasilkan dari variabel-variabel yang saling
berhubungan (kolinier) sangat mirip dan sulit dipisahkan pengaruhnya. Hal ini juga
1
𝑉𝐼𝐹(𝑋𝑖 ) =
(1 − 𝑅𝑖2 )
dimana 𝑖 = 1,2,3, … , 𝑛
Nilai VIF yang semakin besar akan menunjukkan multikolinieritas yang lebih
kompleks. Jika nilai VIF < 10, maka secara signifikan dapat disimpulkan bahwa
Estimasi dari kurva regresi 𝑓(𝑥) secara umum diperoleh melalui penalized
𝑛 𝑏
1 2 2
∑(𝑦𝑖 − 𝑓(𝑥𝑖 )) + 𝛿 2 ∫(𝑓 𝑚 (𝑥)) 𝑑𝑥 (2.35)
𝑛
𝑖=1 𝑎
Dari persamaan (2.27), maka 𝑓̂(𝑥𝑖 ) = 𝑩𝒂, sehingga persamaan (2.36) menjadi
39
𝑛
1 2 𝑇
∑(𝑦𝑖 − 𝑩𝒂) = (𝑌 − 𝑩𝒂) (𝑌 − 𝑩𝒂) = 𝑇 (2.37)
𝑛
𝑖=1
𝑇 = (𝑌 𝑻 𝑌 − 𝒂𝑻 𝑩𝑻 𝑌 − 𝑌 𝑻 𝑩𝒂 + 𝒂𝑻 𝑩𝑻 𝑩𝒂)
𝑇 = (𝑌 𝑻 𝑌 − 𝟐𝒂𝑻 𝑩𝑻 𝑌 + 𝒂𝑻 𝑩𝑻 𝑩𝒂)
𝜕𝑇
= −2𝑩𝑻 𝑌 + 𝟐𝑩𝑻 𝑩𝒂 = 0
𝜕𝒂
−𝑩𝑻 𝑌 + 𝑩𝑻 𝑩𝒂 = 0
−𝑩𝑻 𝑌 = 𝑩𝑻 𝑩𝒂
̂ = (𝑩𝑻 𝑩)−𝟏 𝑩𝑻 𝒀
𝒂
𝑘
dengan 𝑩 = [1, (𝑥1𝑚(1,𝑚) − 𝑧1𝑚 )1 ], 𝒀 = (𝑌1 , … , 𝑌𝑛 )𝑇 , dan 𝒂 = (𝑎1 , … , 𝑎𝑚 )𝑇 .
𝑌̂ = 𝑩𝒂
̂
𝑌̂ = 𝑩(𝑩𝑻 𝑩)−𝟏 𝑩𝑻 𝒀
𝑌̂ = 𝑯𝒀
MARS, Generalized Cross Validation (GCV) adalah kriteria yang paling baik
1 𝑛 2
∑𝑖=1[𝑦𝑖 − 𝑓̂𝑀 (𝑥𝑖 )]
𝐺𝐶𝑉 = 𝑛
(2.38)
𝐶(𝑀̂) 2
[1 − 𝑛 ]
dimana:
𝑦𝑖 : variabel respon ke 𝑖
𝑛 : banyaknya data
̂)
𝐶(𝑀 : 𝐶(𝑀) + 𝑑𝑀
diawali menentukan knot dan fungsi basis setiap variabel prediktor dengan cara
mem-plot setiap variabel prediktor dengan variabel respon. Jumlah knot yang
dilakukan tahap maju (forward) dan tahap mundur (backward) algoritma recursive
dengan perilaku data. Gambaran secara umum algoritma MARS adalah sebagai
1. Forward Stepwise
terdiri dari forward dan backward. Forward stepwise dilakukan untuk mendapatkan
jumlah fungsi basis maksimum dan kriteria pemilihan fungsi basis adalah
Pada tahap ini dimungkinkan untuk memasukkan fungsi basis baru ke dalam
model. Maksimal fungsi basis yang akan masuk di dalam model ditentukan oleh
c. Misalkan 𝐵𝑚 adalah salah satu fungsi basis yang sudah ada didalam model
d. Ulangi langkah (c) sehingga banyaknya fungsi basis dalam model lebih atau
2. Backward Stepwise
model dengan fungsi basis dengan jumlah yang sangat banyak. Dalam prakteknya,
biasanya maksimum banyaknya fungsi basis yang akan digunakan dalam model
dibatasi. Demikian juga dengan derajat interaksi, yang seringkali hanya dibatasi
hanya sampai derajat tiga. Dengan pembatasan tersebut, prosedur forward tersebut
tetap memberikan model dengan fungsi basis yang sangat banyak. Terkait dengan
model yang kompleks ini, harus dilakukan penghapusan beberapa fungsi basis,
berikut.
a. Mulai dari model yang diperoleh pada tahap prosedur forward yang
b. Hapus salah satu fungsi basis tidak konstan yang memiliki kontribusi
kontribusi terkecil adalah fungsi basis yang jika dihilangkan dari model
sisaan terkecil.
konstan.
menghasilkan model yang kontinu pada knot. Penentuan knot pada MARS
jumlah fungsi basis dengan kriteria pemilihan fungsi basis adalah meminimumkan
43
(model yang sederhana) dilakukan backward stepwise yaitu membuang fungsi basis
yang memiliki kontribusi kecil terhadap respon dari forward stepwise dengan
hal yang perlu diperhatikan dalam pemilihan model yang paling optimum (terbaik)
adalah jika nilai GCV dari model tersebut mempunyai nilai yang paling rendah
sebagai berikut.
1 𝑛 2
𝐴𝑆𝑅 ∑𝑖=1[𝑦𝑖 − 𝑓̂𝑀 (𝑥𝑖 )]
𝐺𝐶𝑉(𝑀) = 𝑛
2 =
̂)
𝐶(𝑀 𝐶(𝑀̂) 2
[1 − 𝑛 ] [1 − 𝑛 ]
dengan :
𝑦𝑖 : variabel respon
𝑛 : banyaknya pengamatan
̂ ) : 𝐶(𝑀) + 𝑑𝑀
𝐶(𝑀
𝑘 𝑘
Π𝑘=1
1
(𝑆1𝑀 (𝑋1(1,𝑚) − 𝑡1𝑀 )) ⋯ Π𝑘=1
𝑚
(𝑆𝑘𝑚𝑀 (𝑋1(𝑘𝑚,𝑚) − 𝑡𝑘𝑚𝑀 ))
𝐵=[ ⋮ ⋱ ⋮ ]
𝑘1 𝑘𝑚
Π𝑘=1 (𝑆1𝑀 (𝑋𝑛(1,𝑚) − 𝑡1𝑀 )) ⋯ Π𝑘=1 (𝑆𝑘𝑚𝑀 (𝑋𝑛(𝑘𝑚,𝑚) − 𝑡𝑘𝑚𝑀 ))
Forward stepwise dilakukan untuk mendapatkan fungsi dengan jumlah fungsi basis
44
kriteria GCV terkecil, apabila memiliki nilai GCV terkecil yang sama dapat dilihat
dengan pertimbangan nilai MSE terkecil, dan apabila masih memiliki nilai MSE
yang sama maka dapat dilihat dengan pertimbangan nilai 𝑅 2 terbesar. Untuk
Selanjutnya 𝑌 ∗ 𝛽̂ = 𝑍𝜆̂ dan matriks Hat, 𝑆(𝛿 2 ) = 𝑍(𝐼 + 𝛿 2 𝑄)−1 𝑍 𝑇 dengan derajat
Bukti :
𝑌 ∗𝑇 𝑌 ∗ + 𝛿 2 𝐷 = 𝑅 −1 (𝑅 −1 )𝑇 + 𝛿 2 𝐷
= 𝑅 −1 (𝑅−1 )𝑇 + 𝑅 −1 𝑅𝛿 2 𝐷𝑅 𝑇 (𝑅 −1 )𝑇
= 𝑅 −1 (𝐼 + 𝛿 2 𝑅𝐷𝑅 𝑇 )(𝑅 −1 )𝑇
terhadap data dan kemulusan kurva. Dengan diperoleh 𝛿 2 optimal maka estimator
Teorema 2.2 (Freidman and Silverman, 1989) Misalkan digunakan model MARS
Friedman pada persamaan (2.39) maka 𝛿 2 optimal diperoleh dengan kriteria GCV
sebagai berikut.
1 𝑁 2
∑𝑡=1 (𝑦𝑡 − 𝑓̂(𝑦𝑡−𝑝 , 𝜃))
𝐺𝐶𝑉(𝑀) = 𝑁
𝐶(𝑀 ̃) 2
{1 − 𝑁 }
dengan :
secara parsial.
46
a. Rumusan hipotesis :
b. Taraf signifikansi : α
c. Statsitik uji :
(𝑦̂𝑖 − 𝑦̂)2
∑𝑛𝑖=1
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 𝑀
(𝑦̂ − 𝑦̂)2
∑𝑛𝑖=1 𝑖
𝑁−𝑀−1
d. Daerah kritis :
a. Rumusan hipotesis:
b. Taraf signifikan : α
c. Statistik Uji :
𝑎̂𝑚
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 =
𝑆𝑒(𝑎̂𝑚 )
dengan
d. Daerah kritis:
47
(MARS) diantaranya.
secara keseluruhan adalah 97,4% dengan nilai GCV yaitu 0,096 dan 𝑅 2
sebesar 82,9%.
model dari metode ini mampu meramal curah hujan antara 30% − 70%.
Metode ASTAR mempunyai daya ramal mencapai 60% hingga lebih 90%
terbesar.
BF, dan MI secara trial and error. Model MARS digunakan untuk
(BF=24, MI=3, dan MO=1) karena memiliki nilai GCV paling kecil yaitu
pertama Januari 2011 sampai dengan minggu ke empat Februari 2012. Data
51
perdagangan terakhir. Hasil perbandingan nilai MSE dari data IHSG yang
sering fluktuatif pada tiga analisis diperoleh nilai MSE terkecil adalah pada
dan badwidth h sebesar 58,2 dengan nilai MSE = 6987,787. Model terbaik
Indeks Harga Saham Gabungan (IHSG), Kurs, dan Minyak Dunia dengan
diagnosa. Data yang digunakan dalam penelitian ini adalah Indek Harga
Saham Gabungan (IHSG), kurs, dan harga minyak dunia pada periode 2011-
2012. Dari hasil analisis diperoleh model VAR yang sesuai adalah VAR (4,
1, 0) dengan nilai AIC terkecil sebesar 15,7437. Selain itu, hasil MAPE dan
RMSE pada ketiga variabel yaitu variabel IHSG sebesar 1,85 dan 88,076;
variabel kurs sebesar 0,89 dan 84,9237; sedangkan variabel harga minyak
Peramalan Indeks Harga saham dapat dilakukan dengan metode time series.
Amerika, FTSE 100 London, Hang Seng Index (HSI) Hongkong, Nikkei
225 (N225) Jepang, dan Strait Time Index (STI) Singapura. Melalui metode
multivariate tidak hanya bisa meramal indeks harga saham, namun juga bisa
melihat keterkaitan harga saham antara satu negara dengan yang lain.
kedua model, ARIMA dan VAR tersebut memberikan hasil bahwa beberapa
model univariate.
dengan pendekatan kurva regresi nonparametrik juga cocok pada penelitian Indeks
Harga Saham Gabungan (IHSG) karena data nominal dengan pendekatan regresi
Validation (GCV) minimum. Sehingga guna menekan kerugian para investor dan
Gambar 2.3 terdapat record mengenai banyaknya data, variabel penelitian, karakter,
Gambar 2.4 merupakan tampilan data penelitian yang sudah di standarisasikan dan
Gambar 2.6 merupakan tampilan model MARS pada SPM 7. Pilih sort yaitu File
Order, pilih target yaitu Y, centang select predictors prediktor pada variabel
prediktor terhadap Y, analysis type yaitu regression, analysis method yaitu MARS.
Gambar 2.7 merupakan model Fungsi basis (BF), Maksimum Interaksi (MI), dan
METODE PENELITIAN
Dalam studi pustaka ini digunakan sumber pustaka yang relevan yang
pustaka dengan mengumpulkan sumber pustaka yang dapat berupa buku, teks,
penelaahan sumber pustaka tersebut. Pada akhirnya sumber pustaka itu dijadikan
Dalam penelitian ini, perlu adanya studi pustaka yang berkaitan dengan
Gabungan (IHSG), inflasi, tingkat suku bunga di Indonesia, nilai tukar (kurs)
tengah rupiah bulanan terhadap dolar Amerika, indeks saham Dow Jones, indeks
saham Nikkei 225, indeks saham Hang Seng, SPSS versi 16.0, dan software SPM
57
58
menjadi sangat penting karena hal ini menjadi dasar dan tujuan akhir dilakukan
penelitian ini. Masalah yang diangkat dalam penelitian ini adalah menentukan
Saham Gabungan (IHSG), membuat pemprograman dengan SPSS versi 16.0 dan
SPM 7 agar dapat dimanfaatkan sebagai upaya untuk menentukan model MARS
besar tingkat pentingnya variabel prediktor terhadap model terbaik yang diperoleh.
yang diperoleh ?
Data yang digunakan dalam penelitian ini adalah data sekunder, yaitu data
yang diperoleh dari sumber yang telah dipublikasikan oleh Bank Indonesia melalui
tukar (kurs) tengah rupiah bulanan terhadap dolar Amerika diperoleh dari situs
Jones, indeks saham Nikkei 225, dan indeks Hang Seng diperoleh dari
www.yahoo.finance.com.
Adaptive Regression Splines (MARS) pada variabel prediktor Indeks Harga Saham
(GCV). Kemudian, model MARS diperoleh dari kombinasi nilai BF, MI, dan MO
secara trial and error. Model terbaik MARS dilihat dari nilai GCV terkecil.
Dalam penelitian ini terdapat satu variabel respon (𝑌) yaitu Indeks Harga
Saham Gabungan (IHSG) dan terdapat enam variabel prediktor (𝑋) yaitu Inflasi
bulanan (𝑋1 ), Suku Bunga di Indonesia bulanan (𝑋2 ), Nilai Tukar (Kurs) Rupiah
bulanan terhadap Dolar Amerika bulanan (𝑋3 ) di Indonesia, Indeks saham Dow
Jones (𝑋4 ), Indeks saham Nikkei 225 (𝑋5 ), dan Indeks Hang Seng (𝑋6 ) dimulai
Dalam penelitian ini software yang digunakan yaitu software SPSS versi
1. Melakukan statistik deskriptif dan grafik plot antara variabel respon IHSG
yang dibolehkan adalah sebanyak dua sampai empat kali dari banyaknya
(GCV) yang terkecil yang diperoleh dari kombinasi antara BF, MI, dan MO.
dengan uji koefisien regresi secara simultan (Uji F) maupun secara parsial
(Uji t). Apabila tidak terjadi kecocokan model maka mengembalikan nilai asli
Mulai
Input Data
Membuat Scatterplot
Tidak Pengurangan
Pengujian Parameter Model Regresi
Varibel Prediktor
Nonparametrik
Ya
Melakukan Standarisasi
Estimasi Model
Mengembalikan
Tidak
Menguji signifikansi Model MARS Nilai Asli Setiap
Ya Variabel
Interpretasi Model MARS terbaik
Selesai
Simpulan yang diambil dari penelitian ini adalah tentang bagaimana melakukan
SPM 7. Model MARS diperoleh dari kombinasi nilai BF, MI, dan MO. Model
4.1 Hasil
akan terdiri dari beberapa tahap penelitian untuk dapat menjawab pertanyaan-
variabel respon (𝑌) yaitu Indeks Harga Saham Gabungan (IHSG) maupun variabel
prediktor (𝑋) yaitu Inflasi bulanan (𝑋1 ), Suku Bunga di Indoensia bulanan (𝑋2 ),
Nilai Tukar (Kurs) Rupiah bulanan terhadap Dolar Amerika bulanan di Indonesia
(𝑋3 ), Indeks saham Dow Jones (𝑋4 ), Indeks saham Nikkei 225 (𝑋5 ), dan Indeks
saham Hang Seng (𝑋6 ). Selanjutnya dilakukan uji asumsi model regresi yaitu uji
Apabila terdapat uji asumsi yang tidak terpenuhi maka termasuk model regresi
Indonesia
Bank Indonesia setiap bulannya mulai Bulan September 2010 hingga September
2015.
64
65
dengan banyaknya data sebesar 61 buah yaitu masing-masing sebesar 5518,68 dan
3409,17 dengan rata-rata sebesar 4398,1. Gambar 4.1 menunjukkan grafik indeks
oleh Bank Indonesia setiap bulanannya mulai Bulan September 2010 hingga
September 2015.
Y IHSG
6000
5000
4000
IHSG
3000
2000
1000
0
Juni
Juni
Juni
Juni
Juni
Desember
Desember
Desember
Desember
Desember
Maret
Maret
Maret
Maret
Maret
September
September
September
September
September
September
Gambar 4.1 menunjukkan nilai IHSG yang cenderung trend atau mengalami
kenaikan walaupun terdapat beberapa bulan yang turun. Beberapa faktor yang
mempengaruhi IHSG yaitu tingkat inflasi, suku bunga di Indonesia, nilai tengah
66
(kurs) Rupiah terhadap Dolar Amerika, indeks Dow Jones, indeks Nikkei 225, dan
61 buah yaitu masing-masing sebesar 8,79 dan 3,56 dengan rata-rata sebesar
publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai Bulan
X1_INFLASI
10
INFLASI
8
6
4
2
0
Januari
Januari
Januari
Januari
Januari
September
September
September
September
September
September
Mei
Mei
Mei
Mei
Mei
Gambar 4.2 menunjukkan nilai Inflasi yang cenderung naik turun disetiap bulan.
Gambar 4.3 menunjukkan scatterplot antara variabel IHSG (Y) dengan variabel
Inflasi (𝑋1).
Gambar 4.3 menunjukkan pola penyebaran data inflasi terhadap IHSG yang
bentuk kurva tidak diketahui, dan bentuk pola menyebar. Pendekatan regresi
nonparametrik berlaku untuk data skala ordinal dan data skala nominal.
banyaknya data sebesar 61 buah yaitu masing-masing sebesar 7,75 dan 5,75 dengan
rata-rata sebesar 6,7254. Gambar 4.4 menunjukkan grafik suku bunga di Indonesia
berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai
X2_SBI
9
8
SUKU BUNGA
7
6
5
4
3
2
1
0
September
September
September
September
September
September
Desember
Desember
Desember
Desember
Desember
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
Gambar 4.4 menunjukkan nilai suku bunga di Indonesia di beberapa bulan berturut-
turut stabil. Gambar 4.5 menunjukkan scatterplot antara variabel IHSG (Y) dengan
Gambar 4.5 menunjukkan pola penyebaran data suku bunga di Indonesia terhadap
IHSG yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti
yaitu Kurs Tengah Rupiah terhadap Dolar Amerika. Tabel 4.4 memperlihatkan
Nilai maksimum dan minimum dari variabel kurs tengah rupiah dengan banyaknya
data sebesar 61 buah yaitu masing-masing sebesar 14396,10 dan 8532,00 dengan
rata-rata sebesar 1050,9. Gambar 4.6 menunjukkan grafik kurs tengah rupiah di
X3_KURS
16000
14000
KURS TRNGAH
12000
10000
8000
6000
4000
2000
0
Desember
Desember
Desember
Desember
Desember
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
September
September
September
September
September
September
2010 2011 2012 2013 2014 2015
TAHUN
Gambar 4.6 menunjukkan nilai kurs tengah rupiah terhadap Dolar Amerika
variabel IHSG (Y) dengan variabel kurs tengah rupiah terhadap Dolar Amerika
(𝑋3).
71
Gambar 4.7 menunjukkan pola penyebaran data kurs tengah rupiah terhadap IHSG
yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti suatu
yaitu indeks Dow Jones. Tabel 4.5 memperlihatkan statistik deskriptif mengenai
Nilai maksimum dan minimum dari variabel indeks Dow Jones dengan banyaknya
data sebesar 61 buah yaitu masing-masing sebesar 18132,70 dan 10788,05 dengan
rata-rata sebesar 14526. Gambar 4.7 menunjukkan grafik indeks Dow Jones
berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai
X4_DOW JONES
20000
18000
16000
DOW JONES
14000
12000
10000
8000
6000
4000
2000
0
Desember
Desember
Desember
Desember
Desember
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
Maret
Juni
September
September
September
September
September
September
2010 2011 2012 2013 2014 2015
TAHUN
Gambar 4.7 menunjukkan nilai indeks Dow Jones cenderung trend atau mengalami
kenaikan yang stabil. Gambar 4.8 menunjukkan scatterplot antara variabel IHSG
Gambar 4.8 menunjukkan pola data indeks Dow Jones terhadap IHSG yang
cenderung naik atau trend tetapi dilihat keseluruhan pola data indeks Dow Jones
terhadap IHSG menyebar, sehingga sulit untuk menentukan data tersebut mengikuti
yaitu Indeks Nikkei 225. Tabel 4.6 memperlihatkan statistik deskriptif mengenai
Nilai maksimum dan minimum dari indeks Nikkei 225 dengan banyaknya data
sebesar 61 buah yaitu masing-masing sebesar 20585,24 dan 8434,61 dengan rata-
rata sebesar 12909. Gambar 4.9 menunjukkan grafik indeks Nikkei 225 berdasarkan
publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai Bulan
X5_NIKKEI 225
25000
20000
NIKKEI 225
15000
10000
5000
0
Desember
Juni
Desember
Juni
Desember
Juni
Desember
Juni
Desember
Juni
Maret
September
Maret
Maret
Maret
Maret
September
September
September
September
September
Gambar 4.9 menunjukkan nilai indeks Nikkei 225 cenderung trend atau mengalami
Gambar 4.10 menunjukkan pola penyebaran data indeks Nikkei 225 terhadap IHSG
yang cenderung naik atau trend tetapi dilihat keseluruhan pola data indeks Nikkei
225 terhadap IHSG menyebar, sehingga sulit untuk menentukan data tersebut
yaitu Indeks Hang Seng. Tabel 4.7 memperlihatkan statistik deskriptif mengenai
Nilai maksimum dan minimum dari indeks Hang Seng dengan banyaknya data
sebesar 61 buah yaitu masing-masing sebesar 28133,00 dan 17592,41 dengan rata-
rata sebesar 22462. Gambar 4.11 menunjukkan grafik indeks Hang Seng
berdasarkan publikasi yang dilakukan oleh Bank Indonesia setiap bulanannya mulai
X6_HANG SENG
30000
25000
HANG SENG
20000
15000
10000
5000
0
Desember
Desember
Maret
Juni
Desember
Maret
Juni
Maret
Juni
Desember
Maret
Juni
Desember
Maret
Juni
September
September
September
September
September
September
2010 2011 2012 2013 2014 2015
TAHUN
Gambar 4.11 menunjukkan nilai indeks Hang Seng cenderung naik turun di setiap
bulan. Gambar 4.12 menunjukkan scatterplot antara variabel IHSG (Y) dengan
Gambar 4.12 menunjukkan pola penyebaran data indeks Hang Seng terhadap IHSG
yang menyebar, sehingga sulit untuk menentukan data tersebut mengikuti suatu
klasik. Apabila memenuhi asumsi regresi klasik maka termasuk model regresi
parametrik, dan sebaliknya apabila terdapat salah satu uji tidak memenuhi asumsi
regresi klasik maka termasuk model regresi nonparametrik dan dapat menggunakan
metode MARS.
Berdasarkan Gambar 4.13 terlihat bahwa titik menyebar disekitar garis lurus
normal.
- Hipotesis :
- Daerah kritis : 𝐻0 di tolak apabila nilai D > Dtabel(N,𝛼) atau sign < 𝛼.
79
SUKU
BUNG DOW NIKKEI HANG
IHSG INFLASI A KURS JONES 225 SENG
N 61 61 61 61 61 61 61
Normal Mean 4398, 6,725 14525,5 22462,3
5,9570 10509 12909
Parametersa 1 4 915 748
Std. 576,6 0,746 2270,58 2088,84
1,49369 1656,36 3781,39
Deviation 39 81 139 048
Most Extreme Absolute 0,100 0,161 0,227 0,215 0,161 0,190 0,101
Differences Positive 0,081 0,161 0,167 0,215 0,161 0,190 0,084
Negative -0,100 -0,072 -0,227 -0,116 -0,125 -0,118 -0,101
Kolmogorov-Smirnov Z 0,783 1,255 1,775 1,682 1,257 1,480 0,791
Asymp. Sig. (2-tailed) 0,572 0,086 0,004 0,007 0,085 0,025 0,558
- Keputusan :
(𝑌) = 0,572, inflasi (𝑋1 ) = 0,86, nilai kurs tengah (𝑋3 ) = 0,07, indeks
Dow Jones (𝑋4 ) = 0,85, dan indeks Hang Seng (𝑋6 ) = 0,558 lebih dari
(𝑋2 ) = 0,04 dan indeks Nikkei 225 (𝑋5 ) = 0,025 kurang dari 𝛼 = 0,05
- Kesimpulan :
Uji Glejser :
- Hipotesis :
- Keputusan :
Berdasarkan Tabel 4.9 dengan ABS RES sebagai variabel respon, didapat nilai
- Kesimpulan :
- Hipotesis :
𝐻1 : Terjadi autokorelasi
- Statistik uji :
∑𝑁
𝑖=2(𝑒𝑖 − 𝑒𝑖−1 )
2
𝑑=
∑𝑁 2
𝑖=1 𝑒𝑖
82
- Daerah kritis
Jika 𝑑𝐿 < 𝑑 < 𝑑𝑈 atau 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿, tidak dapat ditarik kesimpulan
Std. Error
R Adjusted of the
Model R Square R Square Estimate Durbin-Watson
𝑎
1 0,959 0,919 0,910 0,03956 1,067
a. Predictors : (Constant), HANG SENG, INFLASI, KURS, SUKU BUNGA,
DOW JONES, NIKKEI 225
b. Dependent Variable: lag_Y
- Keputusan :
didapat:
- Kesimpulan :
Uji ini mengetahui apakah ada korelasi antar variabel prediktor. Ada
Karena nilai VIF (𝑋𝑖 ) untuk 𝑋1 , 𝑋2 , 𝑋4 , dan 𝑋6 ≤ 10, maka tidak ada
multikolinieritas. Sedangkan, nilai VIF (𝑋𝑖 ) untuk 𝑋3 dan 𝑋5 > 10, maka ada
terdapat asumsi yang tidak memenuhi yaitu terjadi autokorelasi, sehingga data
mempengaruhinya antara lain inflasi (𝑋1 ), suku bunga di Indonesia (𝑋2 ), nilai kurs
tengah (𝑋3 ), indeks Dow Jones (𝑋4 ), indeks Nikkei 225 (𝑋5 ), dan indeks Hang
Seng (𝑋6 ). Variabel respon (𝑌) dalam penelitian ini adalah indeks harga saham
gabungan (IHSG). Dalam penelitian ini satuan dalam masing-masing variabel tidak
GCV minimum. Nilai GCV minimum diperoleh dengan cara trial end error dalam
minimum observasi (MO). Nilai dari BF sebesar 12, 18, dan 24. Sedangkan nilai
Model BF MI MO GCV
1 12 1 0 0,08571
2 12 1 1 0,07935
3 12 1 2 0,08218
4 12 1 3 0,08173
5 12 2 0 0,09628
6 12 2 1 0,09971
7 12 2 2 0,09985
8 12 2 3 0,10332
9 12 3 0 0,09628
10 12 3 1 0,10632
11 12 3 2 0,09985
12 12 3 3 0,10332
13 18 1 0 0,08892
14 18 1 1 0,05640
85
Model BF MI MO GCV
15 18 1 2 0,05974
16 18 1 3 0,06542
17 18 2 0 0,10424
18 18 2 1 0,07229
19 18 2 2 0,07561
20 18 2 3 0,08287
21 18 3 0 0,09358
22 18 3 1 0,09861
23 18 3 2 0,09390
24 18 3 3 0,07325
25 24 1 0 0,09102
26 24 1 1 0,05768
27 24 1 2 0,06294
28 24 1 3 0,06985
29 24 2 0 0,08720
30 24 2 1 0,07297
31 24 2 2 0,07598
32 24 2 3 0,09092
33 24 3 0 0,10363
34 24 3 1 0,08677
35 24 3 2 0,08118
36 24 3 3 0,07686
terkecil. Nilai GCV dihasilkan dari mengkombinasikan jumlah fungsi basis (BF),
maksismum interaksi (MI), dan minimum observasi (MO) secara trial end error
yaitu dari kombinasi BF=18, MI=1, dan MO=1 karena memiliki nilai GCV
dengan :
menggunakan model MARS dengan nilai GCV terkecil adalah Inflasi (𝑋1 ), Tingkat
Suku Bunga (𝑋2 ), Kurs (𝑋3 ), indeks Dow Jones (𝑋4 ), dan indeks Nikkei 225 (𝑋5 ).
Sedangkan, indeks Hang Seng (𝑋6 ) tidak mempengaruhi IHSG. Sehingga, variabel
prediktor indeks Hang Seng (𝑋6 ) hilang dan tidak terdapat di dalam persamaaan
a. Rumusan hipotesis:
(model signifikan).
b. Taraf signifikansi:
𝛼 = 0,05
c. Statistik Uji :
(𝑦̂𝑖 − 𝑦̂)2
∑𝑛𝑖=1
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 𝑀
𝑛 (𝑦̂𝑖 − 𝑦̂)2
∑𝑖=1
𝑁−𝑀−1
d. Daerah kritis :
f. Kesimpulan :
a. Rumusan hipotesis:
(model signifikan).
b. Taraf signifikansi:
𝛼 = 0,05
c. Statistik Uji:
𝑎̂𝑚
𝑡ℎ𝑖𝑡𝑢𝑛𝑔 =
𝑆𝑒(𝑎̂𝑚 )
dengan
d. Daerah kritis:
e. Keputusan :
f. Kesimpulan :
Gabungan (IHSG).
pengujian koefisiensi simultan (Uji F) dan pengujian koefisiensi parsial (Uji t),
didapat dari uji keduanya bahwa model terbaik MARS dengan variabel prediktor
yang mempengaruhi IHSG diantaranya Inflasi (𝑋1 ), Tingkat Suku Bunga (𝑋2 ),
Kurs (𝑋3 ), indeks Dow Jones (𝑋4 ), dan indeks Nikkei 225 (𝑋5 ) signifikan.
90
Sehingga, model tersebut cocok digunakan untuk Indeks Harga Saham Gabungan
(IHSG).
Hasil kombinasi antara BF, MI, dan MO yang telah dilakukan secara trial
variabel prediktor yang mempengaruhi variabel respon yaitu Inflasi (𝑋1 ), Tingkat
Suku Bunga (𝑋2 ), Kurs (𝑋3 ), Dow Jones (𝑋4 ), dan Nikkei 225 (𝑋5 ). Fungsi basis
𝐵𝐹1 , 𝐵𝐹2 , 𝐵𝐹4 , 𝐵𝐹6 , 𝐵𝐹10 , 𝐵𝐹12 , 𝐵𝐹14 , dan 𝐵𝐹16 . Interpretasi MARS pada
Artinya bahwa setiap kenaikan 𝐵𝐹1 akan menambah nilai indeks harga saham
gabungan (IHSG) sebesar 0,910129 pada indeks saham Dow Jones dengan
Artinya bahwa setiap kenaikan 𝐵𝐹2 akan mengurangi nilai indeks harga
saham gabungan (IHSG) sebesar 0,467099 pada inflasi dengan nilai baku
Artinya bahwa setiap kenaikan 𝐵𝐹4 akan mengurangi nilai indeks harga
saham gabungan (IHSG) sebesar 6,69852 pada kurs dengan nilai baku
Artinya bahwa setiap kenaikan 𝐵𝐹6 akan menambah nilai indeks harga saham
gabungan (IHSG) sebesar 6,40946 pada kurs dengan nilai baku persentase
Artinya bahwa setiap kenaikan 𝐵𝐹10 akan menambah nilai indeks harga
Artinya bahwa setiap kenaikan 𝐵𝐹12 akan mengurangi nilai indeks harga
saham gabungan (IHSG) sebesar 5,21855 pada kurs dengan nilai baku
Artinya bahwa setiap kenaikan 𝐵𝐹14 akan menambah nilai indeks harga
saham gabungan (IHSG) sebesar 3,10062 pada kurs dengan nilai baku
Artinya setiap kenaikan 𝐵𝐹16 akan mengurangi nilai indeks harga saham
gabungan (IHSG) sebesar 0,984699 pada indeks saham Nikkei 225 dengan
pengelompokan dari tingkat tinggi hingga terendah adalah variabel Inflasi (𝑋1 ),
nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow
Jones (𝑋4 ), tingkat suku bunga di Indonesia (𝑋2 ), indeks saham Nikkei 225 (𝑋5 ),
model terbaik yang diperoleh secara signifikan mempengaruhi Indeks Harga Saham
Gabungan (IHSG) berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah
rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat suku
93
bunga di Indonesia (𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat
dan 32,75410%. Inflasi (𝑋1 ) dengan tingkat pentingnya 100% artinya bahwa Inflasi
Gabungan (IHSG), nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 )
dengan tingkat pentingnya 86,54114% artinya bahwa nilai tukar (kurs) tengah
indeks harga saham gabungan (IHSG) sebesar 86,54114%, indeks saham Dow
Jones (𝑋4 ) dengan tingkat pentingnya 84,31259% artinya bahwa indeks saham
Dow Jones memiliki tingkat pentingnya yang mempengaruhi indeks harga saham
sebesar 38,18755%, dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya
32,75410% artinya bahwa indeks saham Nikkei 225 memiliki tingkat pentingnya
4.2 Pembahasan
diketahui dan menyebar. Selain itu, untuk mengetahui data tersebut menggunakan
94
salah satu atau beberapa asumsi model regresi yang tidak terpenuhi, maka
prediktor dan dilakukan langkah dari awal. Berdasarkan uji asumsi model regresi
tersebut terdapat asumsi regresi yang tidak terpenuhi yaitu terjadi autokorelasi
inflasi (𝑋1 ), suku bunga di Indonesia (𝑋2 ), nilai kurs tengah (𝑋3 ), indeks Dow
Jones (𝑋4 ), indeks Nikkei 225 (𝑋5 ), dan indeks Hang Seng (𝑋6 ). Variabel respon
(𝑌) dalam penelitian ini adalah indeks harga saham gabungan (IHSG).
variabel-variabel prediktor yaitu agar memiliki skala nilai yang sama. Selanjutnya,
model MARS diperoleh dari kombinasi nilai BF, MI, dan MO secara trial end error
untuk memperoleh model MARS terbaik dilihat dari kriteria nilai GCV terkecil.
Karena pada penelitian ini terdapat 6 variabel prediktor sehingga maksimum jumlah
BF adalah 12, 18, dan 24, maksimum interaksi (MI) adalah 1, 2, dan 3, minimum
dihasilkan model terbaiknya yaitu dari kombinasi BF=18, MI=1, dan MO=1 karena
95
memiliki nilai GCV minimum sebesar 0,05640 dengan persamaan model sebagai
berikut.
dengan :
max(0, ZX2 − 1,0372); BF12 = max(0, ZX3 − 1,54402); BF14 = max(0, ZX3 −
bahwa setiap kenaikan BF1 akan menambah nilai Indeks Harga Saham Gabungan
(IHSG) sebesar 0,910129 pada indeks saham Dow Jones dengan nilai baku
persentase lebih dari −1,64607; −0,467099∗ BF2 yang artinya bahwa setiap
kenaikan BF2 akan mengurangi nilai Indeks Harga Saham Gabungan (IHSG)
sebesar 0,467099 pada inflasi dengan nilai baku persentase lebih dari −0,433188;
−6,69852∗ BF4 yang artinya bahwa setiap kenaikan BF4 akan mengurangi nilai
Indeks Harga Saham Gabungan (IHSG) sebesar 6,69852 pada kurs dengan nilai
persentase lebih dari −0,474128; 6,40946∗ BF6 yang artinya bahwa setiap
kenaikan BF6 akan menambah nilai Indeks Harga Saham Gabungan (IHSG) sebesar
6,40946 pada kurs dengan nilai baku lebih dari −0,609492; 1,70298∗ BF10 yang
96
artinya bahwa setiap kenaikan BF10 akan menambah nilai Indeks Harga Saham
Gabungan (IHSG) sebesar 1,70298 pada suku bunga di Indonesia dengan nilai
baku lebih dari 1,0372; −5,21855∗ BF12 yang artinya bahwa setiap kenaikan BF12
akan mengurangi nilai Indeks Harga Saham Gabungan (IHSG) sebesar 5,21855
pada kurs dengan nilai baku lebih dari 1,54402; 3,10062∗ BF14 yang artinya bahwa
setiap kenaikan BF12 akan menambah nilai Indeks Harga Saham Gabungan (IHSG)
sebesar 3,10062 pada kurs dengan nilai baku lebih dari 0,952527; dan
−0,984699∗ BF16 yang artinya bahwa setiap kenaikan BF12 akan mengurangi nilai
Indeks Harga Saham Gabungan (IHSG) sebesar 0,984699 pada indeks saham
signifikansi model MARS dengan cara melakukan uji signifikan parameter untuk
signifikansi model MARS dengan uji koefisien regresi secara simultan (Uji F)
maupun uji koefisien regresi parsial (Uji t) diperoleh bahwa pengujian signifikansi
terpenuhi sehingga model MARS cocok digunakan untuk Indeks Harga Saham
Gabungan (IHSG). Hasil kombinasi antara BF, MI, dan MO yang telah dilakukan
secara trial and error berdasarkan model persamaan terbaik, diketahui terdapat
Tingkat Suku Bunga (𝑋2 ), Kurs (𝑋3 ), Dow Jones (𝑋4 ), dan Nikkei 225 (𝑋5 ).
Fungsi basis yang merupakan komponen interaksi dari fungsi basis lainnya yaitu
berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah rupiah terhadap dolar
Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat suku bunga di Indonesia
(𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya masing-masing
dengan tingkat pentingnya 100% artinya bahwa Inflasi yang memiliki tingkat
100%, nilai tukar (kurs) tengah rupiah terhadap dolar Amerika (𝑋3 ) dengan tingkat
pentingnya 86,54114% artinya bahwa nilai tukar (kurs) tengah rupiah terhadap
Saham Gabungan (IHSG) sebesar 86,54114%, indeks saham Dow Jones (𝑋4)
dengan tingkat pentingnya 84,31259% artinya bahwa indeks saham Dow Jones
(IHSG) sebesar 84,31259%, tingkat suku bunga di Indonesia (𝑋2 ) dengan tingkat
sebesar 38,18755%, dan indeks saham Nikkei 225 (𝑋5 ) dengan tingkat pentingnya
32,75410% artinya bahwa indeks saham Nikkei 225 memiliki tingkat pentingnya
PENUTUP
5.1 Simpulan
sebagai berikut.
dengan :
Model MARS terbaik di atas diperoleh dari kombinasi BF=18, MI=1, dan
MO=1 secara trial and error dengan nilai GCV terkecil sebesar 0,05640.
98
99
Gabungan (IHSG) berturut-turut adalah Inflasi (𝑋1 ), nilai tukar (kurs) tengah
rupiah terhadap dolar Amerika (𝑋3 ), indeks saham Dow Jones (𝑋4 ), tingkat
suku bunga di Indonesia (𝑋2 ), dan indeks saham Nikkei 225 (𝑋5 ) dengan
5.2 Saran
3. Model terbaik MARS dapat dilihat dari kriteria GCV terkecil, apabila
memiliki nilai GCV terkecil yang sama dapat dilihat dengan pertimbangan
nilai MSE terkecil, dan apabila masih memiliki nilai MSE yang sama maka
DAFTAR PUSTAKA
Ashari, Purbayu Budi Santoso. 2015. Analisis Statistic dengan Microsoft Excel dan
SPSS. Yogyakarta.
Astuti, R., Aprianti, E.P., dan Susanta, H. 2013. Analisis Pengaruh Tingkat Bunga
(SBI), Nilai Tukar (Kurs) Rupiah, Inflasi, dan Indeks Internasional terhadap
IHSG (Studi pada IHSG di BEI Periode 2008-2012). Diponegoro Journal
of Social and Politic of Science, Semarang: Universitas Diponegoro.
B, Nurul Astuty Yensy. 2011. Penggunaan Regresi Splines Adaptif Berganda untuk
Peramalan Indeks ENSO dan Hujan Bulanan. Skripsi. Bengkulu: FMIPA
Universitas Bengkulu.
Budiantara, I.N, dkk. 2006. Pemodelan B-Spline dan MARS pada Nilai Ujian
Masuk Terhadap IPK Mahasiswa Jurusan Disain Komunikasi Visual UK
Petra Surabaya. Jurnal Teknik Industri, 8(1): 1-13.
Dewi, Silvia Roshita. 2012. Pemodelan Indeks Harga Saham di Indonesia dan
Dunia dengan Model Univariate dan Multivariate Time Series. Jurnal
Statistika.
Draper, N. R., dan Smith H., 1992. Analisis Regresi Terapan, Terjemahan
Bambang Sumantri. Jakarta: Gramedia.
Hartanto, Andrew. 2013. Analisa Hubungan Indeks Saham antar Negara G 20 dan
Pengaruh terhadap Indeks Harga Saham Gabungan. Jurnal FINESTA, 1(2):
136-140.
101
Kasmir. 1998. Bank dan Lembaga Keuangan Lainnya Edisi Keenam. Jakarta: Raja
Grafinfo Persada.
Liza, F., dan Nurmawan, I. 2006. Makro Ekonomi Edisi Keenam. Jakrta: Erlangga.
Neter J., Wasserman W., dan Kutner M. H. 1997. Analisis Regresi Linear
Sederhana, Alih Bahasa Bambang Sumantri. Bogor: FMIPA IPB.
Nisa’, Shofa F., dan I Nyoman Budiantara. 2012. Analisis Survival dengan
Pendekatan Multivariate Adaptive Rehression Splines pada Kasus Demam
Berdarah Dengue (DBD). Jurnal Sains dan Seni, 1(1): 318-323.
Puspitasari, Icha, Suparti, dan Wilandari, Y. 2012. Analisis Indeks Harga Saham
Gabungan (IHSG) dengan Menggunakan Model Regresi Kernel. Jurnal
Gaussian, 1(1): 93-102.
S, Dimas Okky, dan Setiawan. 2012. Pemodelan Indeks Harga Saham Gabungan
(IHSG), Krs, dan Harga Minyak Dunia dengan Pendekatan Vector
Autoregressive. Jurnal Sains dan Seni, 1(1): 87-92.
Sunariyah. 2006. Pengantar Pengetahuan Pasar Modal, Edisi Kelima. UPP STIM.
LAMPIRAN
Keterangan :
𝑌 : Variabel Indeks Harga Saham Gabungan (IHSG)
𝑋1 : Variabel Inflasi (persen)
𝑋2 : Variabel Suku Bunga di Indonesia (persen)
𝑋3 : Variabel Kurs Tengah Rupiah terhadap Dolar Amerika (rupiah)
𝑋4 : Variabel Indeks Dow Jones
𝑋5 : Variabel Indeks Nikkei 225
𝑋6 : Variabel Indeks Hang Seng
BULAN 𝑿𝟏 𝑿𝟑 𝑿𝟑 𝑿𝟒 𝑿𝟓 𝑿𝟔
INFL KURS KURS DOW NIKKEI HANG
Y IHSG
ASI JONES 225 SENG
1. Uji Normalitas
SUKU
BUN DOW NIKKEI HANG
IHSG INFLASI GA KURS JONES 225 SENG
N 61 61 61 61 61 61 61
Most Extreme Absolute .100 .161 .227 .215 .161 .190 .101
Differences Positive .081 .161 .167 .215 .161 .190 .084
Asymp. Sig. (2-tailed) .572 .086 .004 .007 .085 .025 .558
2. Uji Homoskedastisitas
3. Uji Autokorelasi
Model Summaryb
a. Predictors: (Constant), HANG SENG, INFLASI, KURS, SUKU BUNGA, DOW JONES,
NIKKEI 225
4. Uji Multikolinieritas
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
============
MARS Results
============
-------------------------
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
------------------------------------------------------------------
------------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14519 3.0 8.0 ZX1 -0.32607
5 4 0.09799 5.0 12.0 ZX3 -0.48296
7 6 0.10244 6.0 15.0 ZX4 -0.86137
9 8 0.10653 7.0 18.0 ZX3 -0.94846
11 10 0.10879 9.0 22.0 ZX2 1.03720
12 0.12282 10.0 25.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
------------------------------------------------------------------
-----
116
0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
------------------------------------------------------------------
-----
0 -1.43514
1 0.83360 ZX4 -1.64607
2 -0.37286 ZX1 -0.43319
4 -7.25232 ZX3 -0.47413
6 6.79978 ZX3 -0.60949
8 0.97454 ZX4 0.90332
========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.96483 0.22161 2 4.80000 ZX4
2 0.27472 0.14196 1 2.40000 ZX1
3 0.30457 0.15616 2 4.80000 ZX3
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.22161
ZX3 73.47256 0.15616
ZX1 66.33234 0.14196
ZX5 0.00000 0.07938
ZX2 0.00000 0.07938
ZX6 0.00000 0.07938
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95005
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94551
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95005
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.43045
1 0.82204 ZX4 -1.64607
2 -0.37917 ZX1 -0.43319
4 -5.70029 ZX3 -0.45187
6 5.23551 ZX3 -0.63560
8 0.99149 ZX4 0.90516
========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.95542 0.21894 2 4.80000 ZX4
2 0.27937 0.14634 1 2.40000 ZX1
3 0.30563 0.15616 2 4.80000 ZX3
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.21894
ZX3 73.54479 0.15616
ZX1 68.49094 0.14634
ZX5 0.00000 0.08219
ZX2 0.00000 0.08219
ZX6 0.00000 0.08219
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.94827
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94356
UNCENTERED R-SQUARED = R-0 SQUARED: 0.94827
121
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.47216
1 0.86907 ZX4 -1.64607
2 -0.35469 ZX1 -0.43319
4 -5.84014 ZX3 -0.48296
6 5.39604 ZX3 -0.63829
8 0.94013 ZX4 0.90332
========================================
ANOVA Decomposition on 5 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.99451 0.23342 2 4.80000 ZX4
2 0.26134 0.13877 1 2.40000 ZX1
3 0.29395 0.15616 2 4.80000 ZX3
123
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.23342
ZX3 70.04274 0.15616
ZX1 61.31765 0.13877
ZX5 0.00000 0.08175
ZX2 0.00000 0.08175
ZX6 0.00000 0.08175
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.94855
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94387
UNCENTERED R-SQUARED = R-0 SQUARED: 0.94855
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15680 3.0 10.0 ZX1 -0.32607
5 4 0.11119 5.0 15.0 ZX3 -0.48296
7 6 0.11239 7.0 20.0 ZX3 -0.80531 ZX1
3
9 8 0.11790 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13940 11.0 30.0 ZX4 0.77474 ZX3
4
12 0.17261 12.0 34.0 ZX6 -2.33142 ZX1
3
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04178
125
========================================
ANOVA Decomposition on 7 Basis Functions
========================================
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632
-------------------------------------------------------------------
----------
F-STATISTIC = 165.76008 S.E. OF REGRESSION =
0.22238
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.62091
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
57.37909
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.67191
1 0.89278 ZX4 -1.64607
2 -0.70209 ZX1 -0.43319
3 -0.78853 ZX1 -0.43319
5 -1.40640 ZX3 -0.47413
7 3.64497 ZX3 ZX1 -0.73603
8 0.98443 ZX2 ZX1 1.03720
9 0.23406 ZX2 ZX1 1.03720
10 -1.22194 ZX3 ZX1 1.54402
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.88543 0.49474 1 2.75000 ZX4
2 0.39927 0.27544 2 5.50000 ZX1
3 0.34100 0.14657 1 2.75000 ZX3
4 0.26065 0.14465 2 5.50000 ZX1
ZX3
5 0.15249 0.10601 2 5.50000 ZX1
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.49474
ZX1 56.46937 0.22567
ZX3 36.02997 0.15099
ZX2 12.63407 0.10601
ZX5 0.00000 0.09971
ZX6 0.00000 0.09971
128
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96066
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95461
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96066
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
130
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.451875 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
============
MARS Results
============
========================================
ANOVA Decomposition on 8 Basis Functions
133
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90034 0.51791 1 2.75000 ZX4
2 0.39811 0.27744 2 5.50000 ZX1
3 0.33164 0.14774 1 2.75000 ZX3
4 0.26034 0.14477 2 5.50000 ZX1
ZX3
5 0.15070 0.10763 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.51791
ZX1 54.24297 0.22531
ZX3 33.90793 0.15099
ZX2 10.19263 0.10763
ZX5 0.00000 0.10332
ZX6 0.00000 0.10332
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95924
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95296
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95924
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
============
MARS Results
============
========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.16992 0.39946 1 2.75000 ZX4
2 0.29164 0.19323 2 5.50000 ZX1
3 0.31084 0.17771 2 5.50000 ZX3
4 0.15298 0.10929 1 2.75000 ZX1
ZX3
5 0.09395 0.09984 1 2.75000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.39946
ZX1 49.28065 0.16991
ZX3 45.38276 0.15872
ZX2 10.84544 0.09984
ZX5 0.00000 0.09628
ZX6 0.00000 0.09628
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632
-------------------------------------------------------------------
----------
Constant | -1.04178 0.16119 -6.46298
0.00000
Basis Function 1 | 1.17963 0.08392 14.05638
0.00000
Basis Function 2 | -0.53859 0.05876 -9.16610
0.00000
Basis Function 3 | -0.53830 0.10817 -4.97631
0.00001
Basis Function 4 | -0.46709 0.07574 -6.16723
0.00000
Basis Function 5 | -1.01838 0.24656 -4.13038
0.00013
Basis Function 7 | 3.35882 0.85148 3.94466
0.00024
Basis Function 8 | 1.00009 0.32225 3.10351
0.00307
-------------------------------------------------------------------
----------
F-STATISTIC = 165.76008 S.E. OF REGRESSION =
0.22238
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
2.62091
[MDF,NDF] = [ 7, 53 ] REGRESSION SUM OF SQUARES =
57.37909
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.326071);
BF3 = max( 0, -0.326071 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.805307 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.74788
1 0.90722 ZX4 -1.64607
3 -0.73544 ZX1 -0.43319
5 -1.15051 ZX3 -0.47413
7 2.95877 ZX3 ZX1 -0.73603
8 0.86884 ZX2 ZX1 1.03720
9 0.52607 ZX2 ZX1 1.03720
10 -1.46042 ZX3 ZX1 1.54402
11 -0.42556 ZX3 ZX1 1.54402
12 -0.20178 ZX5 ZX1 -1.18334
========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.89976 0.52445 1 2.75000 ZX4
2 0.25000 0.14623 1 2.75000 ZX1
3 0.27896 0.13551 1 2.75000 ZX3
4 0.49982 0.17464 3 8.25000 ZX1
ZX3
5 0.28814 0.13453 2 5.50000 ZX1
ZX2
6 0.30515 0.14470 1 2.75000 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.52445
ZX1 53.42767 0.22567
ZX3 40.33397 0.17434
ZX5 30.29970 0.14470
ZX2 25.97710 0.13453
ZX6 0.00000 0.10632
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96391
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95754
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96391
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.474128 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 + 1.18334) * BF2;
MODEL ZY = BF1 BF3 BF5 BF7 BF8 BF9 BF10 BF11 BF12;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
12 0.15833 12.0 34.0 ZX6 -2.33142 ZX1
3
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.62405
1 0.87498 ZX4 -1.64607
2 -0.70941 ZX1 -0.43319
3 -0.78463 ZX1 -0.43319
5 -1.41130 ZX3 -0.45187
7 3.60536 ZX3 ZX1 -0.73603
8 1.01756 ZX2 ZX1 1.03720
9 0.23556 ZX2 ZX1 1.03720
10 -1.33217 ZX3 ZX1 1.58852
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.86778 0.45974 1 2.75000 ZX4
2 0.40415 0.27877 2 5.50000 ZX1
3 0.35368 0.14739 1 2.75000 ZX3
4 0.25808 0.14483 2 5.50000 ZX1
ZX3
5 0.15501 0.10748 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.45974
ZX1 59.46965 0.22713
ZX3 37.69616 0.15099
ZX2 14.56427 0.10748
ZX5 0.00000 0.09985
ZX6 0.00000 0.09985
141
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96061
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95455
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96061
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
143
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90034 0.51791 1 2.75000 ZX4
2 0.39811 0.27744 2 5.50000 ZX1
3 0.33164 0.14774 1 2.75000 ZX3
4 0.26034 0.14477 2 5.50000 ZX1
ZX3
5 0.15070 0.10763 2 5.50000 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.51791
ZX1 54.24297 0.22531
ZX3 33.90793 0.15099
ZX2 10.19263 0.10763
ZX5 0.00000 0.10332
ZX6 0.00000 0.10332
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95924
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95296
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95924
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720
========================================
ANOVA Decomposition on 6 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
146
-------------------------------------------------------
1 0.18890 0.10765 1 2.53846 ZX1
2 0.31247 0.12423 3 7.61539 ZX3
3 1.41078 0.31167 1 2.53846 ZX4
4 0.29829 0.09653 1 2.53846 ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.31168
ZX3 39.81205 0.12423
ZX1 28.98978 0.10765
ZX2 18.48402 0.09654
ZX5 0.00000 0.08893
ZX6 0.00000 0.08893
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131
===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);
147
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.46041
1 0.91013 ZX4 -1.64607
2 -0.46710 ZX1 -0.43319
4 -6.69852 ZX3 -0.47413
6 6.40946 ZX3 -0.60949
10 1.70298 ZX2 1.03720
12 -5.21855 ZX3 1.54402
14 3.10062 ZX3 0.95253
16 -0.98470 ZX5 0.40898
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90264 0.14342 1 2.42857 ZX4
2 0.34416 0.17880 1 2.42857 ZX1
3 0.56169 0.14808 4 9.71429 ZX3
4 0.12328 0.07427 1 2.42857 ZX2
5 0.45821 0.06956 1 2.42857 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.17880
ZX3 86.54114 0.14808
ZX4 84.31259 0.14342
ZX2 38.18755 0.07428
ZX5 32.75410 0.06956
ZX6 0.00000 0.05643
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97464
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97074
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97464
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09756 5.0 12.0 ZX3 -0.45187
7 6 0.10100 6.0 15.0 ZX3 -0.63560
9 8 0.09654 7.0 18.0 ZX4 0.90516
11 10 0.10720 9.0 22.0 ZX2 1.03720
13 12 0.11103 10.0 25.0 ZX3 1.58852
15 14 0.11710 11.0 28.0 ZX3 0.98741
17 16 0.09335 13.0 32.0 ZX5 0.40898
18 0.11587 14.0 35.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.87337
1 0.83076 ZX4 -1.64607
2 -0.54115 ZX1 -0.43319
4 -3.82268 ZX3 -0.45187
6 3.51126 ZX3 -0.63560
10 2.19176 ZX2 1.03720
12 -5.99836 ZX3 1.58852
14 3.46380 ZX3 0.98741
16 -1.12492 ZX5 0.40898
17 -0.38004 ZX5 0.40898
========================================
ANOVA Decomposition on 9 Basis Functions
151
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.82392 0.12995 1 2.42857 ZX4
2 0.39872 0.20726 1 2.42857 ZX1
3 0.52615 0.15389 4 9.71429 ZX3
4 0.15866 0.09274 1 2.42857 ZX2
5 0.43121 0.07512 2 4.85714 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.20726
ZX3 79.88677 0.15389
ZX4 68.98500 0.12995
ZX2 47.28880 0.09274
ZX5 32.27654 0.07512
ZX6 0.00000 0.05975
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97625
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97206
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97625
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF6 = max( 0, ZX3 + 0.635603);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.58852);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.408982);
BF17 = max( 0, 0.408982 - ZX5);
MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF17;
============
MARS Results
============
-------------------------
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
153
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09759 5.0 12.0 ZX3 -0.48296
7 6 0.09899 6.0 15.0 ZX3 -0.63829
9 8 0.09548 7.0 18.0 ZX4 0.90332
11 10 0.10796 9.0 22.0 ZX2 1.03720
13 12 0.11473 10.0 25.0 ZX3 1.47214
15 14 0.11467 11.0 28.0 ZX3 0.98741
17 16 0.10852 13.0 32.0 ZX5 0.36887
18 0.13280 14.0 35.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.86470
1 0.82695 ZX4 -1.64607
2 -0.50109 ZX1 -0.43319
4 -4.07501 ZX3 -0.48296
6 3.73193 ZX3 -0.63829
10 1.67012 ZX2 1.03720
12 -4.99016 ZX3 1.47214
14 3.30153 ZX3 0.98741
16 -0.74628 ZX5 0.36887
17 -0.40816 ZX5 0.36887
========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.82015 0.13559 1 2.42857 ZX4
2 0.36920 0.19596 1 2.42857 ZX1
3 0.38320 0.15068 4 9.71429 ZX3
4 0.12090 0.08362 1 2.42857 ZX2
5 0.29429 0.07470 2 4.85714 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.19596
ZX3 80.81754 0.15068
ZX4 73.31625 0.13559
ZX2 37.33162 0.08362
ZX5 26.63797 0.07469
ZX6 0.00000 0.06543
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97400
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96941
154
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.482961);
BF6 = max( 0, ZX3 + 0.63829);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.47214);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.368868);
BF17 = max( 0, 0.368868 - ZX5);
MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF17;
155
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.72705
1 1.38766 ZX4 -1.64607
2 -0.36645 ZX1 -0.32607
4 -0.50407 ZX3 -0.48296
========================================
ANOVA Decomposition on 3 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.37624 0.67472 1 2.76471 ZX4
2 0.25619 0.15398 1 2.76471 ZX1
3 0.41836 0.14487 1 2.76471 ZX3
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.67472
ZX1 29.52779 0.15398
ZX3 26.68634 0.14487
ZX5 0.00000 0.10424
ZX2 0.00000 0.10424
ZX6 0.00000 0.10424
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.92386
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.91985
UNCENTERED R-SQUARED = R-0 SQUARED: 0.92386
===============
Basis Functions
===============
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.40164
1 0.80299 ZX4 -1.64607
2 -0.44012 ZX1 -0.43319
4 -7.81996 ZX3 -0.47413
8 1.11854 ZX2 ZX1 1.03720
10 -1.92402 ZX3 ZX1 1.54402
14 7.40267 ZX3 -0.60949
16 0.40611 ZX3 ZX4 0.98741
========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.79638 0.13649 1 2.76471 ZX4
2 0.32428 0.18360 1 2.76471 ZX1
3 0.32586 0.15213 2 5.52941 ZX3
4 0.11281 0.08485 1 2.76471 ZX1
ZX2
5 0.24666 0.09525 1 2.76471 ZX1
ZX3
6 0.29666 0.09521 1 2.76471 ZX3
ZX4
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.16697
ZX4 92.94525 0.15409
ZX3 92.81944 0.15387
ZX2 36.36826 0.08485
ZX5 0.00000 0.07233
ZX6 0.00000 0.07233
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96737
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96306
159
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF14 = max( 0, ZX3 + 0.609492);
BF16 = max( 0, ZX3 - 0.987405) * BF1;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.16043 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.18797 15.0 40.0 ZX3 0.98741 ZX4
1
17 16 0.22719 17.0 45.0 ZX6 -0.14904 ZX4
1
18 0.31076 18.0 49.0 ZX5 -1.18334 ZX3
4
161
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.25951
1 1.23895 ZX4 -1.64607
3 -0.32530 ZX1 -0.43319
4 1.03769 ZX3 -0.45187
8 0.72458 ZX2 ZX1 1.03720
9 0.75359 ZX2 ZX1 1.03720
10 -2.97906 ZX3 ZX1 1.58852
11 -0.69879 ZX3 ZX1 1.58852
14 1.01813 ZX3 ZX4 0.98741
17 -0.29552 ZX6 ZX4 -0.14904
18 -0.81334 ZX5 ZX3 -1.18334
=========================================
ANOVA Decomposition on 10 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.22875 0.66262 1 2.66667 ZX4
2 0.11058 0.08003 1 2.66667 ZX1
3 0.84791 0.08422 1 2.66667 ZX3
4 0.40523 0.12507 2 5.33333 ZX1
ZX2
5 0.73214 0.20565 2 5.33333 ZX1
ZX3
6 0.74372 0.10694 1 2.66667 ZX3
ZX4
7 0.13010 0.09166 1 2.66667 ZX4
ZX6
8 1.76455 0.12051 1 2.66667 ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.52094
ZX3 69.82972 0.29276
ZX1 48.55721 0.18061
ZX2 33.32592 0.12507
ZX5 31.75175 0.12051
ZX6 18.98395 0.09166
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97705
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97245
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97705
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.451875);
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF11 = max( 0, 1.58852 - ZX3) * BF2;
BF14 = max( 0, ZX3 - 0.987405) * BF1;
BF17 = max( 0, -0.149037 - ZX6) * BF1;
BF18 = max( 0, ZX5 + 1.18334) * BF4;
MODEL ZY = BF1 BF3 BF4 BF8 BF9 BF10 BF11 BF14 BF17 BF18;
163
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.18508 16.0 44.0 ZX3 0.55928 ZX4
1
164
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.27816
1 1.25486 ZX4 -1.64607
3 -0.35773 ZX1 -0.43319
8 0.96673 ZX2 ZX1 1.03720
9 0.72161 ZX2 ZX1 1.03720
10 -2.77329 ZX3 ZX1 1.47214
11 -0.65867 ZX3 ZX1 1.47214
12 1.15871 ZX3 ZX4 0.98741
14 -0.09520 ZX6 ZX4 -0.14904
15 -0.25128 ZX6 ZX4 -0.14904
16 -0.65095 ZX3 ZX4 0.55928
18 -0.11685 ZX5 ZX1 -1.18334
=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.24453 1.40992 1 2.76471 ZX4
2 0.12160 0.09181 1 2.76471 ZX1
3 0.39120 0.16393 2 5.52941 ZX1
ZX2
4 0.67434 0.24893 2 5.52941 ZX1
ZX3
5 0.28033 0.12693 2 5.52941 ZX3
ZX4
6 0.17663 0.08949 2 5.52941 ZX4
ZX6
7 0.17670 0.09053 1 2.76471 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.95624
ZX1 48.73580 0.29031
ZX3 39.14486 0.21670
ZX2 30.46453 0.16393
ZX5 9.36334 0.09053
ZX6 8.70379 0.08949
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98018
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97573
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98018
-------------------------------------------------------------------
----------
Constant | -1.27816 0.06957 -18.37174
0.00000
Basis Function 1 | 1.25486 0.04076 30.78506
0.00000
Basis Function 3 | -0.35773 0.08971 -3.98776
0.00022
Basis Function 8 | 0.96674 0.24136 4.00540
0.00021
Basis Function 9 | 0.72161 0.09199 7.84435
0.00000
Basis Function 10 | -2.77330 0.44894 -6.17750
0.00000
Basis Function 11 | -0.65867 0.06911 -9.53011
0.00000
Basis Function 12 | 1.15872 0.16439 7.04860
0.00000
Basis Function 14 | -0.09520 0.02555 -3.72603
0.00050
Basis Function 15 | -0.25128 0.06064 -4.14352
0.00013
Basis Function 16 | -0.65096 0.09445 -6.89187
0.00000
Basis Function 18 | -0.11685 0.03017 -3.87272
0.00032
-------------------------------------------------------------------
----------
F-STATISTIC = 220.26467 S.E. OF REGRESSION =
0.15580
P-VALUE = 0.00000 RESIDUAL SUM OF SQUARES =
1.18936
[MDF,NDF] = [ 11, 49 ] REGRESSION SUM OF SQUARES =
58.81064
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
MODEL ZY = BF1 BF3 BF8 BF9 BF10 BF11 BF12 BF14 BF15 BF16 BF18;
166
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04178
1 1.17963 ZX4 -1.64607
2 -0.53859 ZX1 -0.32607
3 -0.53830 ZX1 -0.32607
4 -0.46709 ZX3 -0.48296
5 -1.01838 ZX3 -0.48296
7 3.35882 ZX3 ZX1 -0.80531
8 1.00009 ZX2 ZX1 1.03720
========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.16992 0.39044 1 2.66667 ZX4
2 0.29164 0.18980 2 5.33333 ZX1
3 0.31084 0.17455 2 5.33333 ZX3
4 0.15298 0.10682 1 2.66667 ZX1
ZX3
5 0.09395 0.09759 1 2.66667 ZX1
ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.39044
ZX1 50.16326 0.16828
ZX3 46.06943 0.15658
ZX2 11.61991 0.09759
ZX5 0.00000 0.09358
ZX6 0.00000 0.09358
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.95632
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.95055
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95632
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.326071);
BF3 = max( 0, -0.326071 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.805307 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.14691 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.18568 15.0 40.0 ZX5 1.26015 ZX1
2
17 16 0.22908 16.0 44.0 ZX3 0.99551
18 0.32277 17.0 48.0 ZX6 -2.33142 ZX3
17
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.92708
1 1.13832 ZX4 -1.64607
3 -0.91667 ZX1 -0.43319
4 -0.79520 ZX3 -0.47413
5 -0.96215 ZX3 -0.47413
6 0.67914 ZX3 ZX1 -0.73603
7 3.44981 ZX3 ZX1 -0.73603
8 1.22470 ZX2 ZX1 1.03720
10 -3.11898 ZX3 ZX1 1.54402
170
=========================================
ANOVA Decomposition on 12 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.12895 0.47407 1 2.76471 ZX4
2 0.31160 0.18273 1 2.76471 ZX1
3 0.37390 0.20250 3 8.29412 ZX3
4 0.54966 0.22877 4 11.05882 ZX1
ZX3
5 0.12352 0.11513 1 2.76471 ZX1
ZX2
6 0.17381 0.11694 1 2.76471 ZX1
ZX5
7 0.16597 0.12805 1 2.76471 ZX1
ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.47407
ZX3 68.94151 0.27707
ZX1 44.86306 0.17418
ZX5 30.25442 0.13298
ZX2 20.97098 0.11513
ZX6 0.00000 0.09861
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98061
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97577
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98061
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.474128);
BF5 = max( 0, -0.474128 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.26015) * BF2;
BF16 = max( 0, ZX3 - 0.995513);
MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16;
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.89683
1 1.12252 ZX4 -1.64607
3 -0.90465 ZX1 -0.43319
4 -0.79717 ZX3 -0.45187
5 -0.96119 ZX3 -0.45187
6 0.66933 ZX3 ZX1 -0.73603
7 3.39321 ZX3 ZX1 -0.73603
8 1.38380 ZX2 ZX1 1.03720
173
=========================================
ANOVA Decomposition on 12 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.11328 0.45677 1 2.76471 ZX4
2 0.30752 0.17718 1 2.76471 ZX1
3 0.36085 0.19869 3 8.29412 ZX3
4 0.54639 0.23516 4 11.05882 ZX1
ZX3
5 0.13957 0.12163 1 2.76471 ZX1
ZX2
6 0.18662 0.13154 1 2.76471 ZX1
ZX5
7 0.17133 0.12493 1 2.76471 ZX1
ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.45677
ZX3 71.04144 0.27704
ZX1 47.53134 0.17588
ZX5 36.20962 0.14148
ZX2 27.64308 0.12163
ZX6 0.00000 0.09390
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98154
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97693
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98154
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.451875);
BF5 = max( 0, -0.451875 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.58852) * BF2;
BF11 = max( 0, 1.58852 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.55727) * BF2;
BF16 = max( 0, ZX3 - 1.0084);
MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11074 5.0 15.0 ZX3 -0.48296
7 6 0.11413 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12050 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13487 11.0 30.0 ZX3 1.47214 ZX1
2
13 12 0.13904 13.0 35.0 ZX3 0.98741 ZX4
1
15 14 0.14606 15.0 40.0 ZX6 -0.14904 ZX4
1
17 16 0.19572 17.0 45.0 ZX6 0.27435 ZX2
9
18 0.31023 18.0 49.0 ZX5 -1.18334 ZX1
2
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.04638
1 0.88258 ZX4 -1.64607
3 -0.51283 ZX1 -0.43319
5 -1.02952 ZX3 -0.48296
7 2.56382 ZX3 ZX1 -0.73603
8 1.39364 ZX2 ZX1 1.03720
10 -1.95108 ZX3 ZX1 1.47214
12 0.50137 ZX3 ZX4 0.98741
176
=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.87532 0.51223 1 2.66667 ZX4
2 0.17433 0.09419 1 2.66667 ZX1
3 0.24625 0.09255 1 2.66667 ZX3
4 0.33050 0.11727 2 5.33333 ZX1
ZX3
5 0.14056 0.11556 1 2.66667 ZX1
ZX2
6 0.31773 0.15131 2 5.33333 ZX3
ZX4
7 0.11431 0.08556 1 2.66667 ZX4
ZX6
8 0.46954 0.28167 1 2.66667 ZX1
ZX5
9 0.13593 0.09802 1 2.66667 ZX1
ZX2
ZX6
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.64451
ZX5 60.40186 0.28167
ZX1 53.47475 0.23661
ZX3 32.58381 0.13390
ZX2 31.92883 0.13149
ZX6 21.02950 0.09851
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98118
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97695
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98118
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF13 = max( 0, 0.987405 - ZX3) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX6 - 0.274351) * BF9;
BF18 = max( 0, ZX5 + 1.18334) * BF2;
MODEL ZY = BF1 BF3 BF5 BF7 BF8 BF10 BF12 BF13 BF15 BF16 BF18;
178
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14519 3.0 8.0 ZX1 -0.32607
5 4 0.09799 5.0 12.0 ZX3 -0.48296
7 6 0.10244 6.0 15.0 ZX4 -0.86137
9 8 0.10653 7.0 18.0 ZX3 -0.94846
11 10 0.10879 9.0 22.0 ZX2 1.03720
13 12 0.12252 10.0 25.0 ZX3 -0.73603
14 0.14276 11.0 28.0 ZX6 -2.33142
16 15 0.16862 12.0 31.0 ZX6 -0.20681
18 17 0.19804 13.0 34.0 ZX6 0.73011
20 19 0.24001 14.0 37.0 ZX4 -1.01649
22 21 0.30447 15.0 40.0 ZX6 0.26708
24 23 0.38916 16.0 43.0 ZX6 0.35618
=================================================
Final Model (After Backward Stepwise Elimination)
179
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -2.96311
2 -0.27020 ZX1 -0.32607
4 -3.97527 ZX3 -0.48296
5 2.61530 ZX3 -0.48296
6 1.59401 ZX4 -0.86137
8 3.56074 ZX3 -0.94846
11 0.30706 ZX2 1.03720
========================================
ANOVA Decomposition on 6 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.18890 0.10964 1 2.62500 ZX1
2 0.31247 0.12547 3 7.87500 ZX3
3 1.41078 0.31745 1 2.62500 ZX4
4 0.29829 0.09832 1 2.62500 ZX2
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.31746
ZX3 39.00401 0.12547
ZX1 28.67419 0.10964
ZX2 17.95745 0.09833
ZX5 0.00000 0.09102
ZX6 0.00000 0.09102
==============================
MARS Regression: Training Data
=============================
W: 61.00 R-SQUARED: 0.95131
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.94589
UNCENTERED R-SQUARED = R-0 SQUARED: 0.95131
===============
Basis Functions
===============
BF2 = max( 0, ZX1 + 0.326071);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF6 = max( 0, ZX4 + 0.861366);
BF8 = max( 0, ZX3 + 0.948465);
BF11 = max( 0, 1.0372 - ZX2);
============
MARS Results
============
181
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.33818
1 0.70079 ZX4 -1.64607
2 -0.45815 ZX1 -0.43319
4 -5.71854 ZX3 -0.47413
6 5.23477 ZX3 -0.60949
10 1.61129 ZX2 1.03720
12 -5.16502 ZX3 1.54402
14 3.40637 ZX3 0.95253
16 -1.15166 ZX5 0.40898
20 0.51039 ZX4 -0.75534
========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.12588 0.14825 2 5.05883 ZX4
2 0.33757 0.19426 1 2.52941 ZX1
3 0.45839 0.16586 4 10.11765 ZX3
4 0.11664 0.07551 1 2.52941 ZX2
5 0.53590 0.07922 1 2.52941 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.19426
ZX3 88.99358 0.16586
ZX4 81.42690 0.14825
ZX5 39.69644 0.07923
ZX2 36.11008 0.07552
ZX6 0.00000 0.05771
182
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97815
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97430
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97815
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);
BF20 = max( 0, ZX4 + 0.755336);
MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF20;
183
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09756 5.0 12.0 ZX3 -0.45187
7 6 0.10100 6.0 15.0 ZX3 -0.63560
9 8 0.09654 7.0 18.0 ZX4 0.90516
11 10 0.10720 9.0 22.0 ZX2 1.03720
13 12 0.11103 10.0 25.0 ZX3 1.58852
15 14 0.11710 11.0 28.0 ZX3 0.98741
17 16 0.09335 13.0 32.0 ZX5 0.40898
19 18 0.10566 15.0 36.0 ZX6 -0.01059
21 20 0.12243 16.0 39.0 ZX1 -0.27921
23 22 0.14133 17.0 42.0 ZX4 -0.57781
24 0.17654 17.0 44.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
184
========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.10085 0.14830 2 5.05883 ZX4
2 0.35846 0.21065 1 2.52941 ZX1
3 0.52778 0.16699 4 10.11765 ZX3
4 0.14458 0.09013 1 2.52941 ZX2
5 0.60036 0.08578 1 2.52941 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.21065
ZX3 83.92895 0.16699
ZX4 76.01754 0.14830
ZX2 42.89649 0.09013
ZX5 39.31845 0.08578
ZX6 0.00000 0.06295
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97616
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97195
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97616
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.451875);
BF6 = max( 0, ZX3 + 0.635603);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.58852);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.408982);
BF22 = max( 0, ZX4 + 0.577809);
MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF22;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.21816 1.0 4.0 ZX4 -1.64607
3 2 0.14359 3.0 8.0 ZX1 -0.43319
5 4 0.09759 5.0 12.0 ZX3 -0.48296
7 6 0.09899 6.0 15.0 ZX3 -0.63829
9 8 0.09548 7.0 18.0 ZX4 0.90332
11 10 0.10796 9.0 22.0 ZX2 1.03720
13 12 0.11473 10.0 25.0 ZX3 1.47214
15 14 0.11467 11.0 28.0 ZX3 0.98741
17 16 0.10852 13.0 32.0 ZX5 0.36887
19 18 0.11947 15.0 36.0 ZX6 -0.03077
21 20 0.14236 16.0 39.0 ZX5 -0.60433
23 22 0.16313 17.0 42.0 ZX1 -0.25912
24 0.20377 17.0 44.0 ZX6 -2.33142
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.39699
1 0.81938 ZX4 -1.64607
2 -0.48114 ZX1 -0.43319
4 -4.36384 ZX3 -0.48296
6 3.94911 ZX3 -0.63829
10 1.67236 ZX2 1.03720
12 -4.87031 ZX3 1.47214
14 3.27895 ZX3 0.98741
16 -1.27342 ZX5 0.36887
20 0.58295 ZX5 -0.60433
========================================
ANOVA Decomposition on 9 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.81264 0.13808 1 2.52941 ZX4
2 0.35450 0.20825 1 2.52941 ZX1
3 0.36307 0.16268 4 10.11765 ZX3
4 0.12106 0.08811 1 2.52941 ZX2
5 0.27186 0.07721 2 5.05883 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.20825
ZX3 81.89901 0.16268
ZX4 70.21337 0.13808
ZX2 36.31503 0.08811
ZX5 23.04353 0.07721
ZX6 0.00000 0.06986
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97354
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96887
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97354
-------------------------------------------------------------------
----------
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.482961);
BF6 = max( 0, ZX3 + 0.63829);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.47214);
BF14 = max( 0, ZX3 - 0.987405);
BF16 = max( 0, ZX5 - 0.368868);
BF20 = max( 0, ZX5 + 0.604325);
MODEL ZY = BF1 BF2 BF4 BF6 BF10 BF12 BF14 BF16 BF20;
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
189
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.41859
1 1.50708 ZX4 -1.64607
2 -0.93214 ZX1 -0.32607
4 -0.52473 ZX3 -0.48296
8 3.22498 ZX2 ZX1 1.03720
9 0.28946 ZX2 ZX1 1.03720
12 14.88751 ZX4 0.90332
14 -0.96705 ZX6 ZX4 0.27435
16 1.28509 ZX3 ZX4 -0.26322
19 -0.22330 ZX1 ZX4 0.24968
20 -6.37656 ZX2 ZX4 -1.30611
22 -0.37560 ZX6 ZX4 -0.27705
=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 4.05081 0.98625 2 5.42857 ZX4
2 0.65168 0.26366 1 2.71429 ZX1
3 0.43551 0.17042 1 2.71429 ZX3
4 0.32339 0.13030 2 5.42857 ZX1
ZX2
5 0.17541 0.13213 2 5.42857 ZX4
ZX6
6 0.14214 0.10565 1 2.71429 ZX3
ZX4
7 0.20811 0.13099 1 2.71429 ZX1
ZX4
190
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97835
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97349
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97835
MODEL ZY = BF1 BF2 BF4 BF8 BF9 BF12 BF14 BF16 BF19 BF20 BF22;
============
MARS Results
============
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.15761 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.16936 14.0 39.0 ZX3 -0.60949
17 16 0.23509 16.0 44.0 ZX3 0.98741 ZX4
1
19 18 0.37517 18.0 49.0 ZX6 -0.14904 ZX4
1
21 20 0.69697 19.0 53.0 ZX3 0.61374 ZX4
1
22 2.41555 20.0 57.0 ZX5 -1.18334 ZX1
2
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.52384
1 0.86634 ZX4 -1.64607
4 -7.71841 ZX3 -0.47413
8 1.44235 ZX2 ZX1 1.03720
10 -2.39064 ZX3 ZX1 1.54402
14 7.31664 ZX3 -0.60949
16 0.61458 ZX3 ZX4 0.98741
22 -0.28066 ZX5 ZX1 -1.18334
========================================
ANOVA Decomposition on 7 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.85921 0.15308 1 2.80000 ZX4
2 0.32222 0.14967 2 5.60000 ZX3
3 0.14547 0.09804 1 2.80000 ZX1
ZX2
4 0.30648 0.11128 1 2.80000 ZX1
ZX3
5 0.44894 0.13711 1 2.80000 ZX3
ZX4
6 0.42443 0.18540 1 2.80000 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.22294
193
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.96746
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96317
UNCENTERED R-SQUARED = R-0 SQUARED: 0.96746
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11070 5.0 15.0 ZX3 -0.45187
7 6 0.11510 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12127 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13345 11.0 30.0 ZX3 1.58852 ZX1
2
13 12 0.16043 13.0 35.0 ZX5 0.92677 ZX4
1
15 14 0.18797 15.0 40.0 ZX3 0.98741 ZX4
1
17 16 0.22719 17.0 45.0 ZX6 -0.14904 ZX4
1
19 18 0.33719 19.0 50.0 ZX5 1.55727 ZX3
4
195
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.71389
1 0.88399 ZX4 -1.64607
2 -0.48768 ZX1 -0.43319
5 -1.12977 ZX3 -0.45187
8 1.23064 ZX2 ZX1 1.03720
10 -3.60101 ZX3 ZX1 1.58852
14 0.81126 ZX3 ZX4 0.98741
15 0.48518 ZX3 ZX4 0.98741
17 -0.24894 ZX6 ZX4 -0.14904
18 -0.77379 ZX5 ZX3 1.55727
19 0.35420 ZX5 ZX3 1.55727
23 2.02268 ZX4 ZX3 -0.69300
=========================================
ANOVA Decomposition on 11 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.87671 0.25229 1 2.56522 ZX4
2 0.35932 0.25434 1 2.56522 ZX1
3 0.28313 0.12569 1 2.56522 ZX3
4 0.12412 0.09764 1 2.56522 ZX1
ZX2
5 0.42302 0.12107 1 2.56522 ZX1
ZX3
6 0.48766 0.13529 3 7.69565 ZX3
ZX4
7 0.10959 0.08597 1 2.56522 ZX4
ZX6
8 0.25317 0.08464 2 5.13043 ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.47742
ZX1 56.92438 0.20606
ZX3 41.51295 0.14516
ZX2 23.22923 0.09764
ZX6 15.77974 0.08597
ZX5 14.69369 0.08464
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97903
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97432
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97903
196
MODEL ZY = BF1 BF2 BF5 BF8 BF10 BF14 BF15 BF17 BF18 BF19 BF23;
197
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.25418
1 1.21009 ZX4 -1.64607
3 -0.40814 ZX1 -0.43319
8 1.13865 ZX2 ZX1 1.03720
9 0.73167 ZX2 ZX1 1.03720
10 -1.56169 ZX3 ZX1 1.47214
11 -0.66987 ZX3 ZX1 1.47214
12 0.93740 ZX3 ZX4 0.98741
15 -0.20204 ZX6 ZX4 -0.14904
16 -0.72587 ZX3 ZX4 0.55928
18 -0.10717 ZX5 ZX1 -1.18334
=========================================
ANOVA Decomposition on 10 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.20013 1.25692 1 2.80000 ZX4
2 0.13874 0.10278 1 2.80000 ZX1
3 0.39936 0.16982 2 5.60000 ZX1
ZX2
4 0.62675 0.22493 2 5.60000 ZX1
ZX3
5 0.29184 0.13282 2 5.60000 ZX3
ZX4
6 0.08895 0.09113 1 2.80000 ZX4
ZX6
7 0.16207 0.09242 1 2.80000 ZX1
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.96564
ZX1 44.96617 0.26779
ZX3 34.01457 0.19213
ZX2 30.03343 0.16982
ZX5 4.13694 0.09242
ZX6 1.52737 0.09113
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97456
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.96947
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97456
199
MODEL ZY = BF1 BF3 BF8 BF9 BF10 BF11 BF12 BF15 BF16 BF18;
200
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
========================================
ANOVA Decomposition on 3 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.37624 0.67223 1 2.71429 ZX4
2 0.25619 0.15341 1 2.71429 ZX1
3 0.41836 0.14433 1 2.71429 ZX3
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.67223
ZX1 29.58817 0.15341
ZX3 26.75430 0.14433
ZX5 0.00000 0.10363
ZX2 0.00000 0.10363
ZX6 0.00000 0.10363
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.92386
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.91985
UNCENTERED R-SQUARED = R-0 SQUARED: 0.92386
============
MARS Results
============
Forward Stepwise Knot Placement
===============================
BasFn(s) GCV IndBsFns EfPrms Variable Knot
Parent BsF
203
-------------------------------------------------------------------
-----------
0 1.01667 0.0 1.0
1 0.22602 1.0 5.0 ZX4 -1.64607
3 2 0.15507 3.0 10.0 ZX1 -0.43319
5 4 0.11065 5.0 15.0 ZX3 -0.47413
7 6 0.11433 7.0 20.0 ZX3 -0.73603 ZX1
3
9 8 0.12062 9.0 25.0 ZX2 1.03720 ZX1
2
11 10 0.13179 11.0 30.0 ZX3 1.54402 ZX1
2
13 12 0.14691 13.0 35.0 ZX5 0.45568 ZX3
11
15 14 0.18568 15.0 40.0 ZX5 1.26015 ZX1
2
17 16 0.22908 16.0 44.0 ZX3 0.99551
19 18 0.31755 18.0 49.0 ZX6 0.09314
21 20 0.75518 20.0 54.0 ZX6 0.27435 ZX2
9
23 22 7.45441 22.0 59.0 ZX3 -0.96405 ZX2
9
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.80761
1 1.08808 ZX4 -1.64607
3 -0.79275 ZX1 -0.43319
4 -0.76319 ZX3 -0.47413
5 -1.05395 ZX3 -0.47413
6 0.56259 ZX3 ZX1 -0.73603
7 3.63064 ZX3 ZX1 -0.73603
8 1.24060 ZX2 ZX1 1.03720
10 -3.05053 ZX3 ZX1 1.54402
11 -0.26247 ZX3 ZX1 1.54402
12 -1.38931 ZX5 ZX3 0.45568
14 -0.82527 ZX5 ZX1 1.26015
16 2.02762 ZX3 0.99551
19 -0.13359 ZX6 0.09314
=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================
ZX3
ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.44371
ZX3 76.00161 0.29295
ZX1 53.63220 0.18944
ZX5 36.82760 0.13518
ZX2 25.19626 0.10943
ZX6 6.31376 0.08820
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98431
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97997
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98431
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.474128);
BF5 = max( 0, -0.474128 - ZX3);
BF6 = max( 0, ZX3 + 0.736034) * BF3;
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF10 = max( 0, ZX3 - 1.54402) * BF2;
BF11 = max( 0, 1.54402 - ZX3) * BF2;
BF12 = max( 0, ZX5 - 0.45568) * BF11;
BF14 = max( 0, ZX5 - 1.26015) * BF2;
BF16 = max( 0, ZX3 - 0.995513);
BF19 = max( 0, 0.0931355 - ZX6);
MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16
BF19;
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.76824
1 1.07080 ZX4 -1.64607
3 -0.77990 ZX1 -0.43319
4 -0.76749 ZX3 -0.45187
5 -1.06195 ZX3 -0.45187
6 0.55058 ZX3 ZX1 -0.73603
7 3.59661 ZX3 ZX1 -0.73603
8 1.40617 ZX2 ZX1 1.03720
10 -3.27426 ZX3 ZX1 1.58852
11 -0.25832 ZX3 ZX1 1.58852
12 -1.31186 ZX5 ZX3 0.45568
14 -1.53841 ZX5 ZX1 1.55727
16 1.95834 ZX3 1.00840
19 -0.13380 ZX6 0.13148
=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 1.06199 0.42445 1 2.63636 ZX4
2 0.26511 0.13898 1 2.63636 ZX1
3 0.35170 0.20500 3 7.90909 ZX3
4 0.08912 0.08398 1 2.63636 ZX6
207
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.42445
ZX3 78.54503 0.29295
ZX1 56.65736 0.19137
ZX5 42.70758 0.14379
ZX2 32.17178 0.11671
ZX6 9.03437 0.08398
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98532
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.98126
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98532
MODEL ZY = BF1 BF3 BF4 BF5 BF6 BF7 BF8 BF10 BF11 BF12 BF14 BF16
BF19;
============
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -0.90280
1 0.80706 ZX4 -1.64607
2 -0.73857 ZX1 -0.43319
3 -0.56240 ZX1 -0.43319
5 -0.96509 ZX3 -0.48296
7 2.13650 ZX3 ZX1 -0.73603
8 1.62298 ZX2 ZX1 1.03720
9 0.23521 ZX2 ZX1 1.03720
10 -1.74015 ZX3 ZX1 1.47214
12 0.41955 ZX3 ZX4 0.98741
13 0.19500 ZX3 ZX4 0.98741
15 -0.25587 ZX6 ZX4 -0.14904
16 -1.50088 ZX6 ZX2 0.27435
21 0.82296 ZX5 ZX3 0.92677
=========================================
ANOVA Decomposition on 13 Basis Functions
=========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.80041 0.50057 1 2.56522 ZX4
2 0.44453 0.26413 2 5.13043 ZX1
210
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX4 100.00000 0.62701
ZX1 49.15402 0.20978
ZX3 29.19796 0.12376
ZX2 27.50216 0.11847
ZX5 17.16705 0.09307
ZX6 14.96964 0.08919
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.98508
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.98096
UNCENTERED R-SQUARED = R-0 SQUARED: 0.98508
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF3 = max( 0, -0.433188 - ZX1);
BF4 = max( 0, ZX3 + 0.482961);
BF5 = max( 0, -0.482961 - ZX3);
BF7 = max( 0, -0.736034 - ZX3) * BF3;
BF8 = max( 0, ZX2 - 1.0372) * BF2;
BF9 = max( 0, 1.0372 - ZX2) * BF2;
BF10 = max( 0, ZX3 - 1.47214) * BF2;
BF12 = max( 0, ZX3 - 0.987405) * BF1;
BF13 = max( 0, 0.987405 - ZX3) * BF1;
BF15 = max( 0, -0.149037 - ZX6) * BF1;
BF16 = max( 0, ZX6 - 0.274351) * BF9;
BF21 = max( 0, 0.926771 - ZX5) * BF4;
MODEL ZY = BF1 BF2 BF3 BF5 BF7 BF8 BF9 BF10 BF12 BF13 BF15 BF16
BF21;
212
MARS Results
============
=================================================
Final Model (After Backward Stepwise Elimination)
213
=================================================
Basis Fun Coefficient Variable Parent Knot
-------------------------------------------------------------------
----
0 -1.46041
1 0.91013 ZX4 -1.64607
2 -0.46710 ZX1 -0.43319
4 -6.69852 ZX3 -0.47413
6 6.40946 ZX3 -0.60949
10 1.70298 ZX2 1.03720
12 -5.21855 ZX3 1.54402
14 3.10062 ZX3 0.95253
16 -0.98470 ZX5 0.40898
========================================
ANOVA Decomposition on 8 Basis Functions
========================================
fun std. dev. -gcv #bsfns #efprms variable
-------------------------------------------------------
1 0.90264 0.14342 1 2.42857 ZX4
2 0.34416 0.17880 1 2.42857 ZX1
3 0.56169 0.14808 4 9.71429 ZX3
4 0.12328 0.07427 1 2.42857 ZX2
5 0.45821 0.06956 1 2.42857 ZX5
===================
Variable Importance
===================
Variable Importance -gcv
---------------------------------------------------------------
ZX1 100.00000 0.17880
ZX3 86.54114 0.14808
ZX4 84.31259 0.14342
ZX2 38.18755 0.07428
ZX5 32.75410 0.06956
ZX6 0.00000 0.05643
==============================
MARS Regression: Training Data
==============================
W: 61.00 R-SQUARED: 0.97464
MEAN DEP VAR: 0.00000 ADJ R-SQUARED: 0.97074
UNCENTERED R-SQUARED = R-0 SQUARED: 0.97464
===============
Basis Functions
===============
BF1 = max( 0, ZX4 + 1.64607);
BF2 = max( 0, ZX1 + 0.433188);
BF4 = max( 0, ZX3 + 0.474128);
BF6 = max( 0, ZX3 + 0.609492);
BF10 = max( 0, ZX2 - 1.0372);
BF12 = max( 0, ZX3 - 1.54402);
BF14 = max( 0, ZX3 - 0.952527);
BF16 = max( 0, ZX5 - 0.408982);