Anda di halaman 1dari 34

METODE PERAMALAN

ANALISIS REGRESI LINIER BERGANDA


(Studi Kasus: Data Pertumbuhan Bayi di Kelurahan Namaelo RT 001,
Kota Masohi)

Disusun untuk Memenuhi Tugas Kelompok Mata Kuliah Metode Peramalan yang
diampu Oleh Bapak Nurcahya Yulian Ashar, S.Si, M.Sc.

Kelompok 2
1. Devita Aulia Putri Agmi (24010120120003)
2. Shinta Apriliani (24010120130063)
3. Rita Dwi Pangesti (24010120130067)
4. Pramishvary Aisyah Hanny (24010120140085)
5. Muhammad Fahri Almasah (24010120140147)
6. Tara Afri Melandari (24010120140157)
7. Ferdi Hasan (24010120140165)

PROGRAM STUDI S-1 MATEMATIKA


FAKULTAS SAINS DAN MATEMATIKA
UNIVERSITAS DIPONEGORO
SEMARANG
2022
DAFTAR ISI

DAFTAR ISI .......................................................................................................... ii


BAB I PENDAHULUAN ...................................................................................... 1
A. Latar Belakang ............................................................................................. 1
B. Rumusan Masalah ........................................................................................ 1
C. Tujuan .......................................................................................................... 1
BAB II PEMBAHASAN ....................................................................................... 2
A. Regresi Linier Berganda .............................................................................. 2
B. Studi Kasus .................................................................................................. 8
1. Menentukan Tujuan untuk Uji Linier Berganda ...................................... 9
2. Penentuan Variabel Bebas dan Tak Bebas ............................................... 9
3. Uji Asumsi Klasik .................................................................................... 9
4. Penyajian Tabel ANOVA ....................................................................... 17
5. Koefisien Korelasi dan Koefisien Determinasi ...................................... 17
6. Penggunaan Uji F Dan Uji T .................................................................. 23
7. Pencarian Model Regresi Terbaik .......................................................... 26
BAB III PENUTUP ............................................................................................. 31
DAFTAR PUSTAKA .......................................................................................... 32

ii
BAB I PENDAHULUAN
A. Latar Belakang
Analisis regresi adalah suatu analisis yang dilakukan terhadap dua
variabel yaitu variabel independen (prediktor) dan variabel dependen (respon)
untuk mengetahui apakah ada pengaruh variabel prediktor terhadap variabel
respon sehingga variabel respon dapat diduga berdasarkan variabel
prediktornya. Berdasarkan jumlah variabel independennya, analisis regresi
linier dibagi menjadi dua macam yaitu, analisis regresi linier sederhana dan
analisis regresi linier ganda. Pada analisis regresi linier sederhana, jumlah
variabel independen yang digunakan sebagai penduga variabel dependen adalah
satu. Sedangkan pada analisis regresi linier ganda, jumlah variabel independen
yang digunakan sebagai penduga variabel dependen adalah lebih dari satu.
Saat ini, analisis regresi yang lebih sering digunakan adalah analisis
regresi linier berganda. Dapat dilihat dari berbagai kejadian yang terjadi dalam
kehidupan sehari-hari yaitu suatu peristiwa dapat disebabkan oleh berbagai
faktor yang mempengaruhinya. Contohnya, tinggi bayi sekarang yang
dipengaruhi oleh usia bayi, panjang bayi waktu lahir, berat bayi waktu lahir,
dan ukuran dada bayi waktu lahir. Dengan menggunakan metode analisis
regresi linier berganda kita dapat mengetahui faktor apa yang paling
berpengaruh terhadap pertumbuhan bayi. Oleh karena itu di dalam makalah ini
yang kami beri judul “Analisis Regresi Linier Berganda (Studi Kasus: Data
Pertumbuhan Bayi di Kelurahan Namaelo RT 001, Kota Masohi)”, kami akan
membahas bagaimana penggunaan metode analisis regresi linier berganda
untuk mengetahui variabel apa yang paling berpengaruh terhadap pertumbuhan
bayi di Kelurahan Namaelo RT 001, Kota Masohi.

B. Rumusan Masalah
Berdasarkan latar belakang diatas maka dapat dirumuskan permasalahannya
sebagai berikut.
1. Apa definisi dari analisis regresi linier berganda?
2. Bagaimana penggunaan analisis regresi linier berganda pada data
pertumbuhan bayi di Kelurahan Namaelo RT 001, Kota Masohi?

C. Tujuan
Tujuan dari pembuatan makalah ini adalah sebagai berikut.
1. Untuk mengetahui definisi dari analisis regresi linier berganda.
2. Untuk mengetahui variabel apa yang paling berpengaruh terhadap
pertumbuhan bayi di Kelurahan Namaelo RT 001, Kota Masohi.

1
BAB II PEMBAHASAN

A. Regresi Linier Berganda


Regresi linier berganda merupakan model persamaan yang menjelaskan
hubungan satu variabel tak bebas/ response (Y) dengan dua atau lebih variabel
bebas/ prediktor (𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 ). Tujuan dari uji regresi linier berganda adalah
untuk memprediksi nilai variabel tak bebas/ response (Y) apabila nilai-nilai
variabel bebasnya/ prediktor (𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 ) diketahui. Disamping itu juga
untuk dapat mengetahui bagaimanakah arah hubungan variabel tak bebas
dengan variabel - variabel bebasnya (Yuliara, 2016).
Bentuk umum model regresi linier berganda dengan p variabel bebas
adalah sebagai berikut (Kutner et al., 2004).
𝑌𝑖 = 𝛽0 + 𝛽1 𝑋𝑖1 + 𝛽2 𝑋𝑖2 + ⋯ + 𝛽𝑝−1 𝑋𝑖,𝑝−1 + 𝜀𝑖

Dengan 𝑌𝑖 adalah variabel tidak bebas untuk pengamatan ke-i, untuk 𝑖 =


1,2, ⋯ , 𝑛.
𝛽0 , 𝛽1 , ⋯ , 𝛽𝑝−1 adalah parameter.
𝑋𝑖1 , 𝑋𝑖2 , ⋯ , 𝑋𝑖,𝑝−1 adalah variabel bebas.
𝜀𝑖 adalah sisa (error) untuk pengamatan ke-i yang diasumsikan berdistribusi
normal yang saling bebas dan identik dengan rata-rata 0 (nol) dan variansi 𝜎 2 .
Dalam prakteknya, tugas pemodelan regresi adalah untuk menaksir
parameter yang tidak diketahui pada persamaan diatas, yaitu beta 0, beta 1, beta
2, ..., beta k dan epsilon. Berikut merupakan bentuk umum analisis regresi linier
berganda dalam praktiknya.

𝑌 = 𝑎 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + ⋯ + 𝑏𝑛 𝑋𝑛

Yang mana:
𝑌 = variabel tak bebas (nilai variabel yang akan diprediksi)
𝑎 = konstanta
𝑏1 , 𝑏2 , ⋯ , 𝑏𝑛 = nilai koefisien regresi
𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 = variabel bebas
Bila terdapat 2 variabel bebas, yaitu 𝑋1 dan 𝑋2, maka bentuk persamaan
regresinya adalah:
𝑌 = 𝑎 + 𝑏1 𝑋1 + 𝑏2 𝑋2

Keadaan-keadaan bila koefisien-koefisien regresi, yaitu 𝑏1 dan 𝑏2 mempunyai


nilai:
1. Nilai = 0. Dalam hal ini variabel Y tidak dipengaruhi oleh 𝑋1 dan 𝑋2.
2. Nilainya negatif. Disini terjadi hubungan dengan arah terbalik antara
variabel tak bebas Y dengan variabel-variabel 𝑋1 dan 𝑋2 .

2
3. Nilainya positif. Disini terjadi hubungan yang searah antara variabel tak
bebas Y dengan variabel bebas 𝑋1 dan 𝑋2.

Koefisien-koefisien regresi 𝑏1 dan 𝑏2 serta konstanta a dapat dihitung dengan


menggunakan rumus:
(∑ 𝑌) − (𝑏1 × ∑ 𝑥1 ) − (𝑏2 × ∑ 𝑥2 )
𝑎=
𝑛

[(∑ 𝑥2 2 × ∑ 𝑥1 𝑦) − (∑ 𝑥2 𝑦 × ∑ 𝑥1 𝑥2 )]
𝑏1 =
[(𝑥1 2 × ∑ 𝑥2 2 ) − (∑ 𝑥1 × ∑ 𝑥2 )2 ]

[(∑ 𝑥1 2 × ∑ 𝑥2 𝑦) − (∑ 𝑥2 𝑦 × ∑ 𝑥1 𝑥2 )]
𝑏2 =
[(𝑥1 2 × ∑ 𝑥2 2 ) − (∑ 𝑥1 × ∑ 𝑥2 )2 ]

Yang mana:

2 2 (∑ 𝑋1 )2
∑ 𝑥1 = ∑ 𝑋1 −
𝑛

(∑ 𝑋2 )2
∑ 𝑥2 2 = ∑ 𝑋2 2 −
𝑛

(∑ 𝑌)2
∑ 𝑦 2 = ∑ 𝑌2 −
𝑛

∑ 𝑋1 ∑ 𝑌
∑ 𝑥1 𝑦 = ∑ 𝑋1 𝑌 −
𝑛

∑ 𝑋2 ∑ 𝑌
∑ 𝑥2 𝑦 = ∑ 𝑋2 𝑌 −
𝑛

∑ 𝑋1 ∑ 𝑋2
∑ 𝑥1 𝑥2 = ∑ 𝑋1 𝑋2 −
𝑛

Metode alternatif, yaitu metode matriks (metode kuadrat terkecil) dapat


digunakan untuk menentukan nilai a, 𝑏1 dan 𝑏2 . Metode ini dilakukan dengan
cara membuat dan menyusun suatu persamaan sebagi berikut:

𝑎𝑛 + 𝑏1 ∑ 𝑋1 + 𝑏2 ∑ 𝑋2 = ∑ 𝑌

𝑎 ∑ 𝑋1 + 𝑏1 ∑ 𝑋1 2 + 𝑏2 ∑ 𝑋1 𝑋2 = ∑ 𝑋1 𝑌

3
𝑎 ∑ 𝑋2 + 𝑏1 ∑ 𝑋2 𝑋1 + 𝑏2 ∑ 𝑋2 2 = ∑ 𝑋2 𝑌

Matriks dengan 3 persamaan dan 3 variabel:

𝑚11 𝑎 + 𝑚12 𝑏1 + 𝑚13 𝑏2 = ℎ1


𝑚21 𝑎 + 𝑚22 𝑏1 + 𝑚23 𝑏2 = ℎ2
𝑚31 𝑎 + 𝑚32 𝑏1 + 𝑚33 𝑏2 = ℎ3

𝑚11 𝑚12 𝑚13 𝑎 ℎ1


𝑚
[ 21 𝑚22 𝑚23 ] [𝑏1 ] = [ℎ2 ]
𝑚31 𝑚32 𝑚33 𝑏2 ℎ3

𝑑𝑒𝑡 𝑀1
𝑎=
𝑑𝑒𝑡 𝑀

𝑑𝑒𝑡 𝑀2
𝑏1 =
𝑑𝑒𝑡 𝑀

𝑑𝑒𝑡 𝑀3
𝑏3 =
𝑑𝑒𝑡 𝑀

ℎ1 𝑚12 𝑚13
𝑀1 = [ℎ2 𝑚22 𝑚23 ]
ℎ3 𝑚32 𝑚33

𝑚11 ℎ1 𝑚13
𝑀2 = [𝑚21 ℎ2 𝑚23 ]
𝑚31 ℎ3 𝑚33

𝑚11 𝑚12 ℎ1
𝑀3 = [𝑚21 𝑚22 ℎ2 ]
𝑚31 𝑚32 ℎ3

𝑚11 𝑚12 𝑚13


𝑀 = [𝑚21 𝑚22 𝑚23 ]
𝑚31 𝑚32 𝑚33

Koefisien Determinasi (𝒓𝟐 )


Untuk mengetahui prosentase pengaruh variabel-variabel 𝑋1 dan 𝑋2
terhadap variable Y digunakan koefisien determinasi. Besarnya 𝑟 2 dihitung
dengan rumus:

4
(𝑏1 ∑ 𝑥1 𝑦) + (𝑏2 ∑ 𝑥2 𝑦)
𝑟2 =
∑ 𝑦2

Apabila 𝑟 2 bernilai 0, maka dalam model persamaan regresi yang terbentuk


variasi variabel tak bebas Y tidak sedikitpun dapat dijelaskan oleh variasi
variabel-variabel bebas 𝑋1 dan 𝑋2 . Apabila 𝑟 2 bernilai 1, maka dalam model
persamaan regresi yang terbentuk, variabel tak bebas Y secara sempurna dapat
dijelaskan oleh variasi variabel-variabel bebas.

Korelasi Ganda (r)


Untuk mengetahui seberapa besar korelasi secara serentak/ simultan
antara variabel-variabel 𝑋1 , 𝑋2 , ⋯ , 𝑋𝑛 dengan variabel Y dapat digunakan
koefisien korelasi ganda. Besarnya nilai koefisien korelasi ganda dapat dihitung
dengan rumus:
(𝑏1 ∑ 𝑥1 𝑦) + (𝑏2 ∑ 𝑥2 𝑦)
𝑟 = √𝑟 2 = √
∑ 𝑦2
Nilai r : −1 ≤ 𝑟 ≤ +1.
Apabila nilai r mendekati nilai +1 atau – 1, maka dapat dikatakan bhawa
semakin kuatnya hubungan/korelasi yang terjadi. Sebaliknya, apabila nilai r
mendekati 0, maka semakin lemahnya hubungan/korelasi yang terjadi.

Korelasi Parsial
Korelasi parsial merupakan suatu korelasi yang menjelaskan korelasi
antara 1 variabel dengan 1 variabel dan variabel lainnya dianggap konstan.
Terdapat 3 macam bentuk korelasi parsial, yaitu :
1. Korelasi antara 𝑋1 dengan 𝑋2 yang mana Y dianggap konstan (𝑟12.𝑌 )

𝑟12 − (𝑟𝑌1 𝑟𝑌2 )


𝑟12.𝑌 =
√(1 − 𝑟𝑌1 2 ) − (1 − 𝑟𝑌2 2 )
2. Korelasi antara Y dengan 𝑋1 yang mana 𝑋2 dianggap konstan (𝑟𝑌1.2 )

𝑟𝑌1 − (𝑟𝑌2 𝑟12 )


𝑟𝑌1.2 =
√(1 − 𝑟𝑌2 2 ) − (1 − 𝑟12 2 )
3. Korelasi antara Y dengan 𝑋2 yang mana 𝑋1 dianggap konstan (𝑟𝑌2.1 )

𝑟𝑌2 − (𝑟𝑌1 𝑟12 )


𝑟𝑌2.1 =
√(1 − 𝑟𝑌1 2 ) − (1 − 𝑟12 2 )

5
Yang mana:
𝑛 × ∑ 𝑋1 𝑌 − (∑ 𝑌 × ∑ 𝑋1 )
𝑟𝑌1 =
√[(𝑛 × ∑ 𝑌 2 ) − (∑ 𝑌 2 )] × [(𝑛 × ∑ 𝑋1 2 ) − (∑ 𝑋1 )2 ]

𝑛 × ∑ 𝑋2 𝑌 − (∑ 𝑌 × ∑ 𝑋2 )
𝑟𝑌2 =
√[(𝑛 × ∑ 𝑌 2 ) − (∑ 𝑌 2 )] × [(𝑛 × ∑ 𝑋2 2 ) − (∑ 𝑋2 )2 ]
𝑛 × ∑ 𝑋1 𝑋2 − (∑ 𝑋1 × ∑ 𝑋2 )
𝑟12 =
√[(𝑛 × ∑ 𝑋1 2 ) − (∑ 𝑋1 2 )] × [(𝑛 × ∑ 𝑋2 2 ) − (∑ 𝑋2 )2 ]

Kesalahan Baku Estimasi (Standart Error Estimate)


Kesalahan baku estimasi digunakan untuk melihat apakah persamaan
regresi yang terbentuk tepat/ kurang tepat dipakai untuk mengestimasi/
memprediksi variabel response Y. Jika kesalahan bakunya besar, maka
persamaan regresi yang dibentuk kurang tepat dipakai untuk mengestimasi. Hal
ini disebabkan karena selisih nilai antara variable response Y estimasi dengan
Y kenyataan akan besar. Secara matematik kesalahan baku estimasi
diekspresikan oleh :

∑ 𝑌 2 − (𝑎 ∑ 𝑌) − (𝑏1 ∑ 𝑋1 𝑌) − (𝑏2 ∑ 𝑋2 𝑌)
𝑆𝑒 (𝑆𝑦𝑥 ) = √
𝑁−3

Model regresi teoritis yang diuraikan pada bagian sebelumnya mempunyai


asumsi-asumsi tertentu, sehingga penerapan paktis model tersebut menuntut
pemakai untuk menguji asumsi-asumsi tersebut dalam konsteks permasalahan
yang ada. Terdapat empat asumsi dasar:
1. Linearitas (linearity)
Yang dimaksud dengan linearitas pada asumsi tersebut adalah
linearitas pada koefisien, dan ini berkaitan secara langsung dengan
pengembangan uji-F dan uji-t. Dengan kata lain, jika asumsi ini diabaikan,
maka uji-F dan uji-t tidak lagi sahih. Suatu yang berguna jika kita dapat
melinearkan fungsifungsi tertentu yang tida linear, karena dengan demikian
uji-F dan uji-t nya dapat dilakukan. Akan tetapi, kelebihan ini membawa
juga kekurangan dalam pengertian bahwa fungsi nonlinear sebenarnya lebih

6
cocok dengan data mentah, dibandingkan dengan fungsi nonlinear yang
dilinearkan.
2. Kebebasan nilai sisa/autokorelasi (independence of residuals)
Autokorelasi adalah terjadinya korelasi antara satu variabel error
dengan variabel error yang lain. Autokorelasi seringkali terjadi pada data
time series dan dapat juga terjadi pada data cross section tetapi jarang
(Widarjono, 2007). Selanjutnya untuk mendeteksi adanya autokorelasi
dalam model regresi linier berganda dapat digunakan metode Durbin-
Watson.
Nilai Statistik Durbin-Watson Hasil
Menolak hipotesis nol; ada
0 < 𝑑 < 𝑑𝐿
autokorelasi positif
Daerah keragu-raguan; tidak ada
𝑑𝐿 ≤ 𝑑 ≤ 𝑑𝑈
keputusan
Menerima hipotesis nol; tidak ada
𝑑𝑈 ≤ 𝑑 ≤ 4 − 𝑑𝑈
autokorelasi positif/negatif
Daerah keragu-raguan; tidak ada
4 − 𝑑𝑈 ≤ 𝑑 ≤ 4 − 𝑑𝐿
keputusan
Menolak hipotesis nol; ada
4 − 𝑑𝐿 ≤ 𝑑 ≤ 4
autokorelasi positif

3. Homoskedastisitas (homoscedasticity)
Homoskedastisitas merupakan salah satu asumsi klasik pada analisis
regresi linear agar model bersifat BLUE (Best Linear Unbiased Estimator).
Homoskedastisitas adalah kondisi dimana terdapat varians yang sama dari
setiap sisaannya, atau 𝐸(𝜀𝑖2 ) = 𝜎 2 . Asumsi homoskedastisitas menyatakan
bahwa nilai – nilai varians sisaan tidak tergantung pada nilai – nilai variabel
bebas. Setiap varians sisaan akan tetap sama baik untuk variabel bebas
bernilai kecil maupun besar (Celik, 2017).
Heteroskedastisitas adalah keadaan dimana terdapat varians sisaan
berbeda dari suatu observasi ke observasi lainnya, atau nilai - nilai varians
sisaan tergantung pada nilai – nilai variabel bebas (X). Heteroskedastisitas
dalam suatu model regresi akan mengakibatkan estimasi Metode Kuadrat
Terkecil (MKT) tetap tidak bias dan konsisten, tetapi estimasi tersebut tidak
effisien baik bagi sampel besar maupun sampel kecil. Jika tetap
menggunakan estimasi MKT dalam kondisi heteroskedastisitas, maka
varians estimasi parameter koefisien regresi akan underestimate
(mengestimasi terlalu rendah) atau overestimate (mengestimasi terlalu
tinggi). Heteroskedastisitas juga menyebabkan hasil dari uji t dan uji F tidak
valid dan selang kepercayaan tidak dapat dibuat (Syukriyah, 2011).
4. Normalitas nilai sisa (normality of residuals)

7
Uji normalitas ialah untuk melihat apakah ada nilai residu normal
atau tidak. Model regresi yang baik ialah model yang memiliki residu dan
terdistribusi secara normal. Tes normalitas, tidak perlu dilakukan kepada
setiap variabel yang ada, akan tetapi untuk nilai-nilai residual saja. Tes
normalitas dapat dilakukan dengan tes normal P-Plot, tes histogram, tes Chi
-square, tes kurtosis, tes skewness, tes kolmogorov-Smirnov. Namun, tes
normalitas tidak memiliki metode terbaik atau model paling tepat.
Apabila ditemukan residu tidak normal akan tetapi dekat dengan
nilai kritis, maka metode lain pun dapat digunakan untuk memberikan
justifikasi normal. Apabila jauh dari nilai normal, maka dapat dilakukan
penggubahan data, menambahkan data observasi serta memangkas outlier.
Transformasi pun dapat dilakukan dalam bentuk akar kuadrat, logaritma
natural, invers dan lainnya bergantung pada normal kurva apakah ke arah
kanan, kiri atau tengah dan lainnya.

B. Studi Kasus
Sebuah penelitian dilakukan untuk mengkaji hubungan antara 4 variabel
yaitu usia bayi, tinggi bayi waktu lahir, berat bayi waktu lahir, dan ukuran dada
bayi waktu lahir terhadap tinggi bayi sekarang. Penelitian dilakukan pada
Posyandu Binaya. Posyandu Binaya merupakan salah satu Posyandu yang
bertugas untuk melihat perkembangan Bayi pada kota Masohi terkhusus pada
Kelurahan Namaelo RT 001. Data yang diperoleh adalah sebagai berikut
(Wasilaine et al., 2014).

No Y 𝑋1 𝑋2 𝑋3 𝑋4
1 62.0 216.0 51.0 2.7 19.0
2 50.0 104.0 50.0 3.1 16.0
3 61.0 106.0 51.0 2.4 21.0
4 60.0 147.0 52.0 2.0 26.0
5 60.0 71.0 52.0 2.3 23.0
6 63.0 144.0 49.0 2.2 22.0
7 58.0 73.0 50.0 2.3 22.0
8 63.0 235.0 50.0 2.1 24.0
9 55.0 23.0 51.0 3.2 16.0
10 56.0 92.0 50.0 2.9 17.0
11 56.0 53.0 51.0 3.0 17.0
12 67.0 85.0 52.0 2.6 20.0
13 59.0 100.0 48.0 2.4 20.0
14 55.0 80.0 48.0 3.0 16.0
15 55.0 80.0 48.0 3.0 16.0
16 64.0 133.0 51.0 2.4 21.0

8
17 60.0 140.0 52.0 2.6 20.0
18 62.0 141.0 51.0 2.3 22.0
19 68.0 233.0 50.0 2.3 22.0
20 60.0 167.0 48.0 2.3 21.0

Keterangan :
𝑌 = Tinggi bayi sekarang (cm)
𝑋1 = Usia Bayi (hari)
𝑋2 = Tinggi bayi waktu lahir (cm)
𝑋3 = Berat bayi waktu lahir (kg)
𝑋4 = Ukuran dada bayi waktu lahir (cm)

Dengan menggunakan data di atas, akan kita lakukan uji analisis regresi linier
berganda dengan langkah-langkah sebagai berikut.
1. Menentukan Tujuan untuk Uji Linier Berganda
Tujuan : Untuk mengetahui hubungan antara variabel bebas
yaitu usia bayi (𝑋1 ), tinggi bayi waktu lahir (𝑋2 ), berat
bayi waktu lahir (𝑋3 ), dan ukuran dada bayi waktu
lahir (𝑋4 ) dengan variabel terikat yaitu tinggi bayi
sekarang (Y)

2. Penentuan Variabel Bebas dan Tak Bebas


Variabel bebas : Usia bayi (𝑋1 ), tinggi bayi waktu lahir (𝑋2 ), berat bayi
waktu lahir (𝑋3 ), dan ukuran dada bayi waktu lahir
(𝑋4 )
Variabel terikat : Tinggi bayi sekarang (Y)

3. Uji Asumsi Klasik


Selanjutnya akan dilakukan uji asumsi klasik dengan langkah-
langkah sebagai berikut.
(1) Pada Minitab, pilih tab Stat > Regression. Kemudian masukkan variabel
dependen Y pada Response dan variabel independen 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 ke
Predictors.

9
(2) Kemudian, klik Graphs, centang Regular pada Residuals for Plots dan
pada Residual Plots centang Histogram of residuals, Normal plot of
residuals, dan Residual versus fits, klik OK.

(3) Selanjutnya, klik Options, centang Fit intercept, Variance inflating


factors, Durbin-Watson statistic, klik OK.

10
(4) Berikutnya, klik Storage, centang Residuals, Coefficients, dan Fits,
klik OK.

(5) Klik OK untuk melihat output. Dan outputnya adalah sebagai berikut.

11
Interpretasi:

Multikolinearitas : Pada output di atas, terlihat bahwa nilai VIF


𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 berurut-urut adalah 1.507, 2.894,
45.831, 49.386. Ini memperlihatkan bahwa pada 𝑋3
dan 𝑋4 terdapat gejala multikolinearitas karena nilai
VIF > 5.

12
Autokorelasi : Pada output Durbin-Watson statistics, terlihat bahwa
nilainya sebesar 2.01346. Diketahui pula, n = 20 dan
p = 4. Dengan tabel Durbin-Watson, maka diperoleh
nilai dL = 0.90 dan dU = 1.83. Sehingga, d > dU
gagal tolak H0. Dapat disimpulkan bahwa tidak
terdapat autokorelasi.

T parsial : Nilai p value t terlihat pada 𝑋1 nilai lebih besar


daripada 0.05, sehingga 𝑋1 tidak terdapat pengaruh
secara individu terhadap Y. Sedangkan yang lain,
𝑋2 , 𝑋3 , 𝑋4 memiliki pengaruh secara individu
terhadap Y.

Persamaan Regresi:

𝑌 = 97,1 + 0,0248𝑋1 − 2,06𝑋2 − 30,6𝑋3 + 3,27𝑋4

1. Apabila variabel lain bernilai konstan maka nilai Y akan berubah


dengan sendirinya yakni sebesar 97,1.
2. Apabila variabel lain bernilai konstan maka nilai Y akan berubah
sebesar 0,0248 setiap satuan 𝑋1.
3. Apabila variabel lain bernilai konstan maka nilai Y akan berubah
sebesar -2,06 setiap satuan 𝑋2.
4. Apabila variabel lain bernilai konstan maka nilai Y akan berubah
sebesar -30,6 setiap satuan 𝑋3.
5. Apabila variabel lain bernilai konstan maka nilai Y akan berubah
sebesar 3,27 setiap satuan 𝑋4.

13
T-Test Result

Interpretasi:
(1) Besarnya selisih pada Y dan 𝑋1 adalah sebesar -61,5. Hasil nilai t hitung
sebesar -4,71 pada degree of freedom (df) 38 dengan p value sebesar
0.000 di mana lebih kecil daripada 0.05 sehingga dapat disimpulkan

14
bahwa menerima 𝐻1 atau berarti terdapat perbedaan mean yang
signifkan antara Y dan 𝑋1.
(2) Besarnya selisih pada Y dan 𝑋2 adalah sebesar 9,45. Hasil nilai t hitung
sebesar 9,17 pada degree of freedom (df) 38 dengan p value sebesar
0.000 di mana lebih kecil daripada 0.05 sehingga dapat disimpulkan
bahwa menerima 𝐻1 atau berarti terdapat perbedaan mean yang
signifkan antara Y dan 𝑋2.
(3) Besarnya selisih pada Y dan 𝑋3 adalah sebesar 57,145. Hasil nilai t
hitung sebesar 58,01 pada degree of freedom (df) 38 dengan p value
sebesar 0.000 di mana lebih kecil daripada 0.05 sehingga dapat
disimpulkan bahwa menerima 𝐻1 atau berarti terdapat perbedaan mean
yang signifkan antara Y dan 𝑋3.
(4) Besarnya selisih pada Y dan 𝑋4 adalah sebesar 39,65. Hasil nilai t hitung
sebesar 33,60 pada degree of freedom (df) 38 dengan p value sebesar
0.000 di mana lebih kecil daripada 0.05 sehingga dapat disimpulkan
bahwa menerima 𝐻1 atau berarti terdapat perbedaan mean yang
signifkan antara Y dan 𝑋4.

Hasil Transformasi dan Residual

15
Residuals Versus Fits

Interpretasi : Pada diagram di atas, pembagian plot menyebar merata


dan tidak membentuk suatu pola tertentu sehingga tidak
terdapat gejala heteroskedastisitas.

Residual Histogram

Interpretasi : Residual dinyatakan berdistribusi normal, sebab histogram


menyerupai bel menghadap ke atas.

16
Normplot of Residual

Interpretasi : Dapat disimpulkan bahwa berdistribusi normal sebab plot


tersebar cukup dekat dengan mengikuti garis diagonal.

4. Penyajian Tabel ANOVA

Interpretasi : Uji F
Terlihat bahwa nilai F sebesar 8,22 dan nilai P = 0.001 maka nilai P < 0.05.
Sehingga diperoleh keputusan bahwa 𝐻0 ditolak dan 𝐻1 diterima. Dapat
disimpulkan bahwa variabel bebas 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 memiliki pengaruh yang
signifikan terhadap variabel terikat Y.

5. Koefisien Korelasi dan Koefisien Determinasi


Untuk mencari koefisien korelasi secara simultan dan koefisien
determinasi secara simultan dengan menggunakan software SPSS dengan
langkah-langkah sebagai berikut:
(1) Masukan data kedalam SPSS

17
(2) Klik Analyze→Regression→Linear

(3) Masukan variabel terikat (Y) kedalam Dependent dan masukan variabel
bebas (X) kedalan Independents

18
(4) Klik Statistics → centang Rsquared change → continue

(5) Klik Ok

(6) Pada tabel Model Summary didapatkan output sebagai berikut

Dapat dilihat bahwa nilai Sig. F Change adalah 0,001 sehingga nilai
sig. F Change 0,001<0,005 maka dapat disimpulkan antara variabel usia
bayi (𝑋1 ), tinggi bayi waktu lahir (𝑋2 ), berat bayi waktu lahir (𝑋3 ), dan
ukuran dada bayi waktu lahir (𝑋4 ) secara bersama-sama atau simultan
berhubungan dengan veriabel tinggi bayi sekarang (Y).

19
Koefisien Korelasi
Nilai R yang menunjukan nilai koefisien korelasinya adalah 0,829
hal ini menunjukan bahwa antara variabel terikat dan variabel bebas
memiliki hubungan yang kuat karena nilainya cukup tinggi antara 0-1. Serta
berkolerasi positif yang berarti jika variabel terikat (Y) membesar maka
variabel bebas (X) juga membesar begitu juga sebaliknya

Koefisien Determinan
Nilai R Square yang menunjukan nilai koefisien determinasinya
adalah 0,687 atau 68,7% hal ini berarti variabel usia bayi (𝑋1 ), tinggi bayi
waktu lahir (𝑋2 ), berat bayi waktu lahir (𝑋3 ), dan ukuran dada bayi waktu
lahir (𝑋4 ) secara bersama-sama berpengaruh terhadap variabel tinggi bayi
sekarang (Y) sebesar 68,7%. Sedangkan sisanya adalah 31,3% dipengaruhi
oleh variabel lain diluar yang tidak terdapat pada data.

Koefisien Korelasi Parsial


Untuk mencari koefisien korelasi parsial dengan menggunakan
software SPSS dengan langkah-langkah sebagai berikut:
(1) Klik Analyze→correlate→Bivariate

(2) Masukan semua variabel kedalam variables, lalu centang Person dan
Two-tailed, kemudian klik OK

20
(3) Diperoleh hasil sebagai berikut

Sehingga diperloleh:

𝑟𝑦𝑥1 = nilai sig 0,004<0,005 maka variabel Y berkolerasi dengan 𝑋1 ,


korelasi parsialnya adalah 0,596 yang cukup kuat dan
berkorelasi positif yang berarti jika variabel Y membesar maka
variabel 𝑋1 juga membesar begitu juga sebaliknya.

𝑟𝑦𝑥2 = nilai sig 0,197>0,005 maka variabel Y tidak berkolerasi dengan


𝑋2, korelasi parsialnya adalah 0,293 yang cukup lemah dan

21
berkorelasi positif yang berarti jika variabel Y membesar maka
variabel 𝑋2 juga membesar begitu juga sebaliknya.

𝑟𝑦𝑥3 = nilai sig 0,001<0,005 maka variabel Y berkolerasi dengan 𝑋3,


korelasi parsialnya adalah -0,688 yang cukup kuat dan
berkorelasi negatif yang berarti jika variabel Y membesar maka
variabel 𝑋3 mengecil begitu juga sebaliknya.

𝑟𝑦𝑥4 = nilai sig 0,001<0,005 maka variabel Y berkolerasi dengan 𝑋4,


korelasi parsialnya adalah 0,660 yang cukup kuat dan
berkorelasi positif yang berarti jika variabel Y membesar maka
variabel 𝑋4 juga membesar begitu juga sebaliknya.

𝑟𝑥1𝑥2 = nilai sig 0,899>0,005 maka variabel 𝑋1 tidak berkolerasi dengan


𝑋2, korelasi parsialnya adalah -0,029 yang lemah dan berkorelasi
negatif yang berarti jika variabel 𝑋1 membesar maka variabel 𝑋2
mengecil begitu juga sebaliknya.

𝑟𝑥1𝑥3 = nilai sig 0,007>0,005 maka variabel 𝑋1tidak berkolerasi dengan


𝑋3, korelasi parsialnya adalah -0,568 yang cukup kuat dan
berkorelasi negatif yang berarti jika variabel 𝑋1 membesar maka
variabel 𝑋3 mengecil begitu juga sebaliknya.

𝑟𝑥1𝑥4 = nilai sig 0,014>0,005 maka variabel 𝑋1tidak berkolerasi dengan


𝑋4, korelasi parsialnya adalah 0,526 yang cukup kuat dan
berkorelasi positif yang berarti jika variabel 𝑋1 membesar maka
variabel 𝑋4 juga membesar begitu juga sebaliknya

𝑟𝑥2𝑥3 = nilai sig 0,540>0,005 maka variabel 𝑋2tidak berkolerasi dengan


𝑋3, korelasi parsialnya adalah -0,142 yang cukup lemah dan
berkorelasi negatif yang berarti jika variabel 𝑋2 membesar maka
variabel 𝑋3 mengecil begitu juga sebaliknya.

𝑟𝑥2𝑥4 = nilai sig 0,146>0,005 maka variabel 𝑋2tidak berkolerasi dengan


𝑋4, korelasi parsialnya adalah 0,328 yang cukup lemah dan
berkorelasi positif yang berarti jika variabel 𝑋2 membesar maka
variabel 𝑋4 juga membesar begitu juga sebaliknya.

𝑟𝑥3𝑥4 = nilai sig 0,000<0,005 maka variabel 𝑋3 berkolerasi dengan 𝑋4,


korelasi parsialnya adalah -0,971 yang sangat kuat dan
berkorelasi negatif yang berarti jika variabel 𝑋3 membesar maka
variabel 𝑋4 mengecil begitu juga sebaliknya.

22
6. Penggunaan Uji F Dan Uji T dalam Menentukan Variabel-Variabel
yang Signifikan
a. Uji F
Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 4 251,464 62,8661 8,22 0,001
X1 1 26,182 26,1825 3,42 0,084
X2 1 55,335 55,3348 7,23 0,017
X3 1 51,016 51,0158 6,67 0,021
X4 1 35,330 35,3297 4,62 0,048
Error 15 114,736 7,6491
Lack-of-Fit 14 114,736 8,1954 * *
Pure Error 1 0,000 0,0000
Total 19 366,200

 Hipotesis
𝐻0 : tidak terdapat pengaruh yang signifikan antara variabel usia
bayi (𝑋1), tinggi bayi waktu lahir (𝑋2), berat bayi waktu lahir
(𝑋3), dan ukuran dada bayi waktu lahir (𝑋4) terhadap tinggi
bayi sekarang (𝑌)
𝐻1 : terdapat pengaruh yang signifikan antara variabel signifikan
antara variabel usia bayi (𝑋1), tinggi bayi waktu lahir (𝑋2),
berat bayi waktu lahir (𝑋3), dan ukuran dada bayi waktu lahir
(𝑋4) terhadap tinggi bayi sekarang (𝑌)
 Taraf Signifikansi (𝛼)
𝛼 = 0,05
 Statistik Uji
𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 8,22
 Nilai Kritis
𝐹(0.05,4,15) = 3,0556
 Kriteria Penolakan
Tolak 𝐻0 jika 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 > 𝐹𝑡𝑎𝑏𝑒𝑙 atau 𝑃ℎ𝑖𝑡𝑢𝑛𝑔 < 𝛼.
 Kesimpulan
Karena 𝐹ℎ𝑖𝑡𝑢𝑛𝑔 = 8,22 > 𝐹(0.05,4,15) = 3,0556 dan P-value =
0,001 < 0,05, maka 𝐻0 ditolak. Jadi, dapat disimpulkan bahwa
terdapat pengaruh yang signifikan antara variabel usia bayi (𝑋1),
tinggi bayi waktu lahir (𝑋2), berat bayi waktu lahir (𝑋3), dan ukuran
dada bayi waktu lahir (𝑋4) terhadap tinggi bayi sekarang (𝑌).

23
b. Uji t
(1) Untuk variabel Usia Bayi (𝑋1)
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 54,25 1,91 28,40 0,000
X1 0,0450 0,0143 3,15 0,006 1,00
 Hipotesis
𝐻0 : tidak terdapat pengaruh yang signifikan antara variabel
usia bayi (𝑋1 ) terhadap tinggi bayi sekarang (𝑌)
𝐻1 : terdapat pengaruh yang signifikan antara variabel usia bayi
(𝑋1) terhadap tinggi bayi sekarang (𝑌)
 Taraf signifikansi (𝛼)
𝛼 = 0,05
 Statistik uji
𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 3,15
 Nilai kritis
𝑇(0.05,15) = 2,1314
 Kriteria Penolakan
Tolak 𝐻0 jika 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑇𝑡𝑎𝑏𝑒𝑙 atau 𝑃ℎ𝑖𝑡𝑢𝑛𝑔 < 𝛼.
 Kesimpulan
Karena 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 3,15 > 𝑇(0.05,15) = 2,1314 dan P-value =
0,006 < 0,05, maka 𝐻0 ditolak. Jadi, dapat disimpulkan bahwa
terdapat pengaruh yang signifikan antara variabel usia bayi (𝑋1)
terhadap tinggi bayi sekarang (𝑌).

(2) Untuk variabel Tinggi Bayi Waktu Lahir (𝑋2)

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 13,8 35,3 0,39 0,701
𝑋2 0,914 0,702 1,30 0,209 1,00

 Hipotesis
𝐻0 : tidak terdapat pengaruh yang signifikan antara variabel
tinggi bayi waktu lahir (𝑋2) terhadap tinggi bayi sekarang
(𝑌)
𝐻1 : terdapat pengaruh yang signifikan antara variabel tinggi
bayi waktu lahir (𝑋2) terhadap tinggi bayi sekarang (𝑌)
 Taraf Signifikansi (𝛼)
𝛼 = 0,05

24
 Statistik Uji
𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 1,30
 Nilai Kritis
𝑇(0.05,15) = 2,1314
 Kriteria Penolakan
Tolak 𝐻0 jika 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑇𝑡𝑎𝑏𝑒𝑙 atau 𝑃ℎ𝑖𝑡𝑢𝑛𝑔 < 𝛼.
 Kesimpulan
Karena 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 1,30 < 𝑇(0.05,15) = 2,1314 dan P-value =
0,209 > 0,05, maka 𝐻0 diterima. Jadi, dapat disimpulkan bahwa
tidak terdapat pengaruh yang signifikan antara variabel tinggi
bayi waktu lahir (𝑋2 ) terhadap tinggi bayi sekarang (𝑌).

(3) Untuk variabel Berat Bayi Waktu Lahir (𝑋3)


Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 81,02 5,35 15,14 0,000
X3 -8,34 2,07 -4,02 0,001 1,00

 Hipotesis
𝐻0 : tidak terdapat pengaruh yang signifikan antara variabel
berat bayi waktu lahir (𝑋3) terhadap tinggi bayi sekarang
(𝑌)
𝐻1 : terdapat pengaruh yang signifikan antara variabel berat
bayi waktu lahir (𝑋3) terhadap tinggi bayi sekarang (𝑌)
 Taraf Signifikansi (𝛼)
𝛼 = 0,05
 Statistik Uji
|𝑇ℎ𝑖𝑡𝑢𝑛𝑔 | = 4,02
 Nilai Kritis
𝑇(0.05,15) = 2,1314
 Kriteria Penolakan
Tolak 𝐻0 jika 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑇𝑡𝑎𝑏𝑒𝑙 atau 𝑃ℎ𝑖𝑡𝑢𝑛𝑔 < 𝛼.
 Kesimpulan
Karena |𝑇ℎ𝑖𝑡𝑢𝑛𝑔 | = 4,02 > 𝑇(0.05,15) = 2,1314, dan P-value
= 0,001 < 0,05 maka 𝐻0 ditolak. Jadi, dapat disimpulkan bahwa
terdapat pengaruh yang signifikan antara variabel berat bayi
waktu lahir (𝑋3) terhadap tinggi bayi sekarang (𝑌).

25
(4) Untuk variabel Ukuran Dada Bayi Waktu Lahir (𝑋4)
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 39,85 5,37 7,42 0,000
X4 0,990 0,265 3,73 0,002 1,00

 Hipotesis
𝐻0 : tidak terdapat pengaruh yang signifikan antara ukuran dada
bayi waktu lahir (𝑋4) terhadap tinggi bayi sekarang (𝑌)
𝐻1 : terdapat pengaruh yang signifikan antara variabel ukuran
dada bayi waktu lahir (𝑋4) terhadap tinggi bayi sekarang
(𝑌)
 Taraf Signifikansi (𝛼)
𝛼 = 0,05
 Statistik Uji
𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 3,73
 Nilai Kritis
𝑇(0.05,15) = 2,1314
 Kriteria Penolakan
Tolak 𝐻0 jika 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 > 𝑇𝑡𝑎𝑏𝑒𝑙 atau 𝑃ℎ𝑖𝑡𝑢𝑛𝑔 < 𝛼.
 Kesimpulan
Karena 𝑇ℎ𝑖𝑡𝑢𝑛𝑔 = 3,73 > 𝑇(0.05,15) = 2,1314, dan P-value =
0,002 < 0,05 maka 𝐻0 ditolak. Jadi, dapat disimpulkan bahwa
terdapat pengaruh yang signifikan antara variabel ukuran dada
bayi waktu lahir (𝑋4 ) terhadap tinggi bayi sekarang (𝑌).

Dari pernyataan di atas, diperoleh terdapat 3 variabel prediktor


yang signifikan terhadap variabel tinggi bayi sekarang (𝑌), yaitu usia
bayi (𝑋1), berat bayi waktu lahir (𝑋3), dan ukuran dada bayi waktu lahir
(𝑋4).

7. Pencarian Model Regresi Terbaik dengan Metode Stepwise Mundur


dan Stepwise Maju
a. Pencarian model regresi terbaik dengan regresi stepwise mundur
(stepwise backward regression)
Berikut adalah langkah-langkahnya:
(1) Meregresikan variabel Y dengan variabel 𝑋1 , 𝑋2 , 𝑋3 , dan 𝑋4.
Regression Analysis: Y versus X1; X2; X3; X4
Regression Equation
Y = 97,1 + 0,0248 X1 + 2,060 X2 - 30,6 X3 - 3,27 X4

26
Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 97,1 38,9 2,50 0,025
X1 0,0248 0,0134 1,85 0,084 1,51
X2 2,060 0,766 2,69 0,017 2,89
X3 -30,6 11,9 -2,58 0,021 45,83
X4 -3,27 1,52 -2,15 0,048 49,39

(2) Menentukan variabel prediktor yang akan dikeluarkan dari dalam


model.
Berdasarkan data di atas variabel 𝑋1 memiliki nilai P-value > 0,05
terbesar, maka variabel 𝑋1 harus dikeluarkan dari model.
(3) Meregresikan Y tanpa 𝑋1
Regression Equation
Y = 113,8 + 1,987 X2 - 33,8 X3 - 3,38 X4

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 113,8 40,6 2,81 0,013
X2 1,987 0,821 2,42 0,028 2,89
X3 -33,8 12,6 -2,68 0,016 44,91
X4 -3,38 1,63 -2,07 0,055 49,32

(4) Menentukan variabel prediktor yang akan dikeluarkan dari dalam


model.
Berdasarkan data di atas variabel 𝑋4 memiliki nilai P-value > 0,05
terbesar, maka variabel 𝑋4 harus dikeluarkan dari model.
(5) Meregresikan Y tanpa 𝑋1 dan 𝑋4
Regression Equation
Y = 48,9 + 0,623 X2 - 8,00 X3

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 48,9 28,0 1,74 0,099
X2 0,623 0,533 1,17 0,259 1,02
X3 -8,00 2,08 -3,85 0,001 1,02

(6) Menentukan variabel prediktor yang akan dikeluarkan dari dalam


model.

27
Berdasarkan data di atas variabel 𝑋2 memiliki nilai P-value > 0,05
terbesar, maka variabel 𝑋2 harus dikeluarkan dari model.
(7) Meregresikan Y dengan 𝑋3 (tanpa 𝑋1 , 𝑋2, dan 𝑋4 )
Regression Analysis: Y versus X3
Regression Equation
Y = 81,02 - 8,34 X3

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 81,02 5,35 15,14 0,000
X3 -8,34 2,07 -4,02 0,001 1,00

Model Summary
S R-sq R-sq(adj) R-sq(pred)
3,27376 47,32% 44,39% 35,90%

Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 1 173,28 173,28 16,17 0,001
X3 1 173,28 173,28 16,17 0,001
Error 18 192,92 10,72
Lack-of-Fit 9 95,88 10,65 0,99 0,507
Pure Error 9 97,03 10,78
Total 19 366,20

Karena nilai P-value < 0,05, maka proses berhenti. Dengan Regresi
Stepwise Mundur diperoleh model regresinya yaitu 𝑌 = 81,02 −
8,34𝑋3 dengan koefisien determinasi yang didapatkan sebesar 47,32%,
berarti kemampuan variabel 𝑋3 dalam menjelaskan variansi dari
variabel Y sebesar 47,32%.
b. Pencarian model regresi terbaik dengan regresi stepwise maju (stepwise
forward regression)
Berikut adalah langkah-langkahnya:
 Meregresikan variabel Y dengan setiap variabel 𝑋1 , 𝑋2 , 𝑋3, dan 𝑋4
lalu pilih variabel yang menghasilkan model dengan koefisien
determinasi tertinggi.
Y dengan 𝑋1
S R-sq R-sq(adj) R-sq(pred)
3,62023 35,58% 32,00% 23,71%

28
Y dengan 𝑋2
S R-sq R-sq(adj) R-sq(pred)
4,31194 8,61% 3,53% 0,00%

Y dengan 𝑋3

S R-sq R-sq(adj) R-sq(pred)


3,27376 47,32% 44,39% 35,90%

Term Coef SE Coef T-Value P-Value VIF


Constant 81,02 5,35 15,14 0,000
X3 -8,34 2,07 -4,02 0,001 1,00

Y dengan 𝑋4
S R-sq R-sq(adj) R-sq(pred)
3,38734 43,60% 40,47% 27,23%

Berdasarkan data di atas variabel 𝑋3 menghasilkan model dengan


koefisien determinasi tertinggi yaitu sebesar 44,39 %, dan nilai P-
value = 0,001 < 0,05. Jadi, variabel 𝑋3 akan dimasukkan ke dalam
model.
 Meregresikan variabel Y dan 𝑋3 dengan setiap variabel 𝑋1 , 𝑋2, dan
𝑋4 lalu pilih model dengan koefisien determinasi tertinggi.
Y dan 𝑋3 dengan 𝑋1

S R-sq R-sq(adj) R-sq(pred)


3,16294 53,56% 48,09% 35,80%

Term Coef SE Coef T-Value P-Value VIF


Constant 72,89 7,46 9,77 0,000
X1 0,0229 0,0152 1,51 0,149 1,48
X3 -6,25 2,44 -2,57 0,020 1,48

Y dan 𝑋3 dengan 𝑋2
S R-sq R-sq(adj) R-sq(pred)
3,24109 51,23% 45,50% 34,21%

Y dan 𝑋3 dengan 𝑋4
S R-sq R-sq(adj) R-sq(pred)
3,36548 47,42% 41,23% 26,21%

29
Berdasarkan data di atas model yang dibentuk variabel Y dan
𝑋3 ditambah dengan 𝑋1 menghasilkan model dengan koefisien
determinasi tertinggi yaitu sebesar 48,09 %, tetapi nilai P-value dari
𝑋1 adalah 0,149 > 0,05. Sehingga variabel 𝑋1 tidak dapat
dimasukkan ke dalam model dan proses berhenti. Jadi, pemilihan
model terbaik dengan metode ini hanya melibatkan satu variabel
prediktor yaitu 𝑋3.

 Mencari Persamaan Regresi antara variabel Y dengan 𝑋3


Regression Analysis: Y versus 𝑿𝟑
Regression Equation
Y=81,02 - 8,34 X3

Coefficients
Term Coef SE Coef T-Value P-Value VIF
Constant 81,02 5,35 15,14 0,000
X3 -8,34 2,07 -4,02 0,001 1,00

Model Summary
S R-sq R-sq(adj) R-sq(pred)
3,27376 47,32% 44,39% 35,90%

Analysis of Variance
Source DF Adj SS Adj MS F-Value P-Value
Regression 1 173,28 173,28 16,17 0,001
X3 1 173,28 173,28 16,17 0,001
Error 18 192,92 10,72
Lack-of-Fit 9 95,88 10,65 0,99 0,507
Pure Error 9 97,03 10,78
Total 19 366,20

Dengan regresi stepwise maju diperoleh model regresinya yaitu


𝑌 = 81,02 − 8,34𝑋3 dengan koefisien determinasi yang didapatkan
sebesar 47,32%, berarti kemampuan variabel 𝑋3 dalam menjelaskan
variansi dari variabel Y sebesar 47,32%.

30
BAB III PENUTUP

Dari pembahasan diatas dapat disimpulkan:


1. Berdasarkan penggunaan Uji-F dapat disimpulkan bahwa terdapat pengaruh
yang signifikan antara variabel usia bayi (𝑋1), tinggi bayi waktu lahir (𝑋2), berat
bayi waktu lahir (𝑋3), dan ukuran dada bayi waktu lahir (𝑋4) terhadap tinggi
bayi sekarang (𝑌).
2. Berdasarkan penggunaan Uji-T terdapat 3 variabel prediktor yang signifikan
terhadap variabel tinggi bayi sekarang (𝑌), yaitu usia bayi (𝑋1), berat bayi waktu
lahir (𝑋3), dan ukuran dada bayi waktu lahir (𝑋4).
3. Berdasarkan pencarian model regresi terbaik dengan regresi stepwise mundur
(stepwise backward regression) dan regresi stepwise maju (stepwise forward
regression), diperoleh variabel berat bayi waktu lahir (𝑋3) sangat berpengaruh
secara signifikan terhadap tinggi bayi sekarang (Y). Sedangkan usia bayi (𝑋1),
tinggi bayi waktu lahir (𝑋2), dan ukuran dada bayi waktu lahir (𝑋4) tidak
berpengaruh secara signifikan terhadap tinggi bayi sekarang (Y). Persamaan
regresi dengan menggunakan metode regresi stepwise maju dan metode regresi
stepwise mundur, diperoleh model regresi yang sama yaitu 𝑌 = 81,02 −
8,34𝑋3 dengan koefisien determinasi yang didapatkan sebesar 47,32%.
4. Dari beberapa pernyataan di atas dapat disimpulkan bahwa hasil dari uji-F, uji-
T, dan metode stepwise mempunyai hasil yang berbeda-beda. Hal ini
dikarenakan data yang kami gunakan mengandung multikolinieritas. Sehingga,
untuk mengatasi masalah multikolinieritas ini digunakan metode stepwise
dalam menentukan model regresinya.

31
DAFTAR PUSTAKA

Celik, R. (2017). A New Test To Detect Monotonic and Non Monotonic Types For
Heteroscedasticity. Journal of Applied Statistics, 44(2), 1-20.

Kutner, M. H., Nachtsheim, C. J., & Neter, J. (2004). Applied Linear Regression
Models (4th ed.). McGraw-Hill Companies, Inc.

Sunyoto, Danang. (2007). Analisis Regresi dan Korelasi Bivariat. Amara Books.
Yogyakarta.

Syukriyah, A. (2011). Analisis Heteroskedastisitas Pada Regresi Linear Berganda.


Skripsi Fakultas Sains dan Teknologi Universitas islam Negeri Mulana
Malik Ibrahim Malang

Wasilaine, T. L., Talakua, M. W., & Lesnussa, Y. A. (2014). Model Regresi Ridge
untuk Mengatasi Model Regresi Linier Berganda yang Mengandung
Multikolinieritas (Studi Kasus: Data Pertumbuhan Bayi di Kelurahan
Namaelo RT 001, Kota Masohi). Jurnal Barekeng, 8(1), 31–37.

Yuliara, I. M. (2016). Modul Regresi Linier Berganda. Universitas Udayana, 18.

32

Anda mungkin juga menyukai