100% menganggap dokumen ini bermanfaat (1 suara)
2K tayangan181 halaman

Modul Analisis Regresi

statistika

Diunggah oleh

asnielamus76
Hak Cipta
© © All Rights Reserved
Kami menangani hak cipta konten dengan serius. Jika Anda merasa konten ini milik Anda, ajukan klaim di sini.
Format Tersedia
Unduh sebagai PDF, TXT atau baca online di Scribd
100% menganggap dokumen ini bermanfaat (1 suara)
2K tayangan181 halaman

Modul Analisis Regresi

statistika

Diunggah oleh

asnielamus76
Hak Cipta
© © All Rights Reserved
Kami menangani hak cipta konten dengan serius. Jika Anda merasa konten ini milik Anda, ajukan klaim di sini.
Format Tersedia
Unduh sebagai PDF, TXT atau baca online di Scribd

MODUL

ANALISIS REGRESI

OLEH:

MADE SUSILAWATI

PROGRAM STUDI MATEMATIKA


FMIPA UNIVERSITAS UDAYANA
ANALISIS REGRESI LINEAR SEDERHANA DAN
ANALISIS KORELASI

Pendahuluan
Gejala-gejala alam dan akibat atau faktor yang ditimbulkannya dapat diukur atau
dinyatakan dengan dua kategori yaitu fakta atau data yang bersifat kuantitatif dan fakta atau
data yang bersifat kualitatif. Dalam pembicaraan ini akan diuraikan masalah regresi dan
korelasi, sebagai pengukur hubungan antara dua variabel atau lebih. Dalam pembicaraan
regresi dan korelasi data yang dianalisis harus bersifat kuantitatif atau terukur atau terhitung
atau dapat dikuantitatifkan; jadi sekurang-kurangnya data dengan skala interval. Data
kuantitatif dapat dibedakan atas dua macam yaitu: Data atau pernyataan yang bersifat bebas
adalah pernyataan yang ditentukan dengan mana suka atau bebas pilih. Pernyataan ini sering
disebut dengan variabel bebas atau variabel prediktor atau independent variable. Data atau
pernyataan yang tergantung atau terikat pada variabel bebas disebut dengan variabel tak
bebas atau variabel tergantung atau variabel endogen atau kreterium atau dependent variable.
Apakah perlunya mempelajari regresi dan korelasi?. Tujuan mempelajari regresi dan korelasi
adalah untuk menemukan atau mencari hubungan antarvariabel, sebagai dasar untuk dapat
dipakai melakukan penaksiran atau peramalan atau estimasi dari hubungan antarvariabel
tersebut.

Pengertian Regresi
Regresi adalah pengukur hubungan dua variabel atau lebih yang dinyatakan dengan
bentuk hubungan atau fungsi. Untuk menentukan bentuk hubungan (regresi) diperlukan
pemisahan yang tegas antara variabel bebas yang sering diberi simbol X dan variabel tak
bebas dengan simbol Y. Pada regresi harus ada variabel yang ditentukan dan variabel yang
menentukan atau dengan kata lain adanya ketergantungan variabel yang satu dengan variabel
yang lainnya dan sebaliknya. Kedua variabel biasanya bersifat kausal atau mempunyai
hubungan sebab akibat yaitu saling berpengaruh. Sehingga dengan demikian, regresi
merupakan bentuk fungsi tertentu antara variabel tak bebas Y dengan variabel bebas X atau
dapat dinyatakan bahwa regresi adalah sebagai suatu fungsi Y = f(X). Bentuk regresi
tergantung pada fungsi yang menunjangnya atau tergantung pada persamaannya.
Macam – Macam Regresi
Regresi adalah bentuk hubungan antara variabel bebas X dengan variabel tak bebas Y,
yang dinyatakan dalam bentuk fungsi matematis Y = f(X). Sehingga persamaan regresi atau
bentuk fungsi, sesuai dengan variabel bebas X yang menyusunnya. Dengan demikian bentuk
fungsi atau regresi dapat digolongkan menjadi beberapa macam yaitu:
a. Regresi Linear
Regresi linear ialah bentuk hubungan di mana variabel bebas X maupun variabel
tergantung Y sebagai faktor yang berpangkat satu. Regresi linear sederhana dengan
bentuk fungsi Y = a + bX + e . Dari fungsi tersebut nantinya akan berbentuk garis lurus
(linear sederhana).
b. Regresi Non Linear
Regresi non linear ialah bentuk hubungan atau fungsi di mana variabel bebas X dan atau
variabel tak bebas Y dapat berfungsi sebagai faktor atau variabel dengan pangkat
tertentu. Selain itu, variabel bebas X dan atau variabel tak bebas Y dapat berfungsi
sebagai penyebut (fungsi pecahan), maupun variabel X dan atau variabel Y dapat
berfungsi sebagai pangkat fungsi eksponen = fungsi perpangkatan.
Regresi non linear dapat dibedakan menjadi :
1) Regresi polinomial
Ialah regresi dengan sebuah variabel bebas sebagai faktor dengan pangkat terurut.
Bentuk-bentuk fungsinya adalah sebagai berikut.
(fungsi kuadratik)
(fungsi kubik)
(fungsi kuartik)
(fungsi kuinik)
Selain bentuk fungsi di atas, ada suatu bentuk lain dari fungsi kuadratik, yaitu dengan
persamaan:

Sehingga, modifikasi dari fungsi kubik adalah :


Y = a + bX + cX(1/2) + dX(3/2) , atau Y = a + bÖX + cX + dÖX 3 .
2) Regresi hiperbola (fungsi resiprokal)
Pada regresi hiperbola, di mana variabel bebas X atau variabel tak bebas Y, dapat
berfungsi sebagai penyebut sehingga regresi ini disebut regresi dengan fungsi pecahan
atau fungsi resiprok. Regresi ini mempunyai bentuk fungsi seperti: 1/Y = a + bX atau
Y = a + b/X. Selain itu, ada bentuk campuran seperti:

dan masih banyak lagi bentuk-bentuk lainnya.


3) Regresi fungsi perpangkatan atau geometrik
Pada regresi ini mempunyai bentuk fungsi yang berbeda dengan fungsi polinomial
maupun fungsi eksponensial. Regresi ini mempunyai bentuk fungsi:
4) Regresi eksponensial
Regresi eksponensial ialah regresi di mana variabel bebas X berfungsi sebagai
pangkat atau eksponen. Bentuk fungsi regresi ini adalah :

Modifikasi dari bentuk di atas adalah :

ini disebut kurva logistik atau "tipe umum dari model pertumbuhan".
Modifikasinya juga seperti :
( )

disebut dengan transformasi logaritmik resiprokal, yang umum disebut dengan model
Gompertz.
5) Regresi logaritmik
Bentuk fungsi dari regresi adalah di mana variabel bebas Y berfungsi sebagai pangkat
(eksponen) dan variabel bebas X mempunyai bentuk perpangkatan. Model regresi ini
adalah :

atau dapat di tulis menjadi:


Y = ln a + b ln X (merupakan trasformasi linear)

Regresi Linear Sederhana


Secara umum regresi linear terdiri dari dua, yaitu regresi linear sederhana dan regresi
linear berganda. Namun, pada pembahasan ini hanya akan dijelaskan mengenai regresi linear
sederhana. Regresi linear (linear regression) adalah teknik yang digunakan untuk
memperoleh model hubungan antara 1 variabel dependen dengan 1 atau lebih variabel
independen. Jika hanya digunakan 1 variabel independen dalam model, maka teknik ini
disebut sebagai regresi linear sederhana (simple linear regression). Variabel dependen pada
regresi linear disebut juga sebagai respons atau kriterion, sedangkan variabel independen
dikenal pula sebagai prediktor atau regresor. Kovariat adalah variabel independen yang
berkorelasi dengan prediktor lainnya, juga mempengaruhi respons. Kovariat umumnya tidak
diminati hubungannya dengan respon dan hanya digunakan untuk pengendalian hubungan
prediktor-respon dalam model. Respon pada regresi linear selalu berupa variabel kontinu,
sedangkan prediktor dapat berupa variabel kontinu, indikator, ataupun karegorik yang
disubstitusikan menjadi variabel indikator.
Analisis regresi digunakan untuk memberi landasan dalam mengadakan prediksi.
Suatu variabel dapat diprediksi oleh variabel yang lain. Variabel yang diprediksi disebut
variabel kriterion atau variabel tergantung, sedangkan variabel yang berperan memprediksi
disebut variabel prediktor atau variabel bebas. Regresi linear sederhana digunakan untuk
memprediksi satu variabel tergantung yang dilakukan oleh satu variabel bebas. Tujuan
analisis regresi adalah menggambarkan garis regresi menggunakan persamaan regresi, dan
untuk memperoleh dasar prediksi yang mempunyai kesalahan atau residu prediksi yang
sekecil-kecilnya. Ada persyaratan variabel kriterion dapat diprediksi oleh variabel prediktor.
Persyaratan pertama yaitu regresi linear hanya dapat digunakan pada skala interval dan ratio.
Persyaratan kedua yaitu jika antara variabel tergantung dengan variabel bebas harus
mempunyai koefisien korelasi yang signifikan.
Selain jenis data harus interval atau rasio, ada syarat lain yang harus dipenuhi dalam
analisis regresi, yaitu antara lain bahwa koefisien korelasi antara variabel tergantung dengan
variabel-variabel bebas tersebut harus signifikan. Jika koefisien korelasi antara variabel
tergantung dengan variabel-variabel bebas adalah signfikan, maka dapat dilanjutkan dengan
analisis regresi, dan menyusun persamaan regresi. Kemudian menghitung sumbangan relatif
dan sumbangan efektif variabel-variabel bebas terhadap variabel tergantung.
Secara umum persamaan regresi linier adalah sebagai berikut.

Keterangan:
Y = skor kriterion yang diramalkan
X = skor prediktor
a = koefisien prediktor
K = bilangan konstan
Persamaan regresi untuk memperoleh persamaan garis regresi linear satu variabel bebas
adalah sebagai berikut.
Langkah-langkah yang dilakukan untuk analisis regresi linear satu variabel bebas
diawali dengan membuat tabel persiapan, dan menghitung koefisien korelasi antara variabel
tergantung (kriterion) dengan variabel bebas (prediktor). Setelah diperoleh koefisien korelasi,
selanjutnya dilakukan uji signifikansi. Jika koefisien korelasi tidak signifikan, maka
penyusunan persamaan regresi tidak boleh dilanjutkan. Karena, memang tidak ada hubungan
antara kedua variabel tersebut. Jika diperoleh koefisien korelasi yang signifikan, maka
dilanjutkan dengan menyusun persamaan garis regresi. Persamaan regresi digunakan untuk
memprediksi seberapa besar nilai variabel tergantung oleh variabel bebas. Langkah
berikutnya adalah menghitung sumbangan relatif dan sumbangan efektif variabel bebas
terhadap variabel tergantung.

Menghitung Koefisien Variabel Prediktor (A) Dan Angka Konstan (K)


Selanjutnya membuat persamaan garis regresi tentang tinggi lompat yang diprediksi
oleh panjang tungkai. Untuk itu perlu menghitung nilai koefisien regresi atau koefisien
prediktor (a) dan angka konstan (K). Langkah-langkah menghitung koefisien prediktor (a)
dan angka konstan (K) dapat dilakukan menggunakan skor mentah atau skor deviasi sebagai
berikut
Koefisien prediktor (a) dan angka konstan (K) diperoleh dengan menggunakan skor
mentah, dan memanfaatkan persamaan sebagai berikut.

∑ ∑ ∑

∑ ∑

Memperoleh koefisien prediktor (a) dan angka konstan (K) dilakukan menggunakan
skor deviasi dan memanfaatkan persamaan sebagai berikut.

Pengertian Korelasi
Korelasi adalah pengukur hubungan dua variabel atau lebih yang dinyatakan dengan
derajat keeratan atau tingkat hubungan antarvariabel-variabel. Mengukur derajat hubungan
dengan metode korelasi yaitu dengan koefisien korelasi r. Dalam hal ini, dengan tegas
dinyatakan bahwa dalam analisis korelasi tidak mempersoalkan apakah variabel yang satu
tergantung pada variabel yang lain atau sebaliknya. Jadi metode korelasi dapat dipakai untuk
mengukur derajat hubungn antarvariabel bebas dengan variabel bebas yang lainnya atau antar
dua variabel.

Analisis Korelasi
Dalam menggunakan analisis korelasi, paling sedikit harus ada dua variabel yang
dikorelasikan. Analisis korelasi terutama digunakan untuk mengetahui kecenderungan
hubungan antara variabel yang satu dengan variabel lainnya. Hasil analisis korelasi akan
diperoleh koefisien korelasi yang menunjukkan besarnya hubungan antar variabel. Hubungan
antara variabel-variabel yang dikorelasikan tersebut tidak mempermasalahkan apakah ada
hubungan sebab akibat atau tidak ada hubungan sebab akibat. Variabel-variabel yang
dianalisis hubungannya adalah variabel tergantung (dependent variable) biasanya diberi
simbol Y dengan variabel-variabel bebas (independent variable) biasanya diberi simbol X.
Arah hubungan antar variabel yang dianalisis, korelasinya dapat berbentuk hubungan
positif atau hubungan negatif. Arah hubungan positif antar veriabel terjadi jika naiknya nilai
variabel X selalu diikuti dengan naiknya nilai variabel Y, atau jika turunnya nilai variabel X
selalu diikuti dengan turunnya nilai variabel Y. Sebaliknya, arah hubungan negatif antar
variabel terjadi jika naiknya nilai variabel X selalu diikuti dengan turunnya nilai variabel Y,
atau turunnya nilai variabel X selalu diikuti dengan turunnya nilai variabel Y.
Koefisien korelasi ditandai dengan “r“. Adapun rumus “r” adalah :
(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
Keterangan :
r = nilai koefisien korelasi
X = nilai variabel bebas
Y = nilai variabel tergantung
N = jumlah data
Koefisien korelasi digunakan untuk mengetahui derajat atau kekuatan dan arah
hubungan antara dua variabel. Pedoman untuk memberikan interpretasi koefisien korelasi
yaitu sebagai berikut :
0,00 – 0,199 = sangat rendah
0,20 – 0,399 = rendah
0,40 – 0,599 = sedang
0,60 – 0,799 = kuat
0,80 – 1,000 = sangat kuat
Berdasarkan pedoman diatas data yang semakin mendekati 1 maka data tersebut
semakin valid. Untuk mengetahui ada tidaknya hubungan antara dua variabel maka
perumusan hipotesisnya adalah sebagai berikut :
: Tidak terdapat hubungan/korelasi
: Terdapat hubungan/korelasi
Ketentuan adalah sebagai berikut : (berdasarkan tingkat signifikansi)
a. Jika nilai ( , : ditolak (terdapat hubungan/korelasi)
b. Jika nilai ( , : diterima (tidak ada hubungan/korelasi)
Berikut akan dibahas 2 teknik analisis korelasi, yaitu :
1. Korelasi Product Momen
Korelasi product moment ini diciptakan oleh Pearson, digunakan untuk
menentukan kecenderungan hubungan antara dua variabel interval atau rasio. Ada empat
cara menghitung koefisien korelasi product moment, yaitu menggunakan skor mentah,
skor deviasi, standar deviasi, dan menggunakan Scatter diagram.
Menggunakan skor mentah, rumusnya adalah :

(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
Menggunakan skor deviasi, rumusnya adalah :
(∑

√(∑ )(∑ )

Menggunakan angka standar deviasi, rumusnya adalah:


(∑

Menggunakan Scatter diagram, rumusnya adalah :


∑ (∑ (∑

√( ∑ (∑ )( ∑ (∑ )

Keterangan :
r = nilai koefisien korelasi
X = nilai variabel bebas
Y = nilai variabel tergantung
N = jumlah data
= deviasi dari mean untuk nilai variabel X
= deviasi dari mean untuk nilai variabel Y

= standar deviasi variabel X, dapat dicari dengan rumus : √


= standar deviasi variabel Y, dapat dicari dengan rumus : √

Uji signifikansi nilai koefisien korelasi product moment dilakukan dengan cara
membandingkan antara r hitung dengan r tabel, dengan taraf signifikansi yang telah
ditetapkan, dan menggunakan derajad kebebasan db = N 1.

2. Korelasi Partial

Korelasi partial digunakan untuk menghitung kecenderungan hubungan antara


dua variabel yang dikontrol oleh variabel lain. Misalnya, penelitian ingin mengetahui
korelasi antara variabel tinggi badan dengan variabel berat badan yang dikontrol oleh
variabel umur. Kerangka berpikir yang mendasari penelitian ini adalah bahwa seorang
anak yang bertambah umur akan bertambah tinggi dan berat badannya. Mungkin korelasi
tersebut disebabkan oleh karena bertambahnya umur. Maka perlu dilihat korelasi
variabel tinggi badan dan variabel berat badan tersebut yang dikontrol oleh variabel umur
. Rumus untuk menghitung korelasi partial sebagai berikut :
( (
√( (
Keterangan :
= koefisien korelasi partial antara variabel X dan Y, dikontrol oleh Z
= koefisien korelasi variabel X dan Y
= koefisien korelasi variabel X dan Z
= koefisien korelasi variabel Y dan Z
Uji signifikansi korelasi partial dilakukan menggunakan uji t. Uji signifikansi
dilakukan dengan membandingkan t hitung dengan t tabel pada taraf signifikansi yang
telah ditetapkan. Jika nilai t hitung lebih besar daripada nilai t tabel pada taraf
signifikansi yang ditetapkan berarti hubungan variabel X dan Y adalah signifikan maka
hipotesis nihil ditolak. Jika demikian maka korelasi antara variabel X dan Y tidak
dipengaruhi oleh variabel Z.
Rumus untuk uji signifikansi adalah:

Keterangan:
t = nilai t unutk uji signifikansi korelasi partial
= koefisien korelasi partial variabel X, Y dan Z
N = banyaknya kasus

Hubungan Regresi dan Korelasi


Regresi dan korelasi adalah metode yang dipakai untuk mengukur hubungan antara
dua variabel atau lebih. Kedua metode, regresi maupun korelasi sama-sama dipakai untuk
mengukur derajat hubungan antarvariabel yang bersifat korelasional atau bersifat keterpautan
atau ketergantungan. Penggunaan regresi adalah sebagai pengukur bentuk hubungan, dan
korelasi adalah sebagai pengukur keeratan hubungan antarvariabel. Kedua cara pengukur
hubungan tersebut mempunyai cara perhitungan dan syarat penggunaannya masing-masing.
Beberapa contoh penggunaan korelasi dan regresi seperti di bawah ini.
1). Banyaknya anakan dengan produksi padi.
2). Kepadatan penduduk dengan upah buruh harian.
3). Berat induk sapi dengan berat anak yang baru dilahirkan.
4). Nilai yang diperoleh pada mata ajaran statistika dengan matematika.
5). Umur dengan berat badan anak balita.
6). Kadar air pada biji dan volume biji.
7). Luas daun dengan panjang akar.
8). Besar buah dengan besar biji.
9). Biaya advertensi dengan jumlah penjualan.
10). Fluktuasi temperatur dengan jumlah anak-anak yang sakit pilek.
Selain contoh di atas, masih banyak lagi contoh yang lain yang serupa. Dari contoh-
contoh di atas dapat dilakukan pendekatan yang sesuai seperti: analisis regresi dapat dipakai
pada contoh-contoh nomer: 1; 2; 3; 5; dan 9. Sedangkan, analisis korelasi dapat dipakai pada
semua contoh di atas.
CONTOH KASUS

Data diambil dari buku Setyo Budiwanto yang berjudul “Metode Statistika untuk Mengolah
Data Keolahragaan”.

Suatu penelitian untuk mengetahui hubungan antara panjang tungkai (X) dalam satuan cm
dan tinggi lompatan (Y) dalam satuan cm.
Subyek
1 87 156 7569 24336 13572
2 94 164 8836 26896 15416
3 85 151 7225 22801 12835
4 89 155 7921 24025 13795
5 91 162 8281 26244 14742
6 83 151 6889 22801 12533
7 79 146 6241 21316 11534
8 92 163 8464 26569 14996
9 81 149 6561 22201 12069
10 86 153 7396 23409 13158
11 96 166 9216 27556 15936
12 82 151 6724 22801 12382
∑ 1045 1867 91323 290955 162968

Analisis Regresi Linear Sederhana


Data yang tersedia pada tabel dimasukkan sesuai dengan menggunakan skor mentah, maka
diperoleh :

Persamaan tersebut secara simultan diubah menjadi sebagai berikut:


1) 155,9502 = 87,3904 a + K
2) 155,5833 = 87,0833 a + K
0,3669 = 0,3071 a
a = 1,1947 = 1,195
Nilai K dihitung dengan memasukkan nilai a ke dalam salah satu persamaan :
̂
(

Persamaan regresi untuk memprediksi tinggi lompatan oleh panjang tungkai yang dihitung
menggunakan skor mentah adalah sebagai berikut
̂
Data yang tersedia pada tabel dimasukkan sesuai dengan menggunakan skor deviasi, maka
diperoleh :

̅
̅
Nilai K dihitung diperoleh dengan menggunakan persamaan sebagai berikut
̂ ( (
̅ ( ̅
̂
Sehingga persamaan regresi untuk memprediksi tinggi lompatan oleh panjang tungkai yang
dihitung menggunakan skor deviasi adalah sebagai berikut
̂

Adapun perhitungan dengan menggunakan SPSS diperoleh sebagai berikut


a
Coefficients
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta T Sig.
1 (Constant) 51.540 7.358 7.005 .000
Panjang Tungkai 1.195 .084 .976 14.166 .000
a. Dependent Variable: Tinggi Lompatan

Berdasarkan tabel diatas diperoleh pula persamaan analisis regresi yaitu


̂
Interpretasi :
Jadi dari persamaan analisis regresi tersebut dapat diinterpretasikan sebagai berikut
 Nilai konstanta 51,54 bermakna jika rentang nilai panjang tungkai (X) sampai pada
nilai nol maka nilai rataan diperoleh sebesar 51,54 pada saat panjang tungkai (X)
bernilai 0.
 Nilai dari koefisien panjang tungkai (X) yaitu 1,195 bermakna perubahan panjang
tungkai sebesar satu satuan akan meningkatkan tinggi lompatan sebesar 1,195 satuan.

Analisis Korelasi
Selanjutnya dilakukan analisis korelasi antara panjang tungkai (X) dengan tinggi lompatan
(Y) dihitung menggunakan teknik korelasi product momen dari Pearson, berdasarkan data
yang tersedia pada tabel diperoleh :
(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
( (
√( ( ( (

√( (


Adapun perhitungan dengan menggunakan SPSS diperoleh sebagai berikut :
Correlations
Panjang Tinggi
Tungkai Lompatan
**
Panjang Tungkai Pearson Correlation 1 .976
Sig. (2-tailed) .000
N 12 12
**
Tinggi Lompatan Pearson Correlation .976 1
Sig. (2-tailed) .000
N 12 12
**. Correlation is significant at the 0.01 level (2-tailed).

Interpretasi :
a. Membandingkan r hitung dengan r tabel
Hasil analisis korelasi diperoleh r hitung r tabel , berarti
koefisien tersebut signifikan. Maka ditolak yaitu terdapat hubungan korelasi antara
panjang tungkai (X) dengan tinggi lompatan (Y). Karena terdapat korelasi yang
signifikan antara panjang tungkai (X) dengan tinggi lompatan (Y), maka panjang
tungkai (X) dapat digunakan untuk memprediksi tinggi lompatan (Y).
b. Melihat nilai signifikansinya
Hasil analisis korelasi diperoleh sig < r sig , berarti koefisien tersebut
signifikan. Maka ditolak yaitu terdapat hubungan korelasi antara panjang tungkai
(X) dengan tinggi lompatan (Y).
DAFTAR PUSTAKA

Budiwanto, S. 2017. Metode Statistika Untuk Mengolah Data Keolahragaan. Malang :


Universitas Negeri Malang.
Dewi, Yusthika., Mariam Iis., & Wijiyanti, Menik. 2018. Pengaruh Kualitas Pelayanan
terhadap Loyalitas Pelanggan Mujigae Resto Depok. Jurnal Epigram, 16(2), 196-203.
Harlan, Johan. 2018. Analisis Regresi Linear. Jakarta : Gunadarma.
Suparto. 2014. Analisis Korelasi Variabel – Variabel yang Mempengaruhi Siswa dalam
Memilih Perguruan Tinggi. Jurnal IPTEK, 18(2), 1-9.
INFERENSI DALAM ANALISIS REGRESI
LINEAR SEDERHANA

Metode Kuadrat Terkecil


Metode kuadrat terkecil adalah metode yang digunakan untuk mendapatkan penduga yang
baik bagi parameter regresi  0 dan 1 . Untuk setiap pasangan pengamatan  X i , Yi , i  1,2,3,...n ,
metode kuadrat terkecil akan menggunakan simpangan Yi terhadap E Yi  yaitu
Yi  E Yi   Yi   0  1 X i 

Jumlah kuadrat dari n simpangan ditulis dengan notasi Q yaitu


n
Q  Y
i 1
i   0  1 X i 
2

Penduga yang baik bagi parameter regresi  0 dan 1 ialah nilai-nilai b0 dan b1 yang dapat
meminimumkan Q untuk data amatan yang dimiliki.
Penduga b0 dan b1 yang meminimumkan Q diperoleh dengan mendeferensialkan Q
terhadap  0 dan 1 , sehingga diperoleh

Q n

 0 i 1

 2 Yi   0  1 X i 

Q n

1 i 1

 2 X i Yi   0  1 X i 

selanjutnya kedua turunan parsial di atas disamakan dengan nol, dan mengunakan b0 dan b1 yang
menyatakan nilai  0 dan 1 yang meminimumkan Q , diperoleh
n

 Y  b
i 1
i 0  b1 X i   0

 X Y  b
i 1
i i 0  b1 X i   0

atau
n n
nb0  b1  X  Y
i 1
i
i 1
i

n n n
b0 
i 1
X i  b1 
i 1
Xi 
2
X Y
i 1
i i
Kedua persamaan di atas disebut persamaan normal. Penyelesaian persamaan normal untuk b0
dan b1 adalah
n n


i 1
Yi b1 X
i 1
i
b0    Y  b1 X
n n
n

X Y i i

 X  X Yi  Y 
n n

i 1
X i Yi  i 1
n i 1
i
b1  
 X  X
n n

 2 2
n
Xi i

X
i 1
i
2
 i 1
n
i 1

Notasi-notasi berikut dapat digunakan untuk menyederhanakan penulisan rumus:

 X i  X Yi  Y    X i  X Yi   X i Yi  Y 


n n n
S XY 
i 1 i 1 i 1
n n

n  X Y i i
 X Y
i 1
i i  i 1
n
i 1

n
 X Y
i 1
i i  nXY

 X i  X    X i  X X i
n n
2
S XX 
i 1 i 1
2
  n

n
 Xi 
  
 X i2   
i 1

i 1 n
n
 X
i 1
i
2
 nX 2

 Yi  Y    Yi  Y Yi


n n
2
S YY 
i 1 i 1
2
 n 
n
 Yi 
  
 Yi 2  
 
i 1

i 1 n
n
 Y
i 1
i
2
 nY 2

Sehingga rumus untuk b1 dapat ditulis sebagai


S XY
b1 
S XX

Bila penduga  0 dan 1 yaitu b0 dan b1 telah diperoleh, maka persamaan dugaan regresi
diperoleh sebagai berikut,
Yˆ  b0  b1 X

Selanjutnya bila b0  Y  b1 X disubstitusikan ke Yˆ  b0  b1 X , diperoleh model alternatif untuk


persamaan dugaan regresi, yaitu
Yˆ  Y  b1 X  X 

1.1 Sifat dan Ragam Penduga Kuadrat Terkecil


Penduga kuadrat terkecil b0 dan b1 merupakan kombinasi linear dari amatan-amatan Yi .
Perhatikan bahwa b1 dapat ditulis sebagai
n
b1  k Y
i 1
i i

Xi  X
dimana k i  .
 X  X
n
2
i
i 1

Selanjutnya b0 dapat ditulis sebagai


n
b0  l Y
i 1
i i

1 Xi  X
dimana li   Xk i dan k i 
 X  X
n
n 2
i
i 1

Penduga kuadrat terkecil b0 dan b1 adalah penduga tak bias bagi parameter regresi  0 dan
1 . Penduga tak bias berarti nilai harapan penduga sama dengan parameter yang diduga, dan

berlaku sebaliknya bagi penduga bias

 n  n n n n


E b1   E  k i Yi  
 i 1 

i 1
k i E Yi   
i 1
k i  0  1 X i    0 
i 1
k i  1 k X
i 1
i i  1

n n
dimana i 1
k i  0 dan k X
i 1
i i  1 , dan
E b0   E Y  b1 X   E Y   E b1 X    0  1 X  1 X   0

Penduga tak bias b0 dan b1 bermakna bahwa nilai rata-rata penduga b0 dan b1 sama dengan
parameter regresi  0 dan 1 .
Ragam dari b0 dan b1 dapat diperoleh dengan cara sebagai berikut.

 n  n
2

Varb1   Var k i Yi  
 i 1 
 i 1
k i2 VarYi  
S xx

1 X2 
Varb0   VarY  b1 X   VarY   X Varb1   2 XCovY , b1    2   

 n S xx 
1.2 Residual
Residual atau sisaan ke- i adalah selisih antara nilai amatan Yi dengan nilai taksirannya Yˆi ,
ditulis dengan notasi e i , sehingga

ei  Yi  Yˆi  Yi  b0  b1 X

Residual sangat bermanfaat untuk menyelidiki apakah suatu model regresi sesuai atau tidak
untuk data yang dimiliki.
1.3 Sifat-sifat Garis Regresi Dugaan
Garis regresi yang diperoleh melalui metode kuadrat terkecil memiliki sifat sebagai
berikut.
a. Jumlah semua sisaan sama dengan nol.

e
i 1
i 0

b. Jumlah semua nilai amatan Yi sama dengan jumlah nilai Yˆi .


n n

 Y   Yˆ
i 1
i
i 1
i

c. Jumlah sisaan terboboti sama dengan nol bila sisaan dari amatan ke- i diboboti oleh nilai
peubah bebas pada amatan ke- i .
n

X e
i 1
i i 0
d. Jumlah sisaan terboboti sama dengan nol bila sisaan dari amatan ke- i diboboti oleh
nilai dugaan peubah respons pada amatan ke- i .

 Yˆ e
i 1
i i 0

e. Garis dugaan regresi selalu melalui sentroid data yaitu titik X , Y  .

1.4 Estimasi dari  2


Selain memperkirakan  0 dan 1 , diperlukan estimasi  2 untuk diuji hipotesis dan

membangun perkiraan interval yang berkaitan dengan regresi model. Estimasi  2 diperoleh dari
Jumlah Kuadrat Galat (JKG) atau Sum Square Error (SSE).

 Y    Y  b
n n n n

e  Yˆi  b1 X i   Y
2
  nY 2  b1 S XY  S YY  b1 S XY
2 2 2
i i i 0 i
i 1 i 1 i 1 i 1

Jumlah kuadrat galat memiliki n  2 derajat kebebasan, karena  0 dan 1 harus diduga

terlebih dahulu untuk memperoleh nilai rataan dugaan Yˆ .


Nilai harapan dari JKG adalah n  2 2 . Penduga tak bias bagi 2 adalah
JKG
ˆ 2   KTG , dimana KTG merupakan kuadrat tengah galat.
n2

1.5 Uji Hipotesis 1

Uji mengenai 1 dilakukan dengan menggunakan sebaran t . Misalkan akan diuji apakah
1 sama dengan suatu konstanta tertentu 10 , maka hipotesis yang diuji adalah
H 0 : 1  10 H1 : 1  10

Uji terhadap hipotesis di atas didasarkan pada statistik uji


b1   10
t hit  t 0 
KTG
S xx

Kaidah keputusan dalam kaitan dengan statistik uji ini bila taraf nyata ditetapkan sebesar 
adalah
a. Jika t hit  t / 2,n2 , terima H 0 , yang berarti tidak terdapat asosiasi linear antara variabel X dan
Y
b. Jika t hit  t / 2,n2 , tolak H 0 , yang berarti terdapat asosiasi linear antara variabel X dan Y

1.6 Uji Hipotesis  0

Uji mengenai 1 juga dilakukan dengan menggunakan sebaran t . Misalkan akan diuji apakah
1 sama dengan suatu konstanta tertentu  00 , maka hipotesis yang diuji adalah
H 0 :  1   00 H 1 :  1   00

Uji terhadap hipotesis di atas didasarkan pada statistik uji


b0   00
t hit  t0 
 1 x2 
MSE  

 n S xx 
Kaidah keputusan dalam kaitan dengan statistik uji ini bila taraf nyata ditetapkan sebesar 
adalah
a. Jika t hit  t / 2,n2 , terima H 0

b. Jika t hit  t / 2,n2 , tolak H 0

1.7 Analisis Ragam

Analisis ragam dengan uji statistik F juga bisa digunakan untuk menguji signifikansi model
regresi. Misalkan akan diuji apakah 1 sama dengan 0, maka hipotesis yang diuji adalah

H 0 : 1  0 H1 : 1  0

Uji terhadap hipotesis di atas didasarkan pada statistik uji


SSR
MSR
Fhit  F0  1 
SSE MSE
n2
Kaidah keputusan dalam kaitan dengan statistik uji ini bila taraf nyata ditetapkan sebesar 
adalah
a. Jika t hit  t / 2,n2 , terima H 0

b. Jika Fhit  F ,1,n2 , tolak H 0


Analisis variansi untuk menguji signifikansi model regresi dapat dirangkum dalam Table
ANOVA (Analisis of Variansi) model regresi sebagai berikut.
Sumber
Db JK KT Fhit
Keragaman
Regresi 1 JKR = b1 S XY KTR = JKR MSR/MSE

JKG
Sisaan/Residual n-2 JKG = S YY - JKR KTG =
n2

Total n-1 S YY

1.8 Selang Kepercayaan untuk 1


Selang kepercayaan 1   100% untuk 1 adalah

MSE MSE
b1  t / 2, n  2  1  b1  t / 2, n  2
S xx S xx

1.9 Selang Kepercayaan untuk  0


Selang kepercayaan 1   100% untuk  0 adalah

1 x  1 x 
b0  t / 2,n  2 MSE     0  b0  t / 2,n  2 MSE  
 n S xx   n S xx 

1.10 Selang Kepercayaan untuk  2


Selang kepercayaan 1   100% untuk  2 adalah
n  2MSE   2  n  2MSE
2 / 2,n  2 12 / 2,n  2

1.11 Koefisien Determinasi


Koefisien dapat dihitung dengan rumus

SSR SSE
R2  1
S yy S yy
Nilai dari R 2 menggambarkan proporsi keragaman yang dapat dijelaskan oleh peubah bebas X .
Nilai dari R 2 yang mendekati 1 mengimplikasikan bahwa sebagian besar keragaman dari Y dapat
dijelaskan model regresi.
CONTOH KASUS

Sekelompok mahasiswi ingin meneliti apakah terdapat pengaruh antara luas area panen dan
jumlah produksi tanaman jagung yang ada di kabupaten Magelang. Data yang digunakan
dalam penelitian ini adalah luas area panen dan jumlah produksi jagung yang didapatkan setiap
tahun selama 15 tahun yaitu dari tahun 2003-2018.

Jagung/Maize
Tahun Luas Panen
Produksi
Year Harvested Area
Production (ton) - Y
(ha) – X
2003 20 065 92 127
2004 16 912 76 103
2005 15 082 70 235
2006 12 203 55 256
2007 13 535 68 327
2008 15 489 82 739
2009 14 104 77 470
2010 13 739 77 837
2011 11 541 63 184
2012 13 616 78 196
2013 12 535 74 187
2014 10 970 62 869
2015 11 625 67 124
2016 12 186 71 896
2017 9 377 53 244
2018 8 098 51 446
Jumlah 211 077 1122 240
Sumber: Dinas Pertanian dan Pangan Kabupaten Magelang
Analisis data akan dilakukan dengan manual dan dengan software SPSS.

Penyelesaian:

a. Menghitung nilai dari


Dengan perhitungan manual, diperoleh nilai sebagai berikut.
(∑ )

( )

Dan dengan software SPSS diperoleh nilai =

ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)

b. Menghitung nilai dari


Dengan perhitungan manual, diperoleh nilai sebagai berikut.
(∑ )

)
c. Menghitung nilai dari
Dengan perhitungan manual, diperoleh nilai sebagai berikut.
∑ ∑

( )( )

d. Menghitung nilai dari


Dengan perhitungan manual, diperoleh nilai sebagai berikut.
∑ ∑ ∑
∑ (∑ )

( ) ( )( )
( ) ( )

Cara manual lain untuk menentukan adalah dengan mempergunakan nilai dari dan
dijabarkan sebagai berikut :

Dapat kita lihat pula pada tabel di bawah ini hasil perhitungan dari software SPSS untuk nilai
dari
Coefficientsa
Standardized
Unstandardized Coefficients Coefficients C
Model B Std. Error Beta t Sig. Zero-order
1 (Constant) 25762.742 6758.566 3.812 .002
Luas Panen Harvested Area 3.364 .501 .873 6.711 .000 .873
(ha)
a. Dependent Variable: Produksi Production (ton)
e. Menghitung nilai dari
∑ ∑

( )

( )

Interpretasi dan
Metode yang digunakan adalah Metode Kuadrat Terkecil ( MKT) yang meminimumkan jumlah
kuadrat sisaan adapun keterangan untuk dan adalah penduga, yang secara berturut-turut
sebagai penduga untuk dan b1 merupakan penduga bagi 1 . Diperoleh persamaan dugaan
regresinya yaitu
( )

mengindikasi bahwa untuk luas area panen yang berada dalam selang
pengamatan 25761.06 ton adalah bagian jumlah produksi yang tidak diterangkan oleh luas area
panen.
Kemudian untuk mengukur dugaan perubahan rataan nilai Y jika X berubah satu satuan. Jika
di dalam kasus ini menggambarkan bahwa setiap penambahan satu hektar are luas
area panen rataan jumlah produksi akan naik sebesar 3.364 ton.
f. Menghitung nilai dari secara manual dan SPSS
)( )

ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)

g. Menghitung nilai dari secara manual dan SPSS

ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)
h. Menghitung nilai dari secara manual dan SPSS

ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)

Interpretasi nilai dari , 𝒅𝒂𝒏


Sum Squares Error/ Keragaman yang tidak terjelaskan SSE) yg mencerminkan variasi di sekitar
garis regresi atau mengukur kesalahan penggunaan estimasi persamaan regresi untuk menghitung
nilai variabel terikat dari sampel
Sum Squares Regression/ Keragaman yang terjelaskan/ Jumlah Kuadrat Regresi SSR/JKR)
merupakan variasi dari Y yang dapat dijelaskan oleh model regresi Sum of Squares total kita
adalah 1845173464. Artinya, variasi dari pemintaan yang dikuadratkan adalah sebesar nilai
tersebut. Yang menyebabkan bervariasinya adalah sebagian dari variabel bebas yaitu sebesar
(regresi). Lalu sisanya, yang sebesar disebabkan oleh variabel
lain yang juga mempengaruhi, tetapi tidak dimasukkan dalam model (residual). Kalau kita
bandingkan (bagi) antara Sum of Squares regresi dengan Sum of Squares total, maka akan kita

dapatkan proporsi dari total variasi sebagai berikut adapun nilai

hasil dari pembagian SS regresi dan SS total adalah koefisien determinasi atau .
Selanjutnya pada kolom ANOVA terdapat kolom MS (Mean of Square) atau rata-rata jumlah
kuadrat. Ini adalah hasil bagi antara kolom Sum of Squares dengan kolom df yang selanjutnya
didapatkan nilai F. Nilai F ini yang dikenal dengan F hitung dalam pengujian hipotesa. Jika
maka dapat dikatakan berpengaruh signifikan.
i. Menghitung nilai dari selang kepercayaan untuk

⁄ , √ ⁄ , √

, √ , √
⁄ , ⁄ ,

, ( ) , ( )
( ) ( )

j. Menghitung nilai dari selang kepercayaan untuk

̅ ̅
⁄ , √ ( ) ⁄ , √ ( )

, ⁄ ,
√ ( )

,
, ⁄ ,
√ ( )

, √ ( )

,
, √ ( )

√ ( )

,
√ ( )

√ ( )

√ ( )

√ ( )

√ ( )
( ) ( )
k. Menghitung nilai dari

Interpretasi dan

Untuk selang kepercayaan , dengan tingkat kepercayaan 95%, dapat diduga bahwa produksi
jagung akan naik sekitar 2,28891742 sampai 4,43908258 untuk setiap kenaikan satu unit skor
luas panen, dan untuk selang kepercayaan , selang kepercayaan ini tidak selalu memberikan
informasi yang bermanfaat. Misalnya, dalam hal ini, selang tersebut belum tentu memberi informasi
bahwa jumlah produksi dengan luas panen antara 22760,77556 hingga 28761,34644 poin, itu hanya
dugaan saja.
Dalam uji hipotesis dan menentukan selang kepercayaan diperlukan asumsi bahwa galat
terdistribusi normal, identik dan tidak terikat (independen). Jikalau berhasil ditolak artinya
terdapat jumlah variasi data Y yang signifikan dan dapat dijelaskan oleh model regresi yaitu
kebergantungan Y secara linear terhadap X.
Kriteria penolakan terjadi apabila | | sehingga dalam kasus ini lebih besar

dari pada sehingga kesimpulannya adalah menolak atau menerima hipotesa


awal atau yaitu terjadi pengaruh antara luas area panen (dalam ha) terhadap jumlah produksi
tanaman jagung (dalam ton) di daerah Magelang.

l. Menghitung nilai dari atau Koefisien Determinasi


Interpretasi
Koefisien determinasi atau sebesar menjelaskan bahwa sebesar keragaman
dari Y dalam hal ini hasil produksi (ton) dipengaruhi oleh X yaitu luas area penanaman jagung
(ha) dalam hubungan linier, sedangkan sisanya yaitu lainnya dipengaruhi oleh faktor-
faktor lain. Artinya jika semakin dekat dengan 1 (atau 100%) maka model regresi tersebut
cukup baik untuk digunakan, sedangkan bila semakin dekat dengan 0 (atau 0%), maka
model regresi tersebut tidak cukup baik untuk digunakan.
DAFTAR PUSTAKA

Draper,Norman R and Smith, Harry. 1998. Applied Regression Analysis. 3rd ed. New York: John
Wiley & Sons, Inc.
Neter, J., Wasserman, W., and Kutner, M. H. 1997. Model Linear Terapan. Penerjemah:
Bambang Sumantri. Jurusan Statistika FMIPA-IPB.
Montgomery, Douglas C., Peck, Elizabeth A., and Vining, Geoffrey G. 2012. Introduction to
Linear Regressi on Analysis. 5th ed. New Jersey: John Wiley & Sons, Inc.
ASUMSI - ASUMSI DALAM ANALISIS LINEAR SEDERHANA DAN
LANGKAH-LANGKAH DALAM MENGATASINYA

Pengertian Regresi Linier Sederhana

Analisis regresi adalah analisis untuk memprediksikan seberapa jauh perubahan nilai
variabel dependen, bila nilai variabel independen di manipulasi/dirubah-ubah atau dinaik
turunkan. Manfaat dari hasil analisis regresi adalah untuk membuat keputusan apakah naik dan
menurunnya variabel dependen dapat dilakukan melalui peningkatan variabel independen atau
tidak. Regresi Linier Sederhana didasarkan pada hubungan fungsional ataupun kausal satu
variabel independen dengan satu variabel dependen (Sugiyono,2007 : 262). Persamaan umum
regresi linier sederhana adalah :

Dimana.

Y = Variabel terikat ( Respon )

X = Variabel Bebas ( Prediktor )

= Konstata ( Intercept )

= Koefisien ( Slope )

Pengertian Pengujian Asumsi Analisis

Menurut Imam Ghozali (2011), uji asumsi klasik terhadap model regresi linier yang
digunakan dilakukan agar dapat diketahui apakah model regresi baik atau tidak. Tujuan
pengujian asumsi klasik adalah untuk memberikan kepastian bahwa persamaan regresi yang
diperoleh memiliki ketepatan dalam estimasi, tidak bias, dan konsisten. Sebelum melakukan
analisis regresi terlebih dahulu dilakukan pengujian asumsi. Asumsi-asumsi yang harus dipenuhi
dalam analisis regresi antara lain: normalitas, homoskedastisitas, autokorelasi, dan linearitas.
1. Uji Linieritas

Linieritas adalah salah satu asumsi dari analisis regresi, apakah garis regresi antara dua
variabel yaitu variabel dependen dan independen membentuk garis linier atau tidak. Analisis
regresi tidak dapat dilanjutkan, jika tidak linier (Sugiyono, 2007 : 265). Perlunya mengetahui
adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model
regresi yang dihasilkan. Jadi, sebagus apapun model regresi yang dihasilkan dengan R squared
yang tinggi, namun jika data tersbeut tidak memiliki sifat linear, maka kemungkinan akan terjadi
kesalahan estimasi dan akan mempengaruhi hasil akhir dari uji tersebut.

Uji kelinieran dapat dilakukan dengan terlebih dahulu menghitung jumlah kuadrat-kuadrat,
disingkat JK, untuk berbagai sumber variasi. Sumber-sumber variasi yang JK-nya perlu dihitung
adalah sumber-sumber variasi untuk jumlah kuadrat total, jumlah kuadrat (a), jumlah kuadrat
(b|a), jumlah kuadrat sisa, jumlah kuadrat tuna cocok (F hitung) dan jumlah kuadrat galat (error)
yang dapat dihitung dengan menggunakan rumus-rumus berikut:

Dimana:

JK(T) : Jumlah Kuadrat Total

JK(a) : Jumlah Kuadrat koefisien a

JK(b/a) : Jumlah Kuadrat Regresi (b|a)

JK(S) : Jumlah Kuadrat Sisa


JK(TC) : Jumlah Kuadrat Tuna Cocok

JK(G) : Jumlah Kuadrat Galat

2. Uji Normalitas

Uji normalitas adalah pengujian tentang kenormalan distribusi data. Uji normalitas
merupakan syarat dilakukan pengujian parametrik. Pengujian normalitas dapat menggunakan one
sample Kolmogorov-smirnov dengan menggunakan uji two tailed dengan signifikan sebesar
0,05. Data dapat dikatakan berdistribusi normal apabila nilai signifikansi lebih dari 0,05 (Gendro
Wiyono, 2011:149).

Analisis regresi linier mengasumsikan bahwa sisaan berdisitribusi mengetahui apakah dalam
persamaan regresi tersebut residual berdistribusi normal. Uji normalitas dapat dilakukan dengan
P-P Plot dan uji Kolmogorov Smirnov. Normal P-P plot, uji normalitasnya dapat dilihat dari
penyebaran data (titik) pada sumbu diagonal grafik (Gujarati,2004:109). Dasar pengambilan
keputusannya, jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal
atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi
asumsi normalitas.

Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-Smirnov.
Menurut Sidney Siegel (1986: 59), uji Kolmogorov-Smirnov didasarkan pada nilai D atau
deviasi maksimum, yaitu:

Dengan adalah fungsi distribusi frekuensi kumulatif relatif dari distribusi teoritis di
bawah . Kemudian adalah distribusi frekuensi kumulatif pengamatan sebanyak sampel.
Hipotesis nol adalah sisaan berdistribusi normal. Kriteria keputusan uji Kolmogorov Smirnov
adalah jika nilai D < D tabel atau p –value pada SPSS output lebih dari nilai taraf nyata.

3. Homokesdatisitas

Uji heteroskedastisitas ini bertujuan untuk menguji apakah dalam model regresi terjadi
kesamaan varian dari residual dari satu pengamatan ke pengamatan yang lain. Jika varians dari
satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedatisitas atau tidak
terjadi heteroskedastisitas dan jika terjadi varians berbeda maka disebut heteroskedastisitas.
Model regresi yang baik adalah model yang homoskedastisitas atau tidak terjadi
heteroskedastisitas (Ghozali, 2001). Jika terjadi, heteroskedastisitas, maka hal itu akan
mempengaruhi hasil dari analisis data tersebut dikarenakan terdapat perbedaan varian yang
menunjukkan data tersebut masih belum sama atau homogen.

Asumsi menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai
pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut:

untuk n menunjukkan jumlah observasi. Salah satu cara menguji kesamaan variansi yaitu dengan
melihat pola tebaran sisaan terhadap nilai estimasi Y. Jika tebaran sisaan bersifat acak (tidak
membentuk pola tertentu), maka dikatakan bahwa variansi sisaan homogen (Draper & Smith,
1998:65).

Menurut Gujarati (2004:406) salah satu cara untuk mendeteksi homoskedastisitas adalah
menggunakan uji korelasi rank Spearman. Selain itu terdapat beberapa pengujian juga yang
dapat digunakan untuk mendeteksi heteroskedatitas yaitu Uji Park, Uji Glejser maupun Uji
Scatterplot.

Heteroskedastisitas dapat terjadi karena spesifikasi yang tidak benar atau oleh penggunaan
bentuk fungsional yang salah. Untuk mengatasinya, dapat dilakukan dengan penambahan atau
mengurangi variabel bebas atau melakukan transformasi sehingga presentase kesalahan menjadi
seragam di keseluruhan observasi.

4. Autokorelasi

Autokorelasi adalah korelasi yang terjadi antar observasi dalam satu variabel (Nachrowi
djalal dan Hardius usman: 2006). Menurut Singgih Santoso (2012: 241) “Uji autokorelasi
bertujuan untuk menguji apakah dalam model regresi linier ada korelasi antara kesalahan
pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya)”. Jika
terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena
observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul
karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya.
Hal ini sering ditemukan pada data runtut waktu (time series) karena gangguan pada seseorang
individu/kelompok cenderung mempengaruhi gangguan pada individu/kelompok yang sama
pada periode berikutnya. Jika terjadi autokorelasi, Pemerikasaan terhadap residualnya akan
menemui permasalahan. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang
tidak berhubungan menjadi berhubungan.

Pada data crossection (silang waktu), masalah autokorelasi relatif jarang terjadi karena
gangguan pada observasi yang berbeda berasal dari individu kelompok yang berbeda. Model
regresi yang baik adalah regresi yang bebas dari autokorelasi. Selain itu penyebab autokorelasi
terjadi kerena terjadi bias dalam spesifikasi yaitu ada beberapa variable yang tidak masuk
kedalam model, Bentuk fungsi tidak tepat semestinya misalkan bentuk nonlinier namun
digunakan linier ataupun sebaliknya. Untuk mengatasi Autokorelasi, kita dapat menambahkan
satu atau beberapa variable bebas atau memperbaiki bentuk fungsionalnya.

Pendekatan yang sering digunakan untuk menguji ada tidaknya autokorelasi adalah uji
Durbin-Watson (DW test) (Imam Ghozali, 2013:110)

hipotesis:

Ho = tidak ada autokorelasi


H1 = ada autokorelasi

Statistik Uji :

Setelah mendapatkan statistik uji. Langkah selanjutnya adalah membandingkan dengan tabel
DW. Tabel DW tediri atas dua nilai, yaitu batas bawah (dL) dan batas atas(dl) dan batas
bawah(du). Berikut beberapa keputusan setelah membandingkan DW.

 Bila nilai DW terletak antara batas atas atau upper bound (du) dan (4 - du), maka
koefisien autokorelasi sama dengan nol, berarti tidak ada autokorelasi.
 Bial nilai DW lebih rendah daripada batas bawah atau lower bound (dl), maka koefisien
autokorelasi lebih besar daripada nol, berarti ada autokorelasi positif.

 Bila nilai DW lebih besar daripada (4 - dl), maka koefisien autokorelasi lebih kecil
daripada nol, berarti ada autokorelasi negatif.

 Bila nilai DW terletak di antara batas atas (du) dan batas bawah (dl) ada DW terletak
antara (4 - du) dan (4 - dl), maka hasilnya tidak dapat disimpulkan.

 Bila nilai DW terletak antara (4-du) dan (4 - dl), maka hasilnya tidak dapat
disimpulkan.
CONTOH KASUS

Data diambil dari jurnal “Pengaruh Motivasi Kerja terhadap Kinerja Karyawan pada Perusahaan
Susu Aneka Rasa Mommy Cow Tulungagung” oleh Tontowi Jauhari.

Sumber daya manusia merupakan aset utama perusahaan, karena untuk meningkatkan efisiensi
dan produktifitas perusahaan sangat tergantung pada kinerja sumber daya manusianya. Kinerja
sumber daya manusia dapat dipengaruhi oleh faktor internal maupun faktor eksternal sehingga
menuntut seorang pimpinan untuk dapat memberikan motivasi. Penelitian ini bertujuan untuk
mengetahui hubungan motivasi dengan kinerja karyawan, variabel yang digunakan dalam
penelitian ini meliputi variabel bebas yaitu motivasi (x) sedangkan variabel terikatnya adalah
kinerja karyawan (y) penelitian ini menggunakan metode deskriptif kuantitatif.

Data yang digunakan sebagai berikut.


Sampel (n) X Y
1 44 42
2 40 39
3 45 39
4 39 40
5 42 41
6 41 39
7 40 42
8 41 37
9 45 41
10 42 41
11 42 39
12 43 39
13 40 41
14 40 38
15 38 40
16 42 43
17 44 40
18 44 41
19 42 39
20 42 41
21 44 42
22 42 41
23 43 42
24 39 39
25 36 40
26 38 42
27 38 43
28 41 39
29 41 39
30 39 40

Penyelesaian

Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
b
1 Motivasi . Enter
a. Dependent Variable: Kinerja Karyawan
b. All requested variables entered.
Tabel diatas menjelaskan tentang variable yang dimasukkan. Dalam hal ini variable yang
dimasukkan adalah variable Motivasi sebagai variable independent dan Volume Kinerja
Karyawan sebagai variable dependent.

 Uji Linieritas

Perhitungan dengan SPSS

ANOVA Table
Sum of
Squares df Mean Square F Sig.
Kinerja Between (Combined) 25.288 8 3.161 1.702 .157
Karyawan * Groups Linearity .319 1 .319 .172 .683
Motivasi Deviation from 24.969 7 3.567 1.920 .117
Linearity
Within Groups 39.012 21 1.858
Total 64.300 29

Pengambilan keputusan dalam uji linieritas


Berdasarkan nilai F, dari output di atas diperoleh nilai .
Karena maka ditolak, maka artinya hubungan antara motivasi kerja dan
kinerja karyawan linear.
 Uji Normalitas
Perhitungan dengan SPSS

Residual adalah selisih antara nilai yang diprediksi dengan nilai sebenarnya, adapun uji
ini digunakan untuk menguji apakah nilai yang dihasilkan dari regresi terdistribusi secara normal
atau tidak. Model regresi yang baik adalah yang terdistribusi secara normal dengan melihat P-P
Plot. Dapat kita lihat karena titik-titik menyebar disekitar garis dan mengikuti garis diagonal
maka nilai residual telah terdistribusi secara normal.

Perhitungan dengan Cara Manual

Data variable X (Motivasi Kerja)


44 41 42 42 44 38
40 40 43 44 42 38
45 41 40 44 43 41
39 45 40 42 39 41
42 42 38 42 36 39
Dengan rata-rata dengan SD(Standar Deviasi)=2,269 dan selang kepercayaan

-Langkah Pertama
Membuat hipotesis dan menyusun sebaran data dari nilai terkecil ke terbesar
Hipotesis :
Data berdistribusi normal
Data Tidak Berdistribusi Normal

-Langkah Ke-dua
Menentukan nilai frekuensi kumulatif dan nilai Kumulatif Proporsi (kp)

X F f kum kp
36 1 1 0.033
38 3 4 0.133
39 3 7 0.233
40 4 11 0.367
41 4 15 0.500
42 7 22 0.733
43 2 24 0.800
44 4 28 0.933
45 2 30 1.000

-Langkah Ke-tiga
Menghitung nilai normal setiap data

X F f kum kp Z Z tabel
36 1 1 0.033 -2.31 0.4896
38 3 4 0.133 -1.42 0.4222
39 3 7 0.233 -0.98 0.3366
40 4 11 0.367 -0.54 0.2054
41 4 15 0.500 -0.10 0.0398
42 7 22 0.733 0.34 0.1331
43 2 24 0.800 0.78 0.2823
44 4 28 0.933 1.22 0.3888
45 2 30 1.000 1.66 0.4515
-Langkah Ke-empat
Menentukan luas kurva dengan melihat table Z negative dan positif

X F f kum kp Z Z tabel F(z)


36 1 1 0.033 -2.31 0.4896 0.0104
38 3 4 0.133 -1.42 0.4222 0.0778
39 3 7 0.233 -0.98 0.3366 0.1635
40 4 11 0.367 -0.54 0.2054 0.2946
41 4 15 0.500 -0.10 0.0398 0.4602
42 7 22 0.733 0.34 0.1331 0.6331
43 2 24 0.800 0.78 0.2823 0.7823
44 4 28 0.933 1.22 0.3888 0.8888
45 2 30 1.000 1.66 0.4515 0.9515

-Langkah Ke-lima
Menentukan a1 dan a2(Kolmogorov-smirnov hitung)

X F f kum kp Z Z tabel F(z) a1 a2


36 1 1 0.033 -2.31 0.4896 0.0104 0.010 0.023
38 3 4 0.133 -1.42 0.4222 0.0778 0.044 0.056
39 3 7 0.233 -0.98 0.3366 0.1635 0.030 0.070
40 4 11 0.367 -0.54 0.2054 0.2946 0.061 0.072
41 4 15 0.500 -0.10 0.0398 0.4602 0.094 0.040
42 7 22 0.733 0.34 0.1331 0.6331 0.133 0.100
43 2 24 0.800 0.78 0.2823 0.7823 0.049 0.018
44 4 28 0.933 1.22 0.3888 0.8888 0.089 0.045
45 2 30 1.000 1.66 0.4515 0.9515 0.018 0.049
mencari Kolmogorov-smirnov hitung dengan melihat nilai atau yang memiliki
nilai terbesar. Pada table diatas nilai terbesarnya adalah
-Langkah Ke-enam
Menentukan Kolmogorov-smirnov table

Pada table diatas dengan dan nilai Kolmogorov-smirnov table adalah

-Langkah Ke-tujuh
Membandingkan Kolmogorov-smirnov hitung dan Kolmogorov-smirnov tabel
*Jika Kolmogorov-smirnov hitung nilai Kolmogorov-smirnov table, Maka Tolak

* Jika Kolmogorov-smirnov hitung nilai Kolmogorov-smirnov table, Maka Terima

Kolmogorov-smirnov dan Kolmogorov-smirnov table

Maka Terima yang berarti data berdistribusi secara normal.


 Uji Autokorelasi

Dalam mendeteksi ada atau tidaknya auto korelasi maka terdapat 4 cara untuk mengetestnya :
dengan metode grafik, Uji Durbin-Watson, Uji Run, Uji Breusch-Godfrey (BG)/ Lagrange
Multiplier (LM).

Perhitungan dengan SPSS

Model Summaryb
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson

1 .070a .005 -.031 1.512 2.287

a. Predictors: (Constant), Motivasi

b. Dependent Variable: Kinerja Karyawan

Berdasarkan table output SPSS “Model Summary” diatas, menjelaskan besarnya nilai
korelasi/hubungan R yaitu sebesar 0.070 yang berarti korelasi antara motivasi dan kinerja kerja
sangat rendah, kita juga dapatkan nilai koefesien determinasi atau R Square adalah sebesar
0.005. Nilai R Square 0.005 ini sama dengan 0.5% nilai ini mengandung arti bahwa variable (X)
dalam hal ini motivasi berpengaruh terhadap variable (Y) kinerja karyawan sebesar 0.5%.
Sedangkan sisanya 99.5% dipengaruhi oleh variabel lain diluar penelitian ini.

Uji autokorelasi dengan Durbin-Watson


Diketahui: n = 30, k = 1, dl = 1.352 , du = 1,489, 4 – dl = 2,648, 4 – du = 2,511, dw = 2,287

Chart : Urutannya 0 < dl < du < dw < 4 – du < 4 – dl < 3

Sehingga karena dw terdapat pada rentangan maka dari itu kesimpulannya


adalah tidak ada autokorelasi positif atau negative.
Perhitungan dengan Cara Manual :

Observation Predicted Y Residuals


1 40.42780629 1.572193707
2 40.24302611 -1.24302611
3 40.47400134 -1.474001339
4 40.19683106 -0.196831064
5 40.3354162 0.664583798
6 40.28922116 -1.289221156
7 40.24302611 1.75697389
8 40.28922116 -3.289221156
9 40.47400134 0.525998661
10 40.3354162 0.664583798
11 40.3354162 -1.335416202
12 40.38161125 -1.381611247
13 40.24302611 0.75697389
14 40.24302611 -2.24302611
15 40.15063602 -0.150636019
16 40.3354162 2.664583798
17 40.42780629 -0.427806293
18 40.42780629 0.572193707
19 40.3354162 -1.335416202
20 40.3354162 0.664583798
21 40.42780629 1.572193707
22 40.3354162 0.664583798
23 40.38161125 1.618388753
24 40.19683106 -1.196831064
25 40.05824593 -0.058245927
26 40.15063602 1.849363981
27 40.15063602 2.849363981
28 40.28922116 -1.289221156
29 40.28922116 -1.289221156
30 40.19683106 -0.196831064

Rumus yang digunakan untuk Durbin-Watson Test dapat dilihat di bawah ini.

d=

Simbol e(t) merupakan galat (residual) pada pengamatan ke-t, sedangkan n adalah banyaknya
data dalam analisis, di mana dalam contoh soal ini telah diketahui bahwa t = 30. Simulasi
perhitungan rumus d tersebut ditampilkan di bawah ini

d=

d=

Maka, karena nilai Durbin-Watson sama dengan perhitungan dengan SPSS Uji Durbin-Watson
maka dapat di simpulkan juga bahwa tidak terdapat auto korelasi.
 Uji Homokedastisitas
Perhitungan dengan SPSS

Berdasarkan output di atas, grafik tidak berpola berarti terjadi homoskedastisitas dan
variable x dengan residu merupakan variabel yang berbeda.

Perhitungan dengan Cara Manual :

Sampel (n) X Y Predicted Y Residuals


1 44 42 40.42781 1.572194
2 40 39 40.24303 -1.24303
3 45 39 40.474 -1.474
4 39 40 40.19683 -0.19683
5 42 41 40.33542 0.664584
6 41 39 40.28922 -1.28922
7 40 42 40.24303 1.756974
8 41 37 40.28922 -3.28922
9 45 41 40.474 0.525999
10 42 41 40.33542 0.664584
11 42 39 40.33542 -1.33542
12 43 39 40.38161 -1.38161
13 40 41 40.24303 0.756974
14 40 38 40.24303 -2.24303
15 38 40 40.15064 -0.15064
16 42 43 40.33542 2.664584
17 44 40 40.42781 -0.42781
18 44 41 40.42781 0.572194
19 42 39 40.33542 -1.33542
20 42 41 40.33542 0.664584
21 44 42 40.42781 1.572194
22 42 41 40.33542 0.664584
23 43 42 40.38161 1.618389
24 39 39 40.19683 -1.19683
25 36 40 40.05825 -0.05825
26 38 42 40.15064 1.849364
27 38 43 40.15064 2.849364
28 41 39 40.28922 -1.28922
29 41 39 40.28922 -1.28922
30 39 40 40.19683 -0.19683

Berdasarkan data di atas, menunjukkan bahwa homokedastisitas karena nilai residu pada setiap
nilai prediksi secara acak.
DAFTAR PUSTAKA

Gaspersz, Vincent. 2005. Total Quality Management : Manajemen Bisnis Total. Jakarta.
Gramedia Pustaka Utama.

Imam Ghozali. 2009. Aplikasi Analisis Multivariate dengan Program SPSS. Semarang: Badan
Penerbit Universitas Diponegoro

Jauhari, Tontowi. 2017. Pengaruh Motivasi Kerja terhadap Kinerja Karyawan pada Perusahaan
Susu Aneka Rasa Mommy Cow Tulungagung, Jurnal Penelitian Manajemen Terapan
(PENATARAN). 2(1):18-29.

Purnama, I. A. 2015. Pengaruh Skema Kompensasi Denda Terhadap Kinerja Dengan Risk
Reference Sebagai Variabel Moderating. Jurnal Nominal. 7(1):129-145.

Santoso, Singgih. 2018. Mahir Statistik Multivariat dengan SPSS. Elex Media Komputindo.

Sugiyono. 2007. Statistika Untuk Penelitian. Bandung: Alfabeta Bandung.

Zulfikar, A. R. 2017. Pengaruh Social Media Marketing Terhadap Brand Trust Pada Followers
Instagram Dompet Dhuafa Cabang Yogyakarta. Al-Idarah Jurnal. 1(2):279-294.
ANALISIS RAGAM, UJI T, PENDEKATAN MATRIKS
TERHADAP ANALISIS REGRESI LINEAR SEDERHANA

1. Analisis Ragam
Analisis ragam atau disebut juga Analisys of Varians (ANOVA) dalam Analisis
Regresi Linear Sederhana dimaksudkan untuk mengetahui ada tidaknya pengaruh variabel
independen secara bersama-sama dengan variabel dependen. Analisis ragam ini disebut pula
dengan istilah uji keterandalan model atau uji kelayakan model. Analisis ragam merupakan
tahapan awal mengidentifikasi model regresi yang diestimasi layak atau tidak. Layak (andal)
disini maksudnya adalah model yang diestimasi layak digunakan untuk menjelaskan
pengaruh variabel-variabel bebas terhadap variabel terikat. Tabel ANOVA digunakan untuk
melakukan perhitungan pengujian ragam dari data regresi dan komponen-komponen terdiri
dari komponen Regression, Residual, dan Total untuk komponen vertikalnya, sedangkan
untuk komponen horizontalnya terdiri dari derajat bebas (df), jumlah kuadrat (JK), Kuadrat
Tengah (KT), Hasil Perhitungan F, dan Significant F dimana komponen-komponen tersebut
akan diuraikan sebagai berikut :
Kita ketahui persamaan regresi penduga ̂ dari suatu pengamatan atau untuk
pengaruh variabel bebas X terhadap variabel tak bebas Y yaitu
̂
Dari persamaan tersebut dimana . Dan jika persamaan ̅ ̅

disubstitusikan ke dalam persamaan ̂ sehingga didapatkan persamaan :


(̅ ̅)
( ̅) ( ̅)

Dari persamaan yaitu persamaan untuk nilai , sehingga dengan


mengkuadrat jumlahkan nilai , selanjutnya didapatkan atau disebut dengan JK Galat
Regresi dengan kode G, sehingga menjadi :
atau
ingat bahwa sehingga
( ) atau
sebab
Selanjutnya dari persamaan diatas didapatkan :

( )
dimana :
disebut dengan JK Regresi
Dari persamaan didapatkan bahwa JK Galat Regresi sama dengan JK
Total dikurangi dengan JK Regresi.
Sehingga hubungan antara komponen-komponen pada analisis ragam (JK Total, JK Regresi,
JK Galat) seperti berikut :
JK Galat = JK Total – JK Regresi
Untuk menyederhanakan penulisan dan pengertian diatas, maka selanjutnya JK Galat
Regresi disingkat dengan JKG, JK Regresi dengan JKR dan JK Total dengan JKT.
Sehingga sesuai dengan persamaan , maka JKR mempunyai rumus :

Dari persamaan diatas berlaku umum untuk p variabel bebas X sehingga persamaannya
menjadi :

( )
Komponen penyusun Tabel Analisis Ragam Regresi Linear Sederhana adalah :

( )

Selanjutnya dihitung nilai Kuadrat Total (KT) atau varians seperti berikut :
Keterangan :
df = nilai derajat kebebasan

Berdasarkan pada asumsi sebaran normal untuk komponen penggangu , maka besarnya
nilai F (F-hitung) adalah :

Hasil perhitungan keragaman di atas dibuatkan Tabel Analisis Ragam Regresi seperti pada
tabel berikut dibawah ini :
Sumber Jumlah df Kuadrat
Ragam Kuadrat Tengah
Regresi p=1

Galat JKT – JKR n–p–1

Total n–1
Keterangan :
n = jumlah sampel (pasangan pengamatan) dan p jumlah variabel bebas X

F-hitung disimbolkan dengan ini diartikan bahwa dalam pengujian F akan dibuktikan
suatu hipotesis nol atau dan
Kemudian F-hitung dibandingkan dengan F tabel yang baisa ditulis dengan :
(dimana ( ) dan )
Kriteria pengujian nilai adalah :
a. Jika . Hal ini berarti bahwa garis regresi penduga ( ̂ ) linier sederhana
yang didapat tersebut bukan garis linier yang terbaik untuk menghampiri pasangan
pengamatan atau dapat dikatakan ini berarti bahwa terdapat hubungan bukan linier
pada pasangan pengamatan tersebut.
b. Jika Hal ini berarti bahwa terdapat hubungan linier antara pengaruh
terhadap . Atau dapat dikatakan bahwa garis regresi penduga ̂ linier sederhana yang
didapat tersebut adalah garis regresi penduga terbaik untuk menghampiri pasangan
pengamatan .

2. Uji t
Uji Koefisien Regresi sederhana atau disebut juga Uji t ini digunakan untuk
mengetahui apakah variabel independen (X) berpengaruh secara signifikan terhadap variabel
dependen (Y). Signifikan berarti pengaruh yang terjadi dapat berlaku untuk populasi (dapat
digeneralisasikan).

Secara umum uji t mempunyai rumus yaitu :

T – hitung

Dimana W merupakan nilai yang diuji

Sehingga untuk pengujian koefisien regresi (bi) maka rumusnya menjadi :

T – hitung

dan

T– hitung

Keterangan :

b = koefisien regresi

Sb = Standar error

Dari persamaan diatas dalam menyerdehanakan penulisan standar error atau salah baku
koefisien regresi yang biasa ditulis dengan
( ). Perhitungan nilai
didasarkan pada ragam galat regresi atau KT galat regresi.
Karena besarnya nilai (ragam galat regresi) populasi tidak diketahui, maka dapat diduga
dengan nilai atau KT galat regresi sampel yang mempunyai persamaan yaitu:

( )

Selanjutnya, dalam uji t nilai baku atau standar error bi yang ditulis (Sbi) mempunyai
persamaan seperti berikut:

Dimana untuk pengujian b0 nilai standar error menjadi :

√. /

Serta untuk pengujian b1 nilai standar error menjadi:

√. /

Seperti dalam uji F, penulisan t – hitung dapat ditulis dengan notasi thit (artinya uji t untuk
pengujian hipotesis nol atau H0 : b1 = 0 H1 : minimal satu dari b1 ≠ 0).

Kemudian t – hitung dibandingkan dengan t tabel yang biasa ditulis dengan :

Thitung ≈ ttabel

(dimana ttabel = t(ɑ/2,n-2) dan ɑ = taraf nyata)

Berdasarkan hasil uji t ternyata bahwa kreteria pengujian nilai thit adalah :

a. Jika thit ≤ t(tabel 5%,db galat). Hal ini dapat dikatakan bahwa terima H0. Untuk pengujian b0
yang berarti bahwa b0 melalui titik acuan (titik0,0) yaitu nilai Y = 0 jika X = 0. Untuk
b1, jika thit ≤ t(tabel 5% db galat) maka garis regresi penduga ̂ dikatakan sejajar dengan
sumbu X pada nilai b0.
b. Jika thit > t(tabel 5%,db galat). Hal ini dapat dikatakan bahwa tolak H0, yang berarti bahwa
garis regresi penduga ̂ tidak melalui titik acuan (X,Y = 0,0). Dengan kata lain, ini
berarti bahwa koefisien arah b1 yang bersangkutan dapat dipakai sebagai penduga dan
peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas,
dapat memberikan petunjuk apakah setiap variable Xi memberikan penaruh atau
hubungan yang nyata terhdap variable tak bebas Y. perlu diingatkan bahwa dalam
pengujian di atas (baik uji F maupun uji t), didasarkan metode kuadrat terkecil.

3. Pendekatan Matriks Terhadap Analisis Regresi Linear

3.1 Model Regresi Linear Sederhana Secara Matriks

Matriks digunakan pada hampir semua cabang ilmu pengetahuan, terutama sekali
karena kesederhanaan penulisan dan perhitungannya. Model regresi linear sederhana
ditulis sebagai:

Untuk n buah data, dapat ditulis secara lengkap:

Dalam lambang matriks dinyatakan sebagai:

[ ] [ ][ ] [ ]

Maka penulisan model regresi linear sederhana secara matriks akan menjadi:
3.2 Estimasi Model

Estimator terbaik artinya estimator yang bersifat tak bias dan mempunyai variansi
minimum. Untuk mencari estimator dengan variansi minimum akan digunakan suatu
metode yaitu metode kuadrat terkecil.

Dengan metode kuadrat terkecil untuk menentukan model dugaan sebagai berikut:

( ) , -, -

( )

( ) ( )

( )

( )

Persamaan normal dalam bentuk matriks diperoleh:

, -

Dari n pasang data di atas diperoleh:


∑ ∑

∑ ∑ ∑
[ ] [ ]

∑ ∑
( )
( )

[ ]

[ ̅]
̅

Lalu langkah berikutnya dibuktikan apakah estimator yang diperoleh bersifat tak bias.

Sebuah penduga titik ̂ dikatakan penduga tak bias dari parameter jika [ ̂]
untuk semua nilai yang mungkin.

Bukti :

[ ̂] *, - + , - ( ) , -

Berdasarkan hal ini maka terbukti bahwa [ ̂] sehingga ̂ adalah penduga tak
bias untuk

Dengan varians minimumnya yaitu :

[ ̂] *, - + , - ( ) , -
CONTOH KASUS

Untuk lebih memahami penjelasan dari tinjauan pustaka di atas maka perhatikan contoh kasus di
bawah ini.

1. Contoh Kasus Analisis Ragam


Diambil data dari Badan Pusat Statistik (BPS) Provinsi Bali untuk mengetahui Pengaruh
Indeks Pembangunan Manusia Terhadap Tingkat Kemiskinan di Provinsi Bali Tahun 2011-
2020 sebagai berikut :
Tabel 2.1
Perbandingan Persentase IPM dan Kemiskinan
Di Provinsi Bali Tahun 2011-2020
No Tahun IPM (X) Kemiskinan (Y)
1 2011 71.00 4.59
2 2012 71.62 3.95
3 2013 72.09 4.49
4 2014 72.48 4.76
5 2015 73.27 4.74
6 2016 73.65 4.25
7 2017 74.30 4.25
8 2018 74.77 4.01
9 2019 75.38 3.79
10 2020 75.50 3.78
Sumber : Badan Pusat Statistik Provinsi Bali
1.1. Dengan Perhitungan Manual
Dari data diatas dapat dibuat tabel bantu untuk memudahkan perhitungan :
Kemiskinan
No Tahun IPM (X) X^2 Y^2 XY
(Y)
1 2011 71.00 4.59 5041.0000 21.0681 325.8900
2 2012 71.62 3.95 5129.4244 15.6025 282.8990
3 2013 72.09 4.49 5196.9681 20.1601 323.6841
4 2014 72.48 4.76 5253.3504 22.6576 345.0048
5 2015 73.27 4.74 5368.4929 22.4676 347.2998
6 2016 73.65 4.25 5424.3225 18.0625 313.0125
7 2017 74.30 4.25 5520.4900 18.0625 315.7750
8 2018 74.77 4.01 5590.5529 16.0801 299.8277
9 2019 75.38 3.79 5682.1444 14.3641 285.6902
10 2020 75.50 3.78 5700.2500 14.2884 285.3900
Total 734.06 42.61 53906.9956 182.8135 3124.4731
( )

Berdasarkan tabel diatas dapat ditentukan nilai dan sebagai berikut:

( )

( ) ( )
( )

( )
( ) ( )
( )

- Rumusan Hipotesis :
(tidak ada pengaruh yang linier antara IPM terhadap Tingkat
Kemiskinan)
(ada pengaruh yang linier antara IPM terhadap Tingkat Kemiskinan)

- Hitung Jumlah Kuadrat Regresi ( ):


( )

( )

- Hitung Jumlah Kuadrat Total ( ):


( )

- Hitung Jumlah Kuadrat Galat ( ):

- Hitung Kuadrat Tengah Regresi ( ):

- Hitung Kuadrat Tengah Galat ( ):


- Hitung statistik uji F :

- Daerah Kritis :
( ( ))
( ( ))

Dari perhitungan manual diatas dapat dibentuk :


Tabel Analisis Ragam Regresi Linear Sederhana
Sumber Jumlah df Kuadrat
Ragam Kuadrat Tengah
Regresi 0.499 1 0.499 5.296 5.32
Galat 0.753 8 0.094
Total 1.252 9

- Keputusan :
Karena F hitung sebesar < F tabel sebesar , maka terima dan tolak

- Kesimpulan :
Dengan taraf uji 5% dapat dinyatakan bahwa tidak terdapat hubungan linear antara
IPM dan Tingkat Kemiskinan atau dapat dikatakan dengan tidak terdapat pengaruh
yang signifikan dari IPM terhadap Tingkat Kemiskinan.
1.2. Dengan SPSS

ANOVAa
Sum of Mean
Model Squares df Square F Sig.
1 Regression .499 1 .499 5.296 .050b
Residual .753 8 .094
Total 1.252 9
a. Dependent Variable: Kemiskinan
b. Predictors: (Constant), IPM
Interpretasi :
Hipotesis yang dapat dibangun dengan kriteria pengujian sebagai berikut :
a. diterima ( ditolak) apabila taraf signifikansi ( ) signifikansi
b. ditolak ( diterima) apabila taraf signifikansi ( ) signifikansi
Dari tabel Anova diatas terlihat nilai-nilai yang diperoleh sama seperti yang
diperoleh pada perhitungan manual diatas. Pada kolom terakhir yaitu kolom Sig. terlihat
angka 0.050. Bandingkan angka ini dengan taraf signifikansi . Karena nilai sig =
taraf signifikansi maka diterima dan ditolak, sehingga kesimpulannya adalah
tidak terdapat hubungan linear antara Indeks Pembangunan Manusia terhadap Tingkat
Kemiskinan atau dapat dikatakan tidak terdapat pengaruh yang signifikan dari Indeks
Pembangunan Manusia terhadap Tingkat Kemiskinan.

2. Contoh Kasus Uji t


Data yang digunakan sama seperti pada perhitungan sebelumnya yaitu diambil data dari
Badan Pusat Statistik (BPS) Provinsi Bali untuk mengetahui Pengaruh Indeks
Pembangunan Manusia Terhadap Tingkat Kemiskinan di Provinsi Bali Tahun 2011-2020.

Berikut tabel yang dibuat untuk memudahkan dalam melakukan perhitungan :

Kemiskinan ̅
No Tahun IPM (X) X^2 Y^2 XY ( )
(Y)
1 2011 71.00 4.59 5041.0000 21.0681 325.8900 -2.406 5.788836
2 2012 71.62 3.95 5129.4244 15.6025 282.8990 -1.786 3.189796
3 2013 72.09 4.49 5196.9681 20.1601 323.6841 -1.316 1.731856
4 2014 72.48 4.76 5253.3504 22.6576 345.0048 -0.926 0.857476
5 2015 73.27 4.74 5368.4929 22.4676 347.2998 -0.136 0.018496
6 2016 73.65 4.25 5424.3225 18.0625 313.0125 0.244 0.059536
7 2017 74.30 4.25 5520.4900 18.0625 315.7750 0.894 0.799236
8 2018 74.77 4.01 5590.5529 16.0801 299.8277 1.364 1.860496
9 2019 75.38 3.79 5682.1444 14.3641 285.6902 1.974 3.896676
10 2020 75.50 3.78 5700.2500 14.2884 285.3900 2.094 4.384836
Total 734.06 42.61 53906.9956 182.8135 3124.4731 0.00000 22.58724
AVERAGE 73.41

2.1 Dengan Perhitungan Manual

Berdasarkan tabel diatas dapat ditentukan nilai dan seperti pada perhitungan
sebelumnya:

( )
( ) ( )
( )

( )
( ) ( )
( )

- Rumusan Hipotesis :
IPM tidak berpengaruh signifikan terhadap tingkat kemiskinan
IPM berpengaruh signifikan terhadap tingkat kemiskinan

- Hitung Estimate of the Variance of :

( ̂)
- Hitung Ragam :
Ragam ( ̂ )

Ragam ( ̂ )

- Hitung Standar Error :

Standar error ̂ √ (̂ )

Standar error ̂ √ (̂ )

- Hitung Statistik Uji t :


̂
(̂ )
̂

̂
(̂ )
̂
- Hitung :
t tabel dapat dilihat pada tabel statistik dengan pengujian dua sisi (signifikansi
) dan derajat kebebasan
( ) ( ) . Hasil yang
diperoleh untuk t tabel sebesar 2.751523596

Dari perhitungan manual diatas dapat dibentuk :


Tabel Uji t Regresi Linear Sederhana
REKAP B Variance Std Error t
Intercept
IPM (X)

- Keputusan :
Karena nilai t hitung sebesar < t tabel sebesar 2.752 maka diterima dan
ditolak

- Kesimpulan :
Dengan taraf uji 25% dapat dinyatakan bahwa tidak terdapat pengaruh yang
signifikan dari IPM terhadap Tingkat Kemiskinan.

2.2 Dengan SPSS

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 15.169 4.741 3.200 .013
IPM -.149 .065 -.631 -2.301 .050
a. Dependent Variable: Kemiskinan
Interpretasi :
Dari tabel Coefficients diatas terlihat nilai-nilai yang diperoleh sama seperti yang
diperoleh pada perhitungan manual diatas. Uji signifikansi dengan uji t ini bertujuan
untuk mengetahui apakah ada pengaruh yang nyata (signifikan) variabel IPM (X)
terhadap variabel Tingkat Kemiskinan (Y).
Hipotesis yang dapat dibangun dengan kriteria pengujian sebagai berikut :
a. : tidak ada pengaruh yang nyata (signifikan) IPM terhadap Tingkat Kemiskinan (Y)
b. : ada pengaruh yang nyata (signifikan) IPM terhadap Tingkat Kemiskinan (Y)
Dari output diatas dapat diketahui nilai t hitung = -2.301 dengan nilai signifikansi
0.050 0.050, maka diterima dan ditolak, jadi kesimpulannya tidak ada pengaruh
yang nyata (signifikan) antara Indeks Pembangunan Manusia terhadap Tingkat
Kemiskinan (Y).

3. Contoh Kasus Pendekatan Matriks


Data yang digunakan masih sama seperti pada perhitungan sebelumnya yaitu diambil
data dari Badan Pusat Statistik (BPS) Provinsi Bali untuk menentukan persamaan regresi
dari Analisis Pengaruh Indeks Pembangunan Manusia Terhadap Tingkat Kemiskinan di
Provinsi Bali Tahun 2011-2020.
Tabel 2.1
Perbandingan Persentase IPM dan Kemiskinan
Di Provinsi Bali Tahun 2011-2020
No Tahun IPM (X) Kemiskinan (Y)
1 2011 71.00 4.59
2 2012 71.62 3.95
3 2013 72.09 4.49
4 2014 72.48 4.76
5 2015 73.27 4.74
6 2016 73.65 4.25
7 2017 74.30 4.25
8 2018 74.77 4.01
9 2019 75.38 3.79
10 2020 75.50 3.78
Sumber : Badan Pusat Statistik Provinsi Bali
3.1 Dengan Perhitungan Manual

Dari tabel diatas dapat dibuat tabel bantu untuk mempermudah perhitungan :

Kemiskinan
No Tahun IPM (X) X^2 Y^2 XY
(Y)
1 2011 71.00 4.59 5041.0000 21.0681 325.8900
2 2012 71.62 3.95 5129.4244 15.6025 282.8990
3 2013 72.09 4.49 5196.9681 20.1601 323.6841
4 2014 72.48 4.76 5253.3504 22.6576 345.0048
5 2015 73.27 4.74 5368.4929 22.4676 347.2998
6 2016 73.65 4.25 5424.3225 18.0625 313.0125
7 2017 74.30 4.25 5520.4900 18.0625 315.7750
8 2018 74.77 4.01 5590.5529 16.0801 299.8277
9 2019 75.38 3.79 5682.1444 14.3641 285.6902
10 2020 75.50 3.78 5700.2500 14.2884 285.3900
Total 734.06 42.61 53906.9956 182.8135 3124.4731
( ) 538844.084

Dengan pendekatan matriks kita dapat menentukan nilai dan sebagai berikut :

[ ] [ ] [ ]

[ ] 0 1 0 1

[ ] 0 1 0 1

[ ] [ ] 0 1
( )

[ ] 0 1 0 1

[ ] 0 1 0 1

[ ] 0 1
[ ] 0 1

Jadi dari perhitungan diatas diperoleh nilai dan


Sehingga persamaan regresi yang diperoleh yaitu

3.2 Dengan SPSS

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 15.169 4.741 3.200 .013
IPM -.149 .065 -.631 -2.301 .050
a. Dependent Variable: Kemiskinan

Interpretasi :
Dari tabel coefficients diatas pada kolom B dapat dilihat bahwa persamaan regresi
yang diperoleh yaitu
.
Nilai tersebut memiliki hasil yang sama dengan perhitungan manual untuk pendekatan
matriks diatas. Dimana hal ini berarti jika Indeks Pembangunan Manusia adalah 0
maka Itingkat Kemiskinan sebesar 15.169 persen, kemudian untuk setiap peningkatan
Indeks Pembangunan Manusia sebesar 1 persen maka terjadi penurunan Tingkat
Kemiskinan sebesar 0.149 persen.
DAFTAR PUSTAKA

Neter, J., W. Wasserman, dan M. H. Kutner. 1990. Applied Linear Statistical Models. 3rd ed.
Richard D. Irwin, Inc. Homewood, Illinois.
Utama, C. 2009. Dengan Pendekatan Matriks Dalam Regresi. Jurnal Bina Ekonomi Majalah
llmiah Fakultas Ekonomi Unpar 13(1) : 96 – 104.
Abadi, S. 2013. Aplikasi Paket Statistik Untuk Metode Regresi Linier Dengan Menggunakan
Microsoft Excel. Jurnal STMIK Bani Saleh 2(2) : 20 – 28.
Harlan, Johan. 2018. Analisis Regresi Linear. Jakarta : Gunadarma.
Badan Pusat Statistik. 2010. Indeks Pembangunan Manusia Provinsi Bali Menurut
Kabupaten/Kota. BPS Provinsi Bali. Bali
Badan Pusat Statistik. 2002. Persentase Penduduk Miskin Provinsi Bali Menurut
Kabupaten/Kota. BPS Provinsi Bali. Bali
ANALISIS REGRESI LINEAR BERGANDA

Pengertian Analisis Regresi

Metode regresi linear adalah alat statistic yang dipergunakan untuk mengetahui
pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Manfaat dari regresi
linear diantaranya analisis regresi lebih akurat dalam melakukan analisis korelasi, karena
analisis itu kesulitan dalam menunjukan tingkat perubahan suatu variabel terhadap variabel
lainnya (slop) dapat ditentukan. Dengan analisis regresi peramalan atau perkiraan nilai
variabel terikat pada nilai variabel bebas lebih akurat. Selain itu analisis ini untuk mengetahui
arah hubungan antara variabel dependen apakah positif dan negatif dan untuk memprediksi
nilai dari variabel dependen apabila nilai dari variabel independen mengalami kenaikan atau
penurunan dan variabel independen. Data yang digunakan adalah data berskala interval atau
rasio (Sena, 2016). Regresi linier terbagi menjadi regresi linier sederhana dan regresi linier
ganda ( Padilah & Adam, 2019).

1. Regresi Liniar Ganda

Regresi linier berganda merupakan model persamaan yang menjelaskan hubungan satu
variabel tak bebas/ response (Y) dengan dua atau lebih variabel bebas/predictor (X1,
X2,…Xn). Tujuan dari uji regresi linier berganda adalah untuk memprediksi nilai variable tak
bebas/ response (Y) apabila nilai-nilai variabel bebasnya/ predictor (X1, X2,..., Xn) diketahui.
Disamping itu juga untuk dapat mengetahui bagaimanakah arah hubungan variabel tak bebas
dengan variabel -variabel bebasnya.

Menurut Harlan, 2018. Regresi linear ganda (multiple linear regression) adalah model
regresi linear dengan 1 variabel dependen kontinu beserta k (dua atau lebih) variabel
independen kontinu dan/atau kategorik. Regresi linier berganda digunakan untuk menelusuri
pola hubungan antara variabel terikat dengan dua atau lebih variabel bebas. Berdasarkan
suatu penelitian, regresi linier berganda lebih baik jika dibandingkan dengan metode fuzzy
dan jaringan syaraf tiruan (Padilah & Adam, 2019). Hal ini dapat dilihat dari nilai rata-rata
kesalahan relatif regresi linier berganda sebesar 9,383% yang lebih kecil daripada nilai rata-
rata kesalahan relatif fuzzy sebesar 20.748%. (Wati, dkk. 2013).
Kelebihan metode regresi linier ganda diantaranya melakukan generalisasi dan
ekstraksi dari pola data tertentu, mampu mengakuisisi pengetahuan walau tidak ada
kepastian, dan mampu melakukan perhitungan secara paralel sehingga proses lebih singkat
(Amrin, 2016).

1.1. Asumsi Klasik Regresi Linear Berganda

 Data Interval atau Rasio.


Skala data semua variable terutama variable terikat adalah interval atau
rasio. Asumsi ini tidak perlu diuji, cukup anda pastikan bahwa data yang
digunakan adalah data interval atau rasio (numeric atau kuantitatif).

 Linearitas
Ada hubungan linear antara variable bebas dengan variable terikat. Asumsi
linearitas diuji dengan uji linearitas regresi, misalnya dengan kurva
estimasi.

 Normalitas Residual
Residual adalah beda antara y dengan y prediksi. Y adalah variable terikat,
sedangkan y prediksi adalah Y hasil persamaan regresi yang dibuat.
Sehingga residual dibangun dengan rumus: y – y prediksi.

 Non Outlier
Outlier disebut dengan data pencilan atau data yang nilainya extreme atau
lain dari pada yang lainnya. Batasan outlier atau tidak bisa dilihat dari nilai
absolut studentized residual. Jika absolut studentized residual > 3,5 maka
sampel atau observasi yang dimaksud menjadi outlier.

 Homoskedastisitas
Homoskedastisitas adalah sebuah kondisi dimana varians dari error bersifat
konstan atau tetap. Dengan kata lain bahwa varians dari error bersifat
identik untuk setiap pengamatan.
 Non Multikolinearitas
Multikolinearitas adalah keadaan dimana terdapat interkorelasi atau korelasi
kuat antar variable bebas di dalam model.

 Non Autokorelasi
Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga
bisa diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada
regresi linear berganda dengan data time series atau runtun waktu. Dan
jarang sekali terjadi pada data cross section.

1.2. Model Regresi Linear Ganda

Menurut (Mona, dkk. 2015), Regresi linier berganda untuk populasi dapat
ditunjukkan dalam persamaan sebagai berikut:

Yang Mana :

 = Variable Tak Bebas (nilai variabel yang akan diprediksi)


 = Konstanta
 = Koefisien Regresi
 = Variable Bebas
 = Random error

Bila terdapat 2 variable bebas, yaitu dan maka bentuk persamaan


regresinya adalah :

Menurut (Mona, dkk. 2015), Regresi linier berganda untuk sampel dapat
ditunjukkan dalam persamaan sebagai berikut

̂
Yang Mana :

 ̂ = Nilai Penduga Bagi Variable Tak Bebas (Y)

 = Dugaan Bagi Konstanta


 = Dugaan Bagi Koefisien Regresi
 = Variable Bebas

Terdapat beberapa metode analisis dalam regresi linear ganda, yaitu : Metode
Matriks, Metode Persamaan Normal (Metode Eleminasi), Uji Parsial (Uji t) dan Uji
Simultan (Uji F). ( Setiawan, 2013).

1.3. Tujuan Analisis Regresi Linear Ganda

Tujuan dari analisis regresi linier berganda adalah mengetahui seberapa besar
pengaruh beberapa variabel bebas terhadap variabel tidak bebas dan juga dapat
meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah diketahui
nilainya (Sungkawa, 2015).

2. Pengujian Parameter Model Regresi Linear Berganda

Pengujian parameter ini bertujuan untuk mengetahui ada atau tidaknya pengaruh
variabel bebas terhadap variabel tidak bebas, baik secara serentak maupun secara parsial.

2.1. Pengujian Parameter Secara Serentak (Simultan)

Proedur pengujian parameter secara simultan adalah sebagai berikut:

A. Membuat hipotesis.

: Tidak semua sama dengan nol, untuk k = 1, 2, …, p-1.


(Kutner, et.al., 2004)
atau:

: , , …, secara simultan tidak berpengaruh terhadap variable


tidak bebas.

: , , …, secara simultan berpengaruh terhadap variable tidak


bebas.

B. Menentukan tingkat signifikansi (α).

Tingkat signifikansi (α) yang seringkali digunakan dalam penelitian adalah 5%.

C. Menentukan statistik uji.

Statistik uji yang digunakan adalah:

F=

dengan:
RKR adalah rata-rata kuadrat regresi (dapat diperoleh dari Tabel Analisis
Variansi).

RKE adalah rata-rata kuadrat error (dapat diperoleh dari Tabel Analisis Variansi).

D. Menentukan daerah kritik (penolakan ).

Daerah kritik yang digunakan adalah ditolak bila F > dengan


disebut dengan F tabel.

Selain dari daerah kritik di atas, dapat juga digunakan daerah kritik yang lain
yaitu jika nilai peluang (Sig.) < Tingkat signifikansi (α), Maka ditolak.

E. Menarik kesimpulan.
2.2. Pengujian Parameter Secara Individu (Parsial)

Prosedur pengujian parameter secara parsial adalah sebagai berikut:

A. Membuat hipotesis.

: ≠ 0, untuk k = 1, 2, …, p-1.
(Kutner, et.al., 2004)

atau:

: Variabel bebas ke-k tidak berpengaruh terhadap variable tidak bebas.

: Variabel bebas ke-k tidak berpengaruh terhadap variable tidak bebas.

B. Menentukan tingkat signifikansi (α).

Tingkat signifikansi (α) Yang seringkali digunakan dalam penelitian adalah 5%.

C. Menentukan statistik uji.

Statistik uji yang digunakan adalah:

t=

dengan:
adalah nilai taksilan parameter yang diperoleh dari metode OLS).

adalah standar deviasi nilai taksiran parameter .

D. Menentukan daerah kritik (penolakan ).

Daerah kritik yang digunakan adalah:

ditolak bila t > atau t < dengan disebut dengan t

tabel.

Selain dari daerah kritik diatas, dapat juga digunakan daerah kritik yang lain yaitu
jika nilai peluang (Sig.) < tingkat signifikansi (α), Maka ditolak.

E. Menarik kesimpulan.
3. Pelanggaran – Pelanggaran terhadap Asumsi Regresi Linear Berganda

Dalam analisis regresi linear berganda terdapat beberapa pelanggaran-pelanggaran yang


seringkali dilakukan terhadap asumsi-asumsinya, diantaranya diuraikan berikut ini.

A. Multikolinieritas
Adapun dampak adanya multikolinearitas dalam model regresi linier berganda
adalah (Gujarati, 2004 dan widarjono, 2007):
1) Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan kovariansi
yang besar sehingga sulit mendapatkan taksiran (estimasi) yang tepat.
2) Akibat penaksiran OLS mempunyai variansi dan kovariansi yang besar,
menyebabkan interval estimasi akan cenderung lebih lebar dan nilai hitung
statistik uji t akan kecil, sehingga membuat variabel bebas secara statistik tidak
signifikan mempengaruhi variabel tidak bebas.
3) Walaupun secara individu variabel bebas tidak berpengaruh terhadap variabel
tidak bebas melalui uji t, tetapi nilai koefisien determinasi ( ) Masih bisa relatif
tinggi.

B. Heteroskedastisitas
Dampak adanya heteroskedastisitas dalam model regresi adalah walaupun
estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa
dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang
didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi.

Akibat dari dampak heteroskedastisitas tersebut menyebabkan estimator OLS


tidak menghasilkan estimator yang BLUE dan hanya menghasilkan estimator OLS yang
linear unbiased estimator (LUE).

C. Autokorelasi.

Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama
dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun
estimator OLS masih linear dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standar error metode OLS tidak bisa
dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang
didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi. Akibat dari dampak adanya autokorelasi dalam model regresi menyebabkan
estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan
estimator OLS yang LUE (Widarjono, 2007).
CONTOH KASUS

Pengaruh Umur, Tingkat Polusi, dan Rendemen terhadap Hasil

Jagung merupakan salah satu hasil pertanian yang umum dijumpai di Indonesia. Untuk
meningkatkan hasil pertanian jagung di daerahnya, seorang peneliti melakukan suatu
penelitian mengenai faktor yang mempengaruhi hasil panen jagung. Sebuah penelitian
dilakukan untuk mengkaji hubungan antara tiga variabel yaitu tinggi tanaman, tingkat polusi
serta rendemen terhadap hasil tanaman jagung. Penelitian dilakukan terhadap 16 sampel
tanaman jagung dari berbagai varietas. Data yang dikumpulkan adalah sebagai berikut :

Umur Tanaman Hasil Jagung


Tingkat Polusi Rendemen (%)
Nomor (hari) (ton/ha)

1 100 8 70 9.5
2 102 4 72 9.8
3 98 9 68 9.1
4 95 5 65 8.6
5 102 7 69 9.7
6 104 6 72 10
7 98 4 69 9
8 92 2 63 8
9 102 3 71 9.7
10 100 8 71 9.6
11 102 4 73 9.8
12 85 2 67 7.8
13 90 6 69 8
14 92 4 64 8.1
15 98 7 69 9
16 102 9 71 9.7
 Mencari Persamaan Regresi Linear Berganda
 Cara Manual 1

10000 64 4900 90,25 950 76 665 800 7000 560


10404 16 5184 96,04 999,6 39,2 705,6 408 7344 288
9604 81 4624 82,81 891,8 81,9 618,8 882 6664 612
9025 25 4225 73,96 817 43 559 475 6175 325
10404 49 4761 94,09 989,4 67,9 669,3 714 7038 483
10816 36 5184 100 1040 60 720 624 7488 432
9604 16 4761 81 882 36 621 392 6762 276
8464 4 3969 64 736 16 504 184 5796 126
10404 9 5041 94,09 989,4 29,1 688,7 306 7242 213
10000 64 5041 92,16 960 76,8 681,6 800 7100 568
10404 16 5329 96,04 999,6 39,2 715,4 408 7446 292
7225 4 4489 60,84 663 15,6 522,6 170 5695 134
8100 36 4761 64 720 48 552 540 6210 414
8464 16 4096 65,61 745,2 32,4 518,4 368 5888 256
9604 49 4761 81 882 63 621 686 6762 483
10404 81 5041 94,09 989,4 87,3 688,7 918 7242 639
152926 566 76167 1329,98 14254,4 811,4 10051,1 8675 107852 6101


Untuk mencari koefisien regresi digunakan persamaan simultan sebagai
berikut

∑ ∑ ∑ ∑

∑ ∑ ∑ ∑

∑ ∑ ∑ ∑

Input nilai yang telah didapat kedalam persamaan diatas

Mengubah nilai koefisien

Menghilangkan
Gunakan metode eliminasi untuk mengetahui salah satu nilai antara dengan

Subtitusi ke persamaan

Subtitusi dan ke persamaan


Mencari menggunakan rumus

̅ ̅̅̅ ̅̅̅ ̅̅̅̅

Hasil Persamaan Regresi

 Cara Manual 2

∑ ∑ ∑ ∑

∑ ∑ ∑ ∑

∑ ∑ ∑ ∑

Ubah kedalam bentuk matriks

∑ ∑ ∑ ∑
[∑ ∑ ∑ ][ ] [∑ ]
∑ ∑ ∑ ∑

∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑

∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑

∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑

Mencari

̅ ̅̅̅ ̅̅̅ ̅̅̅̅

Hasil Persamaan Regresi

Interpretasi Hasil

a. Koefisien sebesar artinya apabila umur tanaman mengalami peningkatan


sebanyak 1 hari dengan tingkat polusi dan nilai rendemen tetap, maka hasil jagung
akan meningkat sebesar ton/ha.
b. Koefisien sebesar artinya apabila tingkat polusi mengalami
peningkatan sebanyak 1 satuan dengan umur tanaman dan nilai rendemen tetap,
maka hasil jagung akan meningkat sebesar ton/ha.
c. Koefisien sebesar artinya apabila rendemen mengalami peningkatan
sebanyak 1% dengan umur tanaman dan tingkat polusi tetap, maka hasil jagung
akan meningkat sebesar ton/ha.
d. Konstanta sebesar artinya apabila umur tanaman , tingkat polusi
, dan rendemen sama-sama memiliki nilai 0, maka hasil jagung akan
bernilai sebesar ton/ha.

 SPSS

Hasil Persamaan Regresi

Interpretasi Hasil

a. Koefisien sebesar artinya apabila umur tanaman mengalami


peningkatan sebanyak 1 hari dengan tingkat polusi dan nilai rendemen tetap, maka
hasil jagung akan meningkat sebesar ton/ha.
b. Koefisien sebesar artinya apabila tingkat polusi mengalami
peningkatan sebanyak 1 satuan dengan umur tanaman dan nilai rendemen tetap,
maka hasil jagung akan meningkat sebesar ton/ha.
c. Koefisien sebesar artinya apabila rendemen mengalami peningkatan
sebanyak 1% dengan umur tanaman dan tingkat polusi tetap, maka hasil jagung
akan meningkat sebesar ton/ha.
d. Konstanta sebesar artinya apabila umur tanaman , tingkat polusi
, dan rendemen sama-sama memiliki nilai 0, maka hasil jagung akan
bernilai sebesar ton/ha.

 Mencari Koefisien Determinasi


 Cara Manual

∑ ∑ ∑

Dari model ini dapat diketahui bahwa hasil jagung dapat dijelaskan oleh
variabel umur tanaman jagung, tingkat polusi dan rendemen. Sedangkan sisanya
dapat dijelaskan oleh sebab-sebab yang lain.

 SPSS
Dari model ini dapat diketahui bahwa hasil jagung dapat dijelaskan oleh
variabel umur tanaman jagung, tingkat polusi dan rendemen. Sedangkan sisanya
dapat dijelaskan oleh sebab-sebab yang lain.

 Uji F
 Cara Manual

Menurut V. Wiratna Sujarweni (2014 : 154) Jika nilai maka


artinya variabel independen (X) secara simultan berpengaruh terhadap variabel
dependen (Y).

Hipotesis :

: Secara simultan tidak ada pengaruh signifikan antara variabel umur tanaman,
tingkat polusi, dan rendemen terhadap (hasil panen)

: Secara simultan ada pengaruh signifikan antara variabel umur tanaman, tingkat
polusi, dan rendemen terhadap (hasil panen)

Menentukan tingkat signifikasi (α) : tingkat signifikansi (α) yang sering digunakan
dalam penelitian adalah 5%

Menentukan f-hitung :

( )
=

= = 149,846

Menentukan f-tabel :

Keputusan :
maka secara simultan ada pengaruh antara variabel umur
tanaman, tingkat polusi, dan rendemen terhadap (hasil panen). Semakin tinggi umur
tanaman, tingkat polusi, dan rendemen akan meningkatkan hasil panen.

 SPSS

Menentukan f-tabel :

Keputusan :
maka secara simultan ada pengaruh antara variabel umur
tanaman, tingkat polusi, dan rendemen terhadap (hasil panen). Semakin tinggi umur
tanaman, tingkat polusi, dan rendemen akan meningkatkan hasil panen.

Selanjutnya, menurut Imam Ghozali (2011 : 101) Jika nilai Sig. maka
artinya variabel independen (X) secara simultan berpengaruh terhadap variabel
dependen (Y).

Kesimpulan dari data di atas adalah nilai Sig.< 0,05, maka secara simultan ada
pengaruh antara variabel umur tanaman, tingkat polusi, dan rendemen terhadap
(hasil panen). Semakin tinggi umur tanaman, tingkat polusi, dan rendemen akan
meningkatkan hasil panen.

 Uji t
Menurut V. Wiratna Sujarweni (2014 : 155) Jika nilai , maka
artinya variabel independen (X) secara parsial berpengaruh terhadap variabel dependen
(Y).

Selanjutnya, pengujian tiap variabelnya adalah sebagai berikut :

Uji

Hipotesis :

(tidak ada pengaruh terhadap variabel Y)

(ada pengaruh terhadap variabel Y)

Pengambilan keputusan :

Jika |thitung | > ttabel maka ditolak dan diterima.

Jika |thitung | < ttabel maka diterima dan ditolak.

Interpretasi :

Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung >
2,10, maka diterima yang berarti ada pengaruh variabel terhadap variabel .
Uji

Hipotesis :

(tidak ada pengaruh terhadap variabel Y)

(ada pengaruh terhadap variabel Y)

Pengambilan keputusan :

Jika |thitung | > ttabel maka ditolak dan diterima.

Jika |thitung | < ttabel maka diterima dan ditolak.

Interpretasi :

Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung <
2,10, maka diterima yang berarti tidak ada pengaruh variabel terhadap variabel .

Uji

Hipotesis :

(tidak ada pengaruh terhadap variabel Y)

(ada pengaruh terhadap variabel Y)

Pengambilan keputusan :

Jika |thitung | > ttabel maka ditolak dan diterima.

Jika |thitung | < ttabel maka diterima dan ditolak.

Interpretasi :

Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung >
2,10 maka diterima yang berarti ada pengaruh variabel terhadap variabel .

Kesimpulan :
Jadi, dapat disimpulkan bahwa variabel dan memiliki pengaruh terhadap
variabel , sedangkan variabel tidak memiliki pengaruh terhadap variabel . Artinya
bahwa tinggi tanaman dan rendemen memiliki pengaruh terhadap hasil jagung, sedangkan
tingkat polusi tidak berpengaruh terhadap hasil jagung.

Selanjutnya, menurut Imam Ghozali (2011 : 101) Jika nilai Sig. maka
artinya variabel independen (X) secara parsial berpengaruh terhadap variabel dependen
(Y).

Kesimpulan dari data di atas adalah:

1. Tinggi Tanaman (X1) berpengaruh terhadap Hasil Jagung (Y).

2. Rendeman (X3) berpengaruh terhadap Hasil Jagung (Y).

 Uji Linearitas

Uji linearitas bisa diuji dengan scatter plot (diagram pancar). Adapun kriteria uji
linearitas adalah :

a. Jika pada grafik mengarah ke kanan atas, maka data termasuk dalam kategori linear.
b. Jika pada grafik tidak mengarah ke kanan atas, maka data termasuk dalam kategori
tidak linear.

Membentuk bidang yang mengarah ke kanan atas. hal ini membuktikan bahwa
adanya linieritas.

 Uji Normalitas
Uji normalitas dapat dilakukan dengan normal P-P Plot dan uji Kolmogorov-
Smirnov. Normal P-P plot, uji normalitasnya dapat dilihat dari penyebaran data (titik)
pada sumbu diagonal grafik (Gujarati, 2004:109). Dasar pengambilan keputusannya, jika
data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik
histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi
normalitas. Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-
Smirnov. Kriteria keputusan uji Kolmogorov-Smirnov adalah jika nilai atau pada output
SPSS lebih dari nilai taraf nyata maka asumsi normalitas dipenuhi.
Terlihat pada grafik di atas sebaran titik-titik dari pada grafik relatif mendekati garis
lurus, sehingga dapat disimpulkan bahwa data residual terdistribusi normal yang berarti
uji normalitas terpenuhi. Untuk lebih mendapatkan hasil yang lebih meyakinkan, akan
dilakukan uji Kolmogorov-Smirnov.
Terlihat pada grafik diatas bahwa KS : dengan P-Value di mana
lebih dari , maka variabel dinyatakan berdistribusi normal.

 Uji Outlier
Dalam deteksi pencilan (outlier) terdapat beberapa metode untuk menentukan
batasan outlier dalam sebuah analisis, yaitu:
1. Scatter plot
Dalam scatter plot untuk mengetahui apakah suatu data terdapat outlier, dapat dilakukan
dengan membentuk diagram pencar (scatter plot) dari data. Jika terdapat satu atau
beberapa data yang terletak jauh dari pola kumpulan data maka hal tersebut
mengindikasikan adanya outlier.

2. Standarized Residual
Untuk melakukan identifikasi outlier, diperhatikan nilai-nilai dari standardized residual.
Jika nilai dari standardized residual lebih dari 3,5 atau kurang dari -3,5 maka data tersebut
dikatakan sebagai outlier (Yaffe, 2002: 35).
Boxplot of X1, X2, X3

100

80

60
Data

40

20

0
Y 8 0 1 6 0 1 5 6 7 8 0 8 0 1 6 0 1 5 6 7 8 0 8 0 1 6 0 1 5 6 7 8 0
7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10. 7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10. 7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10.

X1 X2 X3

Terlihat pada grafik diatas bahwa tidak terdapat angka yang memiliki nilai yang
sangat berbeda jauh dengan nilai dari angka lainnya sehingga dapat disimpulkan bahwa
pada data diatas tidak terdapat pencilan /outlier.

Berdasarkan data diatas terlihat bahwa nilai dari standardized residual kurang dari
3,5 atau lebih dari -3,5 maka data tersebut dikatakan sebagai Non outlier.
 Uji Homoskedastisitas

Uji heteroskedastisitas dapat dilihat dari nilai signifikansi dan α , apabila nilai sig.
>α maka tidak terjadi heteroskedastisitas.

Berdasarkan data diatas dapat dilihat uji heteroskedastisitas dengan metode glejser,
diperoleh nilai tinggi tanaman , nilai tingkat populasi Produktivitas
, dan nilai rendeman . Dikarenakan ada 2 variabel memiliki
nilai lebih kecil dari 0,05, maka model regresi tersebut mengalami gejala
heteroskedastisitas atau non homoskedastisitas.

 Uji Multikolinearitas

Cara yang digunakan untuk mendeteksi ada tidaknya multikoliniearitas adalah


dengan menggunakan variance inflation factors (VIF), dimana R² adalah koefisien
determinasi yang diperoleh dengan meregresikan salah satu variabel independen terhadap
variabel independen lainnya. Jika nilai VIF nya kurang dari 10 maka dalam data tidak
terdapat Multikolinearitas (Gujarati, 2004:362).

Berdasarkan data di atas, dapat dilihat nilai VIF masing-masing variabel. Untuk
variabel sebesar , variabel sebesar , dan variabel sebesar
dimana nilai VIF ini lebih kecil dari 10. Sehingga dapat disimpulkan bahwa tidak ada
gejala multikolinieritas pada variabel , , dan karena nilai VIF < 10.

 Uji Autokorelasi
Menurut Gujarati (2004: 467), pengujian dilakukan dengan menggunakan statistik
uji Durbin Watson. Selanjutnya Menurut Imam Ghozali (2011 : 111) Tidak ada gejala
autokorelasi, jika nilai Durbin Watson terletak antara sampai dengan .

Berdasarkan data diatas, diketahui nilai Durbin Watson adalah sebesar 2,343.
Selanjutnya nilai ini akan kita bandingkan dengan nilai table Durbin Watson pada
signifikansi dengan rumus . Angka ini kemudian kita lihat pada distribusi nilai
tabel Durbin Watson. Maka ditemukan nilai . dan .
Selanjutnya, dapat kita hitung nilai dan , maka nilai – nilainya adalah
serta .

Sehingga hasilnya adalah .


Dikarenakan berada di antara dan 4 , maka kesimpulannya adalah
berada pada daerah yang tidak dapat disimpulkan (Inconclusive). Dan dikarenakan
tidak berada di antara sampai dengan , maka model regresi tersebut memiliki
gejala autokorelasi.
Daftar Pustaka

Amrin. 2016. “Data Mining Dengan Regresi Linier Berganda Untuk Peramalan Tingkat
Inflasi” Dalam Jurnal Techno Nusa Mandiri Vol. XIII, No. 1. Jakarta.

Andi. 2009. SPSS17 Untuk Pengolah Data Statistik. Semarang:Wahana Komputer

Duwi, P. 2008. Mandiri Belajar SPSS (Statistical Product and Service Solution) Untuk
Analisis Data dan Uji Statistik. Yogyakarta: MediaKom.

Ganis A, S. 2018. Pengaruh Umur, Tinggi Tanaman, dan Rendemen terhadap Hasil
Jagung.Tim Litbang Balai Pertanian, Kota Malang. Tersedia di
https://rpubs.com/GanisASaputri/BisAnalitikTugas1

Gujarati, N.D. 2004. Basic Econometrics. 4th ed. New York: McGraw-Hill Companies, Inc.

Harlan, Johan. 2018. Analisis Regresi Linear. Depok : Gunadarma.

Hasan M. Iqbal, Ir., M.M. 2005. Pokok-Pokok Materi Statistik 1 (Statistik Deskriptif). Edisi
Kedua. Jakarta: PT. Bumi Aksara.

Imam Ghozali. 2011. Aplikasi Analisis Multivariate dengan Program IMB SPSS 19.
Semarang: Badan Penerbit Undip.

Kutner, M.H., C.J. Nachtsheim., Dan J. Neter. 2004. Applied Linear Regression Models. 4th
ed. New York: McGraw-Hill Companies, Inc.

Masrukhin. 2008. Statistik Inferensial (Aplikasi Program SPSS). Kudus: Media Ilmu Press.

Mona, Margaretha G., Kekenusa, John S., Prang, Jantje D. 2015. Penggunaan Regresi
Liniear Berganda Untuk Menganalisis Pendapatam Petani Kelapa, Studi Kasus :
Petani Kelapa Di Desa Beo, Kecamatan Beo, Kabupaten Talaud. Manado.

Padilah, Tesa N., & Adam, Riza I. “Analisis Regresi Linier Berganda Dalam Estimasi
Produktivitas Tanaman Padi Di Kabupaten Karawang” Dalam Fibonacci : Jurnal
Pendidikan Matematika dan Matematika Volume 5(2). Karawang : Universitas
Singaperbangsa.
Sena L De. 2016. Penerapan Metode Regresi Linear Memprediksi Hubungan Antara Biaya
Promosi Dengan Hasil. Medan.

Sugiyono.2010. Statistik Untuk Penelitian. Alfabeta : Bandung.

Sungkawa, Iwa. 2015. Penerapan Regresi Linier Ganda untuk Mengukur Efisiensi Pola
Penggunaan Air Tanah System Rice Intensification (SRI) di Kabupaten Bandung,
Subang, dan Karawang. Jakarta.

Stanislaus S, U. 2009. Pedoman Analisis Data dengan SPSS. Edisi 3. Yogyakarta: Graha
Ilmu.

Sujarweni, VW. 2014. SPSS Untuk Penelitian. Yogyakarta: Pustaka baru Press.

Wati, S. E., Sebayang, D., & Sitepu, R. 2013. “Perbandingan Metode Fuzzy Dengan Regresi
Linier Berganda Dalam Peramalan Jumlah Produksi” Dalam Saintia Matematika. Vol. 1
(3).

Widarjono, A. 2007. Ekonometrika: Teori dan Aplikasi untuk Ekonomi dan Bisnis. Edisi
Kedua. Yogyakarta: Ekonisia Fakultas Ekonomi Universitas Islam Indonesia.

Yaffe, R. A. 2002. Robust Regression Modelling With STATA Lecture Notes. Avenue:Social
Science and Mapping Group Academic Computing Service.

Yuliara, M. 2016. Regresi Linier Berganda. Tersedia di: Simdos.unud.ac.id


INFERENSI DALAM ANALISIS REGRESI LINEAR GANDA

 Analisis Regresi Linier Berganda


Analisis regresi linier berganda merupakan pengembangan analisis regresi linier sederhana,
sebagai hubungan antara satu peubah respon dan dua atau lebih peubah prediktor, dengan
persamaan (Draper dan Smith, 1992):
Dimana : Yi = β0 + β1X1i + β2 X2i +...+ βp Xpi + εi (a.1)

Dimana :
Yi = variabel terikat
β0 = intersep untuk Y saat X=0
βj = Koefisien regresi peubah prediktor ke-j
Xji = variabel bebas
εi = error sebanyak i
i = 1, 2, 3, ..., n
j = 1, 2, 3, …, p

Dari persamaan (a.1) dapat ditulis dalam bentuk matriks:


Y = Xβ + ε (a.2)

= +

[ ] [ ][ [ ]
]
Dimana :
X = matriks peubah prediktor berukuran
Y = vektor peubah respon berukuran
β = vektor koefisien regresi berukuran
ε = vektor peubah acak galat berukuran

 Metode kuadrat terkecil


Metode kuadrat terkecil digunakan untuk memperoleh penduga parameter persamaan
regresi. Penduga yang baik adalah penduga yang mendekati nilai parameter. Ciri-ciri yang
baik adalah tidak bias, efisien, dan konsisten. Jika dari suatu populasi ditarik semua sample
yang mungkin, akan dapat diperoleh rata-rata nilai statistik yang sama dengan parameternya.
Dengan perkataan lain penduga tak bias diperoleh, jika nilai harapan penduga sama dengan
parameternya. Dan yang paling baik adalah jika penduga parameter memiliki ketelitian dan
ketepatan yang tinggi. MKT sah digunakan jika model regresi bersifat linier dalam parameter.
Prinsip metode ini adalah meminimumkan jumlah kuadrat galat untuk mendapat penduga
bagi parameter β. Dari persamaan (a.2) didapatkan:
ε = Y – Xβ
JKgalat = ∑ = ε` ε = (Y – Xβ)`( Y – Xβ)
= Y `Y – Y `Xβ – β`X`Y + β`X`Xβ

Berdasarkan sifat matriks putaran, di mana β`X`Y = Y ` Xβ


ε` ε = Y `Y – 2 β`X`Y + β`X`Xβ

Penduga kuadrat terkecil harus memenuhi :


0= ̂

0= ( ̂)

dan 0 = ̂
̂

Kalikan kedua ruas dengan


̂
̂
̂

Nilai harapan bagi penduga :


̂
=

=
=
=
MKT menghasilkan penduga bersifat tak bias.

Sehingga didapatkan rumus-rumus untuk β0, β1 dan β2 sebagai berikut :


( )
( )( )
( )( )
( )( )
̅ ̅ ̅
Dimana:
̅ ̅
̅
̅
= jumlah dari seluruh data
 Uji Hipotesis Regresi Linear Berganda

Uji hipotesis dimaksudkan untuk melihat apakah suatu hipotesis yang diajukan ditolak
atau dapat diterima,sedangkan hipotesis merupakan asumsi atau pernyataan yang mungkin benar
atau salah mengenai suatu populasi. Dengan mengamati seluruh populasi, maka suatu hipotesis
akan dapat diketahui apakah suatu penelitian itu benar atau salah. Untuk keperluan praktis,
pengambilan sampel secara acak dari populasi akan sangat membantu. Dalam pengujian
hipotesis terdapat asumsi/ pernyataan istilah hipotesis nol.Hipotesis nol merupakan hipotesis
yang akan diuji,dinyatakan oleh dan penolakan dimaknai dengan penerimaan hipotesis
lainnya/ hipotesis alternative yang dinyatakan oleh .
Pada tahapan pembangunan model dalam uji regresi linier berganda, terdapat pengujian hipotesis
untuk mengetahui apakah model regresi layak untuk digunakan dan apakah variabel-variabel
independen signifikan di dalam model. Dalam bab ini kami membahas uji hipotesis dan interval
kepercayaan untuk parameter dengan model Ada dua jenis
uji hipotesis yang terkait dengan koefisien regresi linear berganda yang menjadi perhatian yaitu
uji-F dan uji-t.

A. Uji Hipotesis Secara Menyeluruh (Simultan) : Uji-F


Uji F ini digunakan untuk mengetahui apakah variabel-variabel independen secara
signifikan bersama-sama berpengaruh terhadap variabel dependen. Dengan kata lain,
untuk mengetahui apakah model regresi yang terbentuk layak digunakan atau tidak. Uji F
dalam uji regresi seringkali disebut sebagai uji overall. Dengan menggunakan formula
hipotesis yang akan diuji :

, untuk setidaknya satu j, dimana j= 1,2,….,k

Hipotesis tersebut menunjukkan bahwa untuk hipotesis nol seluruh variable bebas tidak
berpengaruh secara signifikan di dalam model dan untuk hipotesis alternatifnya
menunjukkan bahwa minimal ada satu variable yang berpengaruh secara signifikan.Uji-F
ini bias dijelaskan dengan menggunakan analisis varian (analysis of variance = ANOVA).
Misalkan mempunyai model regresi berganda sbb:
Regresi

̂ (catatan: ̂ merupakan estimasi dari

Bila kedua sisi dikurangi ̅ maka :

̅ ̂ ̅

Selanjutnya kedua sisi dikomulatifkan :

∑ ̅ ∑( ̂ ̅ )

∑ ̅ ∑( ̂ ̅) ∑

Atau dapat ditulis menjadi :

SST = SSR + SSE

SST mempunyai df = n-1, SSR mempunyai df = k, sedangkan SSE mempunyai df


sebesar k-1. Analisis varian adalah analisis dekomposisi komponen SST. Analisis varian
ini bias ditampilkan dalam table berikut.

Analisys of Varian (ANOVA)

SoV SS Dof MS F*
Regression SSR k MSR
Error SSE n-k-1 MSE
Total SST n-1
Dengan hipotesis semua variable independen tidak berpengaruh terhadap variable
dependen maka uji F dapat diformulasikan sbb :

Karena SSE/SST = maka formula diatas dapat ditulis kembali menjadi


Dimana :
k = jumlah variable independen, termasuk intersep atau konstanta (
n = banyaknya data
Keputusan yang diambil dengan tingkat kepercayaan adalah tolak apabila
nilai , jika keputusannya adalah tolak maka dapat disimpulkan
bahwa sekurang-kurangnya ada satu variable yang berpengaruh secara signifikan.
Apabila , maka terima . Jika menggunaka nilai signifikan maka
- Nilai sig < tingkat kesalahan = ditolak
- Nilai sig > tingkat kesalahan = diterima
Walaupun uji F menunjukkan adanya penolakan hipotesis nol yang menunjukka bahwa
secara bersama-sama semua variable independen mempengaruhi variable dependen,
namun hal ini bukan berarti secara individual variabl independen mempengaruhi variable
dependen melalui uji t. Keadaan ini terjadi karena kemungkinan adanya korelasi yang
tinggi antar variable independen. Kondisi ini menyebabkan standard error sangat tinggi
dan rendahnya nilai t hitung meskipun model secara umum mampu menjelaskan data
dengan baik.
Misalkan model regresi berganda dengan dua variable independen sebelumnya :

Untuk menguji apakah koefisien regresi ( secara bersama-sama atau secara


menyeluruh berpengaruh terhadap variable dependen,prosedur uji F dapat dijelaskan sbb:
1. Membuat dan

2. Mencari nilai F hitung dengan formula seperti diawal dan nilai F kritis dari table
distribusi F. Nilai F kritis berdasarkan besarnya dan df yang besarnya ditentukan
numerator (k-1) dan df denominator (n-k).
3. Keputusan tolak dan terima
Jika F hitung > F kritis maka tolak dan sebaliknya jika F hitung < F kritis terima
.
B. Uji Signifikan Secara Parsial : Uji t
Uji parsial bertujuan untuk mengetahui apakah variabel-variabel independen di dalam
model yang terbentuk berpengaruh terhadap variabel dependen secara parsial. Dalam
regresi linear berganda,uji ini dilakukan karena setiap variabel independen memberi
pengaruh yang berbeda dalam model. Dengan menggunakan formula hipotesis yang akan
diuji :

untuk k = 1,2, …, p – 1
(Peubah penjelas Xk berhubungan linear positif dengan Y)
(Peubah penjelas Xk berhubungan linear negative dengan Y)
Hipotesis nol menunjukkan bahwa variable independen yang diuji tidak berpengaruh
secara signifikan terhadap variable dependennya. Hipotesis alternative menunjukkan
bahwa variable yang diuji berpengaruh secara signifikan. Statistik uji yang digunakan
adalah :
Model regresi

Statistik uji-nya :

Nilai merupakan koefisien dari variable . Adapun dapat diperoleh dari


diagonal ke – k dari dimana . Keputusan yang diambil dapat
diperoleh dari perbandingan nilai t-hitung dengan t-tabel atau bias juga dilakukan
dengan melhat nilai signifikannya.Kriteria pengambilan keputusannya dapat ditulis:
- maka tolak

- maka terima

Apabila menggunakan nilai signifikan :


- Jika nilai sig > tingkat kesalahan maka terima
- Jika nilai sig < tingkat kesalahan maka tolak
Sehingga dari uji ini dapat diketahui pengaruh tiap-tiap variable independen terhadap
variable dependennya. Perbedaan uji t regresi berganda dengan lebih dari satu variable
independen dengan regresi sederhana dengan hanya satu variable independen terletak
pada besarnya derajat degree of freedom (df) dimana regresi sederhana dfnya sebesar n-2
sedangan regresi berganda tergantung jumlah variable independennya ditambah dengan
konstanta.
a. Contoh Kasus

Data Luas Panen Pisang, Produktivitas Pisang, dan Produksi Pisang Menurut Provinsi di
Indonesia Tahun 2019

Luas Panen Pisang Produktivitas Pisang Produksi Pisang


No Nama Provinsi
(Ha) (x1) (Ton/Ha) (x2) (Ton) (y)
1 Aceh 1,031 57,33 59,081
2 Sumatera Utara 1,814 62,88 114,050
3 Sumatera Barat 1,524 76,34 116,379
4 Riau 737 58,96 43,436
5 Jambi 925 66,03 61,069
Sumatera
6 2,568 55,73 143,110
Selatan
7 Bengkulu 423 52,57 22,215
8 Lampung 11,629 104,01 1,209,545
Kepulauan
9 Bangka 81 44,68 3,641
Belitung
10 Kepulauan Riau 137 22,20 3,049
11 DKI Jakarta 29 84,27 2,432
12 Jawa Barat 20,455 59,65 1,220,174
13 Jawa Tengah 11,104 55,97 621,536
14 DI Yogyakarta 1,120 42,48 47,554
15 Jawa Timur 26,256 80,63 2,116,974
16 Banten 5,132 50,15 257,342
17 Bali 3,385 68,47 231,794
Nusa Tenggara
18 1,261 81,01 102,116
Barat
19 Nusa Tenggara 3,431 66,31 227,461
Timur
Kalimantan
20 943 49,84 46,979
Barat
Kalimantan
21 702 37,98 26,679
Tengah
Kalimantan
22 1,885 33,32 62,813
Selatan
Kalimantan
23 1,627 63,86 103,888
Timur
Kalimantan
24 759 35,71 27,095
Utara
25 Sulawesi Utara 820 56,50 46,353
Sulawesi
26 457 53,63 24,488
Tengah
Sulawesi
27 2,862 49,78 142,492
Selatan
Sulawesi
28 846 51,95 43,971
Tenggara
29 Gorontalo 211 36,57 7,701
30 Sulawesi Barat 793 84,00 66,574
31 Maluku 388 85,85 33,319
32 Maluku Utara 97 88,73 8,627
33 Papua Barat 222 142,91 31,676
34 Papua 147 34,37 5,045
Total 105,801 68,82 7,280,658

Sumber : Badan Pusat Statistik dan Direktorat Jendral Hortikultura (https://www.pertanian.go.id)


 Latar belakang data yang digunakan :

Data yang digunakan yaitu Luas Panen Pisang, Produktivitas Pisang, dan Produksi Pisang
Menurut Provinsi di Indonesia Tahun 2019. Dalam kasus ini terdapat 3 variabel yaitu variabel
dan y yang dimana variabel merupakan variabel yang menjelaskan variabel y.
Apabila diuraikan, Luas Panen Pisang dan Produktivitas Pisang yang menjelaskan atau
memengaruhi Produksi Pisang. Alasan variabel tersebut digunakan karena diduga bahwa
variabel memiliki pengaruh yang besar terhadap variabel y dibandingkan dengan
faktor-faktor yang lain, sehingga hal ini berarti bahwa antara variabel dan variabel y
memiliki keterkaitan yang erat. Jadi dalam penelitian ini, kelompok kami ingin mengetahui
apakah dugaan itu benar atau tidak. Apabila benar, seberapa besar pengaruhnya sehingga akan
diperoleh hubungan antara Luas Panen Pisang , Produktivitas Pisang , dan Produksi
Pisang (y) Menurut Provinsi di Indonesia Tahun 2019.

 Menghitung manual koefisien – koefisien regresi dengan rumus yang sudah ada sebagai
berikut :
X1*Y X2^2 X2*Y X1*X2 X1^2
59107.23 3490564561 3387113.73 60912511 1062961
114064.32 13007402500 7171464 206886700 3290596
116342.16 13544071641 8884372.86 177361596 2322576
43453.52 1886686096 2560986.56 32012332 543169
61077.75 3729422761 4032386.07 56488825 855625
143114.64 20480472100 7975520.3 367506480 6594624
22237.11 493506225 1167842.55 9396945 178929
1209532.29 1.463E+12 125804775.5 14065798805 135233641
3619.08 13256881 162679.88 294921 6561
3041.4 9296401 67687.8 417713 18769
2443.83 5914624 204944.64 70528 841
1220140.75 1.48882E+12 72783379.1 24958659170 418407025
621490.88 3.86307E+11 34787369.92 6901535744 123298816
47577.6 2261382916 2020093.92 53260480 1254400
2117021.28 4.48158E+12 170691613.6 55583269344 689377536
257369.8 66224904964 12905701.3 1320679144 26337424
231770.95 53728458436 15870935.18 784622690 11458225
102153.61 10427677456 8272417.16 128768276 1590121
227509.61 51738506521 15082938.91 780418691 11771761
46999.12 2207026441 2341433.36 44301197 889249
26661.96 711769041 1013268.42 18728658 492804
62808.2 3945472969 2092929.16 118402505 3553225
103900.22 10792716544 6634287.68 169025776 2647129
27103.89 734139025 967562.45 20565105 576081
46330 2148600609 2618944.5 38009460 672400
24508.91 599662144 1313291.44 11191016 208849
142470.36 20303970064 7093251.76 407812104 8191044
43949.7 1933448841 2284293.45 37199466 715716
7716.27 59305401 281625.57 1624911 44521
66612 4432097476 5592216 52793182 628849
33309.8 1110155761 2860436.15 12927772 150544
8606.81 74425129 765473.71 836819 9409
31726.02 1003368976 4526817.16 7032072 49284
5052.39 25452025 173396.65 741615 21609
7280823.46 8110832747802 534393450.4 106429552553 1452454313

(∑ )

∑ ∑ ∑ ∑
̂
∑ ∑ ∑
∑ ∑ ∑ ∑
̂
∑ ∑ ∑

̅̅̅

̅̅̅

Perhitungan ̂
̂ ̅ ̂ ̅̅̅ ̂ ̅̅̅

Jika ingin membentuknya dalam hubungannya dengan nilai individual Y.

Interpretasi Hasil:
• Nilai konstanta sebesar artinya apabila luas pisang (x1) dan produktivitas
pisang (x2) bernilai nol, maka produksi pisang akan bernilai sebesar ton.
• Koefisien dari luas pisang sebesar artinya apabila luas pisang bertambah
1Ha dengan produktivitas pisang tetap. Maka produksi pisang akan meningkat sebesar
ton.
• Koefisien dari produktivitas pisang sebesar artinya apabila produktivitas
pisang bertambah 1 ton/Ha dengan luas pisang tetap. Maka produksi pisang akan
meningkat sebesar ton.
Dengan Matriks sebagai berikut :

∑ ∑

∑ ∑ ∑

[∑ ∑ ∑ ]

[ ]

[∑ ]

[ ]

[ ]

∑ ∑ ∑

∑ ∑ ∑ ∑ ∑

[∑ ∑ ∑ ∑ ] [∑ ]

[ ] [ ]
[ ]

Jika ingin membentuknya dalam hubungannya dengan nilai individual Y.

Interpretasi Hasil dengan matriks :


• Nilai konstanta sebesar artinya apabila luas pisang (x1) dan produktivitas
pisang (x2) bernilai nol, maka produksi pisang akan bernilai sebesar ton.
• Koefisien dari luas pisang sebesar artinya apabila luas pisang bertambah
1Ha dengan produktivitas pisang tetap. Maka produksi pisang akan meningkat sebesar
ton.
• Koefisien dari produktivitas pisang sebesar artinya apabila produktivitas
pisang bertambah 1 ton/Ha dengan luas pisang tetap. Maka produksi pisang akan
meningkat sebesar ton.

 INTERPRETASI OUTPUT SPSS :

REGRESSION
/MISSING LISTWISE
/STATISTICS COEFF OUTS R ANOVA
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT y
/METHOD=ENTER x1 x2
/PARTIALPLOT ALL
/RESIDUALS HISTOGRAM(ZRESID) NORMPROB(ZRESID).
Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
1 Produktivitas . Enter
(x2), Luas
Panen (x1)b
a. Dependent Variable: Produksi (y)
b. All requested variables entered.

 Tabel diatas menjelaskan tentang variabel yang dimasukkan serta metode yang
digunakan. Dalam hal ini variabel yang dimasukkan adalah variabel Produktivitas Pisang
(Ton) (x2) dan Luas Panen Pisang (Ha) (x1) sebagai Independent dan Produksi Pisang
(Ton/Ha) (y) sebagai variabel Dependen dan metode yang digunakan adalah metode
Enter.

Model Summaryb
Adjusted R Std. Error of
Model R R Square Square the Estimate
1 .980a .961 .958 90897.16792
a. Predictors: (Constant), Produktivitas (x2), Luas Panen
(x1)
b. Dependent Variable: Produksi (y)

 Tabel diatas menjelaskan besarnya nilai korelasi/ hubungan (R) yaitu sebesar 0,980. Dari
output tersebut diperoleh koefisien determinasi (R Square) sebesar 0,961 yang
mengandung pengertian bahwa pengaruh variabel bebas (Luas Panen Pisang (x1) ) dan
Produktivitas Pisang (Ton) (x2) ) secara simultan terhadap variabel terikat (Produksi
Pisang (y) ) adalah sebesar 96,1% (karena korelasinya lebih dari 70%, maka
pengaruh(Luas Panen Pisang (x1) ) dan Produktivitas Pisang (Ton) (x2) ) terhadap
variabel terikat (Produksi Pisang (y) ) memiliki hubungan linear yang tinggi).
Perumusan Hipotesis :

 H1 = Terdapat pengaruh Luas Panen Pisang (X1) terhadap Produksi Pisang (Y)
 H2 = Terdapat pengaruh Produktivitas Pisang (X2) terhadap Produksi Pisang (Y)
 H3 = Terdapat pengaruh Luas Panen Pisang (X1) dan Produktivitas Pisang (X2) secara
simultan terhadap Produksi Pisang (Y)
 Tingkat Kepercayaan 95%, = 0,05

DASAR PENGAMBILAN KEPUTUSAN


a. Uji F
1. Jika nilai sig < 0,05 atau F hitung > F tabel maka terdapat pengaruh variabel X secara
simultan terhadap variabel Y
2. Jika nilai sig > 0,05 atau F hitung < F tabel maka tidak terdapat pengaruh variabel X
secara simultan terhadap variabel Y
F tabel = F ; n-k) = F (2 ; 32) = 3,29
b. Uji t
1. Jika nilai sig < 0,05 atau t hitung > t tabel maka terdapat pengaruh variabel X
terhadap variabel Y
2. Jika nilai sig > 0,05 atau t hitung < t tabel maka tidak terdapat pengaruh variabel X
terhadap variabel Y
t tabel = t ; n-k-1) = t (0,025 ; 31) = 2,040

ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 62956433364 2 31478216682 380.986 .000b
46.946 23.473
Residual 25613114920 31 8262295135.
9.052 776
Total 65517744856 33
55.999
a. Dependent Variable: Produksi (y)
b. Predictors: (Constant), Produktivitas (x2), Luas Panen (x1)
PENGUJIAN HIPOTESIS H3 DENGAN UJI F
A. Pengujian Hipotesis Ketiga (H3)
Berdasarkan output diatas diketahui nilai signifikansi untuk pengaruh X1 dan X2 secara
simultan terhadap Y adalah sebesar 0,000 < 0,05 dan nilai F hitung 380,986 > F tabel
3,29 , sehingga dapat disimpulkan bahwa H3 diterima yang berarti terdapat pengaruh X1
dan X2 secara simultan terhadap Y.

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta T Sig.
1 (Constant) -115579.447 44395.893 -2.603 .014
Luas Panen (x1) 73.469 2.752 .962 26.700 .000
Produktivitas 16.410 6.841 .086 2.399 .023
(x2)
a. Dependent Variable: Produksi (y)
b. Dependent Variable: Produksi (y)
PENGUJIAN HIPOTESIS H1 DAN H2 DENGAN UJI T

B. Pengujian Hipotesis Pertama (H1)


Diketahui nilai Sig untuk pengaruh X1 terhadap Y adalah sebesar 0,000 < 0,05 dan nilai t
hitung 26,700 > t tabel 2,040 , sehingga dapat disimpulkan bahwa H1 diterima yang
berarti terdapat pengaruh X1 terhadap Y.
C. Pengujian Hipotesis Kedua (H2)
Diketahui nilai Sig untuk pengaruh X2 terhadap Y adalah sebesar 0,023 < 0,05 dan nilai t
hitung 2,399 > t tabel 2,040 , sehingga dapat disimpulkan bahwa H2 diterima yang berarti
terdapat pengaruh X2 terhadap Y.

 DASAR PENGAMBILAN KEPUTUSAN UJI NORMALITAS PROBABILITY


PLOT
Menurut Imam Ghozali (2011:161) Model regresi dikatakan berdistribusi normal jika data
plotting (titik – titik) yang menggambarkan data sesungguhnya mengikuti garis diagonal.
ASUMSI-ASUMSI DALAM ANALISIS REGRESI LINEAR BERGANDA

Model regresi linier berganda (Multi-Linear Regression, MLR) adalah model yang
menggambarkan hubungan satu variabel tergantung (dependent variable) terhadap dua
atau lebih variabel penduga (predictor variables). Model regresi linear berganda
dipresentasikan dengan persamaan umum berikut (Vining, 1998; Walpole, dkk, 2007):

dimana adalah nilai titik potong model pada sumbu , yaitu nilai dari variabel yang
akan diprediksi ketika semua -nya nol. , dimana hingga , adalah variabel
penduga yang banyaknya dua atau lebih. Variabel penduga juga biasa juga disebut
variabel bebas (independent variable). adalah index yang menunjukkan jumlah variabel
bebas yang digunakan untuk mengestimasi nilai . Bila , maka MLR berubah
menjadi regresi linier sederhana. adalah jumlah perubahan , ketika nilai tertentu
bertambah satu, dan nilai dari variabel penduga lainnya dijaga konstan. adalah variabel
residu yang menyatakan selisih antara yang sebenarnya (real data) dengan nilai
taksirannya. Faktor residu menjelaskan pengaruh faktor-faktor lain yang tidak termasuk
dalam persamaan regresi. Dengan kata lain, jika dalam suatu model tidak termasuk suatu
faktor yang dapat menjelaskan persamaan tersebut, maka pengaruh faktor tersebut dapat
dijelaskan melalui faktor kesalahan.

Adapun asumsi – asumsi dalam analisis regresi linear berganda adalah sebagai berikut :

1. Asumsi Univariate

Asumsi univariat merupakan asumsi yang digunakan pada satu variabel atau per
variabel dengan tujuan untuk mengetahui dan mengidentifikasi karakteristik dari variabel
tersebut. Selain itu, kita juga bisa menggunakan asumsi univariat untuk tujuan
mengambil kesimpulan dengan menggunakan beragam analisis inferensial yang mungkin
digunakan.Asumsi Univariate merupakan teknik analisis paling dasar yang sering
digunakan dalam berbagai jenis penelitian. Karena yang dianalisis hanya satu variabel,
maka hasil dari analisis univariat tidak bisa dan tidak boleh disimpulkan dengan variabel
lain. Asumsi Univariate ini memang kerap disamakan dengan analisis deskriptif karena
hanya memberikan gambaran terhadap satu variabel saja tanpa adanya intervensi dari
variabel lain. Namun, asumsi ini juga bisa digunakan untuk tujuan inferensial atau
mengambil kesimpulan dari satu kelompok variabel.

Secara umum, tujuan dari asumsi univariat:

1. Mengetahui karakteristik data. Berbicara karakteristik, kita bisa melihat apakah


data yang kita gunakan sekilas berdistribusi normal, menceng kiri, menceng kanan,
terdapat outlier, dll.
2. Mengetahui ukuran pemusatan, ukuran penyebaran, dan statistik deskriptif lain dari
sebuah data data. Ukuran pemusatan, penyaberan, dll merupakan identifikasi awal
untuk melakukan analisis lebih lanjut seperti analisis varianas, regresi, dll.
3. Menghasilkan distribusi frekuensi dari suatu data. Dengan mengelompokkan data
berdasarkan distribusinya, anda akan mendapatkan berbagai informasi menarik
seperti berapa jumlah anak yang memiliki tinggi badan lebih dari 160 cm, kurang
dari 170cm, dll.
4. Melakukan pengambilan kesimpulan
Meskipun hanya menggunakan satu variabel, anda tetap bisa melakukan analisis
inferensial.

Yang perlu dipahami dalam asumsi univariat adalah sebagai berikut :

1. Pahami jenis data terlebih dahulu


Ada banyak sekali jenis data dan skala pengukurannya. Hal ini akan
memengaruhi arah dari penggunaan asumsi univariate itu sendiri. Ada baiknya,
jenis data ini diidentifikasi terlebih dahulu untuk memudahkan proses analisis
nantinya.
2. Pada umumnya, asumsi univariat cukup terbatas
Dalam praktiknya, penggunanaan analisis statistika inferensial untuk kasus satu
variabel tergolong terbatas.

Dalam asumsi univariate, kita menggunakan uji normalitas. Uji asumsi klasik ini
bertujuan untuk mengetahui apakah dalam model regresi, variabel dependen &
independen keduanya memiliki distribusi normal atau mendekati normal (Ghozali, 2005:
110). Pada prinsipnya normalitas data dapat diketahui dengan melihat penyebaran data
(titik) pada sumbu diagonal pada grafik atau histogram dari residualnya. Data normal &
tidak normal dapat diuraikan sebagai berikut (Ghozali 2005):

1. Jika data disekitar garis diagonal dan mengikuti arah garis diagonal atau grafik
histogramnya, menunjukkan pola terdistribusi normal, maka model regresi
memenuhi asumsi normalitas.
2. Jika data menyebar jauh dari garis diagonal dan tidak mengikuti arah garis
diagonal atau grafik histogramnya, tidak menunjukkan pola terdistribusi normal,
maka model regresi tidak memenuhi asumsi normalitas.

Menurut Imam Ghozali (2005), uji normalitas dengan grafik dapat menyesatkan apabila
tidak hati- hati secara visual kelihatan normal, namun secara statistik bisa sebaliknya.
Oleh sebab itu, dianjurkan menggunakan uji grafik dilengkapi dengan uji statistik. Uji
statistik yang digunakan dalam penelitian ini untuk menguji normalitas residual adalah
uji statistik non-parametrik Komolgorov-Smirov (K-S). Uji K-S dilakukan dengan
membuat hipotesis

: Data residual berdistribusi normal apabila nilai signifikan < 5% (0.05)


: Data residual tidak berdistribusi normal apabila nilai signifikan >5 % (0.05)

2. Asumsi Bivariate
Asumsi bivariat merupakan asumsi yang dilakukan untuk mengetahui hubungan
antara 2 variabel. Dalam asumsi ini, dua pengukuran dilakukan untuk masing-masing
observasi. Dalam asumsi bivariat, sampel yang digunakan bisa saja berpasangan atau
masing-masing independen dengan perlakuan tersendiri. Secara umum, dalam uji asumsi
bivariat, variabel yang digunakan bisa saja berhubungan atau berdiri sendiri
(independen). Saling berhubungan artinya sampel yang sama diberikan 2 pengukuran
berbeda. Sedangkan, independen maksudnya adalah pengukuran dilakukan pada kedua
kelompok sampel yang berbeda.

Dalam Asumsi Bivariate, kita menggunakan uji Auto Korelasi. Uji autokorelasi
bertujuan menguji apakah dalam suatu model regresi linier ada korelasi antara kesalahan
penggunaan pada periode dengan kesalahan pada periode (sebelumnya). Jika
terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena
observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya (Ghozali, 2005).
Untuk menguji keberadaan autokorelasi dalam penelitian ini digunakain uji run test. Run
test sebagai bagian dari statistic non-parametrik dapat pula digunakan untuk menguji
apakah antar residual terdapat korelasi, dikatakan bahwa residual adalah acak atau
random. Run test digunakan untuk melihat apakah data residual terjadi secara random
atau tidak (sistematis).

H0 : Tidak terdapat autokorelasi, jika p-value > alpha


H1 : Terdapat autokorelasi, jika p-value < alpha.

3. Asumsi Multivariate
3.1. Uji linearitas
Uji Linieritas adalah suatu prosedur yang digunakan untuk mengetahui status linier
tidaknya suatu distribusi data penelitian. Uji linieritas dilakukan untuk membuktikan
bahasa masing-masing variabel bebas mempunyai hubungan yang linier dengan variabel
terikat. Hasil yang diperoleh melalui uji linieritas akan menentukan teknik-teknik analisis
data yang dipilih, dapat digunakan atau tidak. Apabila dari hasil uji linieritas didapatkan
kesimpulan bahasa distribusi data penelitian dikategorikan linier maka penelitian dapat
digunakan dengan metode-metode yang ditentukan. Demikian juga sebaliknya apabila
ternyata tidak linier maka distribusi data harus dianalisis dengan metode lain.
Langkah yang harus dilakukan untuk melakukan uji linieritas adalah membuat
pengelompokan skor predictor yang nilainya sama menjadi satu kelompok data dengan
tetap memperhatikan pasangan data pada masing-masing kriteria. Adapun dasar
pengambilan keputusan linieritas melalui SPSS dan perhitungan yaitu dengan melihat
nilai signifikansi (Sig.) dan F-hitung pada hasil uji linieritas:
Dengan dasar pengambilan keputusan sebagai berikut :
1. Jika angka signifikansi penelitian < 0.05 ,maka memenuhi uji linieritas
2. Jika signifikansi > 0.05, maka tidak memenuhi uji linieritas

3.2. Uji Heteroskedasitas

Uji heteroskedastisitas adalah uji yang dilakukan apabila kesalahan atau residual yang
diamati tidak memilki varian yang konstan. Residual adalah faktor-faktor lain yang
terlibat akan tetapi tidak memuat dalam model. Karena residual ini merupakan variabel
yang tidak diketahui, maka diasumsikan bahwa nilai residual bersifat acak.
Pada analisis regresi, heteroskedastisitas berarti situasi dimana keragaman variabel
independen bervariasi pada data yang kita miliki. Salah satu asumsi kunci pada metode
regresi biasa adalah bahwa error memiliki keragaman yang sama pada tiap-tiap
sampelnya. Asumsi inilah yang disebut homoskedastisitas. Jika keragaman residual/error
tidak bersifat konstan, data dapat dikatakan bersifat heteroskedastisitas. Karena pada
metode regresi ordinary least-squares (OLS) mengasumsikan keragaman error yang
konstan, heteroskedastisitas menyebabkan estimasi OLS menjadi tidak efisien. Model
yang memperhitungkan perubahan keragaman dapat membuat penggunaan dan estimasi
data menjadi lebih efisien.

Beberapa asumsi dalam model regresi yang terkait dengan heteroskedastisitas antara
lain adalah residual memiliki nilai rata-rata nol, keragaman yang konstan, dan residual
pada model tidak saling berhubungan, sehingga estimator bersifat BLUE. Jika asumsi ini
dilanggar maka prediksi model yang dibuat tidak dapat diandalkan.

Faktor penyebab heteroskedastisitas adalah sebagai berikut.

1. Error Learning Model


Sebagaimana adanya proses perbaikan yang dilakukan unit-unit ekonomi, maka
perilaku kesalahan menjadi lebih kecil dengan bertambahnya waktu. Dalam hal
ini menurun.
2. Perbaikan Dalam Pengumpulan Data
Dengan meningkatnya mutu tekhnik pengumpulan data, maka diharapkan
menurun. Jadi sebuah bank yang mempunyai peralatan pemrosesan data yang
canggih cenderung melakukan kesalahan yang lebih sedikit pada laporan bulanan
atau kuartalan dibandingkan bank tanpa fasilitas tersebut.
3. Kesalahan Spesifikasi Model
Salah satu asumsi dalam analisis regresi adalah model dispesifikasi secara benar.
Jika satu variabel yang semestinya harus dimasukkan, tetapi karena suatu hal
variabel tersebut tidak dimasukkan, hal itu akan menyebabkan residual dan
regresi akan memberikan hasil yang berbeda dengan benar dan varian dari
kesalahan tidak konstan.
Uji heteroskedastisitas bertujuan menguji apakah dalam model regresi terjadi
ketidaksamaan variance dari residual satu pengamatan ke pengamatan yang lain. Untuk
mengetahui ada-tidaknya korelasi antar variabel prediktor digunakan VIF dengan rumus

Jika nilai VIF adalah 1, hal ini mengindikasikan tidak ada korelasi yang signifikan antar
variabel panduga. Sebaliknya mengindikasikan bahwa ada korelasi antar
variabel penduga. Nilai – berarti salah satu variabel prediktor kolinear
dengan variabel bebas lain secara moderat. Bila nilai hubungan kolinear yang
terjadi bersifat kuat.
Dampak yang akan ditimbulkan adalah asumsi yang terjadi masih tetap tidak terbias,
tetapi tidak lagi efisien. Prasyarat yang haru terpenuhi dalam model regresi adalah tidak
adanya gejala heteroskedastisitas.
Selain uji menggunakan VIF, uji heteroskedastisitas juga dapat dilakukan dengan
metode Glejser dan P-Plot. Uji Heteroskedastisitas dengam metode Glejser dan P-Plot,
ini dilakukan untuk mengindentifikasi apakah error term yang muncul pada setiap
pengukuran dari variabel independen terhadap variabel dependen yang bersifat
konstanta. apabila tidak adanya kesamaan deviasi standar nilai variabel dependen pada
setiap variabel independen dan tidak terjadinya heteroskredastisitas dapat dilihat dengan
pola titik yang dihasilkan pada metode P-Plot. Pada metode Glejse, uji
heteroskedastisitas ini ditunjukan dengan nilai signifikan lebih besar dari 0,05 sehingga
data tersebut dapat dikatakan tidak terjadi heteroskedastisitas dan jika terjadi
heteroskedastisitas maka nilai signifikan yang didapat lebih kecil dari 0,05.

3.3. Uji Multikolinearitas

Multikolinearitas adalah suatu kondisi dimana terjadi korelasi antara variabel bebas
atau antar variabel bebas tidak bersifat saling bebas. Besaran (quality) yang dapat
digunakan untuk mendeteksi adanya multikolinearitas adalah faktor inflasi ragam
(Variance Inflation Factor / VIF). VIF digunakan sebagai kriteria untuk mendeteksi
multikolinearitas pada regresi linier yang melibatkan lebih dari dua variabel bebas. Nilai
VIF lebih besar dari 10 mengidentifikasi adanya masalah multikolinearitas yang serius
(Ryan, 1997). VIF untuk koefisien regresi-j diidentifikasikan sebagai berikut:
Dengan : adalah koefisien determinasi antara dengan variable bebas lainnya
pada persamaan / model dugaan ; dimana .
A. Contoh Kasus

Data yang digunakan pada penelitian ini diambil dari Data Badan Pusat Statistik
Kabupaten Semarang Tahun 2019 yang saat itu diambil pada tanggal 19 April pada pukul
18:03 WITA.

Variabel bebas (Independen) merupakan variabel yang mempengaruhi atau yang


menjadi sebab perubahannya atau timbulnya variabel dependen (terikat). Variabel bebas
dalam penelitian ini adalah: Variabel luas penggunaan lahan sebagai variabel .

Variabel tinggi tempat sebagai variabel . Variabel terikat (Dependen) merupakan


variabel yang dipengaruhi atau menjadi akibat, karena adanya variabel bebas. Variabel
terikat sering disimbolkan dengan Y. Sebagai variabel terikat dalam penelitian ini adalah
produksi padi.

Luas Lahan Tinggi Tempat Produksi Padi


No Kecamatan (Ha) (M) (Ton)
1 Getasan 64 1450 23,37
2 Tengaran 866,6 729 8046
3 Susukan 1941,7 497 28373
4 Kaliwungu 1108,8 497 15968
5 Suruh 2933,8 660 36701
6 Pabelan 2312,6 584 26288
7 Tuntang 1460,4 480 15103
8 Banyubiru 1225 478 13562
9 Jambu 461 572 4261
10 Sumowono 729,7 900 3127
11 Ambarawa 915,7 514 8302
12 Bandungan 1556 750 7264
13 Bawen 1099,5 650 10780
14 Bringin 2041,7 357 23700
15 Bancak 1186,8 357 9461
16 Pringapus 1255 400 12420
17 Bergas 995,7 400 8130
18 Ungaran barat 912,54 318 8943
19 Ungaran timur 678,76 318 7332

Adapun asumsi – asumsi dalam analisis regresi linear berganda adalah sebagai berikut :

1. Asumsi Univariate

a. Uji Normalitas
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik
atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji
normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa
pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.

 Uji Normalitas dengan P Plot [Probability Plot]

Intepretasi Output :
Berdasarkan output di atas, kita dapat melihat bahwa titik – titik potong yang terdapat
pada gambar “Normal P- P Plot of Regression Standardized Residual” selalu mengikuti dan
mendekati garis diagonalnya. Oleh karena itu, sebagaimana dasar atau pedoman pengambilan
keputusan dalam uji normalitas teknik probability plot dapat disimpulkan bahwa nilai
residual berdistribusi normal. Dengan demikian maka asumsi normalitas untuk nilai residual
dalam analisis regresi berganda dalam penelitian ini dapat terpenuhi.

Informasi Tambahan :

Jika terjadi perselisihan dalam melihat titik titik dari hasil output Normal P-P Plot tersebut,
apakah nilai residual bersifat normal atau tidak. Maka kita dapat membuktikan kenormalan
residual menggunakan metode atau teknik lain. Salah satu teknik yang paling sering dipakai
untuk mendeteksi asumsi normalitas dalam model regresi adalah dengan Uji Normalitas
Kolmogorov Smirnov dengan SPSS.

 Uji Normalitas dengan Kolmogorv-Smirnov Test

One-Sample Kolmogorov-Smirnov Test


Unstandardized Residual
N 19
Normal Mean .0000000
Parametersa,b Std. Deviation 3281.67891299
Most Extreme Absolute .190
Differences Positive .125
Negative -.190
Test Statistic .190
Asymp. Sig. (2-tailed) .069
a. Test distribution is Normal.
b. Calculated from data.
Intepretasi Output :
Menetapkan hipotesis
 Ho : data berdistribusi normal.
 H1 : data berdistribusi tidak normal.
Dasar Pengambilan Keputusan Uji Normalitas
- Jika nilai sig (signifikansi) > 0,05 maka terima Ho –> data berdistribusi normal.
- Jika nilai sig (signifikansi) < 0,05 maka tolak Ho –> data berdistribusi tidak normal.
Berdasarkan uji normalitas dengan Kolmogorov-Smirnov Test diperoleh nilai Asymp.sig.
sebesar 0,069 lebih besar dari 0,05. Karena nilai sig lebih besar dari 0,05, maka keputusannya
adalah menerima Ho yang berarti bahwa data berdistribusi normal. Berarti asumsi normalitas
data terpenuhi.

2. Asumsi Bivariate
a. Uji Autokorelasi
Uji Autokorelasi adalah uji untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Model regresi yang baik adalah regresi yang bebas dari
gejala autokorelasi. Ada beberapa cara atau teknik yang dapat digunakan untuk mendeteksi
ada atau tidaknya gejala auto korelsi seperti Uji Durbin-Watson, Uji Runs Tes, Uji Breusch-
Godfrey (BG), Lagrange Multiplier (LM).
 Uji Autokorelasi dengan Durbin-Watson (SPSS)
Model Summaryb
Adjusted R Std. Error of
Model R R Square Square the Estimate Durbin-Watson
a
1 .938 .880 .865 3480.74612 1.463
a. Predictors: (Constant), Tinggi Tempat (M), Luas Lahan (Ha)
b. Dependent Variable: Produksi Padi (M)

Intepretasi Output:
Berdasarkan tabel output di atas, diperoleh nilai Durbin-Watson (d) sebesar 1,463. Nilai
Durbin-Watson tersebut selanjutnya akan digunakan untuk membandingkan dengan nilai dL
dan dU pada Tabel Durbin-Watson, dimana n = 19 dan k = 2, dan alpha = 5%. Sehingga jika
di lihat dalam table Durbin-Watson nilai dL = 1,08, dU = 1,53 dan 4 – dU = 4 – 1, 53 = 2, 47,
4 – dL = 4 – 1,08 = 2,92. Langkah selanjutnya adalah membandingkan dengan tabel DW.
Berikut beberapa keputusan setelah membandingkan DW.
 Bila d < dL ,tolak H0; Berarti ada korelasi yang positif 1
 Bila dL < d < dU, kita tidak diketahui
 Bila dU < d < 4 – dU, jangan tolak H0; Artinya tidak ada korelasi positif maupun
negatif
 Bila 4 – dU < d < 4 – dL kita tidak dapat mengambil kesimpulan apa-apa
 Bila d > 4 – dL, tolak H0; Berarti ada korelasi negatif
Sehingga jika dilihat dari output diatas, nilai d terletak di antara dL < d < dU (1,08 < 1,46 <
1,53) sehingga menurut keputusan dapat dikatakan tidak diketahui. Jadi, ini merupakan
kelemahan dari Uji Durbin-Watson karena ketika berada antara nilai dL dan dU atau antara
Metode regresi yang baik di tandai tengan tidak terjadi interkolasi antar variable
independent (tidak terjadi gejala multikorelearitas).

Dasar Pengambilan Uji Multikorelearitas

- Melihat nilai Tolerance : Jika nilai tolerance lebih besar dari > 0,10 maka artinya
tidak terjadi Multikorelearitas.
- Melihat nilai VIF : Jika nilai VIF lebih kecil dari < 10,00 maka artinya tidak terjadi
Multikotenearitas

Intepretasi Output :

Coefficientsa

Unstandardized Standardized Collinearity


Coefficients Coefficients Statistics
Model t Sig.
B Std. Error Beta Tolerance VIF

(Constant) -2716.224 2907.348 -.934 .364

Luas Lahan (Ha) 12.971 1.268 .931 10.233 .000 .907 1.103
1
Tinggi Tempat
-.790 3.255 -.022 -.243 .811 .907 1.103
(M)

a. Dependent Variable: Produksi Padi (M)


Menentukan Hipotesis

H0: Tidak terjadi multikolinearitas antara variabel independen.

H1: Terjadi multikolinearitas antara variabel independen.

Berdasarkan output diatas diperoleh nilai VIF (Variance Inflation Factor) untuk variabel Luas
Lahan ( ) adalah 1,103 sedangkan untuk variabel tinggi tempat ( ) juga 1,103 yang mana
kedua variabel tersebut memiliki nilai kurang dari 10. Kemudian untuk nilai Tolerance, untuk
variabel Luas Lahan ( ) adalah 0,907 sedangkan untuk variabel tinggi tempat( ) adalah
0,907 yang mana kedua variabel tersebut memiliki nilai lebih dari 0,1 maka dapat
disimpulkan bahwa H0 diterima yang artinya tidak terjadi proses multikolinearitas diantara
variabel-variabel Independen.
 Uji Multikorelinearitas dengan VIF (SPSS)

Tolerance =

Varian Infloating factor (VIF) =

r2 = kuadrat nilai korelasi antar variabel bebas

Dari perhitungan untuk koefisien korelasi antar variabel bebas x1 dan x2 didapat :

r = 0,306

r2 = 0,093

maka kita bisa mendapatkan :

Tolerance =

= 0,907

Dan

VIF =

= 1,103

Maka, pada perhitungan manual mengasilkan nilai yang sama dengan perhitungan
menggunakan SPSS dengan VIF < 10,00 yaitu bernilai 1,103 dan pada tolerance > 0,10
yaitu 0,907 yang berarti tidak terjadi multikolinearitas.
DAFTAR PUSTAKA

Farizal, Rachman, A., & Rasyid, H. A. (2014). MODEL PERAMALAN KONSUMSI


BAHAN BAKAR JENIS PREMIUM DI INDONESIA DENGAN REGRESI LINIER
BERGANDA. Jurnal Ilmiah Teknik Industri, 13(166-176), 2.

Harian, J. (2018). Analisis Regresi Linear. Jakarta: Gunadarma.

Kabupaten Semarang Dalam Angka 2019. (2019). Semarang: BPS Kabupaten Semarang.

Primadasa, D., & Muharam, H. (2015). ANALISIS FAKTOR-FAKTOR YANG


MEMPENGARUHI DIVIDEND PAYOUT RATIO PADA PERUSAHAAN
MANUFAKTUR YANG LISTED DI BEI TAHUN 2008 – 2012. DIPONEGORO
JOURNAL OF MANAGEMENT, 4(1-15), 2.

Sriningsih, M., Hatidja, D., & Prang, J. D. (2018). PENANGANAN


MULTIKOLINEARITAS DENGAN MENGGUNAKAN ANALISIS REGRESI
KOMPONEN UTAMA PADA KASUS IMPOR BERAS DI PROVINSI SULUT.
Jurnal Ilmiah Sains, 18.

Widarjono, A. (2015). Statistika Terapan Dengan Excel dan SPSS. Yogyakarta: UPP STIM
YKPN.
MULTIKOLINIERITAS DAN PENCILAN
Multikolinearitas

Analisis regresi linear berganda merupakan salah satu metode statistika yang digunakan
untuk mengetahui pengaruh dari sebuah variabel tidak bebas dengan dua atau lebih variabel
bebas dan juga dapat meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah
diketahui nilainya. Pada analisis regresi linear berganda dengan banyak variabel bebas, sering
ditemukan beberapa masalah karena adanya hubungan antara dua atau lebih variabel bebas.
Salah satu masalah yang terjadi pada analisis regresi linear berganda adalah multikolinearitas.
Multikolinearitas ditemukan pertama kali oleh Ragnar Frisch yang berarti adanya hubungan
linear diantara beberapa atau semu variabel bebas dari model regresi linear berganda. Logikanya,
jika ingin mencari pengaruh A, B, dan C terhadap D, maka seharusnya tidak ada hubungan linear
baik antara A dan B, A dan C, ataupun B dan C.

Menurut Neter dalam (Riyantini, 2014)) multikolinearitas dapat memberi dampak untuk
model regresi, yaitu :

1. Multikolinearitas antara peubah-peubah bebas dalam model regresi linier mengakibatkan


variansi penduga kuadrat terkecil menjadi besar sehingga menghasilkan galat baku yang
lebih besar. Hal ini mengakibatkan selang kepercayaan untuk parameter model regresi
menjadi lebih besar.
2. Satu atau lebih peubah bebas menjelaskan peubah respon benar-benar sama dengan yang
dijelaskan oleh peubah bebas lain.
3. Pengujian hipotesis parameter berdasarkan metode kuadrat terkecil memberikan hasil
yang tidak valid.

Menurut Shantika (2010), Adanya multikolinearitas dapat mengakibatkan penduga


kuadrat terkecil menjadi tidak efisien dan kesimpulan antara uji statistik F dan uji statistik T
dalam pengujian hipotesis tentang parameter regresi memiliki kesimpulan yang berbeda. Selain
itu, adanya multikolinearitas dalam analisis regresi linear berganda ini juga dapat menyebabkan
standar deviasi dari penduga nilainya akan meningkat sehingga nilai penduga parameter yang
dihasilkan dari analisis regresi akan tidak tepat.
Ada beberapa cara untuk mengetahui keberadaan multikolinearitas dalam suatu model
regresi, yaitu :

1. Menganalisis matriks korelasi. Jika antara dua atau lebih variabel independent
memiliki korelasi yang cukup tinggi, biasanya di atas 0,9 maka hal tersebut
mengindikasikan terjadinya multikolinearitas.
2. VIF (Variance Inflantion Factor) adalah salah satu cara dalam mendeteksi adanya
multikolinearitas.

Dengan : adalah koefisien determinasi antara dengan variabel bebas lainnya


pada persamaan atau model dugaan; dimana .
Multikolinearitas dalam sebuah regresi dapat diketahui apabila nilai .
Semakin tinggi nilai VIF maka permasalahan multikolinearitasnya semakin serius.
3. Dengan nilai Tolerance. Jika nilai Tolerance kurang dari 0,1 atau nilai VIF melebihi
10 maka hal tersebut menunjukkan bahwa multikolinearitas adalah masalah yang
pasti terjadi antar variabel bebas.

(E. Supriyadi et al, 2017)

Menurut Montgomery, Peck, dan Vining (dalam I Nurdin et al, 2018:60) masalah
multikolinearitas dapat dihilangkan dengan menggunakan beberapa cara, sebagai berikut :

1. Menambahkan data yang baru


Penambahan sample baru dapat digunakan untuk mengatasi multikolinearitas. Oleh
karena adanya kolinearitas merupakan gambar sampel, ada kemungkinan bahwa
untuk sampel lainnya yang mencakup variabel-variabel yang sama, persoalan
multikolinearitas mungkin tidak seserius seperti sampel sebelumnya.
2. Menghilangkan satu atau beberapa variabel bebas
Pada permasalahan yang serius, salah satu hal yang mudah untuk dilakukan yaitu
mengeluarkan salah satu variabel yang berkorelasi tinggi dengan variabel lainnya.
3. Estimasi regresi ridge
Estimasi ridge untuk koefisien regresi dapat diperoleh dengan menyelesaikan suatu
bentuk dari persamaan normal regresi. Asumsikan bahwa bentuk standar dari model
regresi linear ganda adalah

Parameter penting yang membedakan regresi ridge dari metode kuadrat terkecil
adalah . Tetapan bias yang relatif kecil ditambahkan pada diagonal utama matriks
, sehingga koefisien estimator regresi ridge dipenuhi dengan besarnya tetapan bias
.

Pencilan

Menurut Montgomery and Peck (dalam Candraningtyas et al, 2013:398), pencilan


adalah suatu pengamatan yang ekstrim. Residual yang nilai mutlaknya jauh lebih besar daripada
yang lain dan bisa jadi terletak tiga atau empat simpangan baku dari rata-ratanya adalah yang
menyebabkan data sebagai pencilan. Pencilan adalah titik-titik data yang tidak setipe dengan titik
data yang lainnya.

Pencilan adalah pengamatan yang jauh dari pusat data yang mungkin berpengaruh
besar terhadap koefesien regresi. Pencilan dapat muncul karena kesalahan dalam memasukkan
data, kesalahan pengukuran, analisis, atau kesalahan-kesalahan lain. Pengaruh pencilan dalam
analisis data dapat dibedakan berdasarkan asal pencilan tersebut yaitu yang berasal dari peubah
respon atau berasal dari peubah bebasnya (N Nurdin et al, 2014:115). Dalam kaitannya dengan
analisis regresi, pencilan dapat menyebabkan hal-hal berikut (Soemartini, 2007: 7):

1. Residual yang besar dari model yang terbentuk ( )


2. Varians pada data tersebut menjadi lebih besar
3. Taksiran interval memiliki rentang yang lebar.

Pencilan ditemukan dengan memeriksa apakah terdapat data yang berada pada
batasan-batasan angka yang disebut pagar dalam dan pagar luar. Pagar dalam pada data dapat
ditentukan dengan cara dan . Sedangkan pagar luar dapat ditentukan
dengan cara dan . Di mana adalah kuartil bawah, adalah
jarak interkuartil, dan adalah kuartil atas. Data yang berada di luar pagar dalam dari
kumpulan data disebut sebagai pencilan minor, dan data yang berada di luar pagar luar disebut
sebagai pencilan mayor.

Berbagai kaidah telah diajukan untuk menolak pencilan dengan memutuskan untuk
menghilangkan data yang terdapat pencilan, setelah itu data dianalisis ulang tanpa pencilan.
Akan tetapi penolakan pencilan yang begitu saja bukanlah hal yang tepat. Ada saatnya pencilan
dapat memberikan informasi yang tidak bisa diberikan oleh titik data lainnya, misalnya karena
pencilan timbul dari kombiinasi keadaan yang tidak biasa yang mungkin saja sangat penting dan
perlu diselidiki lebih jauh.

Berdasarkan Montgomery and Peck (dalam Candraningtyas et al, 2013:398), sebagai


kaidah umum, pencilan baru ditolak jika setelah ditelusuri ternyata merupakan akibat dari
kesalahan-kesalahan seperti memasukkan ukuran atau analisis yang salah, ketidaktepatan
pencatatan data, dan terjadi kerusakan alat pengukuran. Bila ternyata bukan akibat dari
kesalahan-kesalahan semacam itu, penyelidikan yang seksama harus dilakukan. Menghapus data
tersebut untuk “memperbaiki persamaan yang cocok” dapat berbahaya, tindakan tersebut dapat
menimbulkan kesalahan ketelitian dalam mengestimasi atau memprediksi.

Untuk mengindentifikasi pencilan dapat dideteksi dengan menggunakan metode


sebagai berikut (dalam Muliyani & Noeryanti, 2017:129):

a. Metode Scatter Plot


Metode ini didapatkan dari model regresi yang dapat dilakukan dengan cara memplot
antara sisaan ( ) dengan nilai prediksi Y ( ) . Jika terdapat satu atau beberapa data yang
terletak jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya
pencilan
b. Nilai Leverasi
Nilai leverasi ( ) dari pengamatan ( ) menunjukan besarnya peranan terhadap ̂
dan didefinisikan sebagai :
( )
Dengan , - adalah vektor baris yang berisi nilai nilai dari peubah
variabel bebas dalam pengamatan ke . Nilai berada di antara 0 dan 1 dengan
∑ dimana . Sehingga dapat dituliskan menjadi
∑ ( )
̅

Suatu pengamatan ke data diidentifikasikan sebagai pencilan apabila nilai ̅ ,


dengan adalah banyaknya parameter, adalah banyaknya peubah bebas dan adalah
jumlah data.
c. Sisaan Dibuang Terstudentkan
Pengaruh pencilan amatan berdasarkan pada pemerikasaan sisaan dibuang
terstudentkan yang dirumuskan sebagai berikut:

[ ]
( )

Amatan dengan | | ( ) dapat dianggap sebagai pencilan.


d. Mengkonversi Nilai Data ke dalam Skor Standardized (Z score)
Menurut Hair (dalam I Ghozali, 2006) untuk kasus sampel kecil (kurang dari 80), maka
standar skor dengan nilai ±2.5 dinyatakan pencilan. Untuk sampel besar standar skor
dinyatakan pencilan jika nilainya pada kisaran 3 sampai 4.

Untuk mengidentifikasi amatan berpengaruh atau tidak, dapat menggunakan beberapa


metode salah satunya metode yang dapat digunakan yaitu ditentukan berdasarkan metode
(Difference Fited Value FITS). merupakan metode yang menampilkan nilai
perubahan dalam harga yang diprediksi bilamana kasus tertentu dikeluarkan dan yang sudah
distandarkan. dapat dihitung dengan menggunakan persamaan berikut ini:

( ) ( )

Apabila nilai | | √ , mengindikasikan bahwa kasus ke- yang tidak disertakan


merupakan amatan berpengaruh (dalam Muliyani & Noeryanti, 2017:129). Selain itu juga, bisa
menggunakan metode Cook’s Distance. Cook’s Distance adalah salah satu metode pendeteksian
pencilan dengan cara menampilkan nilai jarak cook atau dengan kata lain menunjukkan besarnya
pengaruh adanya data pencilan terhadap semua estimator koefisien regresi.
STUDI KASUS

MULTIKOLINEARITAS

Data diambil dari jurnal dengan judul “ANALISIS REGRESI DAN KORELASI
ANTARA PENGUNJUNG DAN PEMBELITERHADAP NOMINAL PEMBELIAN DI
INDOMARET KEDUNGMUNDUSEMARANG DENGAN METODE KUADRAT
TERKECIL”.
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (dlm jutaan) (Y)
1 41 27 0.62105
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Dengan data diatas dapat kita cari apakah data tersebut terdapat multikolinearitas. Disini kami
mengunakan dua pengerjaan, yaitu menggunakan Software SPSS dan cara manual. Berikut
penjelasannya:

Perhitungan Manual
Rumus VIF adalah :

Sebelumnya kita cari nilai R nya terlebih dahulu.


* ∑ (∑ )(∑ )+
√,( )(∑ ) (∑ ) -,( )(∑ )(∑ )
* ( ) ( )( )+
√,( )( ) -,( )( )
, -
√( )( )

R= sehingga
Sehingga diperoleh :
1. nilai Tolerance untuk variabel Pengunjung (X1) dan Pembeli (X2) adalah 0,349 lebih
besar dari 0,10.
2. nilai VIF untuk variabel Pengunjung (X1) dan Pembeli (X2) adalah 2,862 lebih kecil dari
10,00.

Oleh karena itu, didapat kesimpulan :


 Karena nilai VIF = 2,862 lebih kecil dari 10 dan nilai Tolerance = 0,349 lebih besar dari
0,10 maka dapat disimpulkan bahwaa tidak terdapat gejala multikolinearitas yang terjadi
pada model regresi ini.

Dengan SPSS

Catatan : jumlah data=30


OUTPUT DARI SPSS

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) ,459 ,262 1,751 ,091
Pengunjung_X1 ,006 ,010 ,198 ,617 ,543 ,349 2,862
Pembeli_X2 -,003 ,016 -,069 -,213 ,833 ,349 2,862
a. Dependent Variable: NominalPembelianDlmJutaan_Y

INTERPRETASI

Dalam tabel coefficient dapat anda perhatikan bahwa nilai standar error kurang dari satu, yaitu X1 = 0,010 dan X2
= 0,016 dimana keduanya kurang dari satu. Serta nilai koefisien beta juga kurang dari satu dimana X1 = 0,006 dan
X2 = 0,003. Maka dapat disimpulkan bahwa nilai standar error rendah dan multikolinearitas tidak terdeteksi.

Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) ,459 ,262 1,751 ,091
Pengunjung_X1 ,006 ,010 ,198 ,617 ,543 ,349 2,862
Pembeli_X2 -,003 ,016 -,069 -,213 ,833 ,349 2,862
a. Dependent Variable: NominalPembelianDlmJutaan_Y
Kasus Multikolinearitas Menggunakan Lebih Dari 2 Variabel.

Data diperoleh dari suatu penelitian yang dilakukan untuk menentukan hubungan antara
penjualan suatu produk (Y) dalam ribuan dolar dengan potensi wilayah (X1, dikodekan) biaya
promosi (X2) dalam puluhan dolar, banyaknya merek saingan (X3) dan banyaknya active
accounts (X4) dari 13 wilayah penjualan (Draper and Smith, 1992).

Data yang diperoleh :


X1 X2 X3 X4 Y

7 26 6 60 78,5

1 29 15 52 74,3

11 56 8 20 104,3

11 31 8 47 87,6

7 52 6 33 95,9

11 55 9 22 109,2

3 71 17 6 102,7

1 31 22 44 72,5

2 54 18 22 93,1

21 47 4 26 115,9

1 40 23 34 83,8

11 66 9 12 113,3

10 68 8 12 109,4
OUTPUT DARI SPSS
Coefficientsa

Unstandardized Standardized Collinearity


Coefficients Coefficients Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) 62,405 70,071 ,891 ,399
potensi_wilayah(X1) 1,551 ,745 ,607 2,083 ,071 ,026 38,496
biaya_promosi(X2) ,510 ,724 ,528 ,705 ,501 ,004 254,423
banyak_merek_saingan ,102 ,755 ,043 ,135 ,896 ,021 46,868
(X3)
banyak_active_account -,144 ,709 -,160 -,203 ,844 ,004 282,513
s(X4)
a. Dependent Variable: penjualan_produk(Y)

INTERPRETASI

Dasar dalam pengambilan keputusan dalam uji multikolinearitas dapat dilakukan dengan cara
melihat nilai Tolerance dan VIF. Berdasarkan tabel output Coefficients pada bagian Cillinearity
Statistics diketahui :

nilai Tolerance untuk variabel potensi wilayah (X1) adalah 0,026,

nilai Tolerance untuk variabel biaya promosi (X2) adalah 0,004,

nilai Tolerance untuk variabel banyaknya merek saingan (X3) adalah 0,021, dan

nilai Tolerance untuk variabel banyaknya active accounts (X4) adalah 0,004.

Karena nilai tolerance di setiap variabel bebas, yaitu X1, X2, X3, dan X4 lebih kecil dari 0,10,
maka terdapat gejala multikolinearitas.

Sedangkan, nilai VIF untuk variabel untuk variabel potensi wilayah (X1) adalah 38,496,
nilai VIF untuk variabel untuk biaya promosi (X2) adalah 254,423,

nilai VIF untuk variabel banyaknya merek saingan (X3) adalah 46,868, dan

nilai VIF untuk variabel banyaknya active accounts (X4) adalah 282,51.

Karena nilai VIF di setiap variabel bebas, yaitu X1, X2, X3, dan X4 lebih besar dari 10, maka
terdapat gejala multikolinearitas.

Maka berdasarkan dasar pengambilan keputusan dalam uji multikolinearitas, karena nilai
tolerancenya lebih kecil dari 0,10 dan nilai VIFnya lebih besar dari 10, dapat disimpulkan
bahwa terdapat gejala multikolinearitas yang terjadi pada model regresi ini.

Coefficient Correlationsa

banyak_active_ac banyak_merek potensi_wila biaya_promo


Model counts(X4) _saingan(X3) yah(X1) si(X2)
1 Correlations banyak_active_a 1,000 ,966 ,957 ,998
ccounts(X4)
banyak_merek_s ,966 1,000 ,986 ,962
aingan(X3)
potensi_wilayah( ,957 ,986 1,000 ,951
X1)
biaya_promosi(X ,998 ,962 ,951 1,000
2)
Covariances banyak_active_a ,503 ,517 ,505 ,512
ccounts(X4)
banyak_merek_s ,517 ,570 ,554 ,526
aingan(X3)
potensi_wilayah( ,505 ,554 ,555 ,513
X1)
biaya_promosi(X ,512 ,526 ,513 ,524
2)
a. Dependent Variable: penjualan_produk(Y)

INTERPRETASI

Pada output diatas, terlihat korelasi antara banyaknya active accounts dengan banyaknya merek
saingan adalah 0,966 menunjukan adanya korelasi yang sangat kuat.
Korelasi antara banyaknya active accounts dengan potensi wilayah adalah 0,957 menunjukan
adanya korelasi yang sangat kuat. Korelasi antara banyaknya active accounts dengan biaya
promosi adalah 0,998 menunjukan korelasi yang sangat kuat.
Korelasi antara banyaknya merek saingan dengan potensi wilayah adalah 0,986 menunjukan
korelasi yang sangat kuat.
Korelasi antara banyaknya merek saingan dengan biaya promosi adalah 0,962 menunjukan
korelasi yang sangat kuat.
Korelasi antara potensi wilayah dengan biaya promosi adalah 0,951 menunjukan korelasi yang
sangat kuat.
Angka tersebut menunjukkan adanya korelasi yang sangat kuat karena nilai koefisien korelasinya
mendekati 1.
PENCILAN

Data diambil dari jurnal dengan judul “ANALISIS REGRESI DAN KORELASI
ANTARA PENGUNJUNG DAN PEMBELITERHADAP NOMINAL PEMBELIAN DI
INDOMARET KEDUNGMUNDUSEMARANG DENGAN METODE KUADRAT
TERKECIL”.
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (dlm jutaan) (Y)
1 41 27 0.62105
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Dengan data diatas dapat kita cari apakah data tersebut terdapat multikolinearitas. Disini kami
mengunakan dua pengerjaan, yaitu menggunakan Software SPSS dan cara manual. Berikut
penjelasannya:

1. SPSS
Langkah-langkah:
 menaruh data pada “Data View”
 pilih Analzye Descriptive Stastistic Descriptive..
 kemudian menaruh semua kedalam variable
 klik “save standardized values as variable”
 kemudian klik “oke”

selanjutnya akan muncul data seperti ini:

Descriptive Statistics
N Minimum Maximum Mean Std. Deviation
Penjual 30 21 55 38.60 8.228
Pembeli 30 18 35 25.90 5.294
Nominal 30 .3 1.4 .618 .2675
Valid N (listwise) 30
Kemudian kembali ke halaman ini:

Cara mengetahui apakah data tersebut terdapat outlier adalah dengan melihat apakah data
tersebut memiliki nilai yang dibawah dan lebih besar dari (menurut Imam
Ghozali). Sehingga dari table dapat kita lihat:

Pada hari kedua terdapat nilai yang melebihi dari (menurut Imam Ghozali). Maka
data outlier terjadi pada hari kedua, sehingga kita dapat menghilangkannya.
2. Manual
Langkah-langkah dalam mencari data outlier:
 Mencari nilai rata-rata (mean) {y, +
dengan mengunakan rumus
:=AVERAGE(D3:D32), dimana D adalah nominal pembelian
: =AVERAGE(B3:B32), dimana B adalah jumlah pengunjung yang datang
=AVERAGE(C3:C32), dimana C adalah jumlah pemebeli yang datang
 Mencari nilai dari Standard Deviasi {y, +
dengan mengunakan rumus
:=STDEV.S(D3:D32)
:=STDEV.S(B3:B32)
: =STDEV.S(C3:C32)
 Mencari nilai Standardize
:=STANDARDIZE(D3,$F$2,$F$3)
:=STANDARDIZE(B3,$G$2,$G$3)
:=STANDARDIZE(C3,H2,H3)
 Mencari nilai Absoulte Standardize
:=ABS(I3)
:=ABS(L3)
:=ABS(O3)
 Menentukan apakah data tersebut terdapat Pencilan (Outlier)
:=IF(J3>2.5,"OUTLIER","")
:=IF(M3>2.5,"OUTLIER","")
:=IF(P3>2.5,"OUTLIER","")

Setelah semua rumus tertulis dengan baik, maka akan menghasilkan sebuah data. Dari data
tersebutlah kita dapat mengetahui apakah data tersebut terdapat pencilan atau tidak.

Hasil akhir:
Y X1 X2
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (Y) Mean 0.618115833 38.6 25.9
1 41 27 0.62105 Standar Devisiasi 0.267495177 8.227791424 5.293782951
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Y X1 X2
Standardize absolute standardize outlier Standardize absolute standardize outlier Standardize absolute standardize outlier
0.010969045 0.010969045 0.291694317 0.291694317 0.207790914 0.207790914
2.805225032 2.805225032 OUTLIER 1.9932445 1.9932445 1.341195902 1.341195902
-0.174249248 0.174249248 0.04861572 0.04861572 -1.114514905 1.114514905
-1.002133333 1.002133333 1.142469408 1.142469408 -0.547812411 0.547812411
-0.811288771 0.811288771 0.291694317 0.291694317 0.396691746 0.396691746
-1.289054394 1.289054394 -1.409855866 1.409855866 -1.303415736 1.303415736
0.14312096 0.14312096 -2.139091658 2.139091658 -1.303415736 1.303415736
1.784085126 1.784085126 -1.288316567 1.288316567 -1.303415736 1.303415736
-0.287354091 0.287354091 -0.802159372 0.802159372 -0.736713242 0.736713242
-0.516330182 0.516330182 -0.194462878 0.194462878 -0.170010748 0.170010748
-1.063816688 1.063816688 -1.409855866 1.409855866 -1.492316567 1.492316567
0.348358306 0.348358306 -1.045237969 1.045237969 -0.736713242 0.736713242
1.549464073 1.549464073 -1.288316567 1.288316567 -0.925614073 0.925614073
0.255272515 0.255272515 0.777851512 0.777851512 0.963394239 0.963394239
1.8008144 1.8008144 -0.316002177 0.316002177 -0.736713242 0.736713242
-0.435020304 0.435020304 1.507087305 1.507087305 0.774493408 0.774493408
-0.63764078 0.63764078 -0.316002177 0.316002177 0.207790914 0.207790914
-0.536330542 0.536330542 0.656312213 0.656312213 1.152295071 1.152295071
-0.497264417 0.497264417 0.04861572 0.04861572 0.585592577 0.585592577
-1.051293098 1.051293098 -1.045237969 1.045237969 -1.114514905 1.114514905
-0.63521083 0.63521083 0.04861572 0.04861572 -0.547812411 0.547812411
-0.192399108 0.192399108 0.291694317 0.291694317 1.530096733 1.530096733
-0.330719358 0.330719358 -0.194462878 0.194462878 0.018890083 0.018890083
-0.294830861 0.294830861 0.413233616 0.413233616 0.207790914 0.207790914
-0.512591796 0.512591796 0.777851512 0.777851512 1.530096733 1.530096733
-1.029049706 1.029049706 -0.437541476 0.437541476 -0.547812411 0.547812411
0.316768951 0.316768951 0.777851512 0.777851512 1.718997565 1.718997565
0.533221452 0.533221452 1.507087305 1.507087305 0.963394239 0.963394239
0.115569062 0.115569062 1.142469408 1.142469408 1.341195902 1.341195902
1.633708583 1.633708583 0.170155018 0.170155018 -0.358911579 0.358911579

Selanjutnya akan diperiksa apakah pencilan tersebut merupakan pencilan mayor atau pencilan
minor.

Menghitung kuartil 1 dan kuartil 3 menggunakan SPSS

Langkah-langkah:
 menaruh data pada “Data View”
 pilih Analzye Descriptive Stastistic Frequencies
 kemudian menaruh variabel Y sebagai variabel yang mengandung pencilan kedalam variable
 klik menu “statistics”
 lalu centang bagian “Quartiles”kemudian klik “Continue”
 kemudian klik “oke”

Selanjutnya akan muncul data seperti ini:


Statistics
Y
N Valid 30
Missing 0
Percentiles 25 .4480375
50 .5402500
75 .7049625

Dari hasil spss tersebut, diperoleh :

Q1=P25=0,4480375

Q3=P75=0,7049625

Dapat dihitung :

IQR=Q3-Q1=0,256925

( )

( )

Jadi, batas-batas pagar dalamnya adalah dan .

( )

( )

Batas-batas pagar luar adalah dan

Data yang merupakan pencilan adalah data variabel Y pada hari ke-2, yaitu . Dilihat
dari batas pagar dalam dan batas pagar luar yang sudah diperoleh, data pencilan
berada diluar batas pagar dalam, sehingga pencilan tersebut merupakan pencilan minor.

Analisis Ketika Data Pencilan Tidak Dihilangkan dan Dihilangkan

 Data Pencilan Tidak Dihilangkan

Menghitung varians variabel dengan pencilan

Langkah-langkah

 menaruh data pada “Data View”


 pilih Analzye Descriptive Stastistic Frequencies
 kemudian menaruh variabel Y sebagai variabel yang mengandung pencilan kedalam variable
 klik menu “statistics”
 lalu centang bagian “Variance”kemudian klik “Continue”
 kemudian klik “oke”
selanjutnya akan muncul data seperti ini:

Statistics
Y
N Valid 30
Missing 0
Variance .072

Jadi nilai varians = 0.72

Analisis Regresi

Langkah-langkah:
 menaruh data pada “Data View”

 pilih Analzye Regression Linear.


 kemudian menaruh data Y kedalam “Dependent” dan data X1, X2 kedalam “Independent”
 kemudian klik “oke”
Selanj

Model Summary utnya


Std. Error Change Statistics akan
Mod R Adjusted R of the R Square F Sig. F
muncu
el R Square Square Estimate Change Change df1 df2 Change
a l data
1 .149 .022 -.050 .27413805 .022 .306 2 27 .739
a. Predictors: (Constant), X2, X1 seperti
ini:

Berdasarkan table diatas, dijelaskan besarnya nilai koefesien determinasi atau R Square
adalah sebesar 0,022. Nilai R Square 0,022 ini sama dengan 2.2% nilai ini mengandung arti
bahwa variable (X1,X2) dalam hal ini jumlah pengunjung dan jumlah pembeli berpengaruh
terhadap variable (Y) nominal pembelian sebesar 2.2%. Sedangkan sisanya 97.8% dipengaruhi
oleh variabel lain diluar penelitian ini.

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) .459 .262 1.751 .091
X1 .006 .010 .198 .617 .543
X2 -.003 .016 -.069 -.213 .833
a. Dependent Variable: Y

Diketahui Constant (a) sebesar 0.459, nilai sebesar 0.006, dan nilai sebesar -0.003 sehingga
persamaan regresinya dapat ditulis

 Data Pencilan Dihilangkan

Menghitung varians variabel dengan pencilan

Langkah-langkah

 menaruh data pada “Data View”


 pilih Analzye Descriptive Stastistic Frequencies
 kemudian menaruh variabel Y sebagai variabel yang mengandung pencilan kedalam variable
 klik menu “statistics”
 lalu centang bagian “Variance”kemudian klik “Continue”
 kemudian klik “oke”

selanjutnya akan muncul data seperti ini:

Statistics
Y
N Valid 29
Missing 0
Variance .053

Jadi nilai varians setelah data pencilan dihilangkan = 0.053

Analisis Regresi

Langkah-langkah:
 menaruh data pada “Data View”

 pilih Analzye Regression Linear.


 kemudian menaruh data Y kedalam “Dependent” dan data X1, X2 kedalam “Independent”
 kemudian klik “oke”

Selanjutnya akan muncul data seperti ini:

Model Summary
Change Statistics
R Adjusted R Std. Error of R Square F Sig. F
Model R Square Square the Estimate Change Change df1 df2 Change
a
1 .072 .005 -.071 .23897369 .005 .068 2 26 .935
a. Predictors: (Constant), X2, X1

Berdasarkan table diatas, dijelaskan besarnya nilai koefesien determinasi atau R Square
adalah sebesar 0,005. Nilai R Square 0,005 ini sama dengan 0.5% nilai ini mengandung arti
bahwa variable (X1,X2) dalam hal ini jumlah pengunjung dan jumlah pembeli berpengaruh
terhadap variable (Y) nominal pembelian sebesar 0.5%. Sedangkan sisanya 99.5% dipengaruhi
oleh variabel lain diluar penelitian ini.

Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) .670 .238 2.810 .009
X1 -.002 .010 -.082 -.255 .801
X2 .001 .014 .013 .041 .968
a. Dependent Variable: Y

Diketahui Constant (a) sebesar 0.670, nilai sebesar -0.002, dan nilai sebesar 0.001 sehingga
persamaan regresinya dapat ditulis

Kesimpulan :

Pembeda Sebelum Dihilangkan Setelah Dihilangkan


Pencilan Pengamatan ke-2 -
Varians ( ) 0.72 0.053
Intercept (a) 0.459 0.670
0.006 -0.002
-0.003 0.001
2.2% 0.5%

Dikeluarkannya pengamatan ke-2 dari data memberikan pengaruh terhadap varians


( ) dan . pada data lengkap adalah 0.72, dan setelah pengamatan ke-2 dihilangkan
menurun menjadi 0.053. Sedangkan pada model regresi data lengkap adalah 2.2%, setelah
pengamatan ke-2 dihilangkan nilai ini turun menjadi 0.5%. Penurunan yang besar pada varians
dan menunjukkan bahwa model regresi dengan data lengkap lebih baik dari model regresi
tanpa pengamatan ke-2, yaitu pengamatan yang terdeteksi sebagai outlier.
DAFTAR PUSTAKA

(RIYANTINI, D. L., SUSILAWATI, M., & SARI, K). (2014). Penerapan Regresi Akar Laten
Dalam Menangani Multikolinearitas Pada Model Regresi Linier Berganda. E-Jurnal
Matematika, 3(1), 8. https://doi.org/10.24843/mtk.2014.v03.i01.p060

Nurdin, N., Raupong, & Islamiyati, A. (2014). Penggunaan Regresi Robust Pada Data Yang
Mengandung Pencilan Dengan Metode Momen. Matematika, Statistika Dan Komputasi,
10(2), 115. http://journal.unhas.ac.id/index.php/jmsk/article/download/3418/1955

Muliyani, & Noeryanti. (2017). Analisis Regresi Robust Penduga Method of Moment (MM)
untuk Mengatasi Data yang Terindentifikasi Pencilan Berdasarkan Data Produksi Kedelai di
Indonesia. Jurnal Statistika Industri Dan Komputasi, 2(2), 126–135.

Candraningtyas, S., Safitri, D., & Ispriyanti, D. (2013). Regresi Robust MM-Estimator Untuk
Penanganan Pencilan Pada Regresi Linier Berganda. Jurnal Gaussian, 2(4), 395–404.

Supriyadi, E., Mariani, S., &Sugiman. (2017). Perbandingan Metode Partial Least Square (PLS)
Dan Principal Component Regression (PCR) Untuk Mengatasi Multikolinearitas Pada
Model Regresi Linear Berganda.Unnes Journal of Mathematics, 6(2), 117–128.
https://doi.org/10.15294/ujm.v6i2.11819

Nurdin, I.,Sugiman, & Sunarmi. Penerapan Kombinasi Metode Ridge Regression (RR) dan
Metode Generalized Least Square (GLS) untuk Mengatasi Masalah Multikolinearitas dan
Autokorelasi. Jurnal Mipa, 41(1), 58–68.

Dewi, Elok Tri K., Agoestanto, A., & Sunarmi. (2016). Metode Leaste Trimmed Square (LTS)
dan MM-Estimation untuk Mengestimasi Parameter Regresi Ketika Terdapat Outlier. Unnes
of Journal Mathematics, 5(1), 48–54.

Sunaryo. (2011). Mengatasi Masalah Multikolinearitas dan Outlier dengan Pendekatan


ROBPCA. Jurnal Matematika, 17(1), 1–10.
Yuliani, Ni Wayan, dkk. (2013). Perbandingan Regresi Komponen Utama dan ROBPCA dalam
Mengatasi Multikolinearitas dan Pencilan pada Regresi Linear Berganda. E–Journal
Matematika, 2(4), 1–5

Yuliani, Ni Wayan, dkk. (2013). Perbandingan Regresi Komponen Utama dan ROBPCA dalam
Mengatasi Multikolinearitas dan Pencilan pada Regresi Linear Berganda. E–Journal
Matematika, 2(4), 1–5

Pratomo, Dedi S., dkk. (2015). Analisis Regresi dan Korelasi Antara Pengunjung dan Pembeli
terhadap Nominal Pembelian di Indomaret Kedungmundu Semarang dengan Metode
Kuadrat Terkecil. Skripsi, Fakultas Ilmu Komputer

Ghozali, Imam. (2006). Aplikasi Analisis Multivariate dengan Program SPSS, Semarang: Badan
Penerbit Universitas Diponogoro.

Dawson, Robert. (2011). How Significant is A Boxplot Outlier?.Journal of Statistics Education,


19(2), 2–3

Indra, S., dkk. (2013). Pendeteksian Data Pencilan dan Pengamatan Berpengaruh pada Beberapa
Kasus Data Menggunakan Metode Diagnostik. E-Journal Matematika, 1(2). 68–73
Pemilihan Model Terbaik
Cara-cara yang sering digunakan dalam memilih model terbaik, yaitu:
1. Best Subset Model
Model regresi terbaik (best subset model regression) adalah model yang dapat
menjelaskan perilaku peubah tak bebas dengan sebaik-baiknya dengan memilih peubah-
peubah bebas dari sekian banyak peubah bebas yang tersedia dalam data. Model regresi
terbaik (best subset model regression) digunakan untuk meregresikan satu peubah respon
pada semua kemungkinan kombinasi subset peubah-peubah prediktor dan kemudian memilih
subset terbaik untuk setiap ukuran (size) informasi model terbaik ini dipilih berdasarkan nilai
R-square terbesar (Draper dan Smith (1992)).
Metode regresi best subset ini merupakan salah satu cara untuk mengatasi
multikolinearitas yaitu dengan memilih peubah-peubah bebas yang dapat digunakan dalam
model agar diperoleh persamaan regresi terbaik yang mengandung sebagian atau seluruh
peubah bebas.
Kriteria-kriteria yang dapat digunakan untuk menentukan variabel / peubah-peubah
bebas yang digunakan sehingga diperoleh model terbaik untuk melakukan regresi dengan
jumlah variabel yang dipilih yaitu :
1.1 Nilai Koefisien Determinasi (R2)
Koefisien determinasi adalah ukuran bagian ragam peubah terikat yang dapat
dijelaskan secara bersama-sama oleh peubah bebas yang ada di dalam model. Nilai
koefisien determinasi dirumuskan dengan:

Keterangan:
SS = Jumlah kuadrat regresi
SST = Jumlah kuadrat total
SSE = Jumlah kuadrat galat
p = Jumlah peubah bebas dalam model
R2 akan terus bertambah seiring bertambahnya peubah bebas yang
dimasukkan dalam model. Peubah yang potensial ditambahkan dalam model
adalah yang memberi penambahan nilai R2 yang cukup berarti.

1.2 Nilai Adjusted R-square


Karena adanya kelemahan dalam perhitungan R2, banyak peneliti yang
menyarankan untuk menggunakan Adjusted R-Square. Interpretasinya sama dengan R
Square, akan tetapi nilai Adjusted R-Square dapat naik atau turun dengan adanya
penambahan variabel baru, tergantung dari korelasi antara variabel bebas tambahan
tersebut dengan variabel terikatnya. Nilai Adjusted R-Square dapat bernilai negatif,
sehingga jika nilainya negatif, maka nilai tersebut dianggap 0, atau variabel bebas sama
sekali tidak mampu menjelaskan varians dari variabel terikatnya.
Suatu sifat penting R2 adalah nilainya merupakan fungsi yang tidak pernah
menurun dari banyaknya variabel bebas yang ada dalam model. Oleh karenanya, untuk
membandingkan dua R2 dari dua model, orang harus memperhitungkan banyaknya
variabel bebas yang ada dalam model. Ini dapat dilakukan dengan menggunakan
“adjusted R-square”. Istilah penyesuaian berarti nilai R2 sudah disesuaikan dengan
banyaknya variabel (derajat bebas) dalam model. Memang, R2 yang disesuaikan ini
juga akan meningkat bersamaan meningkatnya jumlah variabel, tetapi peningkatannya
relatif kecil. Seringkali juga disarankan, jika variabel bebas lebih dari dua, sebaiknya
menggunakan adjusted R square.
Asumsi – asumsi klasik yang melandasi regresi linier berganda adalah
kenormalan sisaan, heterokesdastisitas dan multikolinieritas antar variabel bebas.
Asumsi yang sering tidak terpenuhi adalah asumsi nonmultikolinieritas berarti bahwa
tidak terdapat hubungan linier antar variabel-variabel bebas dalam model regresi.
Dalam bentuk matriks, multikolinieritas adalah kondisi buruk (ill condition) dari matrik
X’X yaitu kondisi yang tidak memenuhi asumsi klasik (Draper and Smith, 1992).
Beberapa metode yang digunakan untuk mendeteksi adanya multikolinieritas adalah
koefisien korelasi antar variabel bebas, VIF dan bilangan kondisi. Statistik R2 yang
sering disebut dengan Koefisien determinasi. Sedangkan R2adjusted memperhitungkan
banyaknya variabel bebas dalam model serta telah disesuaikan terhadap derajat bebas
masing-masing jumlah kuadrat. R2adjusted dirumuskan dengan:
( )
*( )( )
+ (Sembiring, 1995)

Keterangan:
2
= Sampel R-square
p = Banyaknya parameter termasuk 𝑌
n = Banyaknya pengamatan
2
1.3 Nilai Rataan Kuadrat Sisa atau
Salah satu patokan yang baik digunakan dalam memilih kecocokan suatu
model dengan data adalah dengan melihat rataan kuadrat sisa ( 2), model yang
2
baik memberikan yang kecil. Ukuran ini memperhitungkan banyaknya
parameter dalam model melalui pembagian dengan derajat kebebasannya. Rataan
kuadrat sisa ( 2) mungkin membesar bila penurunan dalam JK sisa akibat
pemasukan suatu peubah tambahan kedalam model tidak dapat mengimbangi
penurunan dalam derajat kebebasannya. Rataan kuadrat sisa dirumuskan:

(Sembiring, 1995: 236)

Keterangan:
JKS = Jumlah kuadrat sisa
n = banyaknya pengamatan
p = banyaknya parameter

1.4 Cp-Mallow
Nilai dugaan yang didapat dari persamaan regresi berdasarkan sebagian
peubah bebas pada umumnya bias. Untuk menilai kebaikan model digunakan
means square error (MSE ) dengan varian dan biasnya. C.L. Mallow
menyarankan statistik

( )

Keterangan:
SSEp = Nilai SSE tiap-tiap model
MSEall = Nilai MSE dari model yang mengandung seluruh variabel
n = Jumlah sampel
p = Jumlah peubah bebas dalam model
Penyimpangan Cp dari p digunakan sebagai ukuran bias. Model terbaik
berdasarkan Cp adalah model yang memiliki nilai Cp terdekat dengan jumlah
peubah dalam model.
Pengelompokkan persamaan-persamaan regresi ke dalam lima kelompok:
(1) Kelompok A yang terdiri atas satu persamaan regresi dengan hanya
melibatkan nilai tengah yaitu (𝑌)
(2) Kelompok B yang terdiri atas empat persamaan regresi dengan satu
variabel peramal seperti persamaan (𝑌)
(3) Kelompok C yang terdiri atas enam persamaan regresi dengan dua
variabel peramal seperti persamaan (𝑌)

(4) Kelompok D yang terdiri atas empat persamaan regresi dengan tiga
variabel peramal seperti persamaan (𝑌) dan
(5) Kelompok E yang terdiri atas satu persamaan regresi dengan empat
variabel peramal seperti persamaan (𝑌) .
o Urutkan persamaan regresi dalam setiap kelompok menurut besarnya kuadrat
koefisien korelasi berganda atau koefisien determinasi R2 yang dicapai.
o Periksalah persamaan regresi dari urutan pertama dalam setiap kelompok
dan lihatlah apakah ada suatu pola variabel yang terurut secara konsisten
dalam persamaan-persamaan tersebut.

2. Backward Elimination
Membuat model dengan memasukkan semua variabel kemudian dikeluarkan satu persatu
dengan melakukan pengujian terhadap parameter – parameternya dengan menggunakan
partial F test. Nilai partial F-test (FL) terkecil dibandingkan dengan F0 table:
•Jika FL < F0, maka X yang bersangkutan dikeluarkan dari model dan dilanjutkan dengan
pembuatan model baru tanpa variabel tersebut.
•Jika FL > F0, maka proses dihentikan dan persamaan terakhir tersebut yang
digunakan/dipilih.

3. Forward Selection
Forward Selection merupakan salah satu metode pemodelan (pembangunan model linier)
untuk menemukan kombinasi peubah yang “terbaik” dari suatu gugus peubah. Dalam
Prosedur Forward selection, sekalinya variable masuk kedalam persamaan maka tidak bisa
dihilangkan.
Selain itu, Forward selection dapat berarti memasukkan variabel bebas yang memiliki
korelasi yang paling erat dengan variabel tak bebasnya (variabel yang paling potensial untuk
memiliki hubungan linier dengan Y). kemudian secara bertahap memasukkan variabel bebas
yang potensial berikutnya dan nanti akan terhenti sampai tidak ada lagi variabel bebas yang
potensial.
Kelebihan dan Kekurangan Forward Selection
Kelebihan prosedur Forward selection diantaranya sebagai berikut:
a. Metode forward, backward, dan stepwise merupakan alternatif untuk mengurangi
kemungkinan adanya multikolinearitas dalam model yang dihasilkan.
Kekurangan prosedur Forward Selection adalah diantaranya;
a. Lama dalam penghitungan , karena harus menghitung satu-satu dari peubah yang ada,
dari peubah yang memiliki F tersebar.
b. Dalam metode ini, ada kemungkinan untuk memasukkan lebih banyak variable yang
tidak begitu signifikan ke dalam model dibanding metode backward dan stepwise, karena
MSE yang dihasilkan forward akan lebih kecil yang menyebabkan nilai Fobs besar.
c. Prosedur ini tidak selalu mengarahkan ke model yang terbaik,
mengingat kita hanya mempertimbangkan sebuah subset kecil dari semua model-model yang
mungkin. Sehingga resiko melewatkan atau kehilangan model terbaik akan bertambah seiring
dengan penambahan jumlah variabel bebas.

Prosedur Forward Selection


Prosedur forward selection dimulai dengan sebuah persamaan yang terdiri dari suku
konstanta, tidak terdiri dari predictor variable. Variabel pertama yang masuk ke dalam
persamaan adalah variabel yang memiliki simple correlation tertinggi dan signifikan dengan
variable Y. Jika koefisien regresi signifikan berbeda dari 0 maka tetap dipakai dalam
persamaan, dan dilakukan pencarian variabel kedua. Variabel yang masuk ke dalam
persamaan sebagai variabel kedua adalah variabel yang memiliki korelasi tertinggi kedua dan
masih signifikan dengan Y. Kemudian koefisien regresi dari variabel kedua diuji. Jika
signifikan, maka dilakukan pencarian terhadap variabel ketiga dengan cara yang sama.
Prosedur dihentikan saat pemasukan variabel terakhir tidak memiliki koefisien regresi dan
tidak signifikan atau semua variabel masuk dalam persamaan. Koefisien regresi yang
signifikan dari variabel terakhir dilihat dari uji-t dari persamaan terakhir.
Langkah-langkah Forward Selection
1. Mulai dengan persamaan yang tidak terdiri dari predictor variabel (model hanya berisi
konstanta)
2. Untuk semua predictor variable tidak dalam model, pilih satu variable dengan nilai p-
value terkecil dan kurang dari taraf nyata α.
3. Ulangi langkah kedua hingga tidak terdapat predictor variable yang dapat ditambahkan ke
dalam model.

4. Stepwise Regression
Regresi stepwise melibatkan dua jenis proses yaitu: forward selection dan backward
elimination. Teknik ini dilakukan melalui beberapa tahapan. Pada masing-masing tahapan,
kita akan memutuskan variabel mana yang merupakan prediktor terbaik untuk dimasukkan ke
dalam model. Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model
selama nilai p-valuenya kurang dari nilai kritik α (biasanya 0,15). Kemudian variabel dengan
nilai p-value lebih dari nilai kritik α akan dihilangkan. Proses ini dilakukan terus menerus
hingga tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan.
Model dalam regresi Stepwise adalah:
Y = β0 + β1X1 + β2X2 + β3X3 + …. + βnXn
Sedangkan Hipotesis yang digunakan dalam Regresi Stepwise adalah:
H0 : β1, β2, β3 = 0
Dengan hipotesis alternatif adalah:
Ha : β1, β2, β3 ≠ 0
Model dibuat dengan memasukkan variabel prediktor satu persatu (secara bertahap) mulai
dari variabel X yang memiliki korelasi tinggi
Langkah-langkahnya yaitu:
1. Cari variabel X yang berkorelasi paling tinggi dengan Y, kemudian buat regresinya
2. Pemilihan variabel berikutnya adalah variabel yag memiliki korelasi parsial terbesar
dengan Y dan buat model dengan memasukkan variabel tersebut
3. Uji parameter yang telah ada di dalam model
4. Begitu seterusnya ulangi langkah 2-3 sampai diperoleh model terbaik
B. CONTOH KASUS

Contoh kasus yang kami gunakan berasal dari jurnal yang berjudul “Analisa Metode
Backward Dan Metode Forward Untuk Menentukan Persamaan Regresi Linier Berganda”
dimana kasusnya adalah mencari model terbaik untuk pengaruh faktor pengemudi, faktor
jalan, faktor kendaraan, dan faktor penambahan jumlah kendaraan bermotor terhadap jumlah
kecelakaan lalu lintas. Data diperoleh dari POLANTAS Kotamadya Medan dan disajikan
dalam bentuk tabel 1 dibawah

Tabel 1. Data Jumlah Kendaraan Lalu Lintas Di Kotamadya Medan.

Pertambahan
Jumlah
Faktor Faktor jumlah
Kecelakaan Faktor Jalan
No Bulan Pengemudi Kendaraan kendaraan
Lalu Lintas (kasus)
(orang) (kasus) bermotor
(kasus)
(unit)
1 Januari 107 56 31 12 873
2 Februari 113 63 23 15 402
3 Maret 117 60 27 14 538
4 April 129 61 33 9 432
5 Mei 137 77 31 18 746
6 Juni 99 54 20 11 393
7 Juli 112 56 30 10 746
8 Agustus 114 56 27 11 799
9 September 126 60 20 13 516
10 Oktober 101 65 17 9 493
11 November 116 56 32 21 871
12 Desember 103 59 29 14 904
13 Januari 118 51 40 20 1172
14 Februari 116 63 28 13 882
15 Maret 135 71 30 17 571
16 April 143 79 37 14 459
17 Mei 154 83 48 24 872
18 Juni 163 86 48 24 585
19 Juli 157 81 48 27 998
20 Agustus 143 78 42 22 921
21 September 159 74 34 19 634
22 Oktober 164 87 37 13 894
23 November 157 96 37 17 935
24 Desember 175 107 40 21 1108

Selanjutnya akan dicari model terbaik dengan menggunakan metode Forward, Backward, dan
Stepwise.
a. Metode Forward
Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51.00 107.00
JalanX2 24 17.00 48.00
KendaraanX3 24 9.00 27.00
PenambahanKendaranX4 24 393.00 1172.00
JumlahkecelakaanY 24 99.00 175.00
Valid N (listwise) 24

Dalam hasil output descritive statistics terlihat bahwa terdapat data sebanyak 24 dan disana
juga terdapat nilai maksimum dan minimum tiap variabelnya.

Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua yaitu
sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua sebanyak 107
orang.

Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama yaitu
sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua sebanyak 48
kasus.

Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun pertama
yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua sebanyak 27 kasus.

Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni tahun
pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun kedua
sebanyak 1172 unit.

Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama yaitu
sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua sebanyak 175
kasus.
Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih cukup
tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah 0,304 yang
dimana korelasi ini rendah.

Pada tabel juga terlihat nilai signifikansi antar vaiabel. Untuk nilai signifikansi
variabel bebas X1, X2, dan X3 dengan variabel terikatnya didapatkan signifikan namun untuk
X4 dengan variabel terikat didapatkan tidak signifikan. Kemudian antar variabel bebasnya
terlihat bahwa X1 dan X2, X1 dan X3, X2 dan X3, dan X2 dan X4 memiliki nilai signifikansi
yang signifikan dan hal ini patut dicurigai terjadinya multikolinearitas.

Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
1 PengemudiX . Forward
1 (Criterion:
Probability-
of-F-to-enter
<= ,050)
2 JalanX2 . Forward
(Criterion:
Probability-
of-F-to-enter
<= ,050)
a. Dependent Variable: JumlahkecelakaanY

Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.

Model Summaryc
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson
a
1 .901 .811 .802 10.21458
b
2 .938 .880 .868 8.33869 2.091
a. Predictors: (Constant), PengemudiX1
b. Predictors: (Constant), PengemudiX1, JalanX2
c. Dependent Variable: JumlahkecelakaanY

Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) sebesar 0,901,
dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi dan jumlah
kecelakaan lalu lintas memiliki hubungan/ kolerasi linear yang tinggi. Selanjutnya terdapat
besarnya nilai kolerasi (R) sebesar 0,938, dimana nilai tersebut mendekati 1 hal ini berarti
bahwa faktor pengemudi, faktor jalan dan jumlah kecelakaan lalu lintas memiliki hubungan/
kolerasi linear yang tinggi. Pada tabel tersebut juga terdapat koefisien determinasi (R Square)
sebesar 0,811 hal ini berarti bahwa pengaruh faktor pengemudi terhadap jumlah kecelakaan
lalu lintas sebesar 81,1% sedangkan terdapat juga koefisien determinasi (R Square) sebesar
0,880 hal ini berarti bahwa pengaruh faktor pengemudi, faktor jalan terhadap jumlah
kecelakaan lalu lintas sebesar 88% .

ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 9852.404 1 9852.404 94.428 .000b
Residual 2295.429 22 104.338
Total 12147.833 23
2 Regression 10687.625 2 5343.812 76.852 .000c
Residual 1460.209 21 69.534
Total 12147.833 23
a. Dependent Variable: JumlahkecelakaanY
b. Predictors: (Constant), PengemudiX1
c. Predictors: (Constant), PengemudiX1, JalanX2

Pada tabel anova didapatkan, untuk model 1 saat X1 masuk ternyata signifikan dan
model 2 saat X2 masuk juga signifikan.
Pada tabel coeffcients didapatkan model terbaik untuk kasus ini, yaitu 𝑌̂
selain itu pada model 1 dimana saat X1 dimasukkan nilai
signfikansinya signifikan dan ketika model 2 dimana saat X2 dimasukkan nilai signfikansinya
signifikan. Dan sebelumnya kita curigai bahwa X1 dan X2 terjadi multiko namun pada kolom VIF
menunjukan tidak terjadinya multiko karena VIF kurang dari 10.

Maka diperoleh model terbaik metode forward adalah


𝑌̂
Persamaan regresi diatas diinterpretasikan sebagai berikut
 Jumlah kecelakaan akan sebanyak 27 kasus apabila fakotr pengemudi dan faktor jalan
bernilai nol.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor pengemudi meningkat sebanyak 1 orang per dua tahun dengan asumsi faktor
jalan konstan.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor jalan meningkat sebanyak 1 kasus per dua tahun dengan asumsi faktor
pengemudi konstan.

b. Metode Backward

Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51.00 107.00
JalanX2 24 17.00 48.00
KendaraanX3 24 9.00 27.00
PenambahanKendaraanX4 24 393.00 1172.00
JumlahKecelakaanY 24 99.00 175.00
Valid N (listwise) 24
Dalam hasil output descriptive statistics terlihat bahwa terdapat data sebanyak 24 dan juga
terdapat nilai maksimum dan minimum tiap variabelnya.
 Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua
yaitu sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 107 orang.
 Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama
yaitu sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua
sebanyak 48 kasus.
 Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun
pertama yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua
sebanyak 27 kasus.
 Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni
tahun pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun
kedua sebanyak 1172 unit.
 Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama
yaitu sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 175 kasus.

Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih cukup
tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah 0,304 yang
dimana korelasi ini rendah.
Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.
Dan variabel yang dikeluarkan yaitu kendaraan dan penambahan kendaraan

Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) sebesar 0,943,
dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor penambahan
kendaraan, faktor jalan, faktor kendaraan dan jumlah kecelakaan lalu lintas memiliki
hubungan/kolerasi linear yang tinggi. Kemudian juga besarnya nilai kolerasi (R) sebesar
0,943, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor
penambahan kendaraan, faktor jalan dan jumlah kecelakaan lalu lintas memiliki
hubungan/kolerasi linear yang tinggi. Selanjutnya terdapat besarnya nilai kolerasi (R) sebesar
0,938, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor jalan
dan jumlah kecelakaan lalu lintas memiliki hubungan/kolerasi linear yang tinggi. Pada tabel
tersebut juga terdapat koefisien determinasi (R Square) sebesar 0,889 hal ini berarti bahwa
pengaruh faktor pengemudi, faktor penambahan kendaraan, faktor jalan, faktor kendaraan
terhadap jumlah kecelakaan lalu lintas sebesar 88,9% dan terdapat juga koefisien determinasi
(R Square) sebesar 0,889 hal ini berarti bahwa pengaruh faktor pengemudi, faktor
penambahan kendaraan, faktor jalan terhadap jumlah kecelakaan lalu lintas sebesar 88,9%.
Sedangkan terdapat juga koefisien determinasi (R Square) sebesar 0,880 hal ini berarti
bahwa pengaruh faktor pengemudi, faktor jalan terhadap jumlah kecelakaan lalu lintas
sebesar 88% .

Berdasarkan tabel coefficients di atas, pada model 1 terlihat X3 dan X4 tidak signifikan,
sehingga X3 dikeluarkan terlebih dahulu dari model. Selanjutnya pada model 2 ternyata X4
masih tidak signifikan sehingga X4 dikeluarkan dari model. Dan pada model 3 terlihat bahwa
sudah semua variabel bebas signifikan sehingga proses dihentikan.
̂
Jadi, didapatkan model terbaik untuk kasus ini, yaitu 𝑌 .

Persamaan regresi diatas diinterpretasikan sebagai berikut


 Jumlah kecelakaan akan sebanyak 27 kasus apabila fakotr pengemudi dan faktor jalan
bernilai nol.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor pengemudi meningkat sebanyak 1 orang per dua tahun dengan asumsi faktor
jalan konstan.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor jalan meningkat sebanyak 1 kasus per dua tahun dengan asumsi faktor
pengemudi konstan.

c. Metode Stepwise

Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51,00 107,00
JalanX2 24 17,00 48,00
KendaraanX3 24 9,00 27,00
PenambahanKendaraanX4 24 393,00 1172,00
JumlahKecelakaanY 24 99,00 175,00
Valid N (listwise) 24

Dalam hasil output descriptive statistics terlihat bahwa terdapat data sebanyak 24 dan juga
terdapat nilai maksimum dan minimum tiap variabelnya.
 Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua
yaitu sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 107 orang.
 Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama
yaitu sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua
sebanyak 48 kasus.
 Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun
pertama yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua
sebanyak 27 kasus.
 Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni
tahun pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun
kedua sebanyak 1172 unit.
 Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama
yaitu sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 175 kasus.
Correlations
Penam
bahanK
JumlahKec Pengemudi JalanX Kendaraan endaraa
elakaanY X1 2 X3 nX4
Pearson JumlahKecelakaanY 1,000 ,901 ,754 ,639 ,304
Correlation PengemudiX1 ,901 1,000 ,606 ,523 ,286
JalanX2 ,754 ,606 1,000 ,794 ,551
KendaraanX3 ,639 ,523 ,794 1,000 ,488
PenambahanKendar ,304 ,286 ,551 ,488 1,000
aanX4
Sig. (1-tailed) JumlahKecelakaanY . ,000 ,000 ,000 ,074
PengemudiX1 ,000 . ,001 ,004 ,087
JalanX2 ,000 ,001 . ,000 ,003
KendaraanX3 ,000 ,004 ,000 . ,008
PenambahanKendar ,074 ,087 ,003 ,008 .
aanX4
N JumlahKecelakaanY 24 24 24 24 24
PengemudiX1 24 24 24 24 24
JalanX2 24 24 24 24 24
KendaraanX3 24 24 24 24 24
PenambahanKendar 24 24 24 24 24
aanX4

• Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih
cukup tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah
0,304 yang dimana korelasi ini rendah.
• Pada tabel juga terlihat nilai signifikansi antar variabel. Untuk nilai signifikansi
variabel bebas X1, X2, dan X3 dengan variabel terikatnya didapatkan signifikan
namun untuk X4 dengan variabel terikat didapatkan tidak signifikan. Kemudian antar
variabel bebasnya terlihat bahwa X1 dan X2, X1 dan X3, X2 dan X3, dan X2 dan X4
memiliki nilai signifikansi yang signifikan dan hal ini patut dicurigai terjadinya
multikolinearitas.

Variables Entered/Removeda
Mode Variables Variables
l Entered Removed Method
1 Pengemudi . Stepwise
X1 (Criteria:
Probability-
of-F-to-
enter
<= ,050,
Probability-
of-F-to-
remove
>= ,100).
2 JalanX2 . Stepwise
(Criteria:
Probability-
of-F-to-
enter
<= ,050,
Probability-
of-F-to-
remove
>= ,100).
a. Dependent Variable: JumlahKecelakaanY

Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.

Model Summaryc
M Change Statistics
o Std.
d R Error of F Durbin
e Squar Adjusted the R Square Chang Sig. F -
lR e R Square Estimate Change e df1 df2 Change Watson
1,901a ,811 ,802 10,2145 ,811 94,42 1 22 ,000
8 8
2,938b ,880 ,868 8,33869 ,069 12,01 1 21 ,002 2,091
2
a. Predictors: (Constant), PengemudiX1
b. Predictors: (Constant), PengemudiX1, JalanX2
c. Dependent Variable: JumlahKecelakaanY

Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) pada model 1
sebesar 0,901, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi dan
jumlah kecelakaan lalu lintas memiliki hubungan/ kolerasi linear yang tinggi. Selanjutnya
terdapat besarnya nilai kolerasi (R) pada model 2 sebesar 0,938, dimana nilai tersebut
mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor jalan dan jumlah kecelakaan lalu
lintas memiliki hubungan/ kolerasi linear yang tinggi. Pada tabel tersebut juga terdapat
koefisien determinasi (R Square) model 1 sebesar 0,811 hal ini berarti bahwa pengaruh
faktor pengemudi terhadap jumlah kecelakaan lalu lintas sebesar 81,1% sedangkan terdapat
juga koefisien determinasi (R Square) model 2 sebesar 0,880 hal ini berarti bahwa pengaruh
faktor pengemudi, faktor jalan terhadap jumlah kecelakaan lalu lintas sebesar 88% .

ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 9852,404 1 9852,404 94,428 ,000b
Residual 2295,429 22 104,338
Total 12147,833 23
2 Regression 10687,625 2 5343,812 76,852 ,000c
Residual 1460,209 21 69,534
Total 12147,833 23
a. Dependent Variable: JumlahKecelakaanY
b. Predictors: (Constant), PengemudiX1
c. Predictors: (Constant), PengemudiX1, JalanX2

Pada tabel anova didapatkan, untuk model 1 saat X1 masuk ternyata signifikan dan
model 2 saat X2 masuk juga signifikan.

Coefficientsa
Standard
ized
Unstandardized Coeffici 95,0% Confidence Collinearity
Coefficients ents Interval for B Statistics
Std. Lower Upper Tolera
Model B Error Beta t Sig. Bound Bound nce VIF
1 (Constan 33,546 10,302 3,256 ,004 12,181 54,911
t)
Pengemu 1,401 ,144 ,901 9,717 ,000 1,102 1,700 1,000 1,000
diX1
2 (Constan 26,622 8,644 3,080 ,006 8,646 44,599
t)
Pengemu 1,091 ,148 ,701 7,372 ,000 ,783 1,398 ,633 1,579
diX1
JalanX2 ,872 ,251 ,330 3,466 ,002 ,349 1,395 ,633 1,579
a. Dependent Variable: JumlahKecelakaanY

Koefisien korelasi X1 dengan Y paling mendekati 1, sehingga variabel X1 adalah


variabel yang pertama yang masuk kedalam model Coeffisien . Selanjutnya kita lihat
koefisien partial yang terbesar antara X1, X2, X3 adalah X2 maka kita regresikan X2 kepada
Y dan X1 dan hasilnya signifikan.
Maka diperoleh model terbaik metode stepwise adalah
̂
𝑌
Persamaan regresi diatas diinterpretasikan sebagai berikut
 Jumlah kecelakaan akan sebanyak 27 kasus apabila fakotr pengemudi dan faktor jalan
bernilai nol.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor pengemudi meningkat sebanyak 1 orang per dua tahun dengan asumsi faktor
jalan konstan.
 Jumlah kecelakaan akan meningkat atau bertambah sebanyak 1 per dua tahun apabila
faktor jalan meningkat sebanyak 1 kasus per dua tahun dengan asumsi faktor
pengemudi konstan.
C. DAFTAR PUSTAKA

Draper, N., and H. Smith, 1992, Analisis Regresi Terapan edisi kedua
(Terjemahan oleh Bambang Sumantri), Gramedia, Jakarta.
Herlina, H. (2011). Perbandingan Metode Stepwise, Best Subset Regression, dan Fraksi
dalam Pemilihan Model Regresi Berganda Terbaik. Jurusan Matematika, F.MIPA,
Universitas Sriwijaya. Tersedia di http://statistik.studentjournal.ub.ac.id.
Pujilestari, S. (2016). Pemilihan Model Regresi Linear Berganda Terbaik Pada Kasus
Multikolinearitas Berdasarkan Metode Principal Component Analysis (PCA) Dan Metode
Stepwise. Skripsi. Jurusan Matematika, F.MIPA, Universitas Negeri Semarang
Samosir, dkk. (2014). Analisa Metode Backward dan Metode Forward Untuk Menentukan
Persamaan Regresi Linier Berganda: Saintia Matematika, 2(4), 345-360.
Sembiring, R.K. 1995. Analisis Regresi. Bandung: Penerbit ITB.

Anda mungkin juga menyukai