Modul Analisis Regresi
Modul Analisis Regresi
ANALISIS REGRESI
OLEH:
MADE SUSILAWATI
Pendahuluan
Gejala-gejala alam dan akibat atau faktor yang ditimbulkannya dapat diukur atau
dinyatakan dengan dua kategori yaitu fakta atau data yang bersifat kuantitatif dan fakta atau
data yang bersifat kualitatif. Dalam pembicaraan ini akan diuraikan masalah regresi dan
korelasi, sebagai pengukur hubungan antara dua variabel atau lebih. Dalam pembicaraan
regresi dan korelasi data yang dianalisis harus bersifat kuantitatif atau terukur atau terhitung
atau dapat dikuantitatifkan; jadi sekurang-kurangnya data dengan skala interval. Data
kuantitatif dapat dibedakan atas dua macam yaitu: Data atau pernyataan yang bersifat bebas
adalah pernyataan yang ditentukan dengan mana suka atau bebas pilih. Pernyataan ini sering
disebut dengan variabel bebas atau variabel prediktor atau independent variable. Data atau
pernyataan yang tergantung atau terikat pada variabel bebas disebut dengan variabel tak
bebas atau variabel tergantung atau variabel endogen atau kreterium atau dependent variable.
Apakah perlunya mempelajari regresi dan korelasi?. Tujuan mempelajari regresi dan korelasi
adalah untuk menemukan atau mencari hubungan antarvariabel, sebagai dasar untuk dapat
dipakai melakukan penaksiran atau peramalan atau estimasi dari hubungan antarvariabel
tersebut.
Pengertian Regresi
Regresi adalah pengukur hubungan dua variabel atau lebih yang dinyatakan dengan
bentuk hubungan atau fungsi. Untuk menentukan bentuk hubungan (regresi) diperlukan
pemisahan yang tegas antara variabel bebas yang sering diberi simbol X dan variabel tak
bebas dengan simbol Y. Pada regresi harus ada variabel yang ditentukan dan variabel yang
menentukan atau dengan kata lain adanya ketergantungan variabel yang satu dengan variabel
yang lainnya dan sebaliknya. Kedua variabel biasanya bersifat kausal atau mempunyai
hubungan sebab akibat yaitu saling berpengaruh. Sehingga dengan demikian, regresi
merupakan bentuk fungsi tertentu antara variabel tak bebas Y dengan variabel bebas X atau
dapat dinyatakan bahwa regresi adalah sebagai suatu fungsi Y = f(X). Bentuk regresi
tergantung pada fungsi yang menunjangnya atau tergantung pada persamaannya.
Macam – Macam Regresi
Regresi adalah bentuk hubungan antara variabel bebas X dengan variabel tak bebas Y,
yang dinyatakan dalam bentuk fungsi matematis Y = f(X). Sehingga persamaan regresi atau
bentuk fungsi, sesuai dengan variabel bebas X yang menyusunnya. Dengan demikian bentuk
fungsi atau regresi dapat digolongkan menjadi beberapa macam yaitu:
a. Regresi Linear
Regresi linear ialah bentuk hubungan di mana variabel bebas X maupun variabel
tergantung Y sebagai faktor yang berpangkat satu. Regresi linear sederhana dengan
bentuk fungsi Y = a + bX + e . Dari fungsi tersebut nantinya akan berbentuk garis lurus
(linear sederhana).
b. Regresi Non Linear
Regresi non linear ialah bentuk hubungan atau fungsi di mana variabel bebas X dan atau
variabel tak bebas Y dapat berfungsi sebagai faktor atau variabel dengan pangkat
tertentu. Selain itu, variabel bebas X dan atau variabel tak bebas Y dapat berfungsi
sebagai penyebut (fungsi pecahan), maupun variabel X dan atau variabel Y dapat
berfungsi sebagai pangkat fungsi eksponen = fungsi perpangkatan.
Regresi non linear dapat dibedakan menjadi :
1) Regresi polinomial
Ialah regresi dengan sebuah variabel bebas sebagai faktor dengan pangkat terurut.
Bentuk-bentuk fungsinya adalah sebagai berikut.
(fungsi kuadratik)
(fungsi kubik)
(fungsi kuartik)
(fungsi kuinik)
Selain bentuk fungsi di atas, ada suatu bentuk lain dari fungsi kuadratik, yaitu dengan
persamaan:
ini disebut kurva logistik atau "tipe umum dari model pertumbuhan".
Modifikasinya juga seperti :
( )
disebut dengan transformasi logaritmik resiprokal, yang umum disebut dengan model
Gompertz.
5) Regresi logaritmik
Bentuk fungsi dari regresi adalah di mana variabel bebas Y berfungsi sebagai pangkat
(eksponen) dan variabel bebas X mempunyai bentuk perpangkatan. Model regresi ini
adalah :
Keterangan:
Y = skor kriterion yang diramalkan
X = skor prediktor
a = koefisien prediktor
K = bilangan konstan
Persamaan regresi untuk memperoleh persamaan garis regresi linear satu variabel bebas
adalah sebagai berikut.
Langkah-langkah yang dilakukan untuk analisis regresi linear satu variabel bebas
diawali dengan membuat tabel persiapan, dan menghitung koefisien korelasi antara variabel
tergantung (kriterion) dengan variabel bebas (prediktor). Setelah diperoleh koefisien korelasi,
selanjutnya dilakukan uji signifikansi. Jika koefisien korelasi tidak signifikan, maka
penyusunan persamaan regresi tidak boleh dilanjutkan. Karena, memang tidak ada hubungan
antara kedua variabel tersebut. Jika diperoleh koefisien korelasi yang signifikan, maka
dilanjutkan dengan menyusun persamaan garis regresi. Persamaan regresi digunakan untuk
memprediksi seberapa besar nilai variabel tergantung oleh variabel bebas. Langkah
berikutnya adalah menghitung sumbangan relatif dan sumbangan efektif variabel bebas
terhadap variabel tergantung.
∑ ∑ ∑
∑ ∑
Memperoleh koefisien prediktor (a) dan angka konstan (K) dilakukan menggunakan
skor deviasi dan memanfaatkan persamaan sebagai berikut.
∑
∑
Pengertian Korelasi
Korelasi adalah pengukur hubungan dua variabel atau lebih yang dinyatakan dengan
derajat keeratan atau tingkat hubungan antarvariabel-variabel. Mengukur derajat hubungan
dengan metode korelasi yaitu dengan koefisien korelasi r. Dalam hal ini, dengan tegas
dinyatakan bahwa dalam analisis korelasi tidak mempersoalkan apakah variabel yang satu
tergantung pada variabel yang lain atau sebaliknya. Jadi metode korelasi dapat dipakai untuk
mengukur derajat hubungn antarvariabel bebas dengan variabel bebas yang lainnya atau antar
dua variabel.
Analisis Korelasi
Dalam menggunakan analisis korelasi, paling sedikit harus ada dua variabel yang
dikorelasikan. Analisis korelasi terutama digunakan untuk mengetahui kecenderungan
hubungan antara variabel yang satu dengan variabel lainnya. Hasil analisis korelasi akan
diperoleh koefisien korelasi yang menunjukkan besarnya hubungan antar variabel. Hubungan
antara variabel-variabel yang dikorelasikan tersebut tidak mempermasalahkan apakah ada
hubungan sebab akibat atau tidak ada hubungan sebab akibat. Variabel-variabel yang
dianalisis hubungannya adalah variabel tergantung (dependent variable) biasanya diberi
simbol Y dengan variabel-variabel bebas (independent variable) biasanya diberi simbol X.
Arah hubungan antar variabel yang dianalisis, korelasinya dapat berbentuk hubungan
positif atau hubungan negatif. Arah hubungan positif antar veriabel terjadi jika naiknya nilai
variabel X selalu diikuti dengan naiknya nilai variabel Y, atau jika turunnya nilai variabel X
selalu diikuti dengan turunnya nilai variabel Y. Sebaliknya, arah hubungan negatif antar
variabel terjadi jika naiknya nilai variabel X selalu diikuti dengan turunnya nilai variabel Y,
atau turunnya nilai variabel X selalu diikuti dengan turunnya nilai variabel Y.
Koefisien korelasi ditandai dengan “r“. Adapun rumus “r” adalah :
(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
Keterangan :
r = nilai koefisien korelasi
X = nilai variabel bebas
Y = nilai variabel tergantung
N = jumlah data
Koefisien korelasi digunakan untuk mengetahui derajat atau kekuatan dan arah
hubungan antara dua variabel. Pedoman untuk memberikan interpretasi koefisien korelasi
yaitu sebagai berikut :
0,00 – 0,199 = sangat rendah
0,20 – 0,399 = rendah
0,40 – 0,599 = sedang
0,60 – 0,799 = kuat
0,80 – 1,000 = sangat kuat
Berdasarkan pedoman diatas data yang semakin mendekati 1 maka data tersebut
semakin valid. Untuk mengetahui ada tidaknya hubungan antara dua variabel maka
perumusan hipotesisnya adalah sebagai berikut :
: Tidak terdapat hubungan/korelasi
: Terdapat hubungan/korelasi
Ketentuan adalah sebagai berikut : (berdasarkan tingkat signifikansi)
a. Jika nilai ( , : ditolak (terdapat hubungan/korelasi)
b. Jika nilai ( , : diterima (tidak ada hubungan/korelasi)
Berikut akan dibahas 2 teknik analisis korelasi, yaitu :
1. Korelasi Product Momen
Korelasi product moment ini diciptakan oleh Pearson, digunakan untuk
menentukan kecenderungan hubungan antara dua variabel interval atau rasio. Ada empat
cara menghitung koefisien korelasi product moment, yaitu menggunakan skor mentah,
skor deviasi, standar deviasi, dan menggunakan Scatter diagram.
Menggunakan skor mentah, rumusnya adalah :
(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
Menggunakan skor deviasi, rumusnya adalah :
(∑
√(∑ )(∑ )
√( ∑ (∑ )( ∑ (∑ )
Keterangan :
r = nilai koefisien korelasi
X = nilai variabel bebas
Y = nilai variabel tergantung
N = jumlah data
= deviasi dari mean untuk nilai variabel X
= deviasi dari mean untuk nilai variabel Y
∑
= standar deviasi variabel X, dapat dicari dengan rumus : √
∑
= standar deviasi variabel Y, dapat dicari dengan rumus : √
Uji signifikansi nilai koefisien korelasi product moment dilakukan dengan cara
membandingkan antara r hitung dengan r tabel, dengan taraf signifikansi yang telah
ditetapkan, dan menggunakan derajad kebebasan db = N 1.
2. Korelasi Partial
Keterangan:
t = nilai t unutk uji signifikansi korelasi partial
= koefisien korelasi partial variabel X, Y dan Z
N = banyaknya kasus
Data diambil dari buku Setyo Budiwanto yang berjudul “Metode Statistika untuk Mengolah
Data Keolahragaan”.
Suatu penelitian untuk mengetahui hubungan antara panjang tungkai (X) dalam satuan cm
dan tinggi lompatan (Y) dalam satuan cm.
Subyek
1 87 156 7569 24336 13572
2 94 164 8836 26896 15416
3 85 151 7225 22801 12835
4 89 155 7921 24025 13795
5 91 162 8281 26244 14742
6 83 151 6889 22801 12533
7 79 146 6241 21316 11534
8 92 163 8464 26569 14996
9 81 149 6561 22201 12069
10 86 153 7396 23409 13158
11 96 166 9216 27556 15936
12 82 151 6724 22801 12382
∑ 1045 1867 91323 290955 162968
Persamaan regresi untuk memprediksi tinggi lompatan oleh panjang tungkai yang dihitung
menggunakan skor mentah adalah sebagai berikut
̂
Data yang tersedia pada tabel dimasukkan sesuai dengan menggunakan skor deviasi, maka
diperoleh :
̅
̅
Nilai K dihitung diperoleh dengan menggunakan persamaan sebagai berikut
̂ ( (
̅ ( ̅
̂
Sehingga persamaan regresi untuk memprediksi tinggi lompatan oleh panjang tungkai yang
dihitung menggunakan skor deviasi adalah sebagai berikut
̂
Analisis Korelasi
Selanjutnya dilakukan analisis korelasi antara panjang tungkai (X) dengan tinggi lompatan
(Y) dihitung menggunakan teknik korelasi product momen dari Pearson, berdasarkan data
yang tersedia pada tabel diperoleh :
(∑ (∑ ∑
√( ∑ (∑ ( ∑ (∑
( (
√( ( ( (
√( (
√
Adapun perhitungan dengan menggunakan SPSS diperoleh sebagai berikut :
Correlations
Panjang Tinggi
Tungkai Lompatan
**
Panjang Tungkai Pearson Correlation 1 .976
Sig. (2-tailed) .000
N 12 12
**
Tinggi Lompatan Pearson Correlation .976 1
Sig. (2-tailed) .000
N 12 12
**. Correlation is significant at the 0.01 level (2-tailed).
Interpretasi :
a. Membandingkan r hitung dengan r tabel
Hasil analisis korelasi diperoleh r hitung r tabel , berarti
koefisien tersebut signifikan. Maka ditolak yaitu terdapat hubungan korelasi antara
panjang tungkai (X) dengan tinggi lompatan (Y). Karena terdapat korelasi yang
signifikan antara panjang tungkai (X) dengan tinggi lompatan (Y), maka panjang
tungkai (X) dapat digunakan untuk memprediksi tinggi lompatan (Y).
b. Melihat nilai signifikansinya
Hasil analisis korelasi diperoleh sig < r sig , berarti koefisien tersebut
signifikan. Maka ditolak yaitu terdapat hubungan korelasi antara panjang tungkai
(X) dengan tinggi lompatan (Y).
DAFTAR PUSTAKA
Penduga yang baik bagi parameter regresi 0 dan 1 ialah nilai-nilai b0 dan b1 yang dapat
meminimumkan Q untuk data amatan yang dimiliki.
Penduga b0 dan b1 yang meminimumkan Q diperoleh dengan mendeferensialkan Q
terhadap 0 dan 1 , sehingga diperoleh
Q n
0 i 1
2 Yi 0 1 X i
Q n
1 i 1
2 X i Yi 0 1 X i
selanjutnya kedua turunan parsial di atas disamakan dengan nol, dan mengunakan b0 dan b1 yang
menyatakan nilai 0 dan 1 yang meminimumkan Q , diperoleh
n
Y b
i 1
i 0 b1 X i 0
X Y b
i 1
i i 0 b1 X i 0
atau
n n
nb0 b1 X Y
i 1
i
i 1
i
n n n
b0
i 1
X i b1
i 1
Xi
2
X Y
i 1
i i
Kedua persamaan di atas disebut persamaan normal. Penyelesaian persamaan normal untuk b0
dan b1 adalah
n n
i 1
Yi b1 X
i 1
i
b0 Y b1 X
n n
n
X Y i i
X X Yi Y
n n
i 1
X i Yi i 1
n i 1
i
b1
X X
n n
2 2
n
Xi i
X
i 1
i
2
i 1
n
i 1
n X Y i i
X Y
i 1
i i i 1
n
i 1
n
X Y
i 1
i i nXY
X i X X i X X i
n n
2
S XX
i 1 i 1
2
n
n
Xi
X i2
i 1
i 1 n
n
X
i 1
i
2
nX 2
i 1 n
n
Y
i 1
i
2
nY 2
Bila penduga 0 dan 1 yaitu b0 dan b1 telah diperoleh, maka persamaan dugaan regresi
diperoleh sebagai berikut,
Yˆ b0 b1 X
Xi X
dimana k i .
X X
n
2
i
i 1
1 Xi X
dimana li Xk i dan k i
X X
n
n 2
i
i 1
Penduga kuadrat terkecil b0 dan b1 adalah penduga tak bias bagi parameter regresi 0 dan
1 . Penduga tak bias berarti nilai harapan penduga sama dengan parameter yang diduga, dan
n n n n n
E b1 E k i Yi
i 1
i 1
k i E Yi
i 1
k i 0 1 X i 0
i 1
k i 1 k X
i 1
i i 1
n n
dimana i 1
k i 0 dan k X
i 1
i i 1 , dan
E b0 E Y b1 X E Y E b1 X 0 1 X 1 X 0
Penduga tak bias b0 dan b1 bermakna bahwa nilai rata-rata penduga b0 dan b1 sama dengan
parameter regresi 0 dan 1 .
Ragam dari b0 dan b1 dapat diperoleh dengan cara sebagai berikut.
n n
2
Varb1 Var k i Yi
i 1
i 1
k i2 VarYi
S xx
1 X2
Varb0 VarY b1 X VarY X Varb1 2 XCovY , b1 2
n S xx
1.2 Residual
Residual atau sisaan ke- i adalah selisih antara nilai amatan Yi dengan nilai taksirannya Yˆi ,
ditulis dengan notasi e i , sehingga
ei Yi Yˆi Yi b0 b1 X
Residual sangat bermanfaat untuk menyelidiki apakah suatu model regresi sesuai atau tidak
untuk data yang dimiliki.
1.3 Sifat-sifat Garis Regresi Dugaan
Garis regresi yang diperoleh melalui metode kuadrat terkecil memiliki sifat sebagai
berikut.
a. Jumlah semua sisaan sama dengan nol.
e
i 1
i 0
Y Yˆ
i 1
i
i 1
i
c. Jumlah sisaan terboboti sama dengan nol bila sisaan dari amatan ke- i diboboti oleh nilai
peubah bebas pada amatan ke- i .
n
X e
i 1
i i 0
d. Jumlah sisaan terboboti sama dengan nol bila sisaan dari amatan ke- i diboboti oleh
nilai dugaan peubah respons pada amatan ke- i .
Yˆ e
i 1
i i 0
membangun perkiraan interval yang berkaitan dengan regresi model. Estimasi 2 diperoleh dari
Jumlah Kuadrat Galat (JKG) atau Sum Square Error (SSE).
Y Y b
n n n n
e Yˆi b1 X i Y
2
nY 2 b1 S XY S YY b1 S XY
2 2 2
i i i 0 i
i 1 i 1 i 1 i 1
Jumlah kuadrat galat memiliki n 2 derajat kebebasan, karena 0 dan 1 harus diduga
Uji mengenai 1 dilakukan dengan menggunakan sebaran t . Misalkan akan diuji apakah
1 sama dengan suatu konstanta tertentu 10 , maka hipotesis yang diuji adalah
H 0 : 1 10 H1 : 1 10
Kaidah keputusan dalam kaitan dengan statistik uji ini bila taraf nyata ditetapkan sebesar
adalah
a. Jika t hit t / 2,n2 , terima H 0 , yang berarti tidak terdapat asosiasi linear antara variabel X dan
Y
b. Jika t hit t / 2,n2 , tolak H 0 , yang berarti terdapat asosiasi linear antara variabel X dan Y
Uji mengenai 1 juga dilakukan dengan menggunakan sebaran t . Misalkan akan diuji apakah
1 sama dengan suatu konstanta tertentu 00 , maka hipotesis yang diuji adalah
H 0 : 1 00 H 1 : 1 00
Analisis ragam dengan uji statistik F juga bisa digunakan untuk menguji signifikansi model
regresi. Misalkan akan diuji apakah 1 sama dengan 0, maka hipotesis yang diuji adalah
H 0 : 1 0 H1 : 1 0
JKG
Sisaan/Residual n-2 JKG = S YY - JKR KTG =
n2
Total n-1 S YY
MSE MSE
b1 t / 2, n 2 1 b1 t / 2, n 2
S xx S xx
1 x 1 x
b0 t / 2,n 2 MSE 0 b0 t / 2,n 2 MSE
n S xx n S xx
SSR SSE
R2 1
S yy S yy
Nilai dari R 2 menggambarkan proporsi keragaman yang dapat dijelaskan oleh peubah bebas X .
Nilai dari R 2 yang mendekati 1 mengimplikasikan bahwa sebagian besar keragaman dari Y dapat
dijelaskan model regresi.
CONTOH KASUS
Sekelompok mahasiswi ingin meneliti apakah terdapat pengaruh antara luas area panen dan
jumlah produksi tanaman jagung yang ada di kabupaten Magelang. Data yang digunakan
dalam penelitian ini adalah luas area panen dan jumlah produksi jagung yang didapatkan setiap
tahun selama 15 tahun yaitu dari tahun 2003-2018.
Jagung/Maize
Tahun Luas Panen
Produksi
Year Harvested Area
Production (ton) - Y
(ha) – X
2003 20 065 92 127
2004 16 912 76 103
2005 15 082 70 235
2006 12 203 55 256
2007 13 535 68 327
2008 15 489 82 739
2009 14 104 77 470
2010 13 739 77 837
2011 11 541 63 184
2012 13 616 78 196
2013 12 535 74 187
2014 10 970 62 869
2015 11 625 67 124
2016 12 186 71 896
2017 9 377 53 244
2018 8 098 51 446
Jumlah 211 077 1122 240
Sumber: Dinas Pertanian dan Pangan Kabupaten Magelang
Analisis data akan dilakukan dengan manual dan dengan software SPSS.
Penyelesaian:
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)
( ) ( )( )
( ) ( )
Cara manual lain untuk menentukan adalah dengan mempergunakan nilai dari dan
dijabarkan sebagai berikut :
Dapat kita lihat pula pada tabel di bawah ini hasil perhitungan dari software SPSS untuk nilai
dari
Coefficientsa
Standardized
Unstandardized Coefficients Coefficients C
Model B Std. Error Beta t Sig. Zero-order
1 (Constant) 25762.742 6758.566 3.812 .002
Luas Panen Harvested Area 3.364 .501 .873 6.711 .000 .873
(ha)
a. Dependent Variable: Produksi Production (ton)
e. Menghitung nilai dari
∑ ∑
( )
( )
Interpretasi dan
Metode yang digunakan adalah Metode Kuadrat Terkecil ( MKT) yang meminimumkan jumlah
kuadrat sisaan adapun keterangan untuk dan adalah penduga, yang secara berturut-turut
sebagai penduga untuk dan b1 merupakan penduga bagi 1 . Diperoleh persamaan dugaan
regresinya yaitu
( )
mengindikasi bahwa untuk luas area panen yang berada dalam selang
pengamatan 25761.06 ton adalah bagian jumlah produksi yang tidak diterangkan oleh luas area
panen.
Kemudian untuk mengukur dugaan perubahan rataan nilai Y jika X berubah satu satuan. Jika
di dalam kasus ini menggambarkan bahwa setiap penambahan satu hektar are luas
area panen rataan jumlah produksi akan naik sebesar 3.364 ton.
f. Menghitung nilai dari secara manual dan SPSS
)( )
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)
h. Menghitung nilai dari secara manual dan SPSS
ANOVAa
Model Sum of Squares df Mean Square F Sig.
1 Regression 1407627590.70 1 1407627590.70 45.039 .000b
9 9
Residual 437545873.291 14 31253276.664
Total 1845173464.00 15
0
a. Dependent Variable: Produksi Production (ton)
b. Predictors: (Constant), Luas Panen Harvested Area (ha)
hasil dari pembagian SS regresi dan SS total adalah koefisien determinasi atau .
Selanjutnya pada kolom ANOVA terdapat kolom MS (Mean of Square) atau rata-rata jumlah
kuadrat. Ini adalah hasil bagi antara kolom Sum of Squares dengan kolom df yang selanjutnya
didapatkan nilai F. Nilai F ini yang dikenal dengan F hitung dalam pengujian hipotesa. Jika
maka dapat dikatakan berpengaruh signifikan.
i. Menghitung nilai dari selang kepercayaan untuk
⁄ , √ ⁄ , √
, √ , √
⁄ , ⁄ ,
, ( ) , ( )
( ) ( )
̅ ̅
⁄ , √ ( ) ⁄ , √ ( )
, ⁄ ,
√ ( )
,
, ⁄ ,
√ ( )
, √ ( )
,
, √ ( )
√ ( )
,
√ ( )
√ ( )
√ ( )
√ ( )
√ ( )
( ) ( )
k. Menghitung nilai dari
Interpretasi dan
Untuk selang kepercayaan , dengan tingkat kepercayaan 95%, dapat diduga bahwa produksi
jagung akan naik sekitar 2,28891742 sampai 4,43908258 untuk setiap kenaikan satu unit skor
luas panen, dan untuk selang kepercayaan , selang kepercayaan ini tidak selalu memberikan
informasi yang bermanfaat. Misalnya, dalam hal ini, selang tersebut belum tentu memberi informasi
bahwa jumlah produksi dengan luas panen antara 22760,77556 hingga 28761,34644 poin, itu hanya
dugaan saja.
Dalam uji hipotesis dan menentukan selang kepercayaan diperlukan asumsi bahwa galat
terdistribusi normal, identik dan tidak terikat (independen). Jikalau berhasil ditolak artinya
terdapat jumlah variasi data Y yang signifikan dan dapat dijelaskan oleh model regresi yaitu
kebergantungan Y secara linear terhadap X.
Kriteria penolakan terjadi apabila | | sehingga dalam kasus ini lebih besar
Draper,Norman R and Smith, Harry. 1998. Applied Regression Analysis. 3rd ed. New York: John
Wiley & Sons, Inc.
Neter, J., Wasserman, W., and Kutner, M. H. 1997. Model Linear Terapan. Penerjemah:
Bambang Sumantri. Jurusan Statistika FMIPA-IPB.
Montgomery, Douglas C., Peck, Elizabeth A., and Vining, Geoffrey G. 2012. Introduction to
Linear Regressi on Analysis. 5th ed. New Jersey: John Wiley & Sons, Inc.
ASUMSI - ASUMSI DALAM ANALISIS LINEAR SEDERHANA DAN
LANGKAH-LANGKAH DALAM MENGATASINYA
Analisis regresi adalah analisis untuk memprediksikan seberapa jauh perubahan nilai
variabel dependen, bila nilai variabel independen di manipulasi/dirubah-ubah atau dinaik
turunkan. Manfaat dari hasil analisis regresi adalah untuk membuat keputusan apakah naik dan
menurunnya variabel dependen dapat dilakukan melalui peningkatan variabel independen atau
tidak. Regresi Linier Sederhana didasarkan pada hubungan fungsional ataupun kausal satu
variabel independen dengan satu variabel dependen (Sugiyono,2007 : 262). Persamaan umum
regresi linier sederhana adalah :
Dimana.
= Konstata ( Intercept )
= Koefisien ( Slope )
Menurut Imam Ghozali (2011), uji asumsi klasik terhadap model regresi linier yang
digunakan dilakukan agar dapat diketahui apakah model regresi baik atau tidak. Tujuan
pengujian asumsi klasik adalah untuk memberikan kepastian bahwa persamaan regresi yang
diperoleh memiliki ketepatan dalam estimasi, tidak bias, dan konsisten. Sebelum melakukan
analisis regresi terlebih dahulu dilakukan pengujian asumsi. Asumsi-asumsi yang harus dipenuhi
dalam analisis regresi antara lain: normalitas, homoskedastisitas, autokorelasi, dan linearitas.
1. Uji Linieritas
Linieritas adalah salah satu asumsi dari analisis regresi, apakah garis regresi antara dua
variabel yaitu variabel dependen dan independen membentuk garis linier atau tidak. Analisis
regresi tidak dapat dilanjutkan, jika tidak linier (Sugiyono, 2007 : 265). Perlunya mengetahui
adakah sifat linear pada hubungan X dan Y mempengaruhi tingkat valid atau tidaknya model
regresi yang dihasilkan. Jadi, sebagus apapun model regresi yang dihasilkan dengan R squared
yang tinggi, namun jika data tersbeut tidak memiliki sifat linear, maka kemungkinan akan terjadi
kesalahan estimasi dan akan mempengaruhi hasil akhir dari uji tersebut.
Uji kelinieran dapat dilakukan dengan terlebih dahulu menghitung jumlah kuadrat-kuadrat,
disingkat JK, untuk berbagai sumber variasi. Sumber-sumber variasi yang JK-nya perlu dihitung
adalah sumber-sumber variasi untuk jumlah kuadrat total, jumlah kuadrat (a), jumlah kuadrat
(b|a), jumlah kuadrat sisa, jumlah kuadrat tuna cocok (F hitung) dan jumlah kuadrat galat (error)
yang dapat dihitung dengan menggunakan rumus-rumus berikut:
Dimana:
2. Uji Normalitas
Uji normalitas adalah pengujian tentang kenormalan distribusi data. Uji normalitas
merupakan syarat dilakukan pengujian parametrik. Pengujian normalitas dapat menggunakan one
sample Kolmogorov-smirnov dengan menggunakan uji two tailed dengan signifikan sebesar
0,05. Data dapat dikatakan berdistribusi normal apabila nilai signifikansi lebih dari 0,05 (Gendro
Wiyono, 2011:149).
Analisis regresi linier mengasumsikan bahwa sisaan berdisitribusi mengetahui apakah dalam
persamaan regresi tersebut residual berdistribusi normal. Uji normalitas dapat dilakukan dengan
P-P Plot dan uji Kolmogorov Smirnov. Normal P-P plot, uji normalitasnya dapat dilihat dari
penyebaran data (titik) pada sumbu diagonal grafik (Gujarati,2004:109). Dasar pengambilan
keputusannya, jika data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal
atau grafik histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi
asumsi normalitas.
Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-Smirnov.
Menurut Sidney Siegel (1986: 59), uji Kolmogorov-Smirnov didasarkan pada nilai D atau
deviasi maksimum, yaitu:
Dengan adalah fungsi distribusi frekuensi kumulatif relatif dari distribusi teoritis di
bawah . Kemudian adalah distribusi frekuensi kumulatif pengamatan sebanyak sampel.
Hipotesis nol adalah sisaan berdistribusi normal. Kriteria keputusan uji Kolmogorov Smirnov
adalah jika nilai D < D tabel atau p –value pada SPSS output lebih dari nilai taraf nyata.
3. Homokesdatisitas
Uji heteroskedastisitas ini bertujuan untuk menguji apakah dalam model regresi terjadi
kesamaan varian dari residual dari satu pengamatan ke pengamatan yang lain. Jika varians dari
satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedatisitas atau tidak
terjadi heteroskedastisitas dan jika terjadi varians berbeda maka disebut heteroskedastisitas.
Model regresi yang baik adalah model yang homoskedastisitas atau tidak terjadi
heteroskedastisitas (Ghozali, 2001). Jika terjadi, heteroskedastisitas, maka hal itu akan
mempengaruhi hasil dari analisis data tersebut dikarenakan terdapat perbedaan varian yang
menunjukkan data tersebut masih belum sama atau homogen.
Asumsi menyatakan bahwa varian setiap sisaan masih tetap sama baik untuk nilai-nilai
pada variabel independen yang kecil maupun besar. Asumsi ini dapat ditulis sebagai berikut:
untuk n menunjukkan jumlah observasi. Salah satu cara menguji kesamaan variansi yaitu dengan
melihat pola tebaran sisaan terhadap nilai estimasi Y. Jika tebaran sisaan bersifat acak (tidak
membentuk pola tertentu), maka dikatakan bahwa variansi sisaan homogen (Draper & Smith,
1998:65).
Menurut Gujarati (2004:406) salah satu cara untuk mendeteksi homoskedastisitas adalah
menggunakan uji korelasi rank Spearman. Selain itu terdapat beberapa pengujian juga yang
dapat digunakan untuk mendeteksi heteroskedatitas yaitu Uji Park, Uji Glejser maupun Uji
Scatterplot.
Heteroskedastisitas dapat terjadi karena spesifikasi yang tidak benar atau oleh penggunaan
bentuk fungsional yang salah. Untuk mengatasinya, dapat dilakukan dengan penambahan atau
mengurangi variabel bebas atau melakukan transformasi sehingga presentase kesalahan menjadi
seragam di keseluruhan observasi.
4. Autokorelasi
Autokorelasi adalah korelasi yang terjadi antar observasi dalam satu variabel (Nachrowi
djalal dan Hardius usman: 2006). Menurut Singgih Santoso (2012: 241) “Uji autokorelasi
bertujuan untuk menguji apakah dalam model regresi linier ada korelasi antara kesalahan
pengganggu pada periode t dengan kesalahan pengganggu pada periode t-1 (sebelumnya)”. Jika
terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena
observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya. Masalah ini timbul
karena residual (kesalahan pengganggu) tidak bebas dari satu observasi ke observasi lainnya.
Hal ini sering ditemukan pada data runtut waktu (time series) karena gangguan pada seseorang
individu/kelompok cenderung mempengaruhi gangguan pada individu/kelompok yang sama
pada periode berikutnya. Jika terjadi autokorelasi, Pemerikasaan terhadap residualnya akan
menemui permasalahan. Autokorelasi yang kuat dapat pula menyebabkan dua variabel yang
tidak berhubungan menjadi berhubungan.
Pada data crossection (silang waktu), masalah autokorelasi relatif jarang terjadi karena
gangguan pada observasi yang berbeda berasal dari individu kelompok yang berbeda. Model
regresi yang baik adalah regresi yang bebas dari autokorelasi. Selain itu penyebab autokorelasi
terjadi kerena terjadi bias dalam spesifikasi yaitu ada beberapa variable yang tidak masuk
kedalam model, Bentuk fungsi tidak tepat semestinya misalkan bentuk nonlinier namun
digunakan linier ataupun sebaliknya. Untuk mengatasi Autokorelasi, kita dapat menambahkan
satu atau beberapa variable bebas atau memperbaiki bentuk fungsionalnya.
Pendekatan yang sering digunakan untuk menguji ada tidaknya autokorelasi adalah uji
Durbin-Watson (DW test) (Imam Ghozali, 2013:110)
hipotesis:
Statistik Uji :
Setelah mendapatkan statistik uji. Langkah selanjutnya adalah membandingkan dengan tabel
DW. Tabel DW tediri atas dua nilai, yaitu batas bawah (dL) dan batas atas(dl) dan batas
bawah(du). Berikut beberapa keputusan setelah membandingkan DW.
Bila nilai DW terletak antara batas atas atau upper bound (du) dan (4 - du), maka
koefisien autokorelasi sama dengan nol, berarti tidak ada autokorelasi.
Bial nilai DW lebih rendah daripada batas bawah atau lower bound (dl), maka koefisien
autokorelasi lebih besar daripada nol, berarti ada autokorelasi positif.
Bila nilai DW lebih besar daripada (4 - dl), maka koefisien autokorelasi lebih kecil
daripada nol, berarti ada autokorelasi negatif.
Bila nilai DW terletak di antara batas atas (du) dan batas bawah (dl) ada DW terletak
antara (4 - du) dan (4 - dl), maka hasilnya tidak dapat disimpulkan.
Bila nilai DW terletak antara (4-du) dan (4 - dl), maka hasilnya tidak dapat
disimpulkan.
CONTOH KASUS
Data diambil dari jurnal “Pengaruh Motivasi Kerja terhadap Kinerja Karyawan pada Perusahaan
Susu Aneka Rasa Mommy Cow Tulungagung” oleh Tontowi Jauhari.
Sumber daya manusia merupakan aset utama perusahaan, karena untuk meningkatkan efisiensi
dan produktifitas perusahaan sangat tergantung pada kinerja sumber daya manusianya. Kinerja
sumber daya manusia dapat dipengaruhi oleh faktor internal maupun faktor eksternal sehingga
menuntut seorang pimpinan untuk dapat memberikan motivasi. Penelitian ini bertujuan untuk
mengetahui hubungan motivasi dengan kinerja karyawan, variabel yang digunakan dalam
penelitian ini meliputi variabel bebas yaitu motivasi (x) sedangkan variabel terikatnya adalah
kinerja karyawan (y) penelitian ini menggunakan metode deskriptif kuantitatif.
Penyelesaian
Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
b
1 Motivasi . Enter
a. Dependent Variable: Kinerja Karyawan
b. All requested variables entered.
Tabel diatas menjelaskan tentang variable yang dimasukkan. Dalam hal ini variable yang
dimasukkan adalah variable Motivasi sebagai variable independent dan Volume Kinerja
Karyawan sebagai variable dependent.
Uji Linieritas
ANOVA Table
Sum of
Squares df Mean Square F Sig.
Kinerja Between (Combined) 25.288 8 3.161 1.702 .157
Karyawan * Groups Linearity .319 1 .319 .172 .683
Motivasi Deviation from 24.969 7 3.567 1.920 .117
Linearity
Within Groups 39.012 21 1.858
Total 64.300 29
Residual adalah selisih antara nilai yang diprediksi dengan nilai sebenarnya, adapun uji
ini digunakan untuk menguji apakah nilai yang dihasilkan dari regresi terdistribusi secara normal
atau tidak. Model regresi yang baik adalah yang terdistribusi secara normal dengan melihat P-P
Plot. Dapat kita lihat karena titik-titik menyebar disekitar garis dan mengikuti garis diagonal
maka nilai residual telah terdistribusi secara normal.
-Langkah Pertama
Membuat hipotesis dan menyusun sebaran data dari nilai terkecil ke terbesar
Hipotesis :
Data berdistribusi normal
Data Tidak Berdistribusi Normal
-Langkah Ke-dua
Menentukan nilai frekuensi kumulatif dan nilai Kumulatif Proporsi (kp)
X F f kum kp
36 1 1 0.033
38 3 4 0.133
39 3 7 0.233
40 4 11 0.367
41 4 15 0.500
42 7 22 0.733
43 2 24 0.800
44 4 28 0.933
45 2 30 1.000
-Langkah Ke-tiga
Menghitung nilai normal setiap data
X F f kum kp Z Z tabel
36 1 1 0.033 -2.31 0.4896
38 3 4 0.133 -1.42 0.4222
39 3 7 0.233 -0.98 0.3366
40 4 11 0.367 -0.54 0.2054
41 4 15 0.500 -0.10 0.0398
42 7 22 0.733 0.34 0.1331
43 2 24 0.800 0.78 0.2823
44 4 28 0.933 1.22 0.3888
45 2 30 1.000 1.66 0.4515
-Langkah Ke-empat
Menentukan luas kurva dengan melihat table Z negative dan positif
-Langkah Ke-lima
Menentukan a1 dan a2(Kolmogorov-smirnov hitung)
-Langkah Ke-tujuh
Membandingkan Kolmogorov-smirnov hitung dan Kolmogorov-smirnov tabel
*Jika Kolmogorov-smirnov hitung nilai Kolmogorov-smirnov table, Maka Tolak
Dalam mendeteksi ada atau tidaknya auto korelasi maka terdapat 4 cara untuk mengetestnya :
dengan metode grafik, Uji Durbin-Watson, Uji Run, Uji Breusch-Godfrey (BG)/ Lagrange
Multiplier (LM).
Model Summaryb
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson
Berdasarkan table output SPSS “Model Summary” diatas, menjelaskan besarnya nilai
korelasi/hubungan R yaitu sebesar 0.070 yang berarti korelasi antara motivasi dan kinerja kerja
sangat rendah, kita juga dapatkan nilai koefesien determinasi atau R Square adalah sebesar
0.005. Nilai R Square 0.005 ini sama dengan 0.5% nilai ini mengandung arti bahwa variable (X)
dalam hal ini motivasi berpengaruh terhadap variable (Y) kinerja karyawan sebesar 0.5%.
Sedangkan sisanya 99.5% dipengaruhi oleh variabel lain diluar penelitian ini.
Rumus yang digunakan untuk Durbin-Watson Test dapat dilihat di bawah ini.
d=
Simbol e(t) merupakan galat (residual) pada pengamatan ke-t, sedangkan n adalah banyaknya
data dalam analisis, di mana dalam contoh soal ini telah diketahui bahwa t = 30. Simulasi
perhitungan rumus d tersebut ditampilkan di bawah ini
d=
d=
Maka, karena nilai Durbin-Watson sama dengan perhitungan dengan SPSS Uji Durbin-Watson
maka dapat di simpulkan juga bahwa tidak terdapat auto korelasi.
Uji Homokedastisitas
Perhitungan dengan SPSS
Berdasarkan output di atas, grafik tidak berpola berarti terjadi homoskedastisitas dan
variable x dengan residu merupakan variabel yang berbeda.
Berdasarkan data di atas, menunjukkan bahwa homokedastisitas karena nilai residu pada setiap
nilai prediksi secara acak.
DAFTAR PUSTAKA
Gaspersz, Vincent. 2005. Total Quality Management : Manajemen Bisnis Total. Jakarta.
Gramedia Pustaka Utama.
Imam Ghozali. 2009. Aplikasi Analisis Multivariate dengan Program SPSS. Semarang: Badan
Penerbit Universitas Diponegoro
Jauhari, Tontowi. 2017. Pengaruh Motivasi Kerja terhadap Kinerja Karyawan pada Perusahaan
Susu Aneka Rasa Mommy Cow Tulungagung, Jurnal Penelitian Manajemen Terapan
(PENATARAN). 2(1):18-29.
Purnama, I. A. 2015. Pengaruh Skema Kompensasi Denda Terhadap Kinerja Dengan Risk
Reference Sebagai Variabel Moderating. Jurnal Nominal. 7(1):129-145.
Santoso, Singgih. 2018. Mahir Statistik Multivariat dengan SPSS. Elex Media Komputindo.
Zulfikar, A. R. 2017. Pengaruh Social Media Marketing Terhadap Brand Trust Pada Followers
Instagram Dompet Dhuafa Cabang Yogyakarta. Al-Idarah Jurnal. 1(2):279-294.
ANALISIS RAGAM, UJI T, PENDEKATAN MATRIKS
TERHADAP ANALISIS REGRESI LINEAR SEDERHANA
1. Analisis Ragam
Analisis ragam atau disebut juga Analisys of Varians (ANOVA) dalam Analisis
Regresi Linear Sederhana dimaksudkan untuk mengetahui ada tidaknya pengaruh variabel
independen secara bersama-sama dengan variabel dependen. Analisis ragam ini disebut pula
dengan istilah uji keterandalan model atau uji kelayakan model. Analisis ragam merupakan
tahapan awal mengidentifikasi model regresi yang diestimasi layak atau tidak. Layak (andal)
disini maksudnya adalah model yang diestimasi layak digunakan untuk menjelaskan
pengaruh variabel-variabel bebas terhadap variabel terikat. Tabel ANOVA digunakan untuk
melakukan perhitungan pengujian ragam dari data regresi dan komponen-komponen terdiri
dari komponen Regression, Residual, dan Total untuk komponen vertikalnya, sedangkan
untuk komponen horizontalnya terdiri dari derajat bebas (df), jumlah kuadrat (JK), Kuadrat
Tengah (KT), Hasil Perhitungan F, dan Significant F dimana komponen-komponen tersebut
akan diuraikan sebagai berikut :
Kita ketahui persamaan regresi penduga ̂ dari suatu pengamatan atau untuk
pengaruh variabel bebas X terhadap variabel tak bebas Y yaitu
̂
Dari persamaan tersebut dimana . Dan jika persamaan ̅ ̅
( )
dimana :
disebut dengan JK Regresi
Dari persamaan didapatkan bahwa JK Galat Regresi sama dengan JK
Total dikurangi dengan JK Regresi.
Sehingga hubungan antara komponen-komponen pada analisis ragam (JK Total, JK Regresi,
JK Galat) seperti berikut :
JK Galat = JK Total – JK Regresi
Untuk menyederhanakan penulisan dan pengertian diatas, maka selanjutnya JK Galat
Regresi disingkat dengan JKG, JK Regresi dengan JKR dan JK Total dengan JKT.
Sehingga sesuai dengan persamaan , maka JKR mempunyai rumus :
Dari persamaan diatas berlaku umum untuk p variabel bebas X sehingga persamaannya
menjadi :
( )
Komponen penyusun Tabel Analisis Ragam Regresi Linear Sederhana adalah :
( )
Selanjutnya dihitung nilai Kuadrat Total (KT) atau varians seperti berikut :
Keterangan :
df = nilai derajat kebebasan
Berdasarkan pada asumsi sebaran normal untuk komponen penggangu , maka besarnya
nilai F (F-hitung) adalah :
Hasil perhitungan keragaman di atas dibuatkan Tabel Analisis Ragam Regresi seperti pada
tabel berikut dibawah ini :
Sumber Jumlah df Kuadrat
Ragam Kuadrat Tengah
Regresi p=1
Total n–1
Keterangan :
n = jumlah sampel (pasangan pengamatan) dan p jumlah variabel bebas X
F-hitung disimbolkan dengan ini diartikan bahwa dalam pengujian F akan dibuktikan
suatu hipotesis nol atau dan
Kemudian F-hitung dibandingkan dengan F tabel yang baisa ditulis dengan :
(dimana ( ) dan )
Kriteria pengujian nilai adalah :
a. Jika . Hal ini berarti bahwa garis regresi penduga ( ̂ ) linier sederhana
yang didapat tersebut bukan garis linier yang terbaik untuk menghampiri pasangan
pengamatan atau dapat dikatakan ini berarti bahwa terdapat hubungan bukan linier
pada pasangan pengamatan tersebut.
b. Jika Hal ini berarti bahwa terdapat hubungan linier antara pengaruh
terhadap . Atau dapat dikatakan bahwa garis regresi penduga ̂ linier sederhana yang
didapat tersebut adalah garis regresi penduga terbaik untuk menghampiri pasangan
pengamatan .
2. Uji t
Uji Koefisien Regresi sederhana atau disebut juga Uji t ini digunakan untuk
mengetahui apakah variabel independen (X) berpengaruh secara signifikan terhadap variabel
dependen (Y). Signifikan berarti pengaruh yang terjadi dapat berlaku untuk populasi (dapat
digeneralisasikan).
T – hitung
T – hitung
dan
T– hitung
Keterangan :
b = koefisien regresi
Sb = Standar error
Dari persamaan diatas dalam menyerdehanakan penulisan standar error atau salah baku
koefisien regresi yang biasa ditulis dengan
( ). Perhitungan nilai
didasarkan pada ragam galat regresi atau KT galat regresi.
Karena besarnya nilai (ragam galat regresi) populasi tidak diketahui, maka dapat diduga
dengan nilai atau KT galat regresi sampel yang mempunyai persamaan yaitu:
( )
Selanjutnya, dalam uji t nilai baku atau standar error bi yang ditulis (Sbi) mempunyai
persamaan seperti berikut:
√. /
√. /
Seperti dalam uji F, penulisan t – hitung dapat ditulis dengan notasi thit (artinya uji t untuk
pengujian hipotesis nol atau H0 : b1 = 0 H1 : minimal satu dari b1 ≠ 0).
Thitung ≈ ttabel
Berdasarkan hasil uji t ternyata bahwa kreteria pengujian nilai thit adalah :
a. Jika thit ≤ t(tabel 5%,db galat). Hal ini dapat dikatakan bahwa terima H0. Untuk pengujian b0
yang berarti bahwa b0 melalui titik acuan (titik0,0) yaitu nilai Y = 0 jika X = 0. Untuk
b1, jika thit ≤ t(tabel 5% db galat) maka garis regresi penduga ̂ dikatakan sejajar dengan
sumbu X pada nilai b0.
b. Jika thit > t(tabel 5%,db galat). Hal ini dapat dikatakan bahwa tolak H0, yang berarti bahwa
garis regresi penduga ̂ tidak melalui titik acuan (X,Y = 0,0). Dengan kata lain, ini
berarti bahwa koefisien arah b1 yang bersangkutan dapat dipakai sebagai penduga dan
peramalan yang dapat dipercaya. Pengujian yang dilakukan dengan cara tersebut di atas,
dapat memberikan petunjuk apakah setiap variable Xi memberikan penaruh atau
hubungan yang nyata terhdap variable tak bebas Y. perlu diingatkan bahwa dalam
pengujian di atas (baik uji F maupun uji t), didasarkan metode kuadrat terkecil.
Matriks digunakan pada hampir semua cabang ilmu pengetahuan, terutama sekali
karena kesederhanaan penulisan dan perhitungannya. Model regresi linear sederhana
ditulis sebagai:
[ ] [ ][ ] [ ]
Maka penulisan model regresi linear sederhana secara matriks akan menjadi:
3.2 Estimasi Model
Estimator terbaik artinya estimator yang bersifat tak bias dan mempunyai variansi
minimum. Untuk mencari estimator dengan variansi minimum akan digunakan suatu
metode yaitu metode kuadrat terkecil.
Dengan metode kuadrat terkecil untuk menentukan model dugaan sebagai berikut:
( ) , -, -
( )
( ) ( )
( )
( )
, -
∑ ∑ ∑
[ ] [ ]
∑ ∑
( )
( )
∑
[ ]
[ ̅]
̅
Lalu langkah berikutnya dibuktikan apakah estimator yang diperoleh bersifat tak bias.
Sebuah penduga titik ̂ dikatakan penduga tak bias dari parameter jika [ ̂]
untuk semua nilai yang mungkin.
Bukti :
[ ̂] *, - + , - ( ) , -
Berdasarkan hal ini maka terbukti bahwa [ ̂] sehingga ̂ adalah penduga tak
bias untuk
[ ̂] *, - + , - ( ) , -
CONTOH KASUS
Untuk lebih memahami penjelasan dari tinjauan pustaka di atas maka perhatikan contoh kasus di
bawah ini.
( )
( ) ( )
( )
( )
( ) ( )
( )
- Rumusan Hipotesis :
(tidak ada pengaruh yang linier antara IPM terhadap Tingkat
Kemiskinan)
(ada pengaruh yang linier antara IPM terhadap Tingkat Kemiskinan)
( )
- Daerah Kritis :
( ( ))
( ( ))
- Keputusan :
Karena F hitung sebesar < F tabel sebesar , maka terima dan tolak
- Kesimpulan :
Dengan taraf uji 5% dapat dinyatakan bahwa tidak terdapat hubungan linear antara
IPM dan Tingkat Kemiskinan atau dapat dikatakan dengan tidak terdapat pengaruh
yang signifikan dari IPM terhadap Tingkat Kemiskinan.
1.2. Dengan SPSS
ANOVAa
Sum of Mean
Model Squares df Square F Sig.
1 Regression .499 1 .499 5.296 .050b
Residual .753 8 .094
Total 1.252 9
a. Dependent Variable: Kemiskinan
b. Predictors: (Constant), IPM
Interpretasi :
Hipotesis yang dapat dibangun dengan kriteria pengujian sebagai berikut :
a. diterima ( ditolak) apabila taraf signifikansi ( ) signifikansi
b. ditolak ( diterima) apabila taraf signifikansi ( ) signifikansi
Dari tabel Anova diatas terlihat nilai-nilai yang diperoleh sama seperti yang
diperoleh pada perhitungan manual diatas. Pada kolom terakhir yaitu kolom Sig. terlihat
angka 0.050. Bandingkan angka ini dengan taraf signifikansi . Karena nilai sig =
taraf signifikansi maka diterima dan ditolak, sehingga kesimpulannya adalah
tidak terdapat hubungan linear antara Indeks Pembangunan Manusia terhadap Tingkat
Kemiskinan atau dapat dikatakan tidak terdapat pengaruh yang signifikan dari Indeks
Pembangunan Manusia terhadap Tingkat Kemiskinan.
Kemiskinan ̅
No Tahun IPM (X) X^2 Y^2 XY ( )
(Y)
1 2011 71.00 4.59 5041.0000 21.0681 325.8900 -2.406 5.788836
2 2012 71.62 3.95 5129.4244 15.6025 282.8990 -1.786 3.189796
3 2013 72.09 4.49 5196.9681 20.1601 323.6841 -1.316 1.731856
4 2014 72.48 4.76 5253.3504 22.6576 345.0048 -0.926 0.857476
5 2015 73.27 4.74 5368.4929 22.4676 347.2998 -0.136 0.018496
6 2016 73.65 4.25 5424.3225 18.0625 313.0125 0.244 0.059536
7 2017 74.30 4.25 5520.4900 18.0625 315.7750 0.894 0.799236
8 2018 74.77 4.01 5590.5529 16.0801 299.8277 1.364 1.860496
9 2019 75.38 3.79 5682.1444 14.3641 285.6902 1.974 3.896676
10 2020 75.50 3.78 5700.2500 14.2884 285.3900 2.094 4.384836
Total 734.06 42.61 53906.9956 182.8135 3124.4731 0.00000 22.58724
AVERAGE 73.41
Berdasarkan tabel diatas dapat ditentukan nilai dan seperti pada perhitungan
sebelumnya:
( )
( ) ( )
( )
( )
( ) ( )
( )
- Rumusan Hipotesis :
IPM tidak berpengaruh signifikan terhadap tingkat kemiskinan
IPM berpengaruh signifikan terhadap tingkat kemiskinan
( ̂)
- Hitung Ragam :
Ragam ( ̂ )
Ragam ( ̂ )
Standar error ̂ √ (̂ )
Standar error ̂ √ (̂ )
̂
(̂ )
̂
- Hitung :
t tabel dapat dilihat pada tabel statistik dengan pengujian dua sisi (signifikansi
) dan derajat kebebasan
( ) ( ) . Hasil yang
diperoleh untuk t tabel sebesar 2.751523596
- Keputusan :
Karena nilai t hitung sebesar < t tabel sebesar 2.752 maka diterima dan
ditolak
- Kesimpulan :
Dengan taraf uji 25% dapat dinyatakan bahwa tidak terdapat pengaruh yang
signifikan dari IPM terhadap Tingkat Kemiskinan.
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 15.169 4.741 3.200 .013
IPM -.149 .065 -.631 -2.301 .050
a. Dependent Variable: Kemiskinan
Interpretasi :
Dari tabel Coefficients diatas terlihat nilai-nilai yang diperoleh sama seperti yang
diperoleh pada perhitungan manual diatas. Uji signifikansi dengan uji t ini bertujuan
untuk mengetahui apakah ada pengaruh yang nyata (signifikan) variabel IPM (X)
terhadap variabel Tingkat Kemiskinan (Y).
Hipotesis yang dapat dibangun dengan kriteria pengujian sebagai berikut :
a. : tidak ada pengaruh yang nyata (signifikan) IPM terhadap Tingkat Kemiskinan (Y)
b. : ada pengaruh yang nyata (signifikan) IPM terhadap Tingkat Kemiskinan (Y)
Dari output diatas dapat diketahui nilai t hitung = -2.301 dengan nilai signifikansi
0.050 0.050, maka diterima dan ditolak, jadi kesimpulannya tidak ada pengaruh
yang nyata (signifikan) antara Indeks Pembangunan Manusia terhadap Tingkat
Kemiskinan (Y).
Dari tabel diatas dapat dibuat tabel bantu untuk mempermudah perhitungan :
Kemiskinan
No Tahun IPM (X) X^2 Y^2 XY
(Y)
1 2011 71.00 4.59 5041.0000 21.0681 325.8900
2 2012 71.62 3.95 5129.4244 15.6025 282.8990
3 2013 72.09 4.49 5196.9681 20.1601 323.6841
4 2014 72.48 4.76 5253.3504 22.6576 345.0048
5 2015 73.27 4.74 5368.4929 22.4676 347.2998
6 2016 73.65 4.25 5424.3225 18.0625 313.0125
7 2017 74.30 4.25 5520.4900 18.0625 315.7750
8 2018 74.77 4.01 5590.5529 16.0801 299.8277
9 2019 75.38 3.79 5682.1444 14.3641 285.6902
10 2020 75.50 3.78 5700.2500 14.2884 285.3900
Total 734.06 42.61 53906.9956 182.8135 3124.4731
( ) 538844.084
Dengan pendekatan matriks kita dapat menentukan nilai dan sebagai berikut :
[ ] [ ] [ ]
[ ] 0 1 0 1
[ ] 0 1 0 1
[ ] [ ] 0 1
( )
[ ] 0 1 0 1
[ ] 0 1 0 1
[ ] 0 1
[ ] 0 1
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) 15.169 4.741 3.200 .013
IPM -.149 .065 -.631 -2.301 .050
a. Dependent Variable: Kemiskinan
Interpretasi :
Dari tabel coefficients diatas pada kolom B dapat dilihat bahwa persamaan regresi
yang diperoleh yaitu
.
Nilai tersebut memiliki hasil yang sama dengan perhitungan manual untuk pendekatan
matriks diatas. Dimana hal ini berarti jika Indeks Pembangunan Manusia adalah 0
maka Itingkat Kemiskinan sebesar 15.169 persen, kemudian untuk setiap peningkatan
Indeks Pembangunan Manusia sebesar 1 persen maka terjadi penurunan Tingkat
Kemiskinan sebesar 0.149 persen.
DAFTAR PUSTAKA
Neter, J., W. Wasserman, dan M. H. Kutner. 1990. Applied Linear Statistical Models. 3rd ed.
Richard D. Irwin, Inc. Homewood, Illinois.
Utama, C. 2009. Dengan Pendekatan Matriks Dalam Regresi. Jurnal Bina Ekonomi Majalah
llmiah Fakultas Ekonomi Unpar 13(1) : 96 – 104.
Abadi, S. 2013. Aplikasi Paket Statistik Untuk Metode Regresi Linier Dengan Menggunakan
Microsoft Excel. Jurnal STMIK Bani Saleh 2(2) : 20 – 28.
Harlan, Johan. 2018. Analisis Regresi Linear. Jakarta : Gunadarma.
Badan Pusat Statistik. 2010. Indeks Pembangunan Manusia Provinsi Bali Menurut
Kabupaten/Kota. BPS Provinsi Bali. Bali
Badan Pusat Statistik. 2002. Persentase Penduduk Miskin Provinsi Bali Menurut
Kabupaten/Kota. BPS Provinsi Bali. Bali
ANALISIS REGRESI LINEAR BERGANDA
Metode regresi linear adalah alat statistic yang dipergunakan untuk mengetahui
pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. Manfaat dari regresi
linear diantaranya analisis regresi lebih akurat dalam melakukan analisis korelasi, karena
analisis itu kesulitan dalam menunjukan tingkat perubahan suatu variabel terhadap variabel
lainnya (slop) dapat ditentukan. Dengan analisis regresi peramalan atau perkiraan nilai
variabel terikat pada nilai variabel bebas lebih akurat. Selain itu analisis ini untuk mengetahui
arah hubungan antara variabel dependen apakah positif dan negatif dan untuk memprediksi
nilai dari variabel dependen apabila nilai dari variabel independen mengalami kenaikan atau
penurunan dan variabel independen. Data yang digunakan adalah data berskala interval atau
rasio (Sena, 2016). Regresi linier terbagi menjadi regresi linier sederhana dan regresi linier
ganda ( Padilah & Adam, 2019).
Regresi linier berganda merupakan model persamaan yang menjelaskan hubungan satu
variabel tak bebas/ response (Y) dengan dua atau lebih variabel bebas/predictor (X1,
X2,…Xn). Tujuan dari uji regresi linier berganda adalah untuk memprediksi nilai variable tak
bebas/ response (Y) apabila nilai-nilai variabel bebasnya/ predictor (X1, X2,..., Xn) diketahui.
Disamping itu juga untuk dapat mengetahui bagaimanakah arah hubungan variabel tak bebas
dengan variabel -variabel bebasnya.
Menurut Harlan, 2018. Regresi linear ganda (multiple linear regression) adalah model
regresi linear dengan 1 variabel dependen kontinu beserta k (dua atau lebih) variabel
independen kontinu dan/atau kategorik. Regresi linier berganda digunakan untuk menelusuri
pola hubungan antara variabel terikat dengan dua atau lebih variabel bebas. Berdasarkan
suatu penelitian, regresi linier berganda lebih baik jika dibandingkan dengan metode fuzzy
dan jaringan syaraf tiruan (Padilah & Adam, 2019). Hal ini dapat dilihat dari nilai rata-rata
kesalahan relatif regresi linier berganda sebesar 9,383% yang lebih kecil daripada nilai rata-
rata kesalahan relatif fuzzy sebesar 20.748%. (Wati, dkk. 2013).
Kelebihan metode regresi linier ganda diantaranya melakukan generalisasi dan
ekstraksi dari pola data tertentu, mampu mengakuisisi pengetahuan walau tidak ada
kepastian, dan mampu melakukan perhitungan secara paralel sehingga proses lebih singkat
(Amrin, 2016).
Linearitas
Ada hubungan linear antara variable bebas dengan variable terikat. Asumsi
linearitas diuji dengan uji linearitas regresi, misalnya dengan kurva
estimasi.
Normalitas Residual
Residual adalah beda antara y dengan y prediksi. Y adalah variable terikat,
sedangkan y prediksi adalah Y hasil persamaan regresi yang dibuat.
Sehingga residual dibangun dengan rumus: y – y prediksi.
Non Outlier
Outlier disebut dengan data pencilan atau data yang nilainya extreme atau
lain dari pada yang lainnya. Batasan outlier atau tidak bisa dilihat dari nilai
absolut studentized residual. Jika absolut studentized residual > 3,5 maka
sampel atau observasi yang dimaksud menjadi outlier.
Homoskedastisitas
Homoskedastisitas adalah sebuah kondisi dimana varians dari error bersifat
konstan atau tetap. Dengan kata lain bahwa varians dari error bersifat
identik untuk setiap pengamatan.
Non Multikolinearitas
Multikolinearitas adalah keadaan dimana terdapat interkorelasi atau korelasi
kuat antar variable bebas di dalam model.
Non Autokorelasi
Autokorelasi dapat diartikan bahwa terdapat korelasi antar waktu. Sehingga
bisa diartikan dengan mudah bahwa autokorelasi ini sering terjadi pada
regresi linear berganda dengan data time series atau runtun waktu. Dan
jarang sekali terjadi pada data cross section.
Menurut (Mona, dkk. 2015), Regresi linier berganda untuk populasi dapat
ditunjukkan dalam persamaan sebagai berikut:
Yang Mana :
Menurut (Mona, dkk. 2015), Regresi linier berganda untuk sampel dapat
ditunjukkan dalam persamaan sebagai berikut
̂
Yang Mana :
Terdapat beberapa metode analisis dalam regresi linear ganda, yaitu : Metode
Matriks, Metode Persamaan Normal (Metode Eleminasi), Uji Parsial (Uji t) dan Uji
Simultan (Uji F). ( Setiawan, 2013).
Tujuan dari analisis regresi linier berganda adalah mengetahui seberapa besar
pengaruh beberapa variabel bebas terhadap variabel tidak bebas dan juga dapat
meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah diketahui
nilainya (Sungkawa, 2015).
Pengujian parameter ini bertujuan untuk mengetahui ada atau tidaknya pengaruh
variabel bebas terhadap variabel tidak bebas, baik secara serentak maupun secara parsial.
A. Membuat hipotesis.
Tingkat signifikansi (α) yang seringkali digunakan dalam penelitian adalah 5%.
F=
dengan:
RKR adalah rata-rata kuadrat regresi (dapat diperoleh dari Tabel Analisis
Variansi).
RKE adalah rata-rata kuadrat error (dapat diperoleh dari Tabel Analisis Variansi).
Selain dari daerah kritik di atas, dapat juga digunakan daerah kritik yang lain
yaitu jika nilai peluang (Sig.) < Tingkat signifikansi (α), Maka ditolak.
E. Menarik kesimpulan.
2.2. Pengujian Parameter Secara Individu (Parsial)
A. Membuat hipotesis.
: ≠ 0, untuk k = 1, 2, …, p-1.
(Kutner, et.al., 2004)
atau:
Tingkat signifikansi (α) Yang seringkali digunakan dalam penelitian adalah 5%.
t=
dengan:
adalah nilai taksilan parameter yang diperoleh dari metode OLS).
tabel.
Selain dari daerah kritik diatas, dapat juga digunakan daerah kritik yang lain yaitu
jika nilai peluang (Sig.) < tingkat signifikansi (α), Maka ditolak.
E. Menarik kesimpulan.
3. Pelanggaran – Pelanggaran terhadap Asumsi Regresi Linear Berganda
A. Multikolinieritas
Adapun dampak adanya multikolinearitas dalam model regresi linier berganda
adalah (Gujarati, 2004 dan widarjono, 2007):
1) Penaksir OLS masih bersifat BLUE, tetapi mempunyai variansi dan kovariansi
yang besar sehingga sulit mendapatkan taksiran (estimasi) yang tepat.
2) Akibat penaksiran OLS mempunyai variansi dan kovariansi yang besar,
menyebabkan interval estimasi akan cenderung lebih lebar dan nilai hitung
statistik uji t akan kecil, sehingga membuat variabel bebas secara statistik tidak
signifikan mempengaruhi variabel tidak bebas.
3) Walaupun secara individu variabel bebas tidak berpengaruh terhadap variabel
tidak bebas melalui uji t, tetapi nilai koefisien determinasi ( ) Masih bisa relatif
tinggi.
B. Heteroskedastisitas
Dampak adanya heteroskedastisitas dalam model regresi adalah walaupun
estimator OLS masih linier dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standard error metode OLS tidak bisa
dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang
didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi.
C. Autokorelasi.
Adapun dampak dari adanya autokorelasi dalam model regresi adalah sama
dengan dampak dari heteroskedastisitas yang telah diuraikan di atas, yaitu walaupun
estimator OLS masih linear dan tidak bias, tetapi tidak lagi mempunyai variansi yang
minimum dan menyebabkan perhitungan standar error metode OLS tidak bisa
dipercaya kebenarannya. Selain itu interval estimasi maupun pengujian hipotesis yang
didasarkan pada distribusi t maupun F tidak bisa lagi dipercaya untuk evaluasi hasil
regresi. Akibat dari dampak adanya autokorelasi dalam model regresi menyebabkan
estimator OLS tidak menghasilkan estimator yang BLUE dan hanya menghasilkan
estimator OLS yang LUE (Widarjono, 2007).
CONTOH KASUS
Jagung merupakan salah satu hasil pertanian yang umum dijumpai di Indonesia. Untuk
meningkatkan hasil pertanian jagung di daerahnya, seorang peneliti melakukan suatu
penelitian mengenai faktor yang mempengaruhi hasil panen jagung. Sebuah penelitian
dilakukan untuk mengkaji hubungan antara tiga variabel yaitu tinggi tanaman, tingkat polusi
serta rendemen terhadap hasil tanaman jagung. Penelitian dilakukan terhadap 16 sampel
tanaman jagung dari berbagai varietas. Data yang dikumpulkan adalah sebagai berikut :
1 100 8 70 9.5
2 102 4 72 9.8
3 98 9 68 9.1
4 95 5 65 8.6
5 102 7 69 9.7
6 104 6 72 10
7 98 4 69 9
8 92 2 63 8
9 102 3 71 9.7
10 100 8 71 9.6
11 102 4 73 9.8
12 85 2 67 7.8
13 90 6 69 8
14 92 4 64 8.1
15 98 7 69 9
16 102 9 71 9.7
Mencari Persamaan Regresi Linear Berganda
Cara Manual 1
∑
Untuk mencari koefisien regresi digunakan persamaan simultan sebagai
berikut
∑ ∑ ∑ ∑
∑ ∑ ∑ ∑
∑ ∑ ∑ ∑
Menghilangkan
Gunakan metode eliminasi untuk mengetahui salah satu nilai antara dengan
Subtitusi ke persamaan
Cara Manual 2
∑ ∑ ∑ ∑
∑ ∑ ∑ ∑
∑ ∑ ∑ ∑
∑ ∑ ∑ ∑
[∑ ∑ ∑ ][ ] [∑ ]
∑ ∑ ∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ] [ ]
∑ ∑ ∑
Mencari
Interpretasi Hasil
SPSS
Interpretasi Hasil
∑ ∑ ∑
∑
Dari model ini dapat diketahui bahwa hasil jagung dapat dijelaskan oleh
variabel umur tanaman jagung, tingkat polusi dan rendemen. Sedangkan sisanya
dapat dijelaskan oleh sebab-sebab yang lain.
SPSS
Dari model ini dapat diketahui bahwa hasil jagung dapat dijelaskan oleh
variabel umur tanaman jagung, tingkat polusi dan rendemen. Sedangkan sisanya
dapat dijelaskan oleh sebab-sebab yang lain.
Uji F
Cara Manual
Hipotesis :
: Secara simultan tidak ada pengaruh signifikan antara variabel umur tanaman,
tingkat polusi, dan rendemen terhadap (hasil panen)
: Secara simultan ada pengaruh signifikan antara variabel umur tanaman, tingkat
polusi, dan rendemen terhadap (hasil panen)
Menentukan tingkat signifikasi (α) : tingkat signifikansi (α) yang sering digunakan
dalam penelitian adalah 5%
Menentukan f-hitung :
( )
=
= = 149,846
Menentukan f-tabel :
Keputusan :
maka secara simultan ada pengaruh antara variabel umur
tanaman, tingkat polusi, dan rendemen terhadap (hasil panen). Semakin tinggi umur
tanaman, tingkat polusi, dan rendemen akan meningkatkan hasil panen.
SPSS
Menentukan f-tabel :
Keputusan :
maka secara simultan ada pengaruh antara variabel umur
tanaman, tingkat polusi, dan rendemen terhadap (hasil panen). Semakin tinggi umur
tanaman, tingkat polusi, dan rendemen akan meningkatkan hasil panen.
Selanjutnya, menurut Imam Ghozali (2011 : 101) Jika nilai Sig. maka
artinya variabel independen (X) secara simultan berpengaruh terhadap variabel
dependen (Y).
Kesimpulan dari data di atas adalah nilai Sig.< 0,05, maka secara simultan ada
pengaruh antara variabel umur tanaman, tingkat polusi, dan rendemen terhadap
(hasil panen). Semakin tinggi umur tanaman, tingkat polusi, dan rendemen akan
meningkatkan hasil panen.
Uji t
Menurut V. Wiratna Sujarweni (2014 : 155) Jika nilai , maka
artinya variabel independen (X) secara parsial berpengaruh terhadap variabel dependen
(Y).
Uji
Hipotesis :
Pengambilan keputusan :
Interpretasi :
Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung >
2,10, maka diterima yang berarti ada pengaruh variabel terhadap variabel .
Uji
Hipotesis :
Pengambilan keputusan :
Interpretasi :
Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung <
2,10, maka diterima yang berarti tidak ada pengaruh variabel terhadap variabel .
Uji
Hipotesis :
Pengambilan keputusan :
Interpretasi :
Dari pengujian dengan SPSS, diperoleh nilai thitung sebesar sehingga thitung >
2,10 maka diterima yang berarti ada pengaruh variabel terhadap variabel .
Kesimpulan :
Jadi, dapat disimpulkan bahwa variabel dan memiliki pengaruh terhadap
variabel , sedangkan variabel tidak memiliki pengaruh terhadap variabel . Artinya
bahwa tinggi tanaman dan rendemen memiliki pengaruh terhadap hasil jagung, sedangkan
tingkat polusi tidak berpengaruh terhadap hasil jagung.
Selanjutnya, menurut Imam Ghozali (2011 : 101) Jika nilai Sig. maka
artinya variabel independen (X) secara parsial berpengaruh terhadap variabel dependen
(Y).
Uji Linearitas
Uji linearitas bisa diuji dengan scatter plot (diagram pancar). Adapun kriteria uji
linearitas adalah :
a. Jika pada grafik mengarah ke kanan atas, maka data termasuk dalam kategori linear.
b. Jika pada grafik tidak mengarah ke kanan atas, maka data termasuk dalam kategori
tidak linear.
Membentuk bidang yang mengarah ke kanan atas. hal ini membuktikan bahwa
adanya linieritas.
Uji Normalitas
Uji normalitas dapat dilakukan dengan normal P-P Plot dan uji Kolmogorov-
Smirnov. Normal P-P plot, uji normalitasnya dapat dilihat dari penyebaran data (titik)
pada sumbu diagonal grafik (Gujarati, 2004:109). Dasar pengambilan keputusannya, jika
data menyebar di sekitar garis diagonal dan mengikuti arah garis diagonal atau grafik
histogramnya menunjukkan pola distribusi normal, maka model regresi memenuhi asumsi
normalitas. Cara lain iuntuk menguji asumsi kenormalan adalah dengan uji Kolmogorov-
Smirnov. Kriteria keputusan uji Kolmogorov-Smirnov adalah jika nilai atau pada output
SPSS lebih dari nilai taraf nyata maka asumsi normalitas dipenuhi.
Terlihat pada grafik di atas sebaran titik-titik dari pada grafik relatif mendekati garis
lurus, sehingga dapat disimpulkan bahwa data residual terdistribusi normal yang berarti
uji normalitas terpenuhi. Untuk lebih mendapatkan hasil yang lebih meyakinkan, akan
dilakukan uji Kolmogorov-Smirnov.
Terlihat pada grafik diatas bahwa KS : dengan P-Value di mana
lebih dari , maka variabel dinyatakan berdistribusi normal.
Uji Outlier
Dalam deteksi pencilan (outlier) terdapat beberapa metode untuk menentukan
batasan outlier dalam sebuah analisis, yaitu:
1. Scatter plot
Dalam scatter plot untuk mengetahui apakah suatu data terdapat outlier, dapat dilakukan
dengan membentuk diagram pencar (scatter plot) dari data. Jika terdapat satu atau
beberapa data yang terletak jauh dari pola kumpulan data maka hal tersebut
mengindikasikan adanya outlier.
2. Standarized Residual
Untuk melakukan identifikasi outlier, diperhatikan nilai-nilai dari standardized residual.
Jika nilai dari standardized residual lebih dari 3,5 atau kurang dari -3,5 maka data tersebut
dikatakan sebagai outlier (Yaffe, 2002: 35).
Boxplot of X1, X2, X3
100
80
60
Data
40
20
0
Y 8 0 1 6 0 1 5 6 7 8 0 8 0 1 6 0 1 5 6 7 8 0 8 0 1 6 0 1 5 6 7 8 0
7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10. 7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10. 7. 8. 8. 8. 9. 9. 9. 9. 9. 9. 10.
X1 X2 X3
Terlihat pada grafik diatas bahwa tidak terdapat angka yang memiliki nilai yang
sangat berbeda jauh dengan nilai dari angka lainnya sehingga dapat disimpulkan bahwa
pada data diatas tidak terdapat pencilan /outlier.
Berdasarkan data diatas terlihat bahwa nilai dari standardized residual kurang dari
3,5 atau lebih dari -3,5 maka data tersebut dikatakan sebagai Non outlier.
Uji Homoskedastisitas
Uji heteroskedastisitas dapat dilihat dari nilai signifikansi dan α , apabila nilai sig.
>α maka tidak terjadi heteroskedastisitas.
Berdasarkan data diatas dapat dilihat uji heteroskedastisitas dengan metode glejser,
diperoleh nilai tinggi tanaman , nilai tingkat populasi Produktivitas
, dan nilai rendeman . Dikarenakan ada 2 variabel memiliki
nilai lebih kecil dari 0,05, maka model regresi tersebut mengalami gejala
heteroskedastisitas atau non homoskedastisitas.
Uji Multikolinearitas
Berdasarkan data di atas, dapat dilihat nilai VIF masing-masing variabel. Untuk
variabel sebesar , variabel sebesar , dan variabel sebesar
dimana nilai VIF ini lebih kecil dari 10. Sehingga dapat disimpulkan bahwa tidak ada
gejala multikolinieritas pada variabel , , dan karena nilai VIF < 10.
Uji Autokorelasi
Menurut Gujarati (2004: 467), pengujian dilakukan dengan menggunakan statistik
uji Durbin Watson. Selanjutnya Menurut Imam Ghozali (2011 : 111) Tidak ada gejala
autokorelasi, jika nilai Durbin Watson terletak antara sampai dengan .
Berdasarkan data diatas, diketahui nilai Durbin Watson adalah sebesar 2,343.
Selanjutnya nilai ini akan kita bandingkan dengan nilai table Durbin Watson pada
signifikansi dengan rumus . Angka ini kemudian kita lihat pada distribusi nilai
tabel Durbin Watson. Maka ditemukan nilai . dan .
Selanjutnya, dapat kita hitung nilai dan , maka nilai – nilainya adalah
serta .
Amrin. 2016. “Data Mining Dengan Regresi Linier Berganda Untuk Peramalan Tingkat
Inflasi” Dalam Jurnal Techno Nusa Mandiri Vol. XIII, No. 1. Jakarta.
Duwi, P. 2008. Mandiri Belajar SPSS (Statistical Product and Service Solution) Untuk
Analisis Data dan Uji Statistik. Yogyakarta: MediaKom.
Ganis A, S. 2018. Pengaruh Umur, Tinggi Tanaman, dan Rendemen terhadap Hasil
Jagung.Tim Litbang Balai Pertanian, Kota Malang. Tersedia di
https://rpubs.com/GanisASaputri/BisAnalitikTugas1
Gujarati, N.D. 2004. Basic Econometrics. 4th ed. New York: McGraw-Hill Companies, Inc.
Hasan M. Iqbal, Ir., M.M. 2005. Pokok-Pokok Materi Statistik 1 (Statistik Deskriptif). Edisi
Kedua. Jakarta: PT. Bumi Aksara.
Imam Ghozali. 2011. Aplikasi Analisis Multivariate dengan Program IMB SPSS 19.
Semarang: Badan Penerbit Undip.
Kutner, M.H., C.J. Nachtsheim., Dan J. Neter. 2004. Applied Linear Regression Models. 4th
ed. New York: McGraw-Hill Companies, Inc.
Masrukhin. 2008. Statistik Inferensial (Aplikasi Program SPSS). Kudus: Media Ilmu Press.
Mona, Margaretha G., Kekenusa, John S., Prang, Jantje D. 2015. Penggunaan Regresi
Liniear Berganda Untuk Menganalisis Pendapatam Petani Kelapa, Studi Kasus :
Petani Kelapa Di Desa Beo, Kecamatan Beo, Kabupaten Talaud. Manado.
Padilah, Tesa N., & Adam, Riza I. “Analisis Regresi Linier Berganda Dalam Estimasi
Produktivitas Tanaman Padi Di Kabupaten Karawang” Dalam Fibonacci : Jurnal
Pendidikan Matematika dan Matematika Volume 5(2). Karawang : Universitas
Singaperbangsa.
Sena L De. 2016. Penerapan Metode Regresi Linear Memprediksi Hubungan Antara Biaya
Promosi Dengan Hasil. Medan.
Sungkawa, Iwa. 2015. Penerapan Regresi Linier Ganda untuk Mengukur Efisiensi Pola
Penggunaan Air Tanah System Rice Intensification (SRI) di Kabupaten Bandung,
Subang, dan Karawang. Jakarta.
Stanislaus S, U. 2009. Pedoman Analisis Data dengan SPSS. Edisi 3. Yogyakarta: Graha
Ilmu.
Sujarweni, VW. 2014. SPSS Untuk Penelitian. Yogyakarta: Pustaka baru Press.
Wati, S. E., Sebayang, D., & Sitepu, R. 2013. “Perbandingan Metode Fuzzy Dengan Regresi
Linier Berganda Dalam Peramalan Jumlah Produksi” Dalam Saintia Matematika. Vol. 1
(3).
Widarjono, A. 2007. Ekonometrika: Teori dan Aplikasi untuk Ekonomi dan Bisnis. Edisi
Kedua. Yogyakarta: Ekonisia Fakultas Ekonomi Universitas Islam Indonesia.
Yaffe, R. A. 2002. Robust Regression Modelling With STATA Lecture Notes. Avenue:Social
Science and Mapping Group Academic Computing Service.
Dimana :
Yi = variabel terikat
β0 = intersep untuk Y saat X=0
βj = Koefisien regresi peubah prediktor ke-j
Xji = variabel bebas
εi = error sebanyak i
i = 1, 2, 3, ..., n
j = 1, 2, 3, …, p
= +
[ ] [ ][ [ ]
]
Dimana :
X = matriks peubah prediktor berukuran
Y = vektor peubah respon berukuran
β = vektor koefisien regresi berukuran
ε = vektor peubah acak galat berukuran
0= ( ̂)
dan 0 = ̂
̂
=
=
=
MKT menghasilkan penduga bersifat tak bias.
Uji hipotesis dimaksudkan untuk melihat apakah suatu hipotesis yang diajukan ditolak
atau dapat diterima,sedangkan hipotesis merupakan asumsi atau pernyataan yang mungkin benar
atau salah mengenai suatu populasi. Dengan mengamati seluruh populasi, maka suatu hipotesis
akan dapat diketahui apakah suatu penelitian itu benar atau salah. Untuk keperluan praktis,
pengambilan sampel secara acak dari populasi akan sangat membantu. Dalam pengujian
hipotesis terdapat asumsi/ pernyataan istilah hipotesis nol.Hipotesis nol merupakan hipotesis
yang akan diuji,dinyatakan oleh dan penolakan dimaknai dengan penerimaan hipotesis
lainnya/ hipotesis alternative yang dinyatakan oleh .
Pada tahapan pembangunan model dalam uji regresi linier berganda, terdapat pengujian hipotesis
untuk mengetahui apakah model regresi layak untuk digunakan dan apakah variabel-variabel
independen signifikan di dalam model. Dalam bab ini kami membahas uji hipotesis dan interval
kepercayaan untuk parameter dengan model Ada dua jenis
uji hipotesis yang terkait dengan koefisien regresi linear berganda yang menjadi perhatian yaitu
uji-F dan uji-t.
Hipotesis tersebut menunjukkan bahwa untuk hipotesis nol seluruh variable bebas tidak
berpengaruh secara signifikan di dalam model dan untuk hipotesis alternatifnya
menunjukkan bahwa minimal ada satu variable yang berpengaruh secara signifikan.Uji-F
ini bias dijelaskan dengan menggunakan analisis varian (analysis of variance = ANOVA).
Misalkan mempunyai model regresi berganda sbb:
Regresi
̅ ̂ ̅
∑ ̅ ∑( ̂ ̅ )
∑ ̅ ∑( ̂ ̅) ∑
SoV SS Dof MS F*
Regression SSR k MSR
Error SSE n-k-1 MSE
Total SST n-1
Dengan hipotesis semua variable independen tidak berpengaruh terhadap variable
dependen maka uji F dapat diformulasikan sbb :
2. Mencari nilai F hitung dengan formula seperti diawal dan nilai F kritis dari table
distribusi F. Nilai F kritis berdasarkan besarnya dan df yang besarnya ditentukan
numerator (k-1) dan df denominator (n-k).
3. Keputusan tolak dan terima
Jika F hitung > F kritis maka tolak dan sebaliknya jika F hitung < F kritis terima
.
B. Uji Signifikan Secara Parsial : Uji t
Uji parsial bertujuan untuk mengetahui apakah variabel-variabel independen di dalam
model yang terbentuk berpengaruh terhadap variabel dependen secara parsial. Dalam
regresi linear berganda,uji ini dilakukan karena setiap variabel independen memberi
pengaruh yang berbeda dalam model. Dengan menggunakan formula hipotesis yang akan
diuji :
untuk k = 1,2, …, p – 1
(Peubah penjelas Xk berhubungan linear positif dengan Y)
(Peubah penjelas Xk berhubungan linear negative dengan Y)
Hipotesis nol menunjukkan bahwa variable independen yang diuji tidak berpengaruh
secara signifikan terhadap variable dependennya. Hipotesis alternative menunjukkan
bahwa variable yang diuji berpengaruh secara signifikan. Statistik uji yang digunakan
adalah :
Model regresi
Statistik uji-nya :
- maka terima
Data Luas Panen Pisang, Produktivitas Pisang, dan Produksi Pisang Menurut Provinsi di
Indonesia Tahun 2019
Data yang digunakan yaitu Luas Panen Pisang, Produktivitas Pisang, dan Produksi Pisang
Menurut Provinsi di Indonesia Tahun 2019. Dalam kasus ini terdapat 3 variabel yaitu variabel
dan y yang dimana variabel merupakan variabel yang menjelaskan variabel y.
Apabila diuraikan, Luas Panen Pisang dan Produktivitas Pisang yang menjelaskan atau
memengaruhi Produksi Pisang. Alasan variabel tersebut digunakan karena diduga bahwa
variabel memiliki pengaruh yang besar terhadap variabel y dibandingkan dengan
faktor-faktor yang lain, sehingga hal ini berarti bahwa antara variabel dan variabel y
memiliki keterkaitan yang erat. Jadi dalam penelitian ini, kelompok kami ingin mengetahui
apakah dugaan itu benar atau tidak. Apabila benar, seberapa besar pengaruhnya sehingga akan
diperoleh hubungan antara Luas Panen Pisang , Produktivitas Pisang , dan Produksi
Pisang (y) Menurut Provinsi di Indonesia Tahun 2019.
Menghitung manual koefisien – koefisien regresi dengan rumus yang sudah ada sebagai
berikut :
X1*Y X2^2 X2*Y X1*X2 X1^2
59107.23 3490564561 3387113.73 60912511 1062961
114064.32 13007402500 7171464 206886700 3290596
116342.16 13544071641 8884372.86 177361596 2322576
43453.52 1886686096 2560986.56 32012332 543169
61077.75 3729422761 4032386.07 56488825 855625
143114.64 20480472100 7975520.3 367506480 6594624
22237.11 493506225 1167842.55 9396945 178929
1209532.29 1.463E+12 125804775.5 14065798805 135233641
3619.08 13256881 162679.88 294921 6561
3041.4 9296401 67687.8 417713 18769
2443.83 5914624 204944.64 70528 841
1220140.75 1.48882E+12 72783379.1 24958659170 418407025
621490.88 3.86307E+11 34787369.92 6901535744 123298816
47577.6 2261382916 2020093.92 53260480 1254400
2117021.28 4.48158E+12 170691613.6 55583269344 689377536
257369.8 66224904964 12905701.3 1320679144 26337424
231770.95 53728458436 15870935.18 784622690 11458225
102153.61 10427677456 8272417.16 128768276 1590121
227509.61 51738506521 15082938.91 780418691 11771761
46999.12 2207026441 2341433.36 44301197 889249
26661.96 711769041 1013268.42 18728658 492804
62808.2 3945472969 2092929.16 118402505 3553225
103900.22 10792716544 6634287.68 169025776 2647129
27103.89 734139025 967562.45 20565105 576081
46330 2148600609 2618944.5 38009460 672400
24508.91 599662144 1313291.44 11191016 208849
142470.36 20303970064 7093251.76 407812104 8191044
43949.7 1933448841 2284293.45 37199466 715716
7716.27 59305401 281625.57 1624911 44521
66612 4432097476 5592216 52793182 628849
33309.8 1110155761 2860436.15 12927772 150544
8606.81 74425129 765473.71 836819 9409
31726.02 1003368976 4526817.16 7032072 49284
5052.39 25452025 173396.65 741615 21609
7280823.46 8110832747802 534393450.4 106429552553 1452454313
(∑ )
∑ ∑ ∑ ∑
̂
∑ ∑ ∑
∑ ∑ ∑ ∑
̂
∑ ∑ ∑
̅̅̅
̅̅̅
Perhitungan ̂
̂ ̅ ̂ ̅̅̅ ̂ ̅̅̅
Interpretasi Hasil:
• Nilai konstanta sebesar artinya apabila luas pisang (x1) dan produktivitas
pisang (x2) bernilai nol, maka produksi pisang akan bernilai sebesar ton.
• Koefisien dari luas pisang sebesar artinya apabila luas pisang bertambah
1Ha dengan produktivitas pisang tetap. Maka produksi pisang akan meningkat sebesar
ton.
• Koefisien dari produktivitas pisang sebesar artinya apabila produktivitas
pisang bertambah 1 ton/Ha dengan luas pisang tetap. Maka produksi pisang akan
meningkat sebesar ton.
Dengan Matriks sebagai berikut :
∑ ∑
∑ ∑ ∑
[∑ ∑ ∑ ]
[ ]
[∑ ]
[ ]
[ ]
∑ ∑ ∑
∑ ∑ ∑ ∑ ∑
[∑ ∑ ∑ ∑ ] [∑ ]
[ ] [ ]
[ ]
REGRESSION
/MISSING LISTWISE
/STATISTICS COEFF OUTS R ANOVA
/CRITERIA=PIN(.05) POUT(.10)
/NOORIGIN
/DEPENDENT y
/METHOD=ENTER x1 x2
/PARTIALPLOT ALL
/RESIDUALS HISTOGRAM(ZRESID) NORMPROB(ZRESID).
Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
1 Produktivitas . Enter
(x2), Luas
Panen (x1)b
a. Dependent Variable: Produksi (y)
b. All requested variables entered.
Tabel diatas menjelaskan tentang variabel yang dimasukkan serta metode yang
digunakan. Dalam hal ini variabel yang dimasukkan adalah variabel Produktivitas Pisang
(Ton) (x2) dan Luas Panen Pisang (Ha) (x1) sebagai Independent dan Produksi Pisang
(Ton/Ha) (y) sebagai variabel Dependen dan metode yang digunakan adalah metode
Enter.
Model Summaryb
Adjusted R Std. Error of
Model R R Square Square the Estimate
1 .980a .961 .958 90897.16792
a. Predictors: (Constant), Produktivitas (x2), Luas Panen
(x1)
b. Dependent Variable: Produksi (y)
Tabel diatas menjelaskan besarnya nilai korelasi/ hubungan (R) yaitu sebesar 0,980. Dari
output tersebut diperoleh koefisien determinasi (R Square) sebesar 0,961 yang
mengandung pengertian bahwa pengaruh variabel bebas (Luas Panen Pisang (x1) ) dan
Produktivitas Pisang (Ton) (x2) ) secara simultan terhadap variabel terikat (Produksi
Pisang (y) ) adalah sebesar 96,1% (karena korelasinya lebih dari 70%, maka
pengaruh(Luas Panen Pisang (x1) ) dan Produktivitas Pisang (Ton) (x2) ) terhadap
variabel terikat (Produksi Pisang (y) ) memiliki hubungan linear yang tinggi).
Perumusan Hipotesis :
H1 = Terdapat pengaruh Luas Panen Pisang (X1) terhadap Produksi Pisang (Y)
H2 = Terdapat pengaruh Produktivitas Pisang (X2) terhadap Produksi Pisang (Y)
H3 = Terdapat pengaruh Luas Panen Pisang (X1) dan Produktivitas Pisang (X2) secara
simultan terhadap Produksi Pisang (Y)
Tingkat Kepercayaan 95%, = 0,05
ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 62956433364 2 31478216682 380.986 .000b
46.946 23.473
Residual 25613114920 31 8262295135.
9.052 776
Total 65517744856 33
55.999
a. Dependent Variable: Produksi (y)
b. Predictors: (Constant), Produktivitas (x2), Luas Panen (x1)
PENGUJIAN HIPOTESIS H3 DENGAN UJI F
A. Pengujian Hipotesis Ketiga (H3)
Berdasarkan output diatas diketahui nilai signifikansi untuk pengaruh X1 dan X2 secara
simultan terhadap Y adalah sebesar 0,000 < 0,05 dan nilai F hitung 380,986 > F tabel
3,29 , sehingga dapat disimpulkan bahwa H3 diterima yang berarti terdapat pengaruh X1
dan X2 secara simultan terhadap Y.
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients
Model B Std. Error Beta T Sig.
1 (Constant) -115579.447 44395.893 -2.603 .014
Luas Panen (x1) 73.469 2.752 .962 26.700 .000
Produktivitas 16.410 6.841 .086 2.399 .023
(x2)
a. Dependent Variable: Produksi (y)
b. Dependent Variable: Produksi (y)
PENGUJIAN HIPOTESIS H1 DAN H2 DENGAN UJI T
Model regresi linier berganda (Multi-Linear Regression, MLR) adalah model yang
menggambarkan hubungan satu variabel tergantung (dependent variable) terhadap dua
atau lebih variabel penduga (predictor variables). Model regresi linear berganda
dipresentasikan dengan persamaan umum berikut (Vining, 1998; Walpole, dkk, 2007):
dimana adalah nilai titik potong model pada sumbu , yaitu nilai dari variabel yang
akan diprediksi ketika semua -nya nol. , dimana hingga , adalah variabel
penduga yang banyaknya dua atau lebih. Variabel penduga juga biasa juga disebut
variabel bebas (independent variable). adalah index yang menunjukkan jumlah variabel
bebas yang digunakan untuk mengestimasi nilai . Bila , maka MLR berubah
menjadi regresi linier sederhana. adalah jumlah perubahan , ketika nilai tertentu
bertambah satu, dan nilai dari variabel penduga lainnya dijaga konstan. adalah variabel
residu yang menyatakan selisih antara yang sebenarnya (real data) dengan nilai
taksirannya. Faktor residu menjelaskan pengaruh faktor-faktor lain yang tidak termasuk
dalam persamaan regresi. Dengan kata lain, jika dalam suatu model tidak termasuk suatu
faktor yang dapat menjelaskan persamaan tersebut, maka pengaruh faktor tersebut dapat
dijelaskan melalui faktor kesalahan.
Adapun asumsi – asumsi dalam analisis regresi linear berganda adalah sebagai berikut :
1. Asumsi Univariate
Asumsi univariat merupakan asumsi yang digunakan pada satu variabel atau per
variabel dengan tujuan untuk mengetahui dan mengidentifikasi karakteristik dari variabel
tersebut. Selain itu, kita juga bisa menggunakan asumsi univariat untuk tujuan
mengambil kesimpulan dengan menggunakan beragam analisis inferensial yang mungkin
digunakan.Asumsi Univariate merupakan teknik analisis paling dasar yang sering
digunakan dalam berbagai jenis penelitian. Karena yang dianalisis hanya satu variabel,
maka hasil dari analisis univariat tidak bisa dan tidak boleh disimpulkan dengan variabel
lain. Asumsi Univariate ini memang kerap disamakan dengan analisis deskriptif karena
hanya memberikan gambaran terhadap satu variabel saja tanpa adanya intervensi dari
variabel lain. Namun, asumsi ini juga bisa digunakan untuk tujuan inferensial atau
mengambil kesimpulan dari satu kelompok variabel.
Dalam asumsi univariate, kita menggunakan uji normalitas. Uji asumsi klasik ini
bertujuan untuk mengetahui apakah dalam model regresi, variabel dependen &
independen keduanya memiliki distribusi normal atau mendekati normal (Ghozali, 2005:
110). Pada prinsipnya normalitas data dapat diketahui dengan melihat penyebaran data
(titik) pada sumbu diagonal pada grafik atau histogram dari residualnya. Data normal &
tidak normal dapat diuraikan sebagai berikut (Ghozali 2005):
1. Jika data disekitar garis diagonal dan mengikuti arah garis diagonal atau grafik
histogramnya, menunjukkan pola terdistribusi normal, maka model regresi
memenuhi asumsi normalitas.
2. Jika data menyebar jauh dari garis diagonal dan tidak mengikuti arah garis
diagonal atau grafik histogramnya, tidak menunjukkan pola terdistribusi normal,
maka model regresi tidak memenuhi asumsi normalitas.
Menurut Imam Ghozali (2005), uji normalitas dengan grafik dapat menyesatkan apabila
tidak hati- hati secara visual kelihatan normal, namun secara statistik bisa sebaliknya.
Oleh sebab itu, dianjurkan menggunakan uji grafik dilengkapi dengan uji statistik. Uji
statistik yang digunakan dalam penelitian ini untuk menguji normalitas residual adalah
uji statistik non-parametrik Komolgorov-Smirov (K-S). Uji K-S dilakukan dengan
membuat hipotesis
2. Asumsi Bivariate
Asumsi bivariat merupakan asumsi yang dilakukan untuk mengetahui hubungan
antara 2 variabel. Dalam asumsi ini, dua pengukuran dilakukan untuk masing-masing
observasi. Dalam asumsi bivariat, sampel yang digunakan bisa saja berpasangan atau
masing-masing independen dengan perlakuan tersendiri. Secara umum, dalam uji asumsi
bivariat, variabel yang digunakan bisa saja berhubungan atau berdiri sendiri
(independen). Saling berhubungan artinya sampel yang sama diberikan 2 pengukuran
berbeda. Sedangkan, independen maksudnya adalah pengukuran dilakukan pada kedua
kelompok sampel yang berbeda.
Dalam Asumsi Bivariate, kita menggunakan uji Auto Korelasi. Uji autokorelasi
bertujuan menguji apakah dalam suatu model regresi linier ada korelasi antara kesalahan
penggunaan pada periode dengan kesalahan pada periode (sebelumnya). Jika
terjadi korelasi, maka dinamakan ada problem autokorelasi. Autokorelasi muncul karena
observasi yang berurutan sepanjang waktu berkaitan satu sama lainnya (Ghozali, 2005).
Untuk menguji keberadaan autokorelasi dalam penelitian ini digunakain uji run test. Run
test sebagai bagian dari statistic non-parametrik dapat pula digunakan untuk menguji
apakah antar residual terdapat korelasi, dikatakan bahwa residual adalah acak atau
random. Run test digunakan untuk melihat apakah data residual terjadi secara random
atau tidak (sistematis).
3. Asumsi Multivariate
3.1. Uji linearitas
Uji Linieritas adalah suatu prosedur yang digunakan untuk mengetahui status linier
tidaknya suatu distribusi data penelitian. Uji linieritas dilakukan untuk membuktikan
bahasa masing-masing variabel bebas mempunyai hubungan yang linier dengan variabel
terikat. Hasil yang diperoleh melalui uji linieritas akan menentukan teknik-teknik analisis
data yang dipilih, dapat digunakan atau tidak. Apabila dari hasil uji linieritas didapatkan
kesimpulan bahasa distribusi data penelitian dikategorikan linier maka penelitian dapat
digunakan dengan metode-metode yang ditentukan. Demikian juga sebaliknya apabila
ternyata tidak linier maka distribusi data harus dianalisis dengan metode lain.
Langkah yang harus dilakukan untuk melakukan uji linieritas adalah membuat
pengelompokan skor predictor yang nilainya sama menjadi satu kelompok data dengan
tetap memperhatikan pasangan data pada masing-masing kriteria. Adapun dasar
pengambilan keputusan linieritas melalui SPSS dan perhitungan yaitu dengan melihat
nilai signifikansi (Sig.) dan F-hitung pada hasil uji linieritas:
Dengan dasar pengambilan keputusan sebagai berikut :
1. Jika angka signifikansi penelitian < 0.05 ,maka memenuhi uji linieritas
2. Jika signifikansi > 0.05, maka tidak memenuhi uji linieritas
Uji heteroskedastisitas adalah uji yang dilakukan apabila kesalahan atau residual yang
diamati tidak memilki varian yang konstan. Residual adalah faktor-faktor lain yang
terlibat akan tetapi tidak memuat dalam model. Karena residual ini merupakan variabel
yang tidak diketahui, maka diasumsikan bahwa nilai residual bersifat acak.
Pada analisis regresi, heteroskedastisitas berarti situasi dimana keragaman variabel
independen bervariasi pada data yang kita miliki. Salah satu asumsi kunci pada metode
regresi biasa adalah bahwa error memiliki keragaman yang sama pada tiap-tiap
sampelnya. Asumsi inilah yang disebut homoskedastisitas. Jika keragaman residual/error
tidak bersifat konstan, data dapat dikatakan bersifat heteroskedastisitas. Karena pada
metode regresi ordinary least-squares (OLS) mengasumsikan keragaman error yang
konstan, heteroskedastisitas menyebabkan estimasi OLS menjadi tidak efisien. Model
yang memperhitungkan perubahan keragaman dapat membuat penggunaan dan estimasi
data menjadi lebih efisien.
Beberapa asumsi dalam model regresi yang terkait dengan heteroskedastisitas antara
lain adalah residual memiliki nilai rata-rata nol, keragaman yang konstan, dan residual
pada model tidak saling berhubungan, sehingga estimator bersifat BLUE. Jika asumsi ini
dilanggar maka prediksi model yang dibuat tidak dapat diandalkan.
Jika nilai VIF adalah 1, hal ini mengindikasikan tidak ada korelasi yang signifikan antar
variabel panduga. Sebaliknya mengindikasikan bahwa ada korelasi antar
variabel penduga. Nilai – berarti salah satu variabel prediktor kolinear
dengan variabel bebas lain secara moderat. Bila nilai hubungan kolinear yang
terjadi bersifat kuat.
Dampak yang akan ditimbulkan adalah asumsi yang terjadi masih tetap tidak terbias,
tetapi tidak lagi efisien. Prasyarat yang haru terpenuhi dalam model regresi adalah tidak
adanya gejala heteroskedastisitas.
Selain uji menggunakan VIF, uji heteroskedastisitas juga dapat dilakukan dengan
metode Glejser dan P-Plot. Uji Heteroskedastisitas dengam metode Glejser dan P-Plot,
ini dilakukan untuk mengindentifikasi apakah error term yang muncul pada setiap
pengukuran dari variabel independen terhadap variabel dependen yang bersifat
konstanta. apabila tidak adanya kesamaan deviasi standar nilai variabel dependen pada
setiap variabel independen dan tidak terjadinya heteroskredastisitas dapat dilihat dengan
pola titik yang dihasilkan pada metode P-Plot. Pada metode Glejse, uji
heteroskedastisitas ini ditunjukan dengan nilai signifikan lebih besar dari 0,05 sehingga
data tersebut dapat dikatakan tidak terjadi heteroskedastisitas dan jika terjadi
heteroskedastisitas maka nilai signifikan yang didapat lebih kecil dari 0,05.
Multikolinearitas adalah suatu kondisi dimana terjadi korelasi antara variabel bebas
atau antar variabel bebas tidak bersifat saling bebas. Besaran (quality) yang dapat
digunakan untuk mendeteksi adanya multikolinearitas adalah faktor inflasi ragam
(Variance Inflation Factor / VIF). VIF digunakan sebagai kriteria untuk mendeteksi
multikolinearitas pada regresi linier yang melibatkan lebih dari dua variabel bebas. Nilai
VIF lebih besar dari 10 mengidentifikasi adanya masalah multikolinearitas yang serius
(Ryan, 1997). VIF untuk koefisien regresi-j diidentifikasikan sebagai berikut:
Dengan : adalah koefisien determinasi antara dengan variable bebas lainnya
pada persamaan / model dugaan ; dimana .
A. Contoh Kasus
Data yang digunakan pada penelitian ini diambil dari Data Badan Pusat Statistik
Kabupaten Semarang Tahun 2019 yang saat itu diambil pada tanggal 19 April pada pukul
18:03 WITA.
Adapun asumsi – asumsi dalam analisis regresi linear berganda adalah sebagai berikut :
1. Asumsi Univariate
a. Uji Normalitas
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi Square,
Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik
atau paling tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering
menimbulkan perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji
normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada jaminan bahwa
pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik.
Intepretasi Output :
Berdasarkan output di atas, kita dapat melihat bahwa titik – titik potong yang terdapat
pada gambar “Normal P- P Plot of Regression Standardized Residual” selalu mengikuti dan
mendekati garis diagonalnya. Oleh karena itu, sebagaimana dasar atau pedoman pengambilan
keputusan dalam uji normalitas teknik probability plot dapat disimpulkan bahwa nilai
residual berdistribusi normal. Dengan demikian maka asumsi normalitas untuk nilai residual
dalam analisis regresi berganda dalam penelitian ini dapat terpenuhi.
Informasi Tambahan :
Jika terjadi perselisihan dalam melihat titik titik dari hasil output Normal P-P Plot tersebut,
apakah nilai residual bersifat normal atau tidak. Maka kita dapat membuktikan kenormalan
residual menggunakan metode atau teknik lain. Salah satu teknik yang paling sering dipakai
untuk mendeteksi asumsi normalitas dalam model regresi adalah dengan Uji Normalitas
Kolmogorov Smirnov dengan SPSS.
2. Asumsi Bivariate
a. Uji Autokorelasi
Uji Autokorelasi adalah uji untuk melihat apakah terjadi korelasi antara suatu periode t
dengan periode sebelumnya (t -1). Model regresi yang baik adalah regresi yang bebas dari
gejala autokorelasi. Ada beberapa cara atau teknik yang dapat digunakan untuk mendeteksi
ada atau tidaknya gejala auto korelsi seperti Uji Durbin-Watson, Uji Runs Tes, Uji Breusch-
Godfrey (BG), Lagrange Multiplier (LM).
Uji Autokorelasi dengan Durbin-Watson (SPSS)
Model Summaryb
Adjusted R Std. Error of
Model R R Square Square the Estimate Durbin-Watson
a
1 .938 .880 .865 3480.74612 1.463
a. Predictors: (Constant), Tinggi Tempat (M), Luas Lahan (Ha)
b. Dependent Variable: Produksi Padi (M)
Intepretasi Output:
Berdasarkan tabel output di atas, diperoleh nilai Durbin-Watson (d) sebesar 1,463. Nilai
Durbin-Watson tersebut selanjutnya akan digunakan untuk membandingkan dengan nilai dL
dan dU pada Tabel Durbin-Watson, dimana n = 19 dan k = 2, dan alpha = 5%. Sehingga jika
di lihat dalam table Durbin-Watson nilai dL = 1,08, dU = 1,53 dan 4 – dU = 4 – 1, 53 = 2, 47,
4 – dL = 4 – 1,08 = 2,92. Langkah selanjutnya adalah membandingkan dengan tabel DW.
Berikut beberapa keputusan setelah membandingkan DW.
Bila d < dL ,tolak H0; Berarti ada korelasi yang positif 1
Bila dL < d < dU, kita tidak diketahui
Bila dU < d < 4 – dU, jangan tolak H0; Artinya tidak ada korelasi positif maupun
negatif
Bila 4 – dU < d < 4 – dL kita tidak dapat mengambil kesimpulan apa-apa
Bila d > 4 – dL, tolak H0; Berarti ada korelasi negatif
Sehingga jika dilihat dari output diatas, nilai d terletak di antara dL < d < dU (1,08 < 1,46 <
1,53) sehingga menurut keputusan dapat dikatakan tidak diketahui. Jadi, ini merupakan
kelemahan dari Uji Durbin-Watson karena ketika berada antara nilai dL dan dU atau antara
Metode regresi yang baik di tandai tengan tidak terjadi interkolasi antar variable
independent (tidak terjadi gejala multikorelearitas).
- Melihat nilai Tolerance : Jika nilai tolerance lebih besar dari > 0,10 maka artinya
tidak terjadi Multikorelearitas.
- Melihat nilai VIF : Jika nilai VIF lebih kecil dari < 10,00 maka artinya tidak terjadi
Multikotenearitas
Intepretasi Output :
Coefficientsa
Luas Lahan (Ha) 12.971 1.268 .931 10.233 .000 .907 1.103
1
Tinggi Tempat
-.790 3.255 -.022 -.243 .811 .907 1.103
(M)
Berdasarkan output diatas diperoleh nilai VIF (Variance Inflation Factor) untuk variabel Luas
Lahan ( ) adalah 1,103 sedangkan untuk variabel tinggi tempat ( ) juga 1,103 yang mana
kedua variabel tersebut memiliki nilai kurang dari 10. Kemudian untuk nilai Tolerance, untuk
variabel Luas Lahan ( ) adalah 0,907 sedangkan untuk variabel tinggi tempat( ) adalah
0,907 yang mana kedua variabel tersebut memiliki nilai lebih dari 0,1 maka dapat
disimpulkan bahwa H0 diterima yang artinya tidak terjadi proses multikolinearitas diantara
variabel-variabel Independen.
Uji Multikorelinearitas dengan VIF (SPSS)
Tolerance =
Dari perhitungan untuk koefisien korelasi antar variabel bebas x1 dan x2 didapat :
r = 0,306
r2 = 0,093
Tolerance =
= 0,907
Dan
VIF =
= 1,103
Maka, pada perhitungan manual mengasilkan nilai yang sama dengan perhitungan
menggunakan SPSS dengan VIF < 10,00 yaitu bernilai 1,103 dan pada tolerance > 0,10
yaitu 0,907 yang berarti tidak terjadi multikolinearitas.
DAFTAR PUSTAKA
Kabupaten Semarang Dalam Angka 2019. (2019). Semarang: BPS Kabupaten Semarang.
Widarjono, A. (2015). Statistika Terapan Dengan Excel dan SPSS. Yogyakarta: UPP STIM
YKPN.
MULTIKOLINIERITAS DAN PENCILAN
Multikolinearitas
Analisis regresi linear berganda merupakan salah satu metode statistika yang digunakan
untuk mengetahui pengaruh dari sebuah variabel tidak bebas dengan dua atau lebih variabel
bebas dan juga dapat meramalkan nilai variabel tidak bebas apabila seluruh variabel bebas sudah
diketahui nilainya. Pada analisis regresi linear berganda dengan banyak variabel bebas, sering
ditemukan beberapa masalah karena adanya hubungan antara dua atau lebih variabel bebas.
Salah satu masalah yang terjadi pada analisis regresi linear berganda adalah multikolinearitas.
Multikolinearitas ditemukan pertama kali oleh Ragnar Frisch yang berarti adanya hubungan
linear diantara beberapa atau semu variabel bebas dari model regresi linear berganda. Logikanya,
jika ingin mencari pengaruh A, B, dan C terhadap D, maka seharusnya tidak ada hubungan linear
baik antara A dan B, A dan C, ataupun B dan C.
Menurut Neter dalam (Riyantini, 2014)) multikolinearitas dapat memberi dampak untuk
model regresi, yaitu :
1. Menganalisis matriks korelasi. Jika antara dua atau lebih variabel independent
memiliki korelasi yang cukup tinggi, biasanya di atas 0,9 maka hal tersebut
mengindikasikan terjadinya multikolinearitas.
2. VIF (Variance Inflantion Factor) adalah salah satu cara dalam mendeteksi adanya
multikolinearitas.
Menurut Montgomery, Peck, dan Vining (dalam I Nurdin et al, 2018:60) masalah
multikolinearitas dapat dihilangkan dengan menggunakan beberapa cara, sebagai berikut :
Parameter penting yang membedakan regresi ridge dari metode kuadrat terkecil
adalah . Tetapan bias yang relatif kecil ditambahkan pada diagonal utama matriks
, sehingga koefisien estimator regresi ridge dipenuhi dengan besarnya tetapan bias
.
Pencilan
Pencilan adalah pengamatan yang jauh dari pusat data yang mungkin berpengaruh
besar terhadap koefesien regresi. Pencilan dapat muncul karena kesalahan dalam memasukkan
data, kesalahan pengukuran, analisis, atau kesalahan-kesalahan lain. Pengaruh pencilan dalam
analisis data dapat dibedakan berdasarkan asal pencilan tersebut yaitu yang berasal dari peubah
respon atau berasal dari peubah bebasnya (N Nurdin et al, 2014:115). Dalam kaitannya dengan
analisis regresi, pencilan dapat menyebabkan hal-hal berikut (Soemartini, 2007: 7):
Pencilan ditemukan dengan memeriksa apakah terdapat data yang berada pada
batasan-batasan angka yang disebut pagar dalam dan pagar luar. Pagar dalam pada data dapat
ditentukan dengan cara dan . Sedangkan pagar luar dapat ditentukan
dengan cara dan . Di mana adalah kuartil bawah, adalah
jarak interkuartil, dan adalah kuartil atas. Data yang berada di luar pagar dalam dari
kumpulan data disebut sebagai pencilan minor, dan data yang berada di luar pagar luar disebut
sebagai pencilan mayor.
Berbagai kaidah telah diajukan untuk menolak pencilan dengan memutuskan untuk
menghilangkan data yang terdapat pencilan, setelah itu data dianalisis ulang tanpa pencilan.
Akan tetapi penolakan pencilan yang begitu saja bukanlah hal yang tepat. Ada saatnya pencilan
dapat memberikan informasi yang tidak bisa diberikan oleh titik data lainnya, misalnya karena
pencilan timbul dari kombiinasi keadaan yang tidak biasa yang mungkin saja sangat penting dan
perlu diselidiki lebih jauh.
[ ]
( )
( ) ( )
MULTIKOLINEARITAS
Data diambil dari jurnal dengan judul “ANALISIS REGRESI DAN KORELASI
ANTARA PENGUNJUNG DAN PEMBELITERHADAP NOMINAL PEMBELIAN DI
INDOMARET KEDUNGMUNDUSEMARANG DENGAN METODE KUADRAT
TERKECIL”.
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (dlm jutaan) (Y)
1 41 27 0.62105
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Dengan data diatas dapat kita cari apakah data tersebut terdapat multikolinearitas. Disini kami
mengunakan dua pengerjaan, yaitu menggunakan Software SPSS dan cara manual. Berikut
penjelasannya:
Perhitungan Manual
Rumus VIF adalah :
R= sehingga
Sehingga diperoleh :
1. nilai Tolerance untuk variabel Pengunjung (X1) dan Pembeli (X2) adalah 0,349 lebih
besar dari 0,10.
2. nilai VIF untuk variabel Pengunjung (X1) dan Pembeli (X2) adalah 2,862 lebih kecil dari
10,00.
Dengan SPSS
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) ,459 ,262 1,751 ,091
Pengunjung_X1 ,006 ,010 ,198 ,617 ,543 ,349 2,862
Pembeli_X2 -,003 ,016 -,069 -,213 ,833 ,349 2,862
a. Dependent Variable: NominalPembelianDlmJutaan_Y
INTERPRETASI
Dalam tabel coefficient dapat anda perhatikan bahwa nilai standar error kurang dari satu, yaitu X1 = 0,010 dan X2
= 0,016 dimana keduanya kurang dari satu. Serta nilai koefisien beta juga kurang dari satu dimana X1 = 0,006 dan
X2 = 0,003. Maka dapat disimpulkan bahwa nilai standar error rendah dan multikolinearitas tidak terdeteksi.
Coefficientsa
Unstandardized Standardized
Coefficients Coefficients Collinearity Statistics
Model B Std. Error Beta t Sig. Tolerance VIF
1 (Constant) ,459 ,262 1,751 ,091
Pengunjung_X1 ,006 ,010 ,198 ,617 ,543 ,349 2,862
Pembeli_X2 -,003 ,016 -,069 -,213 ,833 ,349 2,862
a. Dependent Variable: NominalPembelianDlmJutaan_Y
Kasus Multikolinearitas Menggunakan Lebih Dari 2 Variabel.
Data diperoleh dari suatu penelitian yang dilakukan untuk menentukan hubungan antara
penjualan suatu produk (Y) dalam ribuan dolar dengan potensi wilayah (X1, dikodekan) biaya
promosi (X2) dalam puluhan dolar, banyaknya merek saingan (X3) dan banyaknya active
accounts (X4) dari 13 wilayah penjualan (Draper and Smith, 1992).
7 26 6 60 78,5
1 29 15 52 74,3
11 56 8 20 104,3
11 31 8 47 87,6
7 52 6 33 95,9
11 55 9 22 109,2
3 71 17 6 102,7
1 31 22 44 72,5
2 54 18 22 93,1
21 47 4 26 115,9
1 40 23 34 83,8
11 66 9 12 113,3
10 68 8 12 109,4
OUTPUT DARI SPSS
Coefficientsa
INTERPRETASI
Dasar dalam pengambilan keputusan dalam uji multikolinearitas dapat dilakukan dengan cara
melihat nilai Tolerance dan VIF. Berdasarkan tabel output Coefficients pada bagian Cillinearity
Statistics diketahui :
nilai Tolerance untuk variabel banyaknya merek saingan (X3) adalah 0,021, dan
nilai Tolerance untuk variabel banyaknya active accounts (X4) adalah 0,004.
Karena nilai tolerance di setiap variabel bebas, yaitu X1, X2, X3, dan X4 lebih kecil dari 0,10,
maka terdapat gejala multikolinearitas.
Sedangkan, nilai VIF untuk variabel untuk variabel potensi wilayah (X1) adalah 38,496,
nilai VIF untuk variabel untuk biaya promosi (X2) adalah 254,423,
nilai VIF untuk variabel banyaknya merek saingan (X3) adalah 46,868, dan
nilai VIF untuk variabel banyaknya active accounts (X4) adalah 282,51.
Karena nilai VIF di setiap variabel bebas, yaitu X1, X2, X3, dan X4 lebih besar dari 10, maka
terdapat gejala multikolinearitas.
Maka berdasarkan dasar pengambilan keputusan dalam uji multikolinearitas, karena nilai
tolerancenya lebih kecil dari 0,10 dan nilai VIFnya lebih besar dari 10, dapat disimpulkan
bahwa terdapat gejala multikolinearitas yang terjadi pada model regresi ini.
Coefficient Correlationsa
INTERPRETASI
Pada output diatas, terlihat korelasi antara banyaknya active accounts dengan banyaknya merek
saingan adalah 0,966 menunjukan adanya korelasi yang sangat kuat.
Korelasi antara banyaknya active accounts dengan potensi wilayah adalah 0,957 menunjukan
adanya korelasi yang sangat kuat. Korelasi antara banyaknya active accounts dengan biaya
promosi adalah 0,998 menunjukan korelasi yang sangat kuat.
Korelasi antara banyaknya merek saingan dengan potensi wilayah adalah 0,986 menunjukan
korelasi yang sangat kuat.
Korelasi antara banyaknya merek saingan dengan biaya promosi adalah 0,962 menunjukan
korelasi yang sangat kuat.
Korelasi antara potensi wilayah dengan biaya promosi adalah 0,951 menunjukan korelasi yang
sangat kuat.
Angka tersebut menunjukkan adanya korelasi yang sangat kuat karena nilai koefisien korelasinya
mendekati 1.
PENCILAN
Data diambil dari jurnal dengan judul “ANALISIS REGRESI DAN KORELASI
ANTARA PENGUNJUNG DAN PEMBELITERHADAP NOMINAL PEMBELIAN DI
INDOMARET KEDUNGMUNDUSEMARANG DENGAN METODE KUADRAT
TERKECIL”.
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (dlm jutaan) (Y)
1 41 27 0.62105
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Dengan data diatas dapat kita cari apakah data tersebut terdapat multikolinearitas. Disini kami
mengunakan dua pengerjaan, yaitu menggunakan Software SPSS dan cara manual. Berikut
penjelasannya:
1. SPSS
Langkah-langkah:
menaruh data pada “Data View”
pilih Analzye Descriptive Stastistic Descriptive..
kemudian menaruh semua kedalam variable
klik “save standardized values as variable”
kemudian klik “oke”
Descriptive Statistics
N Minimum Maximum Mean Std. Deviation
Penjual 30 21 55 38.60 8.228
Pembeli 30 18 35 25.90 5.294
Nominal 30 .3 1.4 .618 .2675
Valid N (listwise) 30
Kemudian kembali ke halaman ini:
Cara mengetahui apakah data tersebut terdapat outlier adalah dengan melihat apakah data
tersebut memiliki nilai yang dibawah dan lebih besar dari (menurut Imam
Ghozali). Sehingga dari table dapat kita lihat:
Pada hari kedua terdapat nilai yang melebihi dari (menurut Imam Ghozali). Maka
data outlier terjadi pada hari kedua, sehingga kita dapat menghilangkannya.
2. Manual
Langkah-langkah dalam mencari data outlier:
Mencari nilai rata-rata (mean) {y, +
dengan mengunakan rumus
:=AVERAGE(D3:D32), dimana D adalah nominal pembelian
: =AVERAGE(B3:B32), dimana B adalah jumlah pengunjung yang datang
=AVERAGE(C3:C32), dimana C adalah jumlah pemebeli yang datang
Mencari nilai dari Standard Deviasi {y, +
dengan mengunakan rumus
:=STDEV.S(D3:D32)
:=STDEV.S(B3:B32)
: =STDEV.S(C3:C32)
Mencari nilai Standardize
:=STANDARDIZE(D3,$F$2,$F$3)
:=STANDARDIZE(B3,$G$2,$G$3)
:=STANDARDIZE(C3,H2,H3)
Mencari nilai Absoulte Standardize
:=ABS(I3)
:=ABS(L3)
:=ABS(O3)
Menentukan apakah data tersebut terdapat Pencilan (Outlier)
:=IF(J3>2.5,"OUTLIER","")
:=IF(M3>2.5,"OUTLIER","")
:=IF(P3>2.5,"OUTLIER","")
Setelah semua rumus tertulis dengan baik, maka akan menghasilkan sebuah data. Dari data
tersebutlah kita dapat mengetahui apakah data tersebut terdapat pencilan atau tidak.
Hasil akhir:
Y X1 X2
Hari Ke- Pengunjung (X1) Pembeli (X2) Nominal Pembelian (Y) Mean 0.618115833 38.6 25.9
1 41 27 0.62105 Standar Devisiasi 0.267495177 8.227791424 5.293782951
2 55 33 1.3685
3 39 20 0.571505
4 48 23 0.35005
5 41 28 0.4011
6 27 19 0.2733
7 21 19 0.6564
8 28 19 1.09535
9 32 22 0.54125
10 37 25 0.48
11 27 18 0.33355
12 30 22 0.7113
13 28 21 1.03259
14 45 31 0.6864
15 36 22 1.099825
16 51 30 0.50175
17 36 27 0.44755
18 44 32 0.47465
19 39 29 0.4851
20 30 20 0.3369
21 39 23 0.4482
22 41 34 0.56665
23 37 26 0.52965
24 42 27 0.53925
25 45 34 0.481
26 35 23 0.34285
27 45 35 0.70285
28 51 31 0.76075
29 48 33 0.64903
30 40 24 1.055125
Y X1 X2
Standardize absolute standardize outlier Standardize absolute standardize outlier Standardize absolute standardize outlier
0.010969045 0.010969045 0.291694317 0.291694317 0.207790914 0.207790914
2.805225032 2.805225032 OUTLIER 1.9932445 1.9932445 1.341195902 1.341195902
-0.174249248 0.174249248 0.04861572 0.04861572 -1.114514905 1.114514905
-1.002133333 1.002133333 1.142469408 1.142469408 -0.547812411 0.547812411
-0.811288771 0.811288771 0.291694317 0.291694317 0.396691746 0.396691746
-1.289054394 1.289054394 -1.409855866 1.409855866 -1.303415736 1.303415736
0.14312096 0.14312096 -2.139091658 2.139091658 -1.303415736 1.303415736
1.784085126 1.784085126 -1.288316567 1.288316567 -1.303415736 1.303415736
-0.287354091 0.287354091 -0.802159372 0.802159372 -0.736713242 0.736713242
-0.516330182 0.516330182 -0.194462878 0.194462878 -0.170010748 0.170010748
-1.063816688 1.063816688 -1.409855866 1.409855866 -1.492316567 1.492316567
0.348358306 0.348358306 -1.045237969 1.045237969 -0.736713242 0.736713242
1.549464073 1.549464073 -1.288316567 1.288316567 -0.925614073 0.925614073
0.255272515 0.255272515 0.777851512 0.777851512 0.963394239 0.963394239
1.8008144 1.8008144 -0.316002177 0.316002177 -0.736713242 0.736713242
-0.435020304 0.435020304 1.507087305 1.507087305 0.774493408 0.774493408
-0.63764078 0.63764078 -0.316002177 0.316002177 0.207790914 0.207790914
-0.536330542 0.536330542 0.656312213 0.656312213 1.152295071 1.152295071
-0.497264417 0.497264417 0.04861572 0.04861572 0.585592577 0.585592577
-1.051293098 1.051293098 -1.045237969 1.045237969 -1.114514905 1.114514905
-0.63521083 0.63521083 0.04861572 0.04861572 -0.547812411 0.547812411
-0.192399108 0.192399108 0.291694317 0.291694317 1.530096733 1.530096733
-0.330719358 0.330719358 -0.194462878 0.194462878 0.018890083 0.018890083
-0.294830861 0.294830861 0.413233616 0.413233616 0.207790914 0.207790914
-0.512591796 0.512591796 0.777851512 0.777851512 1.530096733 1.530096733
-1.029049706 1.029049706 -0.437541476 0.437541476 -0.547812411 0.547812411
0.316768951 0.316768951 0.777851512 0.777851512 1.718997565 1.718997565
0.533221452 0.533221452 1.507087305 1.507087305 0.963394239 0.963394239
0.115569062 0.115569062 1.142469408 1.142469408 1.341195902 1.341195902
1.633708583 1.633708583 0.170155018 0.170155018 -0.358911579 0.358911579
Selanjutnya akan diperiksa apakah pencilan tersebut merupakan pencilan mayor atau pencilan
minor.
Langkah-langkah:
menaruh data pada “Data View”
pilih Analzye Descriptive Stastistic Frequencies
kemudian menaruh variabel Y sebagai variabel yang mengandung pencilan kedalam variable
klik menu “statistics”
lalu centang bagian “Quartiles”kemudian klik “Continue”
kemudian klik “oke”
Q1=P25=0,4480375
Q3=P75=0,7049625
Dapat dihitung :
IQR=Q3-Q1=0,256925
( )
( )
( )
( )
Data yang merupakan pencilan adalah data variabel Y pada hari ke-2, yaitu . Dilihat
dari batas pagar dalam dan batas pagar luar yang sudah diperoleh, data pencilan
berada diluar batas pagar dalam, sehingga pencilan tersebut merupakan pencilan minor.
Langkah-langkah
Statistics
Y
N Valid 30
Missing 0
Variance .072
Analisis Regresi
Langkah-langkah:
menaruh data pada “Data View”
Berdasarkan table diatas, dijelaskan besarnya nilai koefesien determinasi atau R Square
adalah sebesar 0,022. Nilai R Square 0,022 ini sama dengan 2.2% nilai ini mengandung arti
bahwa variable (X1,X2) dalam hal ini jumlah pengunjung dan jumlah pembeli berpengaruh
terhadap variable (Y) nominal pembelian sebesar 2.2%. Sedangkan sisanya 97.8% dipengaruhi
oleh variabel lain diluar penelitian ini.
Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) .459 .262 1.751 .091
X1 .006 .010 .198 .617 .543
X2 -.003 .016 -.069 -.213 .833
a. Dependent Variable: Y
Diketahui Constant (a) sebesar 0.459, nilai sebesar 0.006, dan nilai sebesar -0.003 sehingga
persamaan regresinya dapat ditulis
Langkah-langkah
Statistics
Y
N Valid 29
Missing 0
Variance .053
Analisis Regresi
Langkah-langkah:
menaruh data pada “Data View”
Model Summary
Change Statistics
R Adjusted R Std. Error of R Square F Sig. F
Model R Square Square the Estimate Change Change df1 df2 Change
a
1 .072 .005 -.071 .23897369 .005 .068 2 26 .935
a. Predictors: (Constant), X2, X1
Berdasarkan table diatas, dijelaskan besarnya nilai koefesien determinasi atau R Square
adalah sebesar 0,005. Nilai R Square 0,005 ini sama dengan 0.5% nilai ini mengandung arti
bahwa variable (X1,X2) dalam hal ini jumlah pengunjung dan jumlah pembeli berpengaruh
terhadap variable (Y) nominal pembelian sebesar 0.5%. Sedangkan sisanya 99.5% dipengaruhi
oleh variabel lain diluar penelitian ini.
Coefficientsa
Standardized
Unstandardized Coefficients Coefficients
Model B Std. Error Beta t Sig.
1 (Constant) .670 .238 2.810 .009
X1 -.002 .010 -.082 -.255 .801
X2 .001 .014 .013 .041 .968
a. Dependent Variable: Y
Diketahui Constant (a) sebesar 0.670, nilai sebesar -0.002, dan nilai sebesar 0.001 sehingga
persamaan regresinya dapat ditulis
Kesimpulan :
(RIYANTINI, D. L., SUSILAWATI, M., & SARI, K). (2014). Penerapan Regresi Akar Laten
Dalam Menangani Multikolinearitas Pada Model Regresi Linier Berganda. E-Jurnal
Matematika, 3(1), 8. https://doi.org/10.24843/mtk.2014.v03.i01.p060
Nurdin, N., Raupong, & Islamiyati, A. (2014). Penggunaan Regresi Robust Pada Data Yang
Mengandung Pencilan Dengan Metode Momen. Matematika, Statistika Dan Komputasi,
10(2), 115. http://journal.unhas.ac.id/index.php/jmsk/article/download/3418/1955
Muliyani, & Noeryanti. (2017). Analisis Regresi Robust Penduga Method of Moment (MM)
untuk Mengatasi Data yang Terindentifikasi Pencilan Berdasarkan Data Produksi Kedelai di
Indonesia. Jurnal Statistika Industri Dan Komputasi, 2(2), 126–135.
Candraningtyas, S., Safitri, D., & Ispriyanti, D. (2013). Regresi Robust MM-Estimator Untuk
Penanganan Pencilan Pada Regresi Linier Berganda. Jurnal Gaussian, 2(4), 395–404.
Supriyadi, E., Mariani, S., &Sugiman. (2017). Perbandingan Metode Partial Least Square (PLS)
Dan Principal Component Regression (PCR) Untuk Mengatasi Multikolinearitas Pada
Model Regresi Linear Berganda.Unnes Journal of Mathematics, 6(2), 117–128.
https://doi.org/10.15294/ujm.v6i2.11819
Nurdin, I.,Sugiman, & Sunarmi. Penerapan Kombinasi Metode Ridge Regression (RR) dan
Metode Generalized Least Square (GLS) untuk Mengatasi Masalah Multikolinearitas dan
Autokorelasi. Jurnal Mipa, 41(1), 58–68.
Dewi, Elok Tri K., Agoestanto, A., & Sunarmi. (2016). Metode Leaste Trimmed Square (LTS)
dan MM-Estimation untuk Mengestimasi Parameter Regresi Ketika Terdapat Outlier. Unnes
of Journal Mathematics, 5(1), 48–54.
Yuliani, Ni Wayan, dkk. (2013). Perbandingan Regresi Komponen Utama dan ROBPCA dalam
Mengatasi Multikolinearitas dan Pencilan pada Regresi Linear Berganda. E–Journal
Matematika, 2(4), 1–5
Pratomo, Dedi S., dkk. (2015). Analisis Regresi dan Korelasi Antara Pengunjung dan Pembeli
terhadap Nominal Pembelian di Indomaret Kedungmundu Semarang dengan Metode
Kuadrat Terkecil. Skripsi, Fakultas Ilmu Komputer
Ghozali, Imam. (2006). Aplikasi Analisis Multivariate dengan Program SPSS, Semarang: Badan
Penerbit Universitas Diponogoro.
Indra, S., dkk. (2013). Pendeteksian Data Pencilan dan Pengamatan Berpengaruh pada Beberapa
Kasus Data Menggunakan Metode Diagnostik. E-Journal Matematika, 1(2). 68–73
Pemilihan Model Terbaik
Cara-cara yang sering digunakan dalam memilih model terbaik, yaitu:
1. Best Subset Model
Model regresi terbaik (best subset model regression) adalah model yang dapat
menjelaskan perilaku peubah tak bebas dengan sebaik-baiknya dengan memilih peubah-
peubah bebas dari sekian banyak peubah bebas yang tersedia dalam data. Model regresi
terbaik (best subset model regression) digunakan untuk meregresikan satu peubah respon
pada semua kemungkinan kombinasi subset peubah-peubah prediktor dan kemudian memilih
subset terbaik untuk setiap ukuran (size) informasi model terbaik ini dipilih berdasarkan nilai
R-square terbesar (Draper dan Smith (1992)).
Metode regresi best subset ini merupakan salah satu cara untuk mengatasi
multikolinearitas yaitu dengan memilih peubah-peubah bebas yang dapat digunakan dalam
model agar diperoleh persamaan regresi terbaik yang mengandung sebagian atau seluruh
peubah bebas.
Kriteria-kriteria yang dapat digunakan untuk menentukan variabel / peubah-peubah
bebas yang digunakan sehingga diperoleh model terbaik untuk melakukan regresi dengan
jumlah variabel yang dipilih yaitu :
1.1 Nilai Koefisien Determinasi (R2)
Koefisien determinasi adalah ukuran bagian ragam peubah terikat yang dapat
dijelaskan secara bersama-sama oleh peubah bebas yang ada di dalam model. Nilai
koefisien determinasi dirumuskan dengan:
Keterangan:
SS = Jumlah kuadrat regresi
SST = Jumlah kuadrat total
SSE = Jumlah kuadrat galat
p = Jumlah peubah bebas dalam model
R2 akan terus bertambah seiring bertambahnya peubah bebas yang
dimasukkan dalam model. Peubah yang potensial ditambahkan dalam model
adalah yang memberi penambahan nilai R2 yang cukup berarti.
Keterangan:
2
= Sampel R-square
p = Banyaknya parameter termasuk 𝑌
n = Banyaknya pengamatan
2
1.3 Nilai Rataan Kuadrat Sisa atau
Salah satu patokan yang baik digunakan dalam memilih kecocokan suatu
model dengan data adalah dengan melihat rataan kuadrat sisa ( 2), model yang
2
baik memberikan yang kecil. Ukuran ini memperhitungkan banyaknya
parameter dalam model melalui pembagian dengan derajat kebebasannya. Rataan
kuadrat sisa ( 2) mungkin membesar bila penurunan dalam JK sisa akibat
pemasukan suatu peubah tambahan kedalam model tidak dapat mengimbangi
penurunan dalam derajat kebebasannya. Rataan kuadrat sisa dirumuskan:
Keterangan:
JKS = Jumlah kuadrat sisa
n = banyaknya pengamatan
p = banyaknya parameter
1.4 Cp-Mallow
Nilai dugaan yang didapat dari persamaan regresi berdasarkan sebagian
peubah bebas pada umumnya bias. Untuk menilai kebaikan model digunakan
means square error (MSE ) dengan varian dan biasnya. C.L. Mallow
menyarankan statistik
( )
Keterangan:
SSEp = Nilai SSE tiap-tiap model
MSEall = Nilai MSE dari model yang mengandung seluruh variabel
n = Jumlah sampel
p = Jumlah peubah bebas dalam model
Penyimpangan Cp dari p digunakan sebagai ukuran bias. Model terbaik
berdasarkan Cp adalah model yang memiliki nilai Cp terdekat dengan jumlah
peubah dalam model.
Pengelompokkan persamaan-persamaan regresi ke dalam lima kelompok:
(1) Kelompok A yang terdiri atas satu persamaan regresi dengan hanya
melibatkan nilai tengah yaitu (𝑌)
(2) Kelompok B yang terdiri atas empat persamaan regresi dengan satu
variabel peramal seperti persamaan (𝑌)
(3) Kelompok C yang terdiri atas enam persamaan regresi dengan dua
variabel peramal seperti persamaan (𝑌)
(4) Kelompok D yang terdiri atas empat persamaan regresi dengan tiga
variabel peramal seperti persamaan (𝑌) dan
(5) Kelompok E yang terdiri atas satu persamaan regresi dengan empat
variabel peramal seperti persamaan (𝑌) .
o Urutkan persamaan regresi dalam setiap kelompok menurut besarnya kuadrat
koefisien korelasi berganda atau koefisien determinasi R2 yang dicapai.
o Periksalah persamaan regresi dari urutan pertama dalam setiap kelompok
dan lihatlah apakah ada suatu pola variabel yang terurut secara konsisten
dalam persamaan-persamaan tersebut.
2. Backward Elimination
Membuat model dengan memasukkan semua variabel kemudian dikeluarkan satu persatu
dengan melakukan pengujian terhadap parameter – parameternya dengan menggunakan
partial F test. Nilai partial F-test (FL) terkecil dibandingkan dengan F0 table:
•Jika FL < F0, maka X yang bersangkutan dikeluarkan dari model dan dilanjutkan dengan
pembuatan model baru tanpa variabel tersebut.
•Jika FL > F0, maka proses dihentikan dan persamaan terakhir tersebut yang
digunakan/dipilih.
3. Forward Selection
Forward Selection merupakan salah satu metode pemodelan (pembangunan model linier)
untuk menemukan kombinasi peubah yang “terbaik” dari suatu gugus peubah. Dalam
Prosedur Forward selection, sekalinya variable masuk kedalam persamaan maka tidak bisa
dihilangkan.
Selain itu, Forward selection dapat berarti memasukkan variabel bebas yang memiliki
korelasi yang paling erat dengan variabel tak bebasnya (variabel yang paling potensial untuk
memiliki hubungan linier dengan Y). kemudian secara bertahap memasukkan variabel bebas
yang potensial berikutnya dan nanti akan terhenti sampai tidak ada lagi variabel bebas yang
potensial.
Kelebihan dan Kekurangan Forward Selection
Kelebihan prosedur Forward selection diantaranya sebagai berikut:
a. Metode forward, backward, dan stepwise merupakan alternatif untuk mengurangi
kemungkinan adanya multikolinearitas dalam model yang dihasilkan.
Kekurangan prosedur Forward Selection adalah diantaranya;
a. Lama dalam penghitungan , karena harus menghitung satu-satu dari peubah yang ada,
dari peubah yang memiliki F tersebar.
b. Dalam metode ini, ada kemungkinan untuk memasukkan lebih banyak variable yang
tidak begitu signifikan ke dalam model dibanding metode backward dan stepwise, karena
MSE yang dihasilkan forward akan lebih kecil yang menyebabkan nilai Fobs besar.
c. Prosedur ini tidak selalu mengarahkan ke model yang terbaik,
mengingat kita hanya mempertimbangkan sebuah subset kecil dari semua model-model yang
mungkin. Sehingga resiko melewatkan atau kehilangan model terbaik akan bertambah seiring
dengan penambahan jumlah variabel bebas.
4. Stepwise Regression
Regresi stepwise melibatkan dua jenis proses yaitu: forward selection dan backward
elimination. Teknik ini dilakukan melalui beberapa tahapan. Pada masing-masing tahapan,
kita akan memutuskan variabel mana yang merupakan prediktor terbaik untuk dimasukkan ke
dalam model. Variabel ditentukan berdasarkan uji-F, variabel ditambahkan ke dalam model
selama nilai p-valuenya kurang dari nilai kritik α (biasanya 0,15). Kemudian variabel dengan
nilai p-value lebih dari nilai kritik α akan dihilangkan. Proses ini dilakukan terus menerus
hingga tidak ada lagi variabel yang memenuhi kriteria untuk ditambahkan atau dihilangkan.
Model dalam regresi Stepwise adalah:
Y = β0 + β1X1 + β2X2 + β3X3 + …. + βnXn
Sedangkan Hipotesis yang digunakan dalam Regresi Stepwise adalah:
H0 : β1, β2, β3 = 0
Dengan hipotesis alternatif adalah:
Ha : β1, β2, β3 ≠ 0
Model dibuat dengan memasukkan variabel prediktor satu persatu (secara bertahap) mulai
dari variabel X yang memiliki korelasi tinggi
Langkah-langkahnya yaitu:
1. Cari variabel X yang berkorelasi paling tinggi dengan Y, kemudian buat regresinya
2. Pemilihan variabel berikutnya adalah variabel yag memiliki korelasi parsial terbesar
dengan Y dan buat model dengan memasukkan variabel tersebut
3. Uji parameter yang telah ada di dalam model
4. Begitu seterusnya ulangi langkah 2-3 sampai diperoleh model terbaik
B. CONTOH KASUS
Contoh kasus yang kami gunakan berasal dari jurnal yang berjudul “Analisa Metode
Backward Dan Metode Forward Untuk Menentukan Persamaan Regresi Linier Berganda”
dimana kasusnya adalah mencari model terbaik untuk pengaruh faktor pengemudi, faktor
jalan, faktor kendaraan, dan faktor penambahan jumlah kendaraan bermotor terhadap jumlah
kecelakaan lalu lintas. Data diperoleh dari POLANTAS Kotamadya Medan dan disajikan
dalam bentuk tabel 1 dibawah
Pertambahan
Jumlah
Faktor Faktor jumlah
Kecelakaan Faktor Jalan
No Bulan Pengemudi Kendaraan kendaraan
Lalu Lintas (kasus)
(orang) (kasus) bermotor
(kasus)
(unit)
1 Januari 107 56 31 12 873
2 Februari 113 63 23 15 402
3 Maret 117 60 27 14 538
4 April 129 61 33 9 432
5 Mei 137 77 31 18 746
6 Juni 99 54 20 11 393
7 Juli 112 56 30 10 746
8 Agustus 114 56 27 11 799
9 September 126 60 20 13 516
10 Oktober 101 65 17 9 493
11 November 116 56 32 21 871
12 Desember 103 59 29 14 904
13 Januari 118 51 40 20 1172
14 Februari 116 63 28 13 882
15 Maret 135 71 30 17 571
16 April 143 79 37 14 459
17 Mei 154 83 48 24 872
18 Juni 163 86 48 24 585
19 Juli 157 81 48 27 998
20 Agustus 143 78 42 22 921
21 September 159 74 34 19 634
22 Oktober 164 87 37 13 894
23 November 157 96 37 17 935
24 Desember 175 107 40 21 1108
Selanjutnya akan dicari model terbaik dengan menggunakan metode Forward, Backward, dan
Stepwise.
a. Metode Forward
Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51.00 107.00
JalanX2 24 17.00 48.00
KendaraanX3 24 9.00 27.00
PenambahanKendaranX4 24 393.00 1172.00
JumlahkecelakaanY 24 99.00 175.00
Valid N (listwise) 24
Dalam hasil output descritive statistics terlihat bahwa terdapat data sebanyak 24 dan disana
juga terdapat nilai maksimum dan minimum tiap variabelnya.
Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua yaitu
sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua sebanyak 107
orang.
Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama yaitu
sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua sebanyak 48
kasus.
Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun pertama
yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua sebanyak 27 kasus.
Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni tahun
pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun kedua
sebanyak 1172 unit.
Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama yaitu
sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua sebanyak 175
kasus.
Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih cukup
tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah 0,304 yang
dimana korelasi ini rendah.
Pada tabel juga terlihat nilai signifikansi antar vaiabel. Untuk nilai signifikansi
variabel bebas X1, X2, dan X3 dengan variabel terikatnya didapatkan signifikan namun untuk
X4 dengan variabel terikat didapatkan tidak signifikan. Kemudian antar variabel bebasnya
terlihat bahwa X1 dan X2, X1 dan X3, X2 dan X3, dan X2 dan X4 memiliki nilai signifikansi
yang signifikan dan hal ini patut dicurigai terjadinya multikolinearitas.
Variables Entered/Removeda
Variables Variables
Model Entered Removed Method
1 PengemudiX . Forward
1 (Criterion:
Probability-
of-F-to-enter
<= ,050)
2 JalanX2 . Forward
(Criterion:
Probability-
of-F-to-enter
<= ,050)
a. Dependent Variable: JumlahkecelakaanY
Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.
Model Summaryc
Adjusted R Std. Error of Durbin-
Model R R Square Square the Estimate Watson
a
1 .901 .811 .802 10.21458
b
2 .938 .880 .868 8.33869 2.091
a. Predictors: (Constant), PengemudiX1
b. Predictors: (Constant), PengemudiX1, JalanX2
c. Dependent Variable: JumlahkecelakaanY
Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) sebesar 0,901,
dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi dan jumlah
kecelakaan lalu lintas memiliki hubungan/ kolerasi linear yang tinggi. Selanjutnya terdapat
besarnya nilai kolerasi (R) sebesar 0,938, dimana nilai tersebut mendekati 1 hal ini berarti
bahwa faktor pengemudi, faktor jalan dan jumlah kecelakaan lalu lintas memiliki hubungan/
kolerasi linear yang tinggi. Pada tabel tersebut juga terdapat koefisien determinasi (R Square)
sebesar 0,811 hal ini berarti bahwa pengaruh faktor pengemudi terhadap jumlah kecelakaan
lalu lintas sebesar 81,1% sedangkan terdapat juga koefisien determinasi (R Square) sebesar
0,880 hal ini berarti bahwa pengaruh faktor pengemudi, faktor jalan terhadap jumlah
kecelakaan lalu lintas sebesar 88% .
ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 9852.404 1 9852.404 94.428 .000b
Residual 2295.429 22 104.338
Total 12147.833 23
2 Regression 10687.625 2 5343.812 76.852 .000c
Residual 1460.209 21 69.534
Total 12147.833 23
a. Dependent Variable: JumlahkecelakaanY
b. Predictors: (Constant), PengemudiX1
c. Predictors: (Constant), PengemudiX1, JalanX2
Pada tabel anova didapatkan, untuk model 1 saat X1 masuk ternyata signifikan dan
model 2 saat X2 masuk juga signifikan.
Pada tabel coeffcients didapatkan model terbaik untuk kasus ini, yaitu 𝑌̂
selain itu pada model 1 dimana saat X1 dimasukkan nilai
signfikansinya signifikan dan ketika model 2 dimana saat X2 dimasukkan nilai signfikansinya
signifikan. Dan sebelumnya kita curigai bahwa X1 dan X2 terjadi multiko namun pada kolom VIF
menunjukan tidak terjadinya multiko karena VIF kurang dari 10.
b. Metode Backward
Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51.00 107.00
JalanX2 24 17.00 48.00
KendaraanX3 24 9.00 27.00
PenambahanKendaraanX4 24 393.00 1172.00
JumlahKecelakaanY 24 99.00 175.00
Valid N (listwise) 24
Dalam hasil output descriptive statistics terlihat bahwa terdapat data sebanyak 24 dan juga
terdapat nilai maksimum dan minimum tiap variabelnya.
Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua
yaitu sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 107 orang.
Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama
yaitu sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua
sebanyak 48 kasus.
Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun
pertama yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua
sebanyak 27 kasus.
Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni
tahun pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun
kedua sebanyak 1172 unit.
Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama
yaitu sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 175 kasus.
Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih cukup
tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah 0,304 yang
dimana korelasi ini rendah.
Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.
Dan variabel yang dikeluarkan yaitu kendaraan dan penambahan kendaraan
Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) sebesar 0,943,
dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor penambahan
kendaraan, faktor jalan, faktor kendaraan dan jumlah kecelakaan lalu lintas memiliki
hubungan/kolerasi linear yang tinggi. Kemudian juga besarnya nilai kolerasi (R) sebesar
0,943, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor
penambahan kendaraan, faktor jalan dan jumlah kecelakaan lalu lintas memiliki
hubungan/kolerasi linear yang tinggi. Selanjutnya terdapat besarnya nilai kolerasi (R) sebesar
0,938, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor jalan
dan jumlah kecelakaan lalu lintas memiliki hubungan/kolerasi linear yang tinggi. Pada tabel
tersebut juga terdapat koefisien determinasi (R Square) sebesar 0,889 hal ini berarti bahwa
pengaruh faktor pengemudi, faktor penambahan kendaraan, faktor jalan, faktor kendaraan
terhadap jumlah kecelakaan lalu lintas sebesar 88,9% dan terdapat juga koefisien determinasi
(R Square) sebesar 0,889 hal ini berarti bahwa pengaruh faktor pengemudi, faktor
penambahan kendaraan, faktor jalan terhadap jumlah kecelakaan lalu lintas sebesar 88,9%.
Sedangkan terdapat juga koefisien determinasi (R Square) sebesar 0,880 hal ini berarti
bahwa pengaruh faktor pengemudi, faktor jalan terhadap jumlah kecelakaan lalu lintas
sebesar 88% .
Berdasarkan tabel coefficients di atas, pada model 1 terlihat X3 dan X4 tidak signifikan,
sehingga X3 dikeluarkan terlebih dahulu dari model. Selanjutnya pada model 2 ternyata X4
masih tidak signifikan sehingga X4 dikeluarkan dari model. Dan pada model 3 terlihat bahwa
sudah semua variabel bebas signifikan sehingga proses dihentikan.
̂
Jadi, didapatkan model terbaik untuk kasus ini, yaitu 𝑌 .
c. Metode Stepwise
Descriptive Statistics
N Minimum Maximum
PengemudiX1 24 51,00 107,00
JalanX2 24 17,00 48,00
KendaraanX3 24 9,00 27,00
PenambahanKendaraanX4 24 393,00 1172,00
JumlahKecelakaanY 24 99,00 175,00
Valid N (listwise) 24
Dalam hasil output descriptive statistics terlihat bahwa terdapat data sebanyak 24 dan juga
terdapat nilai maksimum dan minimum tiap variabelnya.
Pada faktor pengemudi (X1) terdapat nilai minimum pada bulan Januari tahun kedua
yaitu sebanyak 51 orang dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 107 orang.
Pada faktor jalan (X2) terdapat nilai minimum pada bulan Oktober tahun pertama
yaitu sebanyak 17 kasus dan nilai maksimum pada bulan Mei, Juni, Juli tahun kedua
sebanyak 48 kasus.
Pada faktor kendaraan (X3) terdapat nilai minimum pada bulan April, Oktober tahun
pertama yaitu sebanyak 9 kasus dan nilai maksimum pada bulan Juli tahun kedua
sebanyak 27 kasus.
Pada faktor penambahan kendaraan (X4) terdapat nilai minimum pada bulan Juni
tahun pertama yaitu sebanyak 393 unit dan nilai maksimum pada bulan Februari tahun
kedua sebanyak 1172 unit.
Pada jumlah kecelakaan (Y) terdapat nilai minimum pada bulan Juni tahun pertama
yaitu sebanyak 99 kasus dan nilai maksimum pada bulan Desember tahun kedua
sebanyak 175 kasus.
Correlations
Penam
bahanK
JumlahKec Pengemudi JalanX Kendaraan endaraa
elakaanY X1 2 X3 nX4
Pearson JumlahKecelakaanY 1,000 ,901 ,754 ,639 ,304
Correlation PengemudiX1 ,901 1,000 ,606 ,523 ,286
JalanX2 ,754 ,606 1,000 ,794 ,551
KendaraanX3 ,639 ,523 ,794 1,000 ,488
PenambahanKendar ,304 ,286 ,551 ,488 1,000
aanX4
Sig. (1-tailed) JumlahKecelakaanY . ,000 ,000 ,000 ,074
PengemudiX1 ,000 . ,001 ,004 ,087
JalanX2 ,000 ,001 . ,000 ,003
KendaraanX3 ,000 ,004 ,000 . ,008
PenambahanKendar ,074 ,087 ,003 ,008 .
aanX4
N JumlahKecelakaanY 24 24 24 24 24
PengemudiX1 24 24 24 24 24
JalanX2 24 24 24 24 24
KendaraanX3 24 24 24 24 24
PenambahanKendar 24 24 24 24 24
aanX4
• Pada tabel correlations kita dapat melihat nilai korelasi antar variabelnya untuk
korelasi pengemudi dengan jumlah kecelakaan adalah 0,901 dimana korelasi ini tinggi,
selanjutnya jalan dengan jumlah kecelakan adalah 0,754 dimana korelasi ini tinggi,
selanjutnya kendaraan dengan jumlah kecelakaan adalah 0,639 yang dimana masih
cukup tinggi dan terakhir penambahan kendaraan dengan jumlah kecelakaan adalah
0,304 yang dimana korelasi ini rendah.
• Pada tabel juga terlihat nilai signifikansi antar variabel. Untuk nilai signifikansi
variabel bebas X1, X2, dan X3 dengan variabel terikatnya didapatkan signifikan
namun untuk X4 dengan variabel terikat didapatkan tidak signifikan. Kemudian antar
variabel bebasnya terlihat bahwa X1 dan X2, X1 dan X3, X2 dan X3, dan X2 dan X4
memiliki nilai signifikansi yang signifikan dan hal ini patut dicurigai terjadinya
multikolinearitas.
Variables Entered/Removeda
Mode Variables Variables
l Entered Removed Method
1 Pengemudi . Stepwise
X1 (Criteria:
Probability-
of-F-to-
enter
<= ,050,
Probability-
of-F-to-
remove
>= ,100).
2 JalanX2 . Stepwise
(Criteria:
Probability-
of-F-to-
enter
<= ,050,
Probability-
of-F-to-
remove
>= ,100).
a. Dependent Variable: JumlahKecelakaanY
Pada tabel diatas terdapat variabel yang masuk pertama yaitu pengemudi karena nilai
korelasinya tertinggi dan yang kedua adalah jalan karena nilai korelasinya tertinggi kedua.
Model Summaryc
M Change Statistics
o Std.
d R Error of F Durbin
e Squar Adjusted the R Square Chang Sig. F -
lR e R Square Estimate Change e df1 df2 Change Watson
1,901a ,811 ,802 10,2145 ,811 94,42 1 22 ,000
8 8
2,938b ,880 ,868 8,33869 ,069 12,01 1 21 ,002 2,091
2
a. Predictors: (Constant), PengemudiX1
b. Predictors: (Constant), PengemudiX1, JalanX2
c. Dependent Variable: JumlahKecelakaanY
Hasil output diatas menjelaskan bahwa besarnya nilai kolerasi (R) pada model 1
sebesar 0,901, dimana nilai tersebut mendekati 1 hal ini berarti bahwa faktor pengemudi dan
jumlah kecelakaan lalu lintas memiliki hubungan/ kolerasi linear yang tinggi. Selanjutnya
terdapat besarnya nilai kolerasi (R) pada model 2 sebesar 0,938, dimana nilai tersebut
mendekati 1 hal ini berarti bahwa faktor pengemudi, faktor jalan dan jumlah kecelakaan lalu
lintas memiliki hubungan/ kolerasi linear yang tinggi. Pada tabel tersebut juga terdapat
koefisien determinasi (R Square) model 1 sebesar 0,811 hal ini berarti bahwa pengaruh
faktor pengemudi terhadap jumlah kecelakaan lalu lintas sebesar 81,1% sedangkan terdapat
juga koefisien determinasi (R Square) model 2 sebesar 0,880 hal ini berarti bahwa pengaruh
faktor pengemudi, faktor jalan terhadap jumlah kecelakaan lalu lintas sebesar 88% .
ANOVAa
Sum of
Model Squares df Mean Square F Sig.
1 Regression 9852,404 1 9852,404 94,428 ,000b
Residual 2295,429 22 104,338
Total 12147,833 23
2 Regression 10687,625 2 5343,812 76,852 ,000c
Residual 1460,209 21 69,534
Total 12147,833 23
a. Dependent Variable: JumlahKecelakaanY
b. Predictors: (Constant), PengemudiX1
c. Predictors: (Constant), PengemudiX1, JalanX2
Pada tabel anova didapatkan, untuk model 1 saat X1 masuk ternyata signifikan dan
model 2 saat X2 masuk juga signifikan.
Coefficientsa
Standard
ized
Unstandardized Coeffici 95,0% Confidence Collinearity
Coefficients ents Interval for B Statistics
Std. Lower Upper Tolera
Model B Error Beta t Sig. Bound Bound nce VIF
1 (Constan 33,546 10,302 3,256 ,004 12,181 54,911
t)
Pengemu 1,401 ,144 ,901 9,717 ,000 1,102 1,700 1,000 1,000
diX1
2 (Constan 26,622 8,644 3,080 ,006 8,646 44,599
t)
Pengemu 1,091 ,148 ,701 7,372 ,000 ,783 1,398 ,633 1,579
diX1
JalanX2 ,872 ,251 ,330 3,466 ,002 ,349 1,395 ,633 1,579
a. Dependent Variable: JumlahKecelakaanY
Draper, N., and H. Smith, 1992, Analisis Regresi Terapan edisi kedua
(Terjemahan oleh Bambang Sumantri), Gramedia, Jakarta.
Herlina, H. (2011). Perbandingan Metode Stepwise, Best Subset Regression, dan Fraksi
dalam Pemilihan Model Regresi Berganda Terbaik. Jurusan Matematika, F.MIPA,
Universitas Sriwijaya. Tersedia di http://statistik.studentjournal.ub.ac.id.
Pujilestari, S. (2016). Pemilihan Model Regresi Linear Berganda Terbaik Pada Kasus
Multikolinearitas Berdasarkan Metode Principal Component Analysis (PCA) Dan Metode
Stepwise. Skripsi. Jurusan Matematika, F.MIPA, Universitas Negeri Semarang
Samosir, dkk. (2014). Analisa Metode Backward dan Metode Forward Untuk Menentukan
Persamaan Regresi Linier Berganda: Saintia Matematika, 2(4), 345-360.
Sembiring, R.K. 1995. Analisis Regresi. Bandung: Penerbit ITB.