Anda di halaman 1dari 30

BAB I

PENDAHULUAN

1.1 Latar Belakang


Model matematik dalam statistika merupakan penyederhanaan dari realitas atau
permasalahan yang diteliti oleh statistikawan. Oleh karena itu, diperlukan asumsi-asumsi agar
model tersebut dapat menggambarkan permasalahannya. Selain itu, asumsi diperlukan agar
dapat merumuskan apa yang peneliti ketahui atau terka mengenai penganalisaan data atau
masalah pemodelan statistik yang dihadapinya, dan pada saat yang bersamaan asumsi
diperlukan agar model yang dihasilkan dapan memudahkan (manageable) dalam sudut
pandang teoritik dan komputasinya. Salah satu asumsi yang paling banyak ditemukan dalam
statistic adalah asumsi kenormalan, yang telah ada selama 2 abad, asumsi kenormalan
menjadi kerangka berpikir dalam semua metode statistik inferensi, yaitu : regresi, analisis
variansi, analisis multivariat, model time series dan lain-lain.
Analisis regresi merupakan analisis yang mempelajari bagaimana membangun
sebuah model fungsional dari data untuk dapat menjelaskan ataupun meramalkan suatu
fenomena alami atas dasar fenomena yang lain. Untuk itu kita membutuhkan sekumpulan data
prediktor untuk dapat menjelaskan data respon.
Hal pertama yang dilakukan dalam setiap analisis data adalah tahap
persiapan data yang meliputi pengumpulan dan pemeriksaan data. Proses pengumpulan data
dapat dilakukan dengan cara sensus atau sampling. Untuk kedua hal tersebut, langkah
yang dapat ditempuh adalah :
a. Mengadakan penelitian langsung ke lapangan atau laboratorium terhadap objek
penelitian.
b. Mengambil atau menggunakan, sebagian atau seluruhnya, dari sekumpulan data yang
telah dicatat atau dilaporkan oleh pihak lain.
c. Mengadakan angket, yakni cara pengumpulan data dengan menggunakan daftar isian
atau

daftar

pertanyaan

yang

telah

disiapkan

dan

disusun sedemikian rupa

sehingga calon responden tinggal mengisi atau menandainya dengan mudah dan cepat.

Tahap selanjutnya adalah pemeriksaan data. Hal ini dilakukan untuk menghindari
hal-hal yang tidak diinginkan, misalnya kekeliruan atau ketidakcocokan tentang data.
Pada data yang diperoleh bukan dari angket, tidak jarang ditemukan satu atau
beberapa data yang jauh dari pola kumpulan data keseluruhan, yang lazim didefenisikan
sebagai data pencilan (outlier). Karena dalam suatu pengamatan terhadap suatu keadaan tidak
menutup kemungkinan diperoleh suatu nilai pengamatan yang berbeda dengan nilai
pengamatan lainnya. Hal ini mungkin disebabkan oleh kesalahan pada saat persiapan data
atau terdapat peristiwa yang ekstrim yang mempengaruhi data.
Seringkali dalam prakteknya, asumsi kenormalan terpenuhi secara aproksimasi
pada sebagian besar data observasi. Bahkan, beberapa observasi berbeda pola atau bahkan
tidak berpola mengikuti distribusi normal. Hal ini dikarenakan observasi yang tidak normal,
observasi yang terpisah dari observasi lainnya yang dikenal dengan data outlier atau pencilan.
Apabila data mengandung pencilan maka akan menghasilkan informasi yang tidak akurat atau
tidak valid. Berdasarkan hal tersebut, perlu adanya suatu metode untuk mendeteksi adanya
pencilan dari suatu kumpulan data.
Berbagai metode klasik telah banyak digunakan untuk mendeteksi apakah suatu
data merupakan pencilan. Metode tersebut dilakukan secara eksploratif dan secara pengujian.
Metode untuk mendeteksi pencilan secara eksploratif adalah dengan plot sisa dan diagram
kotak garis. Sedangkan metode untuk mendeteksi pencilan secara pengujian yaitu sisaan
terbaku (

) dan dengan sisaan terstudent (

* . Menurut

Sembiring (2003), metode mendeteksi pencilan secara pengujian (sisaan terbaku dan sisaan
terstudent) juga mempunyai kelemahan yaitu sulit mendeteksi pencilan jika dari suatu
kumpulan data terdapat banyak pencilan dan letaknya tidak saling berdekatan.
Metode Bayes dapat digunakan untuk mengatasi kelemahan dari metode klasik
tersebut. Pendekatan Bayes untuk mendeteksi pencilan dengan menggunakan definisi yang
ditulis oleh Freeman (1980), yaitu sebuah pencilan adalah suatu pengamatan yang
menyimpang (terpencil), dibangkitkan oleh suatu mekanisme yang berbeda dengan
pembangkitan suatu kumpulan data secara umum. Pendekatan Bayes dalam mendeteksi
adanya suatu pencilan tidak membedakan jenis distribusi pembangkit pengamatan. Pencilan
dideteksi dengan memeriksa distribusi peluang posterior dari sisaan acak. Pada sebuah model
linier,

dengan sisaan acak

yang berdistribusi normal dengan rataan sama


2

dengan nol dan varians

, dikatakan bahwa pengamatan ke-i adalah sebuah pencilan jika

mempunyai nilai peluang posterior yang lebih besar dari nilai peluang prior untuk nilai k
tertentu (Chaloner dan Brant, 1988).

1.2 Tujuan
Adapun tujuan dari penulisan makalah ini adalah untuk :
a. Menjelaskan definisi pencilan;
b. Mengetahui dampak keberadaan pencilan dalam analisis data, dalam hal ini analisis
regresi.
c. Menjelaskan metode yang dapat dipergunakan dalam mengidentifikasi keberadaan
pencilan dan menyusun model persamaan regresinya.
d. Membandingkan metode pendugaan koefisien regresi antara Metode Kuadrat
Terkecil dengan Metode Robust Estimasi M.

1.3 Batasan Masalah


Data yang digunakan adalah data di bidang pertanian yang memiliki k peubah respon
Metode pendugaan regresi yang digunakan bagi data yang mengandung pencilan
tersebut yaitu Metode Kuadrat Terkecil dan Metode Robust Estimasi-M.
Kriteria pembanding yang digunakan adalah Koefisien Determinansi (R2), Uji Parsial t,
dan Uji F.

BAB II
TINJAUAN PUSTAKA

2.1 Gambaran Umum Regresi Linier


Banyak analisis statistik bertujuan untuk mengetahui apakah ada hubungan antara
dua atau lebih peubah. Dalam penentuan hubungan tersebut dua jenis peubah yaitu peubah tak
bebas atau peubah respon yang dilambangkan dengan Y dan peubah bebas atau peubah
peramal yang biasanya dilambangkan dengan X. Nilai dari peubah bebas biasanya dapat
diatur dan diamati, tetapi tidak dapat dikendalikan (Draper dan Smith, 1992).
Hubungan antara peubah respon dan peubah prediktor yang dicocokkan pada data
percobaan ditandai dengan persamaan prediksi, disebut persamaan regresi duga. Apabila
peubah X jumlahnya tunggal, maka dapat dikatakan bahwa regresi tersebut adalah sederhana,
sedangkan jika terdapat k peubah bebas maka dikatakan sebagai regresi berganda (Steel dan
Torrie, 1991).
Model regresi linier sederhana menurut Draper dan Smith (1992) dituliskan
sebagai berikut :
untuk i = 1, 2, , n
sedangkan model regresi linier berganda dituliskan sebagai berikut :
untuk i = 1, 2, , n
di mana :
= nilai pengamatan peubah respon ke-i
= peubah-peubah bebas yang menentukan nilai pengamatan ke-i
= koefisien-koefisien

regresi untuk

peubah-peubah

secara

berturut-turut
= intersep (menunjukkan titik potong antara garis regresi dengan sumbu Y)
= galat ke-i dan merupakan peubah acak yang mempunyai sebaran tertentu
n

= banyaknya pengamatan

2.2 Regresi Linier Berganda


2.2.1 Asumsi Regresi Linier Berganda
Asumsi-asumsi yang melandasi analisis regresi linier berganda menurut
Gujarati (1999) sebagai berikut :
1. Cov (

(Asumsi Autokorelasi)

Asumsi ini menghendaki adanya kebebasan galat untuk setiap nilai pengamatan Y.
Meskipun asumsi ini tidak terppenuhi, pendugaan parameter model regresi menggunakan
metode kuadrat terkecil masih tetap menghasilkan penduga yang tak bias.
2. Var

) (Asumsi Homoskedastisitas)
Asumsi ini menghendaki agar varians di sekitar garis regresi atau lebih jelasnya

varians dari galat adalah

adalah konstan untuk setiap

. Apabila asumsi ini tidak

terpenuhi maka pendugaan parameter menggunakan metode kuadrat terkecil bukanlah


pendugaan yang efisien. Hal ini disebabkan karena metode ini tidak lagi memberikan
varians yang kecil, padahal metode kuadrat terkecil berusaha untuk meminimumkan
jumlah kuadrat dari galat.
3. Cov (

untuk

(Asumsi Multikolinieritas)

Asumsi ini tidak menghendaki adanya korelasi antara peubah bebas satu dengan
peubah bebas lainnya.
4. Kenormalan Galat,
Asumsi ini berarti bahwa galat mengikuti sebaran normal dengan nilai tengah nol
dan varians konstan

2.2.2 Pendugaan Koefisien Regresi Linier Berganda


Model populasi dari persamaan regresi linier barganda dinyatakan oleh Draper
dan Smith (1992) dengan :
untuk i = 1, 2, , n

(2.1)

Hampir dalam semua situasi praktis apa yang dimiliki oleh peneliti adalah suatu
sampel nilai-nilai Y yang berhubungan pada beberapa nilai X yang tetap. Oleh karena itu
persamaan (2.1) dapat diduga dengan menggunakan model sampel yaitu :
5

(2.2)

untuk i = 1, 2, , n
Prosedur pendugaan

menggunakan metode kuadrat terkecil

(MKT) dengan galat meminimumkan jumlah kuadrat sisa (JKsisa). JKsisa mencapai nilai
minimum jika turunan parsial terhadap

sama dengan nol. JKsisa minimum

dapat dinyatakan dengan :


(

) (

=(

sehingga JKsisa minimum adalah :


(
(

maka didapatkan :
(

(2.3)
(Yusuf Wibisono, 2015)

2.2.3 Pengujian Persamaan Regresi


2.2.3.1 Pengujian Koefisien Regresi Secara Serentak
Menurut Hines dan Montgomery (1990), hipotesis yang diuji adalah :

versus
Paling sedikit terdapat
Penyelidikan koefisien regresi dapat dipermudah dengan menggunakan tabel
analisa ragam seperti dalam Tabel 2.1
Tabel 2.1 Analisis Ragam untuk Menguji Keberartian Koefisien Regresi secara Serentak
Sumber
Keragaman
Regresi
Sisa
Total

Derajat
Bebas
k
n-k-1
n-1

Jumlah Kuadrat
Kuadrat Tengah
JKR
KTR
JKS
JKT

Fhit

Ftabel

P
(

KTS
6

di mana :
n = banyak pengamatan
k = banyak peubah bebas yang terlibat dalam model
Apabila Fhit >

atau p < maka kita akan menolak H0 yang artinya

paling sedikit terdapat satu

(menunjukkan peubah bebas mempunyai kontribusi yang

nyata terhadap peubah tak bebas) dan sebaliknya jika Fhit <
artinya

maka terima H0 yang

(menunjukkan peubah bebas tidak mempunyai kontribusi

yang nyata terhadap peubah tak bebas) (Drapper dan Smith, 1992).

2.2.3.2 Pengujian Koefisien Secara Parsial


Pengujian ini dilakukan terhadap setiap koefisien regresi dengan hipotesis sebagai
berikut :
versus
Statistik uji yang digunakan adalah :
|

(2.4)

di mana

adalah elemen diagonal dari matriks korelasi (

atau nilai

) . Apabila |

maka kita akan menolak H0 yang artinya

sumbangan yang nyata terhadap model dan sebaliknya jika |

( )

atau peubah Xj memberikan


|

( )

atau

maka

terima H0 atau peubah Xj tidak memberikan sumbangan yang nyata terhadap model (Hines
dan Montgomery, 1990).

2.3 Pengujian Asumsi Linier Berganda


2.3.1 Analisis Sisaan
Menurut Drapper dan Smith (1992), analisis sisaan adalah analisis tentang selisih
nilai pengamatan

dengan nilai ramalan ( ) setelah model ditetapkan, sehingga model

yang didapat dijamin validitasnya. Secara matematis, sisaan dapat ditulis sebagai berikut :

(2.5)

Jika model yang dipostulatkan benar maka sisaan akan menunjukkan


kecenderungan yang mendukung asumsi yang berlaku yaitu

atau setidaknya

tidak menunjukkan penyimpangan dari asumsi-asumsi tersebut.

2.3.2 Pengujian Kehomogenan Ragam Sisaan (Homoskedastisitas)


Pengujian ini dilakukan untuk mengetahui apakah ragam sisaan sama (ragam
konstan). Hal ini dapat dilihat melalui plot antara sisaan baku (
dengan nilai ramalan ( ) . Di mana

dan

(Aunuddin, 1989).
Pengujian kehomogenan ragam sisaan dapat juga menggunakan uji dari J.
Szroeter. Dalam Dielman (1991) disebutkan bahwa Griffith dan Sureka (1986) telah
menunjukkan bahwa nilai uji ini lebih baik dalam mendeteksi kehomogenan ragam sisaan
dibandingkan dengan metode lain.
Hipotesis yang diuji adalah :
H0 : Ragam sisaan homogen
versus
H1 : Ragam sisaan tidak homogen
Statistik uji Szroeter adalah :
(

(2.6)

di mana :
n = ukuran sampel

Kriteria pengujiannya adalah :


Jika
Jika

, maka terima H0
, maka tolak H0
Pendeteksian kehomogenan ragam galat dapat dilakukan melalui uji Glejser. Uji

Glejser didasarkan atas uji persamaan regresi dari harga mutlak galat | | dan X, dengan | |
8

sebagai peubah respon dan X sebagai peubah prediktornya. Bentuk hubungan yang
sebenarnya antara | | dan X umumnya tidak diketahui sehingga digunakan berbagai macam
bentuk hubungan untuk menduganya. Bentuk-bentuk hubungan yang digunnakan oleh Glejser
yaitu :
| |
| |

| |

(2.7)

| |

| |

| |

di mana :
= koefisien regresi parsial pada bentuk hubungan antara | | dan X
= sisaan ke-i
Glejser menggunakan bentuk-bentuk hubungan tersebut karena pada umumnya hubungan
antara | | dan X mengikuti bentuk hubungan seperti pada persamaan (2.7). Jika koefisien
regresi tidak signifikan, maka asumsi homoskedastisitas terpenuhi. Namun, model
| |

dan
| |

tidak dapat digunakan karena bersifat tidak linier terhadap parameter (Gujarati, 1999).
Statistik uji yang digunakan adalah statistik uji F, dengan menggunakan persamaan :
9

di mana :
KTR = Kuadrat Tengah Regresi (antara | | dan X)
KTG = Kuadrat Tengah Galat (antara | | dan X)
Nilai uji F dibandingkan dengan nilai pada

dimana V1 adalah derajat bebas

regresi dan V2 adalah derajat bebas galat.


Kaidah keputusan yang digunakan adalah :
Jika Fhitung < Ftabel, berarti H0 diterima
Jika Fhitung > Ftabel, berarti H0 ditolak

2.3.3 Pengujian Kebebasan Nilai Sisaan (Autokorelasi)


Pengujian ini dilakukan untuk mengetahui apakah terdapat ketergantungan antara
nilai sisaan. Hal ini dikaitkan dengan Cov

untuk

, yang dapat diuji dengan

statistik uji DurbinWatson.


Untuk mengetahui ada tidaknya korelasi di antara sisaan, hipotesis yang diuji adalah :
H0 : Tidak terdapat korelasi di antara sisaan
versus
H1 : Terdapat korelasi di antara sisaan
Statistik uji yang dipakai adalah :

(2.8)

Di mana :
= sisaan ke-i
= sisaan ke-(i-1) dengan i = 2, 3, , n
Statistik uji ini kita bandingkan dengan titik-titk kritis pada tabel Durbin Watson
dengan mengambil

sebagai batas bawah dan

sebagai batas atas Durbin Watson

dengan taraf nyata . Kriteria pengujian menurut Draper dan Smith (1992) adalah :
10

1. Jika

maka terima H0, berarti tidak terdapat autokorelasi antar

sisaan
2. Jika

atau

maka tolak H0 yang berarti terdapat

autokorelasi pada sisaan.


3. Jika

atau

maka tidak dapat

disimpulkan, ada tidaknya autokorelasi pada sisaan. Apabila hal ini terjadi, cara
mengatasinya adalah melihat kecondongan

. Jika

lebih condong ke

daerah yang tidak ada autokorelasi maka dapat disimpulkan bahwa tidak terdapat
autokorelasi pada sisaan. Dan sebaliknya, jika

lebih condong ke daerah yang

ada autokorelasi maka dapat disimpulkan bahwa terdapat autokorelasi pada sisaan.
f(d)

Menolak H0
Bukti

Daerah
Keraguraguan

Autokorelasi

Daerah
Keraguraguan

Menolak H0*

Bukti
Autokorelasi

negatif

positif

Menerima H0 atau H0* atau


kedua-duanya

Legenda :
H0 : Tidak ada autokorelasi positif
H1 : Tidak ada autokorelasi negatif

Gambar 2.1 Statistik d Durbin Watson


2.3.4 Pengujian Kenormalan Sisaan
Bowerman dan OConnel (1990) menyatakan bahwa terdapat beberapa metode
yang dapat digunakan dalam pengujian kenormalan sisaan :
1. Menggunakan standar sisaan ( ) . Dengan tingkat kepercayaan 95%, asumsi
kenormalan dipenuhi jika sebaran nilai ( ) berada dalam selang -2 dan 2.
2. Membuat plot pasangan ( ) yang telah diurutkan dari terkecil ke besar terhadap
persentase kumulatif (

) atau terhadap standar baku (Z). Asumsi

kenormalan dipenuhi jika hasil plot mendekati garis lurus dengan gradien 450.
11

Sedangkan menurut Stephen, M.A. (1982) pengujian kenormalan sisaan dapat


menggunakan uji Anderson Darling.
Hipotesis yang mendasari pengujian adalah :
H0 : Sisaan berdistribusi normal
versus
H1 : Sisaan tidak berdistribusi normal
Statistik uji yang dipakai adalah :
[

di mana

]}

(2.9)

adalah peluang kumulatif dari distribusi normal baku dengan i =1, 2, , n.

Kriteria untuk mengambil keputusan terima atau tolak H0 adalah :


Jika

atau

maka terima H0.

Jika

atau

maka tolak H0.

2.3.5 Kolinieritas Berganda (Multikolinieritas)


Permasalahan yang sering dihadapi dalam menggunakan regresi berganda adalah
adanya kolinieritas berganda (ketergantungan antara peubah-peubah bebas X) sehingga
didapat kesulitan untuk mengetahui pengaruh masing-masing peubah bebas terhadap peubah
tak bebas (Hines dan Montgomery, 1990).
Salah satu metode untuk menghitung besarnya kolinieritas berganda tiga peubah
bebas adalah faktor keragaman inflasi (Varian Inflation Factor = VIF). VIF didefinisikan oleh
Bowerman dan OConnel (1990) sebagai berikut :
(2.10)
di mana

menunjukkan koefisien determinasi berganda dari peubah dengan semua peubah

bebas lain.
Hines dan Montgomery (1990) serta Hocking (1982) menyatakan faktor ini tidak
lain adalah unsur diagonal utama dari matriks korelasi. Apabila

maka korelasi di

antara peubah sangat tinggi, maka cara terbaik mengatasinya dengan menambah data
pengamatan. Jika tidak mungkin untuk menambah data maka salah satu cara mengatasinya
dengan menghilangkan peubah yang menyebabkan kolinieritasnya berganda. Analisis
12

komponen utama dan Regresi Gulud dapat digunakan untuk mengatasi kolinieritas berganda
jika peubah bebas X satupun tidak boleh dibuang.

2.4 Pendeteksian Pencilan


Sisaan yang merupakan pencilan adalah sisaan yang memiliki nilai mutlak jauh
lebih besar daripada sisaan-sisaan lainnya dan biasanya terletak tiga atau empat simpangan
baku atau lebih jauh lagi dari rata-rata sisaannya. Pencilan merupakan suatu keganjilan dan
menandakan suatu titik data mempunyai sifat khusus dibandingkan dengan data lain (Drapper
dan Smith, 1992).

Gambar 2.2 Identifikasi Data Pencilan Dengan IQR (Inter Quartile Range) atau Box Plot

Sembiring (2003) menjelaskan bahwa cara yang sederhana untuk memeriksa


kenormalan sisa adalah dengan melihat apakah persentasi sisa memenuhi antara s dan s
sekitar 68%; antara -2s dan 2s sekitar 95% dan antara -3s dan 3s sekitar 99,7%. Berdasarkan
cara sederhana tersebut, apabila digunakan nilai 2s maka peluang terjadinya pencilan adalah
sebesar 1 0.95 = 0.05 dan jika 3s maka peluang terjadinya pencilan sebesar 10.997 = 0.003.
Pelanggaran terhadap ketentuan di atas dapat terjadi karena sisaan tidak memenuhi anggapan
kenormalan atau ada pencilan dalam data.
13

Berbagai kaidah telah dianjurkan untuk menolak pencilan, dengan kata lain untuk
memutuskan menyisihkan amatan tersebut dari data, untuk kemudian menganalisis kembali
tanpa amatan tersebut. Penolakan begitu saja suatu pencilan bukanlah prosedur yang
bijaksana. Adakalanya pencilan memberikan informasi yang tidak biasa diberikan oleh titik
data lainnya, misalnya karena pencilan timbul dari kombinasi keadaan yang tidak biasa yang
mungkin saja sangat penting dan perlu diselidiki lebih jauh. Sebagai kaidah umum, pencilan
baru kita tolak jika setelah ditelusuri ternyata merupakan akibat dari kesalahan-kesalahan
seperti kesalahan mencatat amatan bersangkutan atau kesalahan ketika menyiapkan peralatan.
Bila ternyata bukan akibat dari kesalahan-kesalahan semacam itu, penyelidikan yang seksama
harus dilakukan (Drapper dan Smith, 1992).
Menurut Aunuddin (1989), sebuah pengamatan disebut sebagai pencilan apabila
sisaan mutlak dari pengamatan tersebut jauh lebih besar dibandingkan sisaan-sisaan lain atau
jauh dari rata-rata sisaan (memiliki simpangan terbesar).
Menurut Bowerman dan OConnell (1990) dan Myers (1990) terdapat beberapa
cara yang dapat digunakan untuk mengidentifikasikan adanya pencilan yaitu :
1. Nilai pengaruh (Leverage value = hii)
Nilai pengaruh (hii) dapat dinyatakan dalam persamaan berikut :
(2.11)
di mana :
Jika nilai pengaruh hii besar maka pengamatan ke-i dikatakan memencil terhadap X.
Pengamatan ke-i dianggap pencilan jika :

(2.12)

di mana :
n = banyaknya pengamatan
p = banyaknya parameter dalam model termasuk faktor intersep
2. Studentized deleted residual (TRES)
Studentized deleted residual (TRES) didefinisikan sebagai berikut :

(2.13)

di mana :

14

= KTsisa tanpa menggunakan pengamatan ke-i


Kriteria pengujiannya adalah :
Jika |

Jika |

( )
( )

maka terima H0
maka tolak H0

(2.14)

Hipotesis yang mendasari pengujian :


H0 : pengamatan ke-i bukan data pencilan terhadap Y
versus
H1 : Pengamatan ke-i data pencilan terhadap Y

2.5 Pendeteksian Amatan Berpengaruh


Data berpengaruh yaitu pengamatan yang berpengaruh besar terhadap persamaan
garis regresi. Data berpengaruh ini mungkin mempunyai nilai sisaan yang besar (merupakan
pencilan) atau mungkin tidak, tergantung pada model yang digunakan dan pengamatan lain
(Draper dan Smith, 1992).
Cryer dan Miller (1991), Myers (1990) dan Schulman (1992) menjelaskan bahwa
terdapat beberapa cara mendeteksi adanya data berpengaruh yaitu :
1. Ukuran Jarak Cook (Cooks Distance)
Hipotesis yang melandasi pengujian :
H0 : Pengamatan ke-i tidak berpengaruh
versus
H1 : Pengamatan ke-i berpengaruh
Statistik Uji jarak Cook adalah :
{

} ,

(2.15)

Kriteria pengujiannya yaitu :


Jika | |

maka terima H0

Jika | |

maka tolak H0

15

2. DFITS (The Difference in Fits Statistics)


Hipotesis yang melandasi pengujian :
H0 : Pengamatan ke-i tidak berpengaruh
versus
H1 : Pengamatan ke-i berpengaruh
Statistik Uji DFITS adalah :
[

]*

(2.16)

Kriteria pengujiannya yaitu :


Jika |

maka terima H0

Jika |

maka tolak H0

(2.17)

2.6 Pencilan Berpengaruh


Data dikategorikan ke dalam pencilan berpengaruh apabila termasuk data pencilan
sekaligus data berpengaruh. Hipotesis yang digunakan adalah :
H0 : Pengamatan ke-i bukan pencilan berpengaruh
versus
H1 : Pengamatan ke-i pencilan berpengaruh
Kriteria pengujiannya :
Jika

atau |

( )

dan | |

atau |

maka

atau |

( )

dan | |

atau |

maka

terima H0
Jika
tolak H0

(2.18)

Apabila hal ini terjadi maka untuk menghilangkan pengaruh dari pencilan
digunakan regresi kekar (Myers, 1990).

16

2.7 Penduga-M dengan Fungsi Penimbang Bisquare Weight


Apabila pengamatan Y di dalam model regresi linier adalah berdistribusi normal,
metode kuadrat terkecil merupakan cara yang baik untuk menduga. Namun ketika terdapat
beberapa pengamatan pencilan yang meyebabkan sebaran data tidak normal, terutama
terdapat kelompok pengamatan yang jauh dari nilai tengah, metode kuadrat terkecil tidak bisa
menangani masalah tersebut dengan baik. Jika pemakaian metode kuadrat terkecil dipaksakan
maka akan menghasilkan suatu kesimpulan yang tidak sahih, maka alternatifnya digunakan
regresi kekar (Hines dan Montgomery, 1990).
Heber (1964) dan Hill Dixon (1982) memperkenalkan jenis penduga yang disebut
penduga-M dengan menggunakan modifikasi terhadap penduga kuadrat terkecil. T merupakan
penduga parameter rata-rata yang didapat dengan meminimumkan
beberapa fungsi objektif . Penduga-M adalah penyelesaian dari

untuk
)

di mana

disebut fungsi pengaruh yang merupakan turunan dari


Penduga-M adalah penyelesaian dari
pengaruh yang merupakan turunan dari

dimana disebut fungsi

. Untuk mendapatkan penduga T yang kekar

terhadap pencilan, maka diharapkan pada titik data yang ekstrim mendapatkan pembobot nol
atau cukup kecil, dengan cara sisaan atau simpangan

sehingga sumbangannya

terhadap penduga parameter mengecil atau tidak ada. Jika ada rata-rata yang dipakai sebagai
penduga awal atau T0 maka keberadaan pencilan dalam data menjadi tersamar karena sifat
yang dimiliki rata-rata menyebabkan semua nilai | | membesar secara merata (Devor, 1982).
Penggunaan median lebih baik dari rata-rata karena sifat resistennya yang tinggi
dan dipilih sebagai ukuran penyebaran S = median|

| yang selanjutnya digunakan

untuk mendapatkan ukuran simpangan relatif


(2.19)
di mana konstanta c ditentukan kemudian, sedangkan T0 adalah penduga awal rata-rata
(Aunuddin, 1989).
Mosteller dan Tukey (1977) menjelaskan bahwa konstanta yang sering dipakai
adalah c = 6 atau c = 9. Fungsi pembobot yang disarankan oleh Mosteller dan Tukey (1977)
dalam Aunuddin (1989) memakai fungsi obyektif seperti :

17

| |

(2.20)

| |

dengan fungsi pengaruh :


{
Karena

| |

(2.21)

| |

maka didapatkan fungsi pembobot :


{

| |
| |

(2.22)

fungsi pengaruh dan pembobot ini disebut dengan Bisquare Weight atau Biweight. Pendugaan
koefisien regresi selanjutnya ditentukan dengan pemodifikasian metode kuadrat terkecil yaitu
metode kuadrat terkecil terboboti dengan fungsi pembangkit Bisquare Weight di atas.

2.8 Metode Kuadrat Terkecil Terboboti


Pengembangan teori kuadrat kecil pada model Y =
bahwa jika

berkorelasi dan bahwa

dengan anggapan
di mana V adalah matriks

definit positif berukuran n x n yang diketahui. Penduga yang sesuai bagi

untuk model

umum dengan bentuk matriks V yang bukan berupa matriks identitas tersebut bukanlah
penduga kuadrat terkecil sebagaimana persamaan :

(2.23)
akan selalu mempunyai kebalikan karena

matriks definit positif. Penduga kuadrat terkecil umum bagi penduga

juga merupakan
adalah :
(2.24)

Apabila

dihitung berdasarkan teori kuadrat terkecil sebagai persamaan

maka akan didapatkan hasil yang sama dengan E(


[

dalam metode kuadrat terkecil terboboti

] dengan W pembobot bernilai positif untuk data

ke-i sehingga penduga kuadrat terkecil terboboti bagi

adalah :
(2.25)

dengan meminimumkan persamaan (2.25) akan menghasilkan jumlah kuadrat sisa terboboti
sebagai berikut :

(2.26)
18

Pembobot yang dimaksud adalah fungsi penimbang bisquare weight yang telah dijelaskan
sebelumnya.

2.9 Koefisien Korelasi Berganda dan Koefisien Determinasi


Wibisono (2015) mengemukakan bahwa koefisien korelasi antara dua peubah
sering disebut koefisien korelasi linier sederhana. Misalnya terdapat dua peubah X dan Y
maka koefisien korelasi anatar X dan Y diberi simbol

didefinisikan sebagai :

(2.27)

dan

di mana :

Sedangkan untuk mengetahui korelasi antara peubah Y dengan beberapa peubah


X, maka digunakan koefisien korelasi linier berganda dengan rumus sebagai berikut :

(2.28)

Dalam regresi dua peubah, koefisien korelasi linier sederhana r terletak antara -1
dan 1. Sedangkan dalam regresi yang melibatkan lebih dari dua variabel, koefisien korelasi
berganda terletak antara 0 dan 1.
Jika koefisien korelasi linier berganda dikuadratkan, maka akan diperoleh
koefisien determinasi R2 yang digunakan untuk mengetahui proporsi variasi total peubah tak
bebas yang diterangkan oleh beberapa peubah bebas secara bersama-sama. Pada saat R2 = 1
berarti garis regresi yang dicocokkan menjelaskan 100 persen variasi dalam peubah tak bebas
Y. Di pihak lain, jika R2 = 0 berarti model tadi tidak menjelaskan sedikitpun variasi dalam
peubah tak bebas Y (Gujarati, 1999 dan Mulyono, 2000).
Selanjutnya menurut Gujarati (1999), suatu sifat penting R2 adalah bahwa nilai
tadi merupakan fungsi yang tidak pernah menurun dan hampir-hampir selalu meningkat
seiring dengan meningkatnya jumlah peubah bebas X.
Dalam membandingkan dua model regresi dengan peubah tak bebas Y sama tetapi
berbeda dalam banyaknya peubah bebas X, seharusnya sangat berhati-hati dalam memilih
model dengan R2 yang tertinggi. Sehingga, untuk membandingkan dua model regresi harus
memperhitungkan banyaknya peubah bebas X yang ada pada model. Ini dapat dilakukan

19

dengan mempertimbangkan R2 yang disesuaikan

). Adapun rumus

sebagai berikut :

(2.29)

di mana :
n = jumlah pengamatan
p = banyaknya parameter dalam model termasuk faktor intersep
Istilah disesuaikan (adjusted) berarti disesuaikan terhadap derajat bebas (df).
n-p derajat bebas dan

mempunyai

mempunyai n-1 derajat bebas.

Dari persamaan (2.29) dapat diketahui bahwa


seiring meningkatnya peubah bebas X, maka

yang berarti bahwa

meningkat dengan peningkatan yang

lebih kecil dibandingkan dengan R2.

20

BAB III
METODE PENELITIAN

3.1 Data
Data yang digunakan dalam analisis ini Data Produksi Padi di Kecamatan
Purwodadi Kabupaten Purworejo pada Tahun 2011 (Skripsi : Widhyotami T.P., 2012, Studi
Komparatif Usaha Tani pada Pengguna Pupuk di Kecamatan Purwodadi Kabupaten
Purworejo, Fakultas Pertanian Universitas Jenderal Soedirman, Semarang). Pada penelitian
ini ingin diketahui pengaruh banyaknya benih (X1), pupuk organik (X2) dan pupuk kimia
(X3), terhadap produksi padi (Y). Adapun data tersebut sebagai berikut.
Tabel 3.1 Hasil Pengamatan Produksi Padi
No

X1(Kg)

X2(Kg)

X3(Kg)

Y (Kg)

1
2
3
4
5
6
7
8
9
10
11
12
13
14

2,5
10
15
2
7
5
15
30
5
40
12
20
8
7

320
1000
1000
1200
1500
2000
2000
2000
570
5000
2500
2500
1500
2000

5
70
150
100
30
20
100
200
55
350
20
100
15
20

280
1100
3000
1200
1700
1000
2800
3600
2400
6000
2200
3000
1200
1200

15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

15
5
3,5
3
15
10
7
10
15
14
10
8
10
7
11
9

2500
1000
500
500
2000
1500
2000
2500
3000
2500
1500
2000
1000
1000
2000
1500

50
10
5
3
100
15
10
20
100
55
90
45
40
5
10
15

1500
1000
600
500
3000
1700
1700
2000
3600
2500
2200
2000
2300
1200
1800
1800

3.2 Metode
3.2.1 Estimasi Koefisien Regresi Linier Berganda
1. Pendugaan koefisien regresi linier berganda sesuai persamaan (2.2)
2. Uji koefisien regresi secara serentak menggunakan persamaan (2.3)
3. Hitung R2 sesuai persamaan (2.28)
21

3.2.2 Identifikasi Outlier


a. Boxplot
b. Pemeriksaan Terhadap Pencilan Berpengaruh menggunakan metode DfFITS

3.2.3 Pembentukan Koefisien Regresi dengan Metode Estimasi-M


1. Menjadikan hasil penduga parameter model regresi linier berganda sebagai penduga awal
koefisien regresi kekar dan sisaan dihitung sesuai persamaan (2.5) yang dijadikan sisaan
awal
2. Dengan sisaan awal

dihitung nilai

sesuai persamaan

di mana c = 6 atau c = 9

3. Membentuk matriks pembobot yang merupakan matriks diagonal dengan elemen


diagonal

dengan fungsi penimbang Bisquare Weight berdasarkan persamaan

(2.22)
4. Menggunakan metode kuadrat terkecil terboboti untuk mendapatkan koefisien regresi
kekar dengan persamaan (2.25)
5. Menjadikan hasil penduga pada langkah keempat sebagai penduga parameter koefisien
regresi linier berganda untuk menghilangkan sisaan baru dengan matriks pembobot baru
6. Kembali ke langkah kedua sampai tercapai kekonvergenan. Kekonvergenan tercapai
apabila perubahan penduga koefisien regresi dan jumlah simpangan mutlak dari iterasi ke
iterasi berikutnya tidak berarti (kurang dari 0.01)
7. Jika sudah kovergen, hitung R2 untuk mengetahui informasi yang dihasilkan oleh model
regresi tersebut

22

BAB IV
HASIL DAN PEMBAHASAN

4.1 Model Regresi dengan MKT Biasa


Dengan metode kuadrat terkecil biasa diperoleh model regresi linier berganda
beserta nilai R2 sebagai berikut :

R2

551 + 53 X1 + 0.274 X2 + 6.48 X3

83.7%

Nilai R2 disebut koefisien determinasi (berganda), yang merupakan nilai kuadrat


dari koefisien korelasi berganda. Koefisien korelasi berganda mengukur kedekatan titik-titik
pengamatan dengan bidang regresi. Dengan kata lain korelasi ini adalah korelasi antara
pengamatan Y dengan nilai regresinya . Nilai

sebesar 83.7% berarti bahwa sebesar

83.7% proporsi data mendukung model atau sebesar 83.7% keragaman yang bisa diterangkan
oleh regresi sedangkan sisanya diterangkan oleh sebab-sebab lain.
4.2 Menguji Koefisien Model Regresi
1. Pengujian Koefisien Regresi Secara Serentak
Hipotesis yang diuji adalah :

versus
Paling sedikit terdapat
Statistik Uji :
Jika Fhit >

atau p < maka tolak H0

Jika Fhit <

maka terima H0

Penyelidikan koefisien regresi linear berganda menggunakan MKT secara serentak dengan
menggunakan taraf signifikansi sebesar 5% atau 0.05 menghasilkan nilai Fhitung sebesar
50.63. Berdasarkan tabel statistic, Ftabel = 2.98, maka Fhit >

atau 50.63 > 2.98

sehingga Ho ditolak artinya variabel bebas berpengaruh terhadap variabel tak bebas.

23

2. Pengujian Koefisien Secara Parsial


Hipotesis yang diuji adalah :

versus

Statistik uji yang digunakan adalah :


|

Prediktor

Koefisien

Konstan

551

X1

53

X2
X3
Untuk

ttabel

Keputusan

1.88

2.056

Tidak Nyata

0.274

2.63

2.056

Tidak Nyata

6.48

4.07

2.056

Nyata

karena nilai |

( )

maka kita menolak H0 yang artinya

atau peubah Xj memberikan sumbangan yang nyata terhadap model. Sedangkan


nilai

nilai |

( )

maka kita menerima H0 yang artinya

atau

peubah Xj memberikan sumbangan yang tidak nyata terhadap model. Meskipun


memberikan sumbangan yang tidak nyata terhadap, diputuskan untuk tidak mengeluarkan
peubah tersebut dari model regresi.

4.3 Pendeteksian Pencilan dan Pengamatan Berpengaruh


Identifikasi pencilan dapat menggunakan metode grafis, yaitu boxplot. Adapun
hasil yang diperoleh dengan menggunakan Minitab 14 sebagai berikut :

24

Suatu data dikatakan outlier apabila data tersebut bernilai kurang dari 1,5 D IQR
terhadap kuartil 1, atau bernilai lebih dari 1,5 D IQR terhadap kuartil 3. Oleh karena itu,
diperlukan perhitungan nilai kuartil 1, kuartil 3 dan IQR agar dapat mengidentifikasi outlier
menggunakan boxplot. Adapun perhitungan tersebut sebagai berikut :

Variabel
X1
X2
X3
Y

Nilai Q1
6,5
1000
17,5
1200

Nilai Q3
15
2125
100
2575

Nilai IQR
8,5
1125
82,5
1375

Berdasarkan tabel tersebut diketahui bahwa tidak terdapat data yang nilainya lebih
dari 3 D IQR terhadap Q3, atau nilainya kurang dari 3 D IQR terhadap Q1, namun terdapat
data yang nilainya lebih dari 1,5 D IQR terhadap Q3. Oleh karena itu, dapat disimpulkan
bahwa titik yang terdapat di luar kotak boxplot merupakan outlier

25

Selanjutnya dari analisis regresi dengan metode kuadrat terkecil biasa dapat
dideteksi pencilan dan pengamatan berpengaruh dengan melihat nilai |
kemudian dibandingkan dengan

| yang

Hasil pendeteksian pencilan dan pengamatan berpengaruh adalah sebagai berikut :


Data

10

-153,870

153,870

21

0,10920

0,10920

11

0,16792

0,16792

22

0,08515

0,08515

0,43283

12

0,04277

0,04277

23

0,72951

0,72951

-0,47205

0,47205

13

-0,14258

0,14258

24

0,10491

0,10491

0,51878

0,51878

14

-0,26309

0,26309

25

0,07659

0,07659

-117,832

117,832

15

-0,67382

0,67382

26

0,11291

0,11291

0,07974

0,07974

16

-0,08323

0,08323

27

0,47854

0,47854

-0,42811

0,42811

17

-0,22045

0,22045

28

-0,01820

0,01820

0,11994

0,11994

18

-0,26448

0,26448

29

0,03946

0,03946

-101,068

101,068

19

0,21605

0,21605

30

0,14625

0,14625

105,234

105,234

20

0,07036

0,07036

DfFITS

|DfFITS|

-0,43283

ke-

Setelah dibandingkan dengan kriteria (2.18) didapat untuk pengamatan ke-4, ke-8,
ke-9, ke-10, ke-15, dan ke-23 merupakan pengamatan berpengaruh karena memiliki standar
baku galat (standardized residual) yang tinggi dan sekaligus merupakan pencilan karena nilai
|

| > atau > 0.6325.


Pendeteksian pencilan dan amatan berpengaruh pada Data Produksi Padi di

Kecamatan PurwodadiKabupaten Purworejo pada Tahun 2011 diketahui bahwa terdapat


pencilan berpengaruh pada data tersebut sehingga pengamatan tersebut tidak dapat
dihilangkan begitu saja. Untuk memperoleh kesimpulan yang sahih maka sebagai
alternatifnya digunakan regresi Robust Estimasi M.

26

4.4 Model Regresi Kekar (Robust) dengan Estimasi M


Dari hasil identifikasi pencilan disimpulkan bahwa terdapat pencilan pada data,
maka alternatifnya digunakan regresi robust Estimasi-M. Adapun prosedur penyelesaiannya
sebagai berikut :
a. Menghitung nilai estimasi model dan nilai residual dengan menggunakan persamaan
regresi MKT sehingga diperoleh tabel sebagai berikut :
X1
2,5
10
15
2
7
5
15
30
5
40
12
20
8
7
15
5
3,5
3
15
10
7
10
15
14
10
8
10
7
11
9

X2
320
1000
1000
1200
1500
2000
2000
2000
570
5000
2500
2500
1500
2000
2500
1000
500
500
2000
1500
2000
2500
3000
2500
1500
2000
1000
1000
2000
1500

X3
5
70
150
100
30
20
100
200
55
350
20
100
15
20
50
10
5
3
100
15
10
20
100
55
90
45
40
5
10
15

Y
280
1100
3000
1200
1700
1000
2800
3600
2400
6000
2200
3000
1200
1200
1500
1000
600
500
3000
1700
1700
2000
3600
2500
2200
2000
2300
1200
1800
1800

803,58
1808,6
2592
1633,8
1527,4
1493,6
2542
3985
1328,58
6309
2001,6
2944
1483,2
1599,6
2355
1154,8
905,9
866,44
2542
1589,2
1534,8
1895,6
2816
2334,4
2075,2
1814,6
1614,2
1228,4
1746,8
1536,2

Residual
-523,58
-708,6
408
-433,8
172,6
-493,6
258
-385
1071,42
-309
198,4
56
-283,2
-399,6
-855
-154,8
-305,9
-366,44
458
110,8
165,2
104,4
784
165,6
124,8
185,4
685,8
-28,4
53,2
263,8

b. Setelah dihitung pembobot awal, fungsi pembobot Huber, serta dilakukan iterasi dari
pendugaan regresi robust estimasi M, maka hasil pendugaan koefisien regresi yang telah
sesuai adalah sebagai berikut :

27

Iterasi
1
2
3
4
5
6
7

b0, robust
454,8963
437,3306
434,8732
434,4871
434,4454
434,4284
434,4284

b1, robust
42,6409
43,5426
43,7432
43,7777
43,7832
43,7839
43,7839

b2, robust
0,3855
0,3929
0,3938
0,3939
0,3939
0,3939
0,3939

b3, robust
6,6022
6,4829
6,4589
6,4547
6,4541
6,4540
6,4540

= 454.8963 + 42.6409 X1 + 0.3855 X2 + 6.6022 X3


Nilai

yang diperoleh adalah sebesar 88.79% berarti bahwa sebesar 88.79%

proporsi data mendukung model atau sebesar 88.79% keragaman yang bisa diterangkan oleh
regresi sedangkan sisanya diterangkan oleh sebab-sebab lain.
Penyelidikan koefisien regresi linear berganda menggunakan Metode Robust Estimasi
M secara serentak dengan menggunakan taraf signifikansi sebesar

5% atau 0.05

menghasilkan nilai Fhitung sebesar 231.1575. Berdasarkan tabel statistik, Ftabel = 2.98, maka
Fhit >

atau 50.63 > 2.98 sehingga Ho ditolak artinya variabel bebas sangat

berpengaruh terhadap variabel tak bebas.


Uji parsial t menunjukkan bahwa ketiga variabel bebas berpengaruh signifikan
terhadap variabel respon. Hal ini ditunjukan oleh ketiga nilai |
menolak H0 yang artinya

atau peubah X1, X2,

dan

( )

maka kita

X3 memberikan sumbangan yang

nyata terhadap model.


Makna dari model persamaan di atas adalah :

Produksi padi dipengaruhi secara positif oleh ketiga faktor yaitu banyaknya benih,
pupuk organik dan pupuk kimia

Produksi padi akan naik sebesar 43,7839 kg setiap penambahan benih sebanyak 1 kg,
jika banyaknya pupuk organik maupun kimia tetap;

Produksi padi akan naik sebesar 0,3939 kg setiap penambahan jumlah pupuk organik
sebanyak 1 kg, jika jumlah benih dan pupuk kimia tetap;

Produkdi padi akan naik sebesar 6,454 kg setiap penambahan pupuk kimia sebanyak 1
kg, jika jumlah benih dan pupuk organik tetap

28

BAB V
KESIMPUAN DAN SARAN

5.1 Kesimpulan
Berdasarkan hasil pembahasan dapat diambil kesimpulan sebagai berikut :
1. Untuk mendapatkan penduga yang baik jika dalam data yang dianalisis mengandung
pencilan maka pencilan tersebut tidak dapat dibuang begitu saja karena akan
mempengaruhi kesimpulan akhir dan sebenarnya justru pencilan tersebut mengandung
informasi yang cukup berarti.
2. Dengan membandingkan koefisien determinasi dari kedua metode yang dihasilkan,
menunjukkan bahwa Estimasi M (Regresi Robust) dapat dikatakan lebih baik
dibandingkan dengan model regresi menggunakan metode kuadrat terkecil.
3. Salah satu cara untuk menduga model regresi jika terdapat data pencilan atau outlier
adalah dengan menggunakan Regresi Robust Metode Estimasi M.
4. Setelah dilakukan iterasi terhadap data yang mengandung pencilan, diperoleh bahwa
produksi padi dapat diduga dengan persamaan model regresi kekar :
= 454.8963 + 42.6409 X1 + 0.3855 X2 + 6.6022 X3

5.2 Saran
Untuk membandingkan hasil analisis, disarankan untuk mencari pengamatan
berpengaruh atau pencilan dengan metode lain seperti metode Bayes. Analisis regresi yang
digunakan juga analisis selain model analisis regresi kekar estimasi M, karena diatas Estimasi
M terdapat metode estimasi lain yang memiliki tingkat efisiensi (tingkatan seberapa baiknya
suatu teknis robust sebanding dengan Metode Kuadrat Terkecil/OLS tanpa outlier) dan
breakdown point yang lebih baik (ukuran kestabilan dari estimator ketika data observasi
mengandung outlier dengan jumlah yang besar). Diantaranya adalah Estimasi Least Mean
Square, Estimasi Least Trimmed Square, Estimasi S, dan Estimasi MM.

29

DAFTAR PUSTAKA

Aunuddin, 1989. Analisis Data. Pusat Antar Universitas Ilmu Hayat : IPB Press, Bogor.
Bowerman, B.L and O'connel, R.T., 1990. Linier Statistical. Models:an applied approach.
PWS-KENT Publishing. Company, Boston.
Brainard, D.H. & Freeman, W.T., 1980. Bayesian Method for Recovering Surface Responses.
Proceedings of SPIE, vol. 2179, San Jose, CA.
Draper N.R. dan H.Smith., 1966. Applied Regression Analysis. John Wiley & Son, Inc., New
York.
Gujarati, Damodar N., 1995. Basics Econometrics. McGraw-Hill, New York.
Hines, W.W. dan Montgomery, D.C. 1990. Probabilita dan Statistik dalam Ilmu Rekayasa dan
Manajemen, Edisi Kedua, Alih Bahasa : Rudiansyah, UI Press, Jakarta.
Hocking, R. R., 1982. Methods and Applications of Linear Models : Regression and the
Analysis of Variance. Wiley, New York.
Montgomery, Douglas C., Peck, Elizabeth, A., 1982. Introductions to Linear Regression
Analysis. John Wiley & Sons, New York.
Mosteller, F., dan Tukey, J.W., 1977. Data Analysis and Linear Regression. Addison-Wesley.
Reading, Massachussets.
Ronald E. Walpole, Raymond H. Myers. 1995. Ilmu Peluang dan Statistika Untuk Insinyur
dan Ilmuwan, Edisi ke 4. ITB Bandung.
Sembiring, R.K., 2003. Analisis Regresi, Edisi Kedua. Penerbit ITB, Bandung
Steel, R.G.D dan J.H. Torrie. 1995. Prinsip Dan Prosedur Statistika : Suatu Pendekatan
Biometrik. Penterjemah Bambang Sumantri. Gramedia Pustaka, Jakarta.
Wibisono, Y., 2015. Metode Statistik, Edisi Ketiga. Gadjah Mada University Press,
Yogyakarta.
Widhyotami, T. P. 2012. Studi Komparatif Usaha Tani pada Pengguna Pupuk di Kecamatan
Purwodadi Kabupaten Purworejo. Purwokerto: Unsoed.

30