Anda di halaman 1dari 16

1

Kajian Teori Regresi Parametrik Normal dan Regresi Non Parametrik


(Theory Presentation of Normal Parametric Regression and
Nonparametric Regression)

Yulia, S1, IM Tirta2 dan Rita Ratih T2


1
Mahasiswa Jurusan Matematika FMIPA Universitas Jember
2
Staf Pengajar Jurusan Matematika FMIPA Universitas Jember

ABSTRACT

Key Words : Parametric Regression, Nonparametric Regression, Method of Least


Squares, Method of Theil.

ABSTRAK
In this paper, observation of the analysis normal parametric regression by least
square method and non parametric regression by Theil method.

Tulisan ini mempelajari atau mengkaji analisis regresi parametrik dengan


menggunakan metode kuadarat terkecil dan Regresi Non parametrik dengan
menggunakan metode Theil. Hasil kajian teoritis diilustrasikan dengan
menggunakan data simulasi. Hasil analisis menunjukkan bahwa untuk data yang
diketahui bentuk distribusinya, uji parametrik dengan menggunakan metode
kudarta terkecil memberikan hasil yang sedikit lebih baik daripada uji non
parametrik dengan metode theil.

Kata Kunci : Regresi Parametrik, Regresi Non Parametrik, Metode Kuadrat


Terkecil, Metode Theil.

PENDAHULUAN
Analisa regresi merupakan salah satu teknik statistik yang digunakan secara luas
dalam ilmu pengetahuan terapan. Regresi di samping digunakan untuk

14
2

mengetahui bentuk hubungan antar peubah regresi, juga dapat dipergunakan untuk
maksud-maksud peramalan.
Dengan menggunakan n pengamatan untuk suatu model linier sederhana:
Yi = β 0 + β 1 X i + ε i (1)

dengan Yi adalah peubah tidak bebas


Xi adalah peubah bebas dengan i = 1,2,..., n
β 0 dan β 1 adalah parameter-parameter yang tidak diketahui
diberlakukan asumsi-asumsi model ideal tertentu terhadap galat ε yaitu bahwa
galat menyebar NID (0,σ2). Dengan pemenuhan terhadap asumsi kenormalan
dapat digunakan regresi parametrik untuk mengetahui bentuk hubungan antar
peubah regresi pada data contoh yang diamati.
Dalam praktek, penyimpangan terhadap asumsi-asumsi itu sering terjadi
dan terkadang peubah acak yang diamati tidak dapat dianggap menyebar normal.
Dari segi statistika persoalan tersebut harus dapat diselesaikan dengan
menggunakan teknik statistika. Dalam statistika parametrik, teknik-teknik yang
digunakan berhubungan dengan pendugaan parameter serta pengujian hipotesis
yang berhubungan dengan parameter-parameternya. Asumsi-asumsi yang
digunakan pada umumnya menspesifikasikan bentuk sebarannya. Salah satu
analisis alternatif lain yang dapat digunakan adalah dengan regresi nonparametrik
karena dalam regresi nonparametrik tidak diperlukan pemenuhan asumsi
kenormalan.
Tujuan dari artikel ini adalah untuk mengkaji regresi parametrik dan mengkaji
regresi non parametrik serta memeriksa ketepatan model regresi parametrik dan
regresi non parametrik dilihat dari kedekatan nilai estimasi parameter dengan nilai
parameter yang ditentukan dan dilihat dari nilai galatnya.

14
3

TINJAUAN PUSTAKA
Regresi Parametrik
Metode Kuadrat Terkecil
Persamaan (1) merupakan model linier sederhana dengan satu peubah
bebas dan satu peubah respon dan untuk memperkirakan parameter-
parameter β 0 dan β 1 dapat digunakan Metode Kuadrat Terkecil sedemikian rupa
sehingga jumlah kuadrat kesalahan memiliki nilai terkecil.
Hines dan Montgomery (1990) menjelaskan bahwa jumlah kuadrat
kesalahan pada pengamatan-pengamatan garis regresi sebenarnya adalah :
n n
S = ∑ ε i2 = ∑ (Yi − β 0 − β 1 X i ) 2 (2)
i =1 i =1

sehingga fungsi kuadrat terkecilnya adalah:


n
S = ∑ [Yi − β 0 '− β1 ( X i − X )]2 (3)
i =1

Estimator β 0 dan β1 yang dinotasikan dengan β̂ 0 dan β1 harus memenuhi :

∂S
[ ]
n
= −2∑ Yi − βˆ 0 '− βˆ1 ( X i − X ) = 0
∂β 0 ' i =1

∂S
[ ]
n
= −2∑ Yi − βˆ 0 '− βˆ1 ( X i − X ) ( X i − X ) = 0
∂β 1 i =1

Penyelesaian untuk persamaan normal tersebut adalah :


1 n
β̂ 0 ' = ∑ Yi = Y
n i =1
(4)

∑Y (X i i − X)
β̂ 1 = i =1
n
(5)
∑(X i =1
i − X) 2

β̂ ' 0 dan β̂1 adalah estimator untuk intercept (titik potong) dan slope
(kemiringan). Estimator model regresi linier sederhana adalah :
Yˆ = βˆ 0 '+ βˆ1 ( X − X ) (6)

14
4

untuk menyajikan hasil-hasil dalam susunan intercept yang asli β 0 maka

βˆ 0 = βˆ 0 '− βˆ1 X sehingga perkiraaan yang cocok untuk model regresi adalah :

Yˆ = βˆ 0 + βˆ1 X (7)
Secara notasi persamaan (5) dapat ditulis dalam bentuk lain dengan
memberi simbol khusus untuk pembilang dan penyebutnya yaitu :
n
n
(∑ X i ) 2
S XX = ∑ ( X i − X ) 2 = ∑ X i2 − i =1
(8)
i =1 n
n n
n n
(∑ X i )( ∑ Yi )
S XY = ∑ Yi ( X i − X ) = ∑ X i Yi − i =1 i =1
(9)
i =1 i =1 n
dengan SXX adalah koreksi atau perbaikan jumlah kuadrat X dan SXY perbaikan
jumlah silang produk X dan Y, sehingga estimator slope adalah :
S XY
β̂ 1 = (10)
S XX

Selain estimator β 0 dan β 1 , menurut Montgomery dan Peck (1991)

estimasi σ 2 juga dibutuhkan dalam uji hipotesis dan pembentukan estimasi


interval yang berhubungan dengan model regresi. Estimasi σ 2 dapat diperoleh
dari residual atau jumlah kuadrat galat yaitu :
n n
SS E = ∑ ε i = ∑ (Yi − Yˆi ) 2
2
(11)
i =1 i =1

Bentuk tetap untuk SS E didapatkan dengan mensubstitusikan

Yˆi = βˆ 0 + βˆ1 ( X i − X ) kedalam persamaan (11) dan dengan penyederhanaan akan


'

menghasilkan :
n
SS E = ∑ Yi 2 − nY 2 − β̂ 1 S XY (12)
i =1

n n

∑ Yi − nY 2 = ∑ (Yi − Y ) 2 ≡ S YY
2
namun
i =1 i =1

S YY adalah koreksi atau perbaikan jumlah kuadrat dari pengamatan, sehingga :

SS E = S YY − β̂ 1 S XY (13)

14
5

Jumlah kuadrat residual mempunyai derajat kebebasan n-2 karena dua


derajat kebebasan adalah gabungan dari estimasi β̂ 0 dan β̂ 1 yang terlibat dalam

pembentukan Yˆi . Nilai ekspektasi dari SS E adalah E (SS E ) = (n − 2)σ 2 ,

jadi estimator tak bias dari σ 2 untuk regresi parametrik adalah :


SS E
σˆ 2 = = MS E (14)
n−2

Metode Maksimum Likelihood


Berdasarkan data ( X i , Yi ) , i = 1,2,..., n diasumsikan bahwa galat ε dalam

model regresi berdistribusi NID(0, σ 2 ) dan pengamatan-pengamatan Yi dalam


percobaan berdistribusi normal dan independen dengan mean β 0 + β 1 X i dan

varians σ 2 . Fungsi likelihood dibentuk dari gabungan distribusi pengamatan.


Untuk model regresi linier sederhana dengan galat normal fungsi likelihoodnya
adalah :
 1
(Yi − β 0 − β1 X i )2 
n
L( X i , Yi , β 0 , β 1 , σ 2 ) = ∏ (2πσ 2 ) − 2 exp −
1

 2σ 
2
i =1

 1 n

= (2πσ 2 ) − 2 exp − ∑ (Y − β 0 − β1 X i ) 2 
n
(15)
 2σ
2 i
i =1 
Estimator maksimum likelihood untuk parameter-parameter β 0 , β 1 dan

σ 2 dinotasikan dengan β̂ 0 , β̂ 1 dan σ̂ 2 diperoleh dengan memaksimumkan L


sehingga:

( )∑ (Y − β
n
ln L( X i , Yi , β 0 , β 1 , σ ) = −( )ln 2π − ( )ln σ −
2 n
2
n
2
2 1
2σ 2 i 0 − β1 X i ) 2 (16)
i =1

dan estimator β̂ 0 , β̂ 1 dan σ̂ 2 harus memenuhi :

∂ ln L 1 n

∂β 0
= 2
σˆ
∑ (Y
i =1
i − βˆ 0 − βˆ1 X i ) = 0

∂ ln L 1 n

∂β 1
= 2
σˆ
∑ (Y
i =1
i − βˆ 0 − βˆ1 X i ) X i = 0

14
6

∂ ln L n 1 n

∂σ 2
=− 2 +
2σˆ 2σˆ 4
∑ (Y
i =1
i − βˆ 0 − βˆ1 X i ) 2 = 0

penyelesaian dari persamaan tersebut adalah :


βˆ 0 = Y − βˆ1 X (17)
n

∑Y (X i i − X)
β̂ 1 = i =1
n
(18)
∑(X
i =1
i − X) 2

∑ (Y i − βˆ 0 − βˆ1 X i ) 2
σˆ 2 = i =1
(19)
n
β̂ 0 , β̂ 1 dan σ̂ 2 merupakan estimator maksimum likelihood untuk parameter-

parameter β 0 , β 1 dan σ 2 (Montgomery dan Peck, 1991).

Pengujian Hipotesis dalam Regresi Linier Sederhana


Pengujian hipotesis dalam regresi linier sederhana adalah pengujian
hipotesis terhadap intercept ( β 0 ) dan kemiringan ( β 1 ). Yitnosumarto (1985)
menjelaskan bahwa pengujian hipotesis secara statistik hanya dapat dilakukan
apabila asumsi-asumsi yang diperlukan terpenuhi. Asumsi-asumsi yang dimaksud
berdasarkan persamaan (1) adalah :
1. ε i merupakan peubah acak dengan mean nol dan varian σ 2 atau E (ε i ) = 0 dan

V (ε i ) = σ 2 ;

2. ε i dan ε j dengan i ≠ j tidak berkorelasi sehingga Cov (ε i , ε j ) = 0, i ≠ j;

3. ε i tersebar secara normal atau ε i ∼NID(0, σ 2 ).

Jika pada percobaan akan dilakukan pengujian terhadap β 1 yang sama


dengan sebuah konstanta misalkan β 1( 0 ) maka pada umumnya hipotesis tersebut

dirumuskan sebagai berikut :


H 0 : β 1 = β 1( 0) H 1 : β 1 ≠ β 1( 0 )

Statistik uji yang digunakan pada pengujian hipotesis ini adalah :

14
7

βˆ1 − β 1( 0)
t0 = (20)
MS E
S XX

Kaidah pengambilan keputusan untuk pengujian hipotesis ini adalah


sebagai berikut: H o ditolak jika t 0 > tα 2 ,n −2 .Nilai tα 2 ,n − 2 dapat diperoleh dari tabel t

dengan menggunakan nilai α dan derajat kebebasan (n-2) (Hines dan


Montgomery, 1990).
Dengan cara yang sama dapat digunakan untuk menguji intercept β 0 , dan
hipotesisnya adalah sebagai berikut :
H 0 : β 0 = β 00 H 1 : β 0 ≠ β 00

Statistik ujinya adalah :


βˆ 0 − β 00
t0 = (21)
1 X 2 
MS E  + 
 n S xx 
dan kaidah pengambilan keputusannya sama dengan pengujian hipotesis pada β 1 .

Interval Kepercayaan dalam Regresi Linier Sederhana


Interval kepercayaan dapat digunakan sebagai taksiran suatu parameter
dan dapat pula dipandang sebagai pengujian hipotesis yaitu apakah suatu
parameter yang dalam hal ini adalah β 1 dan β 0 sama dengan suatu nilai tertentu.
Asumsi-asumsi yang digunakan dalam interval kepercayaan masih sama dengan
asumsi yang digunakan pada pengujian hipotesis yaitu jika ε i berdistribusi normal

( βˆ1 − β 1( 0 ) ) ( βˆ 0 − β 00 )
keduanya berdistribusi t
[ ]
dan bebas maka dan
MS E / S XX MS E 1
n + X2
S XX

dengan derajat kebebasan (n-2). Interval kepercayaan (1- α ) 100% untuk


parameter β 1 adalah:

βˆ1 − t α 2, n− 2 ≤ β 1 ≤ βˆ1 + tα 2 , n − 2
MS E MS E
S XX S XX (22)

Sedangkan interval kepercayaan (1- α ) 100% untuk parameter β 0 adalah :

14
8

βˆ 0 − t α 2, n− 2 MS E [
1
n + x2
s xx ]≤ β 0 ≤ βˆ 0 + tα 2 , n− 2 MS E [
1
n + x2
s xx ] (23)

(Hines dan Montgomery,1990).


Menurut Montgomery dan Peck (1991) standar error dari slope β 1
dirumuskan dengan :
MS E
se( βˆ1 ) =
S XX

dan standar error untuk intercept β̂ 0 adalah :

se( βˆ 0 ) = MS E (
1
n + X2
S XX )
sedangkan standar error estimasi dapat dihitung dari persamaan :

∑ (Y − βˆ )
n 2 n 2

∑ (ε i ) i 0 − βˆ1 X i
se = i =1
= i =1
(24)
n−2 n−2

Regresi Non Parametrik


Menurut Daniel (1989) dalam banyak hal, pengamatan-pengamatan yang
akan dikaji tidak selalu memenuhi asumsi-asumsi yang mendasari uji-uji
parametrik sehingga kerap kali dibutuhkan teknik-teknik inferensial dengan
validitas yang tidak bergantung pada asumsi-asumsi yang kaku. Dalam hal ini,
teknik-teknik dalam regresi nonparametrik memenuhi kebutuhan ini karena tetap
valid walaupun tidak diperlukan pemenuhan asumsi kenormalan galat dan hanya
berlandaskan asumsi-asumsi yang sangat umum.
Conover (1980) menjelaskan bahwa penggunaan regresi nonparametrik
dilandasi pada asumsi :
a. contoh yang diambil bersifat acak dan kontinu ;
b. regresi (Y|X) bersifat linier;
c. semua nilai Xi saling bebas.

14
9

Metode Theil Untuk Regresi Linier Sederhana Nonparametrik


Misalkan ada n pasangan pengamatan, katakan
(X 1 , Y1 ), (X 2 , Y2 ),..., (X n , Yn ), persamaan regresi linier sederhana adalah :

Yi = β 0 + β1 X i + ε i (25)

dengan β 0 adalah intercept (titik potong)

β1 adalah slope (kemiringan) dari garis tersebut


Xi adalah peubah bebas
Yi adalah nilai teramati dari peubah Y (Hines dan Montgomery, 1990).
Theil (1950) dalam Sprent (1991) mengusulkan koefisien kemiringan
(slope) garis regresi sebagai median kemiringan dari seluruh pasangan garis dari
titik-titik dengan nilai X yang berbeda, selanjutnya disebut dengan metode Theil.
Untuk satu pasangan ( X i , Yi ) dan ( X j , Y j ) koefisien kemiringannya adalah :

Y j − Yi
bij = (26)
X j − Xi

untuk i < j dan X i ≠ X j .

Penduga bagi β1 kita notasikan dengan β̂1 dinyatakan sebagai median dari
nilai-nilai bij sehingga :
β̂ 1 = median(bij ) (27)

sedangkan penduga bagi β 0 adalah β̂ 0

βˆ 0 = med (Yi ) − βˆ1 med ( X i ) (28)


med(Xi) adalah median dari seluruh pengamatan dan med(Yi) adalah pasangan
nilai pengamatan untuk med(Xi) (Sprent,1991).

Metode Theil untuk Pengujian Koefisien Kemiringan


Daniel (1989) menjelaskan bahwa pengujian koefisien kemiringan dengan
menggunakan metode Theil disusun berdasarkan statistik τ Kendall dan
digunakan untuk mengetahui bentuk hubungan peubah-peubah regresi.

14
10

Asumsi-asumsi yang melandasi pengujian pada koefisien kemiringan


adalah :
a. persamaan regresinya adalah : Yi = β 0 + β 1 X i + ε i , i=1,…,n dengan X i

peubah bebas, β 0 dan β 1 adalah parameter-parameter yang tidak diketahui;

b. untuk masing-masing nilai X i terdapat nilai Yi ;

c. Yi adalah nilai yang teramati dari Y yang acak dan kontinu untuk nilai X i ;

d. semua nilai X i saling bebas dan kita menetapkan X 1 < X 2 < ... < X n . ;

e. nilai-nilai ε i saling bebas dan berasal dari populasi yang sama.


Hipotesis-hipotesis yang melandasi pengujian ini adalah :
a. dua arah : H 0 : β 1 = β 1( 0 ) H 1 : β 1 ≠ β 1( 0) ;

b. satu arah : H 0 : β 1 ≤ β 1( 0 ) H 1 : β 1 > β 1( 0) ;

c. satu arah : H 0 : β 1 ≥ β 1( 0 ) H 1 : β 1 < β 1(0) .

Seperti yang telah dijelaskan, prosedur yang diuraikan disusun


berlandaskan statistik τ Kendall, sehingga statistik ujinya adalah :
P−Q
τˆ = n ( n −1)
(29)
2

dengan τˆ = statistik uji τ Kendall


P = banyaknya pasangan berurutan wajar
Q = banyaknya pasangan berurutan terbalik
n = banyaknya pasangan yang diamati
Kaidah pengambilan keputusan untuk ketiga pasangan hipotesis diatas
adalah sebagai berikut :
> τ * (n, α 2 ), tolak H 0
a. dua arah : τˆ 
î ≤ τ (n, 2 ), terima H 0
* α

 > τ * (n, α ), tolak H 0


b. satu arah : τˆ  *
î ≤ τ (n, α ), terima H 0
 < τ * (n, α ), tolak H 0
c. satu arah : τˆ  *
î ≥ τ (n, α ), terima H 0

14
11

τ * adalah harga-harga kritis dalam tabel statistik uji τ Kendall. Pengujian


koefisien kemiringan ini dengan membuat statistik tataan dan memperbandingkan
semua hasil pengamatan menurut nilai-nilai X (Daniel, 1989).

Interval Kepercayaan untuk Koefisien Kemiringan


Metode pembentukan interval kepercayaan terhadap koefisien kemiringan
ini dilandaskan pada prosedur pengujian hipotesis Theil untuk β 1 , sedangkan
asumsi-asumsi yang mendasari prosedur pengujian hipotesis ini juga berlaku pada
pembentukan interval kepercayaan (1-α) bagi β 1 .
Lebih lanjut Daniel(1989) menjelaskan bahwa konstanta untuk interval
kepercayaan adalah :

n C 2 − S ( n ,α 2 ) − 2
k= (30)
2
dengan k = konstanta untuk interval kepercayaan

n C 2 = banyaknya nilai bij yang mungkin dari n pasangan pengamatan

S ( n ,α 2 ) = titik kritis τ Kendall untuk n pasangan pengamatan pada taraf α .

Berdasarkan nilai konstanta tersebut akan diperoleh β̂ L sebagai batas

bawah interval kepercayaan untuk β 1 dan β̂ U sebagai batas atas interval

kepercayaan untuk β 1 . β̂ L adalah nilai bij ke-k yang dihitung dari nilai yang

paling kecil dalam statistik tataan bagi nilai bij . β̂ U adalah nilai bij ke-k yang

dihitung mundur dari nilai yang paling besar dalam statistik tataan tersebut.
Interval kepercayaan untuk β 1 dengan suatu koefisien kepercayaan (1-α)
adalah:
C ( βˆ L < β 1 < βˆU ) = 1 − α (31)
dengan C adalah kependekan dari confidence (kepercayaan) dan menunjukkan
bahwa ekspresi ini lebih merupakan suatu pernyataan kepercayaan daripada suatu
pernyataan probabilitas (Daniel, 1989).

14
12

Perbedaan Regresi Parametrik dan Regresi Non Parametrik


Ada beberapa perbedaan khusus dalam penggunaan prosedur parametrik
dan prosedur nonparametrik antara lain dijelaskan berikut ini.
1. Penggunaan prosedur parametrik didasarkan pada asumsi-asumsi tertentu,
misalnya mengasumsikan bahwa sampel-sampel yang diambil dari populasi-
populasi yang berdistribusi normal. Prosedur non parametrik tidak didasarkan
pada asumsi-asumsi yang mengikuti suatu distribusi tertentu dan dapat
digunakan apabila asumsi yang diperlukan pada penggunaan prosedur
parametrik menjadi tidak valid.
2. Dalam kasus parametrik untuk mengetahui bentuk hubungan antar peubah
respon pada data contoh yang diamati dapat digunakan Metode Kuadrat
Terkecil dan Metode Maksimum Likelihood. Dalam regresi nonparametrik
untuk memperkirakan parameter-parameter β 0 dan β 1 digunakan metode Theil
dengan koefisien kemiringan garis regresi sebagai median kemiringan dari
seluruh pasangan garis dari titik-titik dengan nilai-nilai X yang berbeda atau
independen.
3. Pengujian hipotesis untuk model parametrik menggunakan statistik uji t yang
merupakan sebuah hasil asumsi secara normal yang didasarkan dari metode
kuadrat terkecil. Pengujian hipotesis pada regresi non parametrik menggunakan
metode Theil yang disusun berdasarkan statistik τ Kendall.
4. Interval kepercayaan pada regresi parametrik adalah pembentukan interval
kepercayaan untuk parameter-parameter β 0 , β 1 dan σ 2 yang didasarkan pada
metode kuadrat terkecil dan asumsi yang digunakan masih sama dengan asumsi
yang digunakan pada pengujian hipotesis.
Interval kepercayaan pada regresi non parametrik adalah pembentukan interval
kepercayaan hanya untuk koefisien kemiringan atau β 1 yang dilandaskan pada
prosedur pengujian hipotesis Theil untuk parameter β 1 dan asumsi-asumsi yang
mendasari prosedur pengujian hipotesis juga berlaku pada pembentukan
interval kepercayaan untuk parameter β 1 .

14
13

METODOLOGI PENELITIAN
Data yang digunakan untuk analisis adalah data simulasi. Data simulasi ini terdiri
dari dua variabel atau peubah yaitu peubah bebas (X) dan peubah tak bebas (Y).
Data simulasi yang akan dianalisis memiliki jumlah sampel dan nilai parameter
yaitu koefisien kemiringan ( β 1 ) dan titik potong ( β 0 ) yang ditentukan sendiri
sebagai parameter asli untuk membandingkan nilai estimator yang diperoleh dari
metode kuadrat terkecil dan metode Theil. Langkah-langkah yang dilakukan pada
semua jenis data simulasi baik untuk regresi parametrik maupun regresi non
parametrik antara lain:
1. menghitung estimator β 0 dan β 1 dengan menggunakan metode kuadrat terkecil

dan metode Theil, kemudian untuk setiap satu distribusi dihitung rata-rata dari
masing-masing estimator dari kelima hasil analisis tersebut untuk
dibandingkan dengan nilai parameter yang asli;
2. melakukan pengujian hipotesis, kemudian mengambil hasil keputusan
terbanyak sebagai rata-rata keputusan hipotesis;
3. mencatat nilai galat (standard error of estimate) dari masing-masing metode
dan kemudian dihitung rata-ratanya;
4. menghitung pendugaan interval kepercayaan baik untuk regresi parametrik
maupun untuk regresi non parametrik.

HASIL DAN PEMBAHASAN


Pada penelitian ini, dikatakan regresi yang lebih baik jika memenuhi
beberapa kriteria sebagai berikut :
1. nilai estimator rata-ratanya lebih mendekati nilai parameter yang telah
ditentukan;
2. nilai standar error rata-ratanya adalah yang lebih kecil;
3. interval kepercayaannya lebih pendek dan memuat nilai parameter yang telah
ditentukan.
Dari prosedur diatas diperoleh hasil yang rangkumannya dibuat pada Tabel 1.

14
14

Tabel 1. Perbandingan Hasil Analisis Regresi Parametrik Normal dan Regresi Non Parametrik

Distri- n Para- Estimator Rata-rata Pengujian Hipotesis β 1 Standard Error Interval Kepercayaan Parameter β 1
busi meter Rata-rata ( ε i )

β0 β1 β̂ 0 β̂ 1 Para Non Para Non Parametrik Non Parametrik


metrik Para metrik Para
Para Non Para- Non
Metrik metrik
Metrik Para- metrik Para-
metrik metrik
Normal 10 2 5 0.9744 3.0817 5.0448 4.9829 Tolak H0 Tolak H0 2.5446 2.8139 -0.823< β 1 <10.913 -1.506< β 1 <11.472
Uniform 10 2 5 3.2338 3.1235 10.0018 10.0026 Tolak H0 Tolak H0 0.1377 0.2024 9.684< β 1 < 10.319 9.536< β 1 <10.4693
Gamma 10 2 5 4.2302 8.2527 4.909 4.7414 Tolak H0 Tolak H0 18.204 26.017 -37.07< β 1 <46.887 -55.25< β 1 <64.737
Poisson 10 2 5 12.639 10.758 4.6874 4.8116 Tolak H0 Tolak H0 11.066 13.603 -20.831< β 1 <30.21 -26.557< β 1 <31.18
Binomial 10 2 5 -10.610 -7.8385 5.5438 5.4691 Tolak H0 Tolak H0 12.185 14.286 -22.56< β 1 <33.642 -27.474< β 1 <38.41
Exponential 10 2 5 0.2906 0.6279 0.00734 0.02102 Terima H0 Terima H0 0.9936 1.3338 -2.284< β 1 <2.2986 -3.055 < β 1 <3.0968

14
15

Hasil estimasi parameter untuk data berdistribusi normal dari kedua


metode diperoleh hasil yang tidak terlalu jauh berbeda. Hal ini menunjukkan
bahwa metode Theil hampir seefisien metode kuadrat terkecil untuk data yang
asumsi kenormalannya valid. Apabila dilihat dari nilai galat masih tetap lebih baik
regresi parametrik daripada regresi non parametrik karena nilai galat dari regresi
parametrik lebih kecil, sehingga tetap masih lebih baik regresi parametrik sesuai
dengan jenis data yaitu data berdistribusi normal.
Regresi linier sederhana parametrik dengan menggunakan metode kuadrat
terkecil untuk data yang berdistribusi uniform maupun regresi linier sederhana
non parametrik dengan menggunakan metode Theil tidak bisa mewakili suatu
regresi yang baik. Hal ini ditunjukkan oleh hasil pembentukan interval
kepercayaan yang tidak memuat parameter yang telah ditentukan.
Hasil analisis untuk data simulasi berdistribusi gamma menunjukkan
bahwa metode kuadrat terkecil untuk regresi parametrik memberikan hasil yang
lebih baik daripada metode Theil untuk regresi non parametrik. Hal ini
ditunjukkan oleh nilai estimator yang lebih mendekati nilai parameter yang telah
ditentukan, interval kepercayaan yang lebih pendek dan memuat nilai parameter
serta nilai standar error yang lebih kecil pada regresi parametrik.
Metode kuadrat terkecil dan metode Theil memberikan hasil yang tidak
terlalu jauh berbeda untuk data simulasi yang berdistribusi Poisson sehingga
kedua metode tersebut dapat dipakai untuk menganalisis data simulasi
berdistribusi Poisson. Hal ini juga terjadi pada data simulasi yang berdistribusi
Binomial.
Metode yang dipakai yaitu metode kuadrat terkecil pada regresi parametrik
dan metode Theil pada regresi non parametrik tidak memberikan hasil yang baik
untuk data simulasi yang berdistribusi eksponensial ini karena pada interval
kepercayaan yang dibentuk tidak memuat nilai parameter yang ditentukan.

14
16

KESIMPULAN
Dari hasil analisis untuk semua jenis data simulasi tersebut dapat
disimpulkan bahwa regresi parametrik dengan metode kuadrat terkecil
memberikan hasil estimator yang lebih baik daripada regresi non parametrik
dengan menggunakan metode Theil walaupun datanya berasal dari data simulasi
yang tidak berdistribusi normal. Hal ini disebabkan karena metode Theil pada
regresi non parametrik didasarkan pada median kemiringan (slope) sehingga jika
range dari kemiringan garis tersebut berubah-ubah dan median kemiringan
tersebut tetap maka tidak berpengaruh terhadap persamaan garis regresi yang
diperoleh namun akan berpengaruh pada pembentukan interval kepercayaannya.

DAFTAR PUSTAKA
Conover,W.J. 1980. Practical Nonparametric Statistics (2-nd edn), John Wiley
and Sons, New York.

Daniel,W.W. 1989. Statistika Nonparametrik Terapan, Gramedia, Jakarta.

Draper, N dan Smith, H. 1992. Analisis Regresi Terapan, Gramedia Pustaka


Utama, Jakarta.

Hines, W.W dan Montgomery, D.C. 1990. Probabilita dan Statistik dalam Ilmu
Rekayasa dan Manajemen, Universitas Indonesia, Jakarta.

Montgomery, D.C dan Peck, E.A. 1991. Introduction to Linear Regression


Analysis, John Wiley & Sons, New York.

Neter, J, Wasserman, W dan Kutner, M. H. 1985. Aplied Linear Statistical


Models. Regression, Analysis of Variance and Experimental Design, Irwin,
Illinois.

Sprent, P. 1991. Metode Statistik Nonparametrik Terapan, Universitas Indonesia,


Jakarta.

Tirta, I.M. 2000. Diagnosis dan Remidi Regresi / Model Linier Klasik, Jurnal
Ilmu Dasar FMIPA, Universitas Jember, Vol. I : 48-56.

Yitnosumarto, S. 1985. Regresi dan Korelasi Teori dan Penggunaannya,


Universitas Brawijaya , Malang.

14