Anda di halaman 1dari 15

BAB IV

ESTIMATOR TITIK

A. SIFAT-SIFAT ESTIMATOR
Penerapan metode peluang untuk menganalisis dan dan mengintepretasikan
data empiris dikenal sebagai inferensi statistic. Secara lebih spesifisik inferensi
statistic dapat diartikan sebagai proses pengambilan kesimpulan (atau generalisasi)
dari suatu sample tertentu, yakni dari suatu himpunan n observasi untuk populasi
teoritis dari mana sample itu diambil. Salah satu bentuk inferensi adalah estimator
(penaksir) titik.
Kita ingat bahwa kebanyakan model probabilitas terutama yang cukup luas
nilai penggunaannya tergantung pada beberapa konstan yang dikenal sebagai
parameter. Misalnya model Poisson
e x
f(x) = tergantung pada parameter , yakni mean nya. Model normal
x!
1 x 2
1 (
2
)
f(x)= e tergantung pada dua parameter dan 2
2
Dalam banyak masalah , keluarga model probabilitas yang menggambarkan
suatu fenomena biasanya dianggap diketahui. Tetapi anggota tertentu dari keluarga
itu dipandang paling tepat menggambarkan fenomema tersebut mungkin sekali tidak
diketahui. Dalam hal ini kita perlu menaksirnya berdasarkan data yang diambil dari
fenomena itu.
Biasanya digunakan lambang dan untuk parameter mean and deviasi
standart distribusi normal, sedangkan untuk distribusi binomial kita gunakan
lambang n dan p masing-masing untuk parameter banyak kali usaha dan peluang
sukses dalam tiap usaha. Untuk memudahkan penulisan maka selanjutnya digunakan
lambang untuk parameter .
Kerap kali kita jumpai statistik yang dapat digunakan sebagai estimator suatu
parameter. Untuk menentukan statistic mana yang paling sesuai diperlukan sifat-sifat
sstimator yang baik.

33
1. Estimator Tak Bias dan Efisien
Kita ingat kembali bahwa fungsi variable random X1,X2, Xn juga merupakan
variable random .
Contoh 4. 1.
Misalkan X1,X2, Xn sample random dari distribusi Uniform (0,), yaitu
1
f(x) = ; 0< x < ,

kita ingin menaksir parameter dengan statistik maksimum(X 1, X1,X2, Xn)
Jadi Y=maks(X1, X1,X2, Xn)= Xmax = .
Untuk menghitung fungsi probabilitas estimator Y kita tempuh langkah berikut.
P (Y y ) P ( X max y ) P ( X 1 y, X 2 y,...., X n y )

= P ( X 1 y ).P( X 2 y )....P ( X n y )
= [F(y)]n
sehingga G(y) = [F(y)]n, maka fkp y adalah
dG ( y )
g(y) = n[ F ( y )] n 1
dy
1 x
dari f(x) = dapat dihitung F(x)= , 0< x < . (buktikan)

n 1
y 1 ny n 1
Maka g(y) = n . , 0< y < .
n

Dengan mengingat estimator adalah variable random maka dapat didefinisikan


dua sifat estimator sebagi berikut.

Definisi 4.1
Misalkan X1,X2, Xn sample random dari fungsi peluang f(x,). Estimator
W=h(X1,X2, Xn) dikatakan tak bias untuk apabila E(W)= untuk semua .

Contoh 4. 2.
Lihat kembali contoh 1. Misalkan X1,X2, Xn sample random dari distribusi

1
Uniform (0,), yaitu f(x) = ; 0< x < . Sebagai estimator kita ambil

34
Y=Xmax, tetapi karena Xmax selalu lebih kecil dari , maka jelas estimator itu tidak
mungkin tak bias. Jika kita hitung

E(y) = E(Xmax) = y.g ( y ) dy


0


ny n 1
= 0
y
n
dy

ny n 1 n
=
(n 1) 0
n
n 1

Jadi Xmax estimator bias.


( n 1)
Sekarang dipilih estimator baru W= X max , maka W adalah estimator tak
n
bias karena
(n 1) (n 1) (n 1) n
E(W) =E[ X max ] = E[ X max ] = = .
n n n (n 1)

Dengan transformasi variable dapat dengan mudah dibuktikan bahwa fkp dari W

n n 1 (n 1)
adalah g(w) = w n 1 0 w . (buktikan).
(n 1) n n n

Contoh 4. 3.
Misalkan X1,X2, Xn sample random dari distribusi eksponensial dengan fkp
x
1
f(x) = e ; x>0. Buktikan X adalah estimator tak bias untuk .

Bukti.

E[ X ] = E
Xi 1
E[ X i ]
n
.
n n n

Jadi X adalah estimator tak bias untuk .

Definisi 4. 3.
Misalkan W1 dan W2 adalah dua estimator tak bias unutk parameter , masing-
masing dengan varians VAR(W1) dan VAR(W2). Dikatakan W1 lebih efisien dari
pada W2 apabila VAR(W1) < VAR(W2).
Contoh 4.4.

35
Misalkan X1,X2, Xn sample random dari distribusi eksponensial dengan fkp
x
1
f(x) = e ; x>0.

Telah dibuktikan W1= X adalah estimator tak bias untuk . Karena fkp dari W 1


adalah Gamma dengan parameter n dan maka dapat dihitung
n
2
VAR(W1)= (buktikan)..
n
Misalkan dipilih estimator tak bias yang lain, misal W2 =X1 elemen sample yang
terambil pertama kali, maka fkp W2 adalah
W
1 2
g(w2)= e ; w2 0 ,

sehingga E[W2] = , jadi W2 tak bias untuk , dan VAR(W2) = 2.
2
Terlihat bahwa = VAR(W1) < VAR(W2) = 2. Jadi Estimator W1 lebih efisien
n
dari pada W2.

Contoh 4.5.
Misalkan pada contoh 1, X1,X2, Xn sample random dari distribusi Uniform

1 ( n 1)
(0,), yaitu f(x) = ; 0< x < , diperoleh W= X max , adalah
n

n n 1 (n 1)
estimator tak bias untuk dengan fkp g(w) = w n 1 ; 0 w
(n 1)
n n
n

.
2
Dari fkp ini dapat dihitung VAR (W) = (buktikan)
n ( n 2)

Misalkan dicari estimator tak bias yang lain, yaitu X min statistic terkecil. Dengan
menuliskan V=Xmin fkp dari V adalah
n 1
n v
g(v)= 1 ; 0<v< (buktikan), dan

n 1
n v
E(V) = v.0
1

dv
(n 1)
(buktikan)

36
Sehingga jika digunakan (n+1) Xminn= Z, sebagai estimator untuk , maka Z

n 2
adalah estimator tak bias untuk . Dapat dihitung VAR(Z) = (buktikan).
n2
2 n 2
Terlihat bahwa VAR (W) = < = VAR(Z), jadi W lebif efisien
n ( n 2) n2
dari pada Z.

2. Estimator Bervariansi Minimum dan Batas Bawah Cramer-Rao


Pada sub sub sebelumnya telah dipelajari bagaimana membandingkan dua
estimator tak bias untuk suatu parameter, yakni memilih estimator mana yang
lebih efisien. Tetapi cara ini belum menjawab apakah estimator yang lebih efisien
itu mempunyai variansi minimum dalam kelas (himpunan) estimator tak bias
untuk parameter itu. Untuk menjawab hal itu digunakan Batas Bawah Cramer-
Rao (CRLB).
Teorema 4.1
Misalkan X1,X2, Xn sample random dari distribusi f(x,). Misalkan pula
W=h(X1,X2, Xn) suatu estimator tak bias untuk . Jika f(x,) memenuhi
2 2
2 f ( x, ) dx 2 f ( x, )dx
1 1

maka VAR(W)
log f ( x, )
2

log f ( x, )
2

nE nE
2


Contoh 4.6
Misalkan X1,X2, Xn sample random dari distribusi Bernoulli dengan fungsi
peluang f(x,p) = px (1-p)1-x, x=0,1, 0<p<1.
Buktikan W= X adalah estimator tak bias bervariansi minimum.
Bukti.
Mudak dibuktikan W= X adalah tak bias (buktikan). Selanjutnya

VAR(W) = VAR( i )
X
n
1 1 1 p (1 p)
= 2
VAR ( X i ) 2 VAR( X i ) 2
np(1 p ) .
n n n n

37
Untuk membandingkan estimator W dengan estimator tak bias lainnya kita hitung
batas bawah Cramer-Rao.
f(x,) = px (1-p)1-x
log f(x,) = xlog p +(1-x) log (1-p),
log f ( x, ) x 1 x
maka ,
p p 1 p

2 log f ( x, ) x 1 x
dan 2 .
p 2
p (1 p) 2

Nilai harapannya adalah


2 log f ( x, ) p 1 p 1
E[ ] 2
p 2
p (1 p ) 2
p (1 p)

dari teorema 4.1 batas bawah cramer Rao adalah


1 p (1 p )

2 n .
n
p (1 p )
Dengan demikian terlihat bahwa vaians W= X sama dengan batas bawah
Cramer- Rao. Ini berarti estimator W adalah estimator tak bias bervariansi
minimum .

Definisi 4.4
Misalkan adalah kelas semua estimator tak bias suatu parameter tertentu. W *
disebut estimator terbaik apabila W* dan VAR (W*) VAR (w) untuk semua
W di .

Contoh 4.7
Pada contoh 4.6 W= X adalah estimator terbaik.

3. Statistik Cukup
Akan dibicarakan sifat estimator yang lain yaitu kecukupan (sufisensi), yakni
sifat yang berkaitan dengan banyak informasi yang terkandung dalam suatu
estimator tertentu.

38
Definisi 4.5
Misalkan X1,X2, Xn sampel random berukuran n diambil dari f(x,).
Statistik W=h(X1,X2, Xn) dinamakan cukup (sufisien) unutk apabila unutk
semua dan semua hasil mungkin , fungsi peluang bersyarat X1,X2, Xn jika
diketahui w tidak tergantung pada , baik dalam fungsi itu sendiri atau dalam
wilayah fungsi itu. Untuk variable diskret W cukup untuk apabila
P[X1=x1 ,X2,= x2, ..,Xn = xnw=h(x1,x2, xn) tidak memuat .

Dalam upaya menentukan statistic cukup, biasanya tidak menggunakan definisi


4.5 diatas secara langsung. Berbagai kriteria faktorisasi yang jauh lebih mudah
mengerjakannya tersedia untuk itu. Salah satu diantaranya adalah kriteria Fisher-
Neyman seperti tersebut dalam teorema berikut.

Teorema 4.2
Misalkan X1,X2, Xn sampel random dari f(x,). Maka W=h(X1,X 2, Xn)
adalah statistic cukup (sufisien) untuk jika dan hanya jika fungsi peluang
bersama X1,X2, Xn terurai menjadi hasil kali fungsi peluang W dan suatu
fungsi lain yang tidak tergantung pada . Yakni W cukup jika dan hanya jika
f(x1,). f(x2,) f(xn,) = g(w,).S(x1,x2, ,xn).

Contoh 4.8
Misalkan X1,X2, Xn sampel random dari percobaan Bernoulli dengan peluang

n
sukses p. Buktikan W= X
i i
i adalah statistic cukup untuk p.

Bukti.
Fkp dari X adalah f(x; )=px (1-p)1-x , x=0,1, 0<p<1
f(x1,x2, ,xn ; ) = f(x1,). f(x2,) f(xn,)= p x (1 p ) n x
i i

n
diketahui W= X
i i
i berdistribusi binomial dengan parameter n dan p dengan fkp

n w n x
(1 p) , (buktikan )
n x
g(w) = p (1 p ) = p
n w i i

i
w
x

39
1
n
sehingga dengan mengambil S(x1,x2, ,xn) = ,
xi

1
n xi n
(1 p) i
n x
maka didapat f(x1,). f(x2,) f(xn,)= p .
i

xi
x

= g(w,).S(x1,x2, ,xn).
n
yang menunjukkan W= X i adalah statistic cukup untuk p.
i i

Contoh 4.9
Misalkan X1,X2, Xn sampel random dari disttribusi Uniform (0, ) dengan fkp
1
f(x;) = , 0< x <

Buktikan W= Xmax adalah statistic cukup untuk .


Bukti.
nw n 1
Telah dibuktikan bahwa fkp W adalah g(w) , 0 <w <.
n
Sedangkan fkp bersama X1,X2, Xn adalah
1
f(x1,). f(x2,) f(xn,) = .
n
1
Kita ambil S(x1,x2, ,xn) = ,
nw n 1
1 nw n 1 1
Maka diperoleh f(x1,x2, ,xn;)= .
n
n
nw n 1
= g(w,).S(x1,x2, ,xn).
Jadi W=Xmax adalah statistic cukup untuk .

B. BEBERAPA METODE MENCARI ESTIMATOR


1. Metode Maksimum Likelihood
Metode Maksimum Likelihood salah satu metode mencari estimator yang
biasanya mempunyai sifat-sifat baik, tetapi kadang-kadang sulit diterapkan

40
karena untuk f(x;) tertentu, persamaan likelihoodnya kadang sulit diselesaikan,
sehingga harus memakai pendekatan.
Misalkan X1,X2, Xn sampel random dari f(x;) dan L adalah fungsi peluang
bersamanya.
n
L=f(x1,x2, ,xn;) = f(x1,). f(x2,) f(xn,) = f ( x ; ) .
i 1
i

Untuk menaksir fungsi peluang bersama ini difikirkan sebagai fungsi dari
parameter , sehingga ditulis
n
L=L()= L(; x1,x2, ,xn) = f ( x ; ) .
i 1
i

Definsi 4.6
Misalkan X1,X2, Xn sampel random dari f(x;) Apabila L, yakni fungsi
peluang bersama X1,X2, Xn difikirkan sebagi fungsi dari dan x 1,x2, ,xn

n
sebagai bilangan tertentu, maka L=L()= L(; x 1,x2, ,xn) = f ( x ; )
i 1
i

dinamakan fungsi likelihood.


Definisi 4.7.
Misalkan X1,X2, Xn sampel random dari f(x;) dan L() adalah fungsi
likelihoodnya. Setiap nilai w=h(x1,x2, ,xn) yang memaksimumkan L(), yakni
L(w) L(), umtuk semua w dinamakan Estimator Maksumum Likelihood

(MLE) untuk . Biasa ditulis w= .

Catatan.
1. Dalam banyak hal L() dapat dideferensialkan sehingga memaksimalkanmya
adalah semata-mata masalah kalkulus.
2. Seringkali akan lebih mudah tidak memaksimalkan L() melainkan
log L(). Hal ini diperbolehkan karena transformasi logaritma adalah
monoton.
3. Apabila fungsi peluang yang digunakan adalah fungsi k parameter yang tidak
diketahui, maka vector estimator maksimum likelihood (w 1,w2,wn) diperoleh

41
dengan menyelesaikan system persamaan

log( 1 , 2 ,..., k )
0 ; i 1,2,..., k
i

4. Estimator maksimum likelihhod tidak selalu dapat diperoleh dengan


mendeferensialkan, melainkan dengan argumentasi tertentu seperti pada
contoh di belakang.

Contoh 4.10
Misalkan X1,X2, Xn sampel random dari distribusi Poissson dengan fkp
e x
f(x;) = , x=0,1,2,..
x!
Tentukan MLE untuk .
Penyelesaian.
Fungsi likelihoodnya adalah

e n i
x
n n
e x
L(; x1,x2, ,xn) = f ( xi ; ) .
i 0 i 0 x! xi
Dengan log-likelihoodnya
n
l (; x1,x2, ,xn ) = Log L(; x1,x2, ,xn) = -n + xi log log xi
i 0

l ( ; xi , x 2 ,..., x n ) 1
dan

n

x i

persamaan likelihoodnya adalah


1
n

x i 0

1
didapat MLE untuk adalah
n
xi x .
Contoh 4.11
Dilakukan percobaan Bernoulli sebanyak kali diperlukan sampai diperoleh
sukses. Maka fungsi peluang K= banyak kali percobaan yang diperlukan adalah
distribusi geometric, dengan f(k:p) = P(K=k) = (1-p) k-1 p ; k=1,2,3,.., dimana p
peluang sukses pada tiap percobaan . . Jika n percobaan dilakukan maka diamati
n hasil k1 ,k2, , kn. Tentukan MLE untuk p.

42
Penyelesaian.
Fungsi likelihoodnya adalah
n n
L(p; k1,k2, ,kn) = f ( x ; p) (1 p)
i 0
i
i 0
k i 1
p = (1 p ) k i n
pn

l (p; x1,x2, ,xn ) = Log L(p; x1,x2, ,xn) = ( k i n) log(1 n) n log p

l n ki n

p (1 p ) p

n ki n
persamaan likelihoodnya 0
(1 p ) p

n 1
p n

Jadi MLE untuk p adalah k .
k
i 1
i

Contoh 4.12
Misalkan X1,X2, Xn sampel random dari distribusi Uniform (0,). Tentukan
MLE untuk .
Peneyelesaian.
1
f(x;)= , maka fungsi likelihoodnya

n n
1 1
L(; k1,k2, ,kn) = f ( xi ; )
i 0 i 0 n
Disini tidak dapat digunakan metode dengan pendeferensialan untuk memperoleh
MLE. Tetapi dapat dikatakan bahwa karena setiap Xi haris lebih kecil dari ,
maka rentang berkisar dari Xmax sampai tak hingga. Selanjutnya
L(; x1,x2, ,xn) akan maksimum apabila minimum, dan ini dicapai apabila
x max .

Jadi MLE untuk adalah x max .

2. Metode Momen
Metode untuk mencari estimator yang lain yang sering digunakan apabila
bentuk L(; x1,x2, ,xn) cukup rumit adalah dengan metode momen. Dengan

43
metode ini himpunan parameter yang tidak diketahui ditaksir dengan menyatakan
momen X teoritis dengan momen sample yang bersesuaian.
Kita ingat kembali k momen X yang pertama adalah

( j ) E[ X j ] x f ( x; i , 2 ,... k ) dx , j=1,2,.., k.
j

Ini berarti bahwa j adalah fungsi j , j=1,2,3,..,k. Sehingga dapat kita tulis
1 = 1(1, 2, ..k)
2 = 2(1, 2, ..k)

k = k(1, 2, ..k)
Analaog dengan (j) dapat kita definisikan k momen sample sebagi berikut.
1 n
m(j) = X i
j
, j= 1,2,..,k.
n i 1
Tentu saja nilai-nilai m(j) ini kira-kira akan sama dengan j yang bersesuaian
apabila model probabilitas f(x ; 1, 2, ..k) merupakan model yang cukup
memadahi. Hal ini yang memberikan motivasi pada metode momen.
Definisi 4.8
Misalkan X1,X2, Xn sampel random dari distribusi f(x ; 1, 2, ..k). Misalkan
pula j dan m(j) , j=1,2,,k masing-masing k momen populasi dan sample yang
pertama. Sebagai prosedur umum untuk menaksir j , j=1,2,,..,k dengan
menyelesaikan system persamaan
j = j(1, 2, ..k) = m(j) ; j=1,2,.., k.
Penyeleaiannya w1,w2, wk dinamakan Estimator metode momen (MME).

Contoh 4.13
Misalkan X1,X2, Xn sampel random dari dari
f(x;) = (+1)x , 0< x< 1.
Tentukan Estimator metode momen (MME) dari .
Penyelesaian.
Kita hitung 1 sebagai berikut
1
1
x( 1) x

Momen pertama populasi 1 = E(X) = dx
0
2

44
1 n
Momen pertama sample m1 = xi x ,
n i 1

1 1 n
Sehingga diperoleh = x x ,
2 n i 1 i
2x 1
Diperoleh yang merupakan MME.
1 x

Contoh 4.13
Misalkan X1,X2, Xn sampel random dari dari Uniform
1
f(x;,) = ; < x < .

Tentukan MME unutk dan .


Penyelesaian.

Momen pertama populasi 1 = E(X) = (buktikan)
2
( ) 2 ( ) 2
Momen pertama populasi 2 = E(X2) = (buktikan)
12 4
1 n
Momen pertama sample m1 = xi x
n i 1
1 n 2
Momen pertama sample m2 = xi ,
n i 1
Maka dipunyai persamaan
1 n
(1) = xi x
2 n i 1
n
( ) 2 ( ) 2 1
= xi
2
(2)
12 4 n i 1
Sietem persamaan itu dapat disederhanakan menjadi
(1) + = 2 x

1 n
(2) = S 12 dengan S
n i 1
(X i X )2

1
maka MME untuk adalah X S 12
2

45
1
dan MME untuk adalah X S 12
2

LATIHAN 4.
1. Misalkan X1,X2, Xn sampel random dari distribusi N(, 2) .
n

Tunjukkan (X i X)
adalah estimator tak bias untuk dan 2
X dan S 2 i 1

n 1
n

2. Buktikan untuk sebarang populasi (X i X)


adalah estimator tak
X dan S 2 i 1

n 1
bias untuk dan 2.
3. Misalkan X1,X2, Xn sampel random dari distribusi EXP().
Buktikan X estimator tak bias untuk .
4. Misalkan X1,X2, Xn sampel random dari distribusi Uniform (-1, +1).
a. Buktikan X estimator tak bias untuk
X min X max
b. Buktikan estimator tak bias untuk

5. Misalkan X1,X2, Xn sampel random dari distribusi N(, 9)
a. Tentukan CRLB untuk
b. Apakah x estimator terbaik untuk
6. Misalkan X1,X2, Xn sampel random dari distribusi EXP().
n
Tunjukkan X i 1
i statistic cukup untuk .

7. Misalkan X1,X2, Xn sampel random dari distribusi POI().


n
Tunjukkan X i 1
i statistic cukup untuk .

8. Misalkan X1,X2, Xn sampel random dari distribusi N(, 2) .


a. Tentukan statistic cukup untuk jika 2 diketahui.
b. Tentukan statistic cukup untuk 2 jika diketahui.
9. Misalkan X1,X2, Xn sampel random dari distribusi EXP().
Tentukan MME untuk .

46
10. Misalkan X1,X2, Xn sampel random dari distribusi GAMMA(, k).
Tentukan MME untuk dan k.
11. Misalkan X1,X2, Xn sampel random dari distribusi N(, 2) .
Tentukan MLE untuk dan 2.
12. Tentukan MLE parameter distribusi berikut.
a. X~ GEO(p)
b. X~ N(0, )
c. X~ GAM(,2).

47

Anda mungkin juga menyukai