Alhamdulillah puji syukur kepada Allah SWT, Tuhan Yang Maha Kuasa
yang selalu memberikan limpahan nikmat dan berkah kepada kita, sehingga
makalah ini dapat diselesaikan dengan baik. Shalawat dan salamatas Nabi SAW
pembawa risalah pencerahan dan risalah ilmu pengetahuan bagi manusia. Dalam
rangka memahami pengetahuan dasar dalam mata kuliah Statistika Matematika,
maka dirangkum makalah ini dari sumber buku, jurnal-jurnal, dan sumber lainnya.
Makalah ini jauh dari kata sempurna, untuk itu, jika ada kritik dan saran
yang dapat membangun makalah ini kearah yang lebih baik lagi kami dengan
senang hati menerima dan memperbaiki makalah selanjutnya dengan baik. Akhir
kata, semoga makalah ini dapat bermanfaat bagi semua orang.
Tim Penulis
2
DAFTAR ISI
3
BAB I
PENDAHULUAN
1.3 Tujuan
4
BAB II
PEMBAHASAN
2.1 Prinsip Pengurangan Data
Eksperimen menggunakan informasi dalam sampel 𝑋1 , … , 𝑋𝑛 untuk
membuat kesimpulan tentang parameter yang tidak diketahui 𝜃. Jika ukuran sampel
n besar, maka sampel yang diamati 𝑥1 , … , 𝑥𝑛 adalah daftar panjang angka yang
mungkin sulit untuk ditafsirkan. Eksperimen mungkin ingin meringkas informasi
dalam sampel dengan menentukan beberapa fitur kunci dari nilai sampel. Ini
biasanya dilakukan dengan menghitung statistik, fungsi sampel. Misalnya, rata-rata
sampel, varians sampel, pengamatan terbesar, dan pengamatan terkecil adalah
empat statistik yang dapat digunakan untuk meringkas beberapa fitur utama sampel.
Ingat bahwa kita menggunakan huruf tebal untuk menunjukkan beberapa narasi,
jadi X menunjukkan variabel acak 𝑋1 , … , 𝑋𝑛 dan x menunjukkan sampel 𝑥1 , … , 𝑥𝑛 .
Reduksi data dalam hal statistik tertentu dapat dianggap sebagai partisi dari
ruang sampel 𝒳. Biarkan 𝒯= {t : t = T(x) untuk beberapa x ∈ 𝒳 } menjadi
gambar dari 𝒳 di bawah T(x). Kemudian T(x) mempartisi ruang sampel menjadi
himpunan 𝐴𝑡 , 𝑡 ∈ 𝒯 yang didefinisikan oleh 𝐴𝑡 = {𝐱 ∶ 𝑇(𝐱) = 𝑡}. Statistik
meringkas data di dalamnya, daripada melaporkan seluruh sampel x, itu hanya
melaporkan bahwa T(x) = t atau, ekuivalen, x ∈ 𝐴𝑡 . Untuk contoh,jika 𝑇(𝐱) =
𝑥1 … + 𝑥𝑛 , maka T(x) tidak melaporkan sampel yang sebenarnya nilai tetapi hanya
jumlah. Mungkin ada banyak titik sampel berbeda yang memiliki jumlah yang
sama. Keuntungan dan konsekuensi dari jenis reduksi data ini adalah topik bab ini.
Kami mempelajari tiga prinsip reduksi data. Kami tertarik pada metode
reduksi data yang tidak membuang informasi penting tentang parameter 𝜃 yang
tidak diketahui dan metode yang berhasil membuang informasi yang tidak relevan
sejauh menyangkut perolehan pengetahuan tentang 𝜃. Prinsip Kecukupan
5
mempromosikan metode pengurangan data bahwa dokumen tidak membuang
informasi tentang 𝜃 sambil mencapai beberapa ringkasanrisasi data. Prinsip
Kemungkinan menggambarkan fungsi dari parameter,ditentukan oleh sampel yang
diamati, yang berisi semua informasi tentang 𝜃 itu yang tersedia dari sampel.
Prinsip Kesetaraan menetapkan metode reduksi data lain yang masih
mempertahankan beberapa fitur penting dari model.
PRINSIP YANG EFISIEN: Jika T(X) adalah statistik yang cukup untuk 𝜃, maka
setiap inferensi tentang 𝜃 harus bergantung pada sampel X hanya melalui nilai
T(X). Artinya, jika x dan y busur dua titik sampel sedemikian rupa sehingga T(x) =
T(y), maka inferensi tentang 𝜃 harus sama apakah X = x atau X = y diamati.
Di bagian ini kami menyelidiki beberapa aspek statistik yang memadai dan Prinsip
Kecukupan.
Definisi 6.2.1 Statistik T(X) adalah statistik yang cukup untuk 𝜃 jika distribusi
terkondisi dari sampel X yang diberikan nilai T(X) tidak bergantung pada 𝜃.
6
dikasus diskrit dan akan menunjukkan hasil analog yang benar dalam kasus
kontinu.
Untuk memahami Definisi 6.2.1, misalkan t adalah nilai yang mungkin dari
T(X), yaitu nilai sedemikian rupa sehingga 𝑃𝜃 (𝑇(𝐗 = 𝑡) > 0. Kita ingin
mempertimbangkan probabilitas bersyarat 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑡) . Jika x adalah titik
sampel sehingga T(x)≠ t, maka jelas 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑡) = 0. Jadi, kita tertarik
pada 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)) . Menurut definisi, jika T(X) adalah statistik yang
cukup, probabilitas bersyarat ini sama untuk semua nilai 𝜃 jadi yang telah kita
hilangkan subskripnya.
7
untuk semua x dan 𝜃. Perhatikan bahwa kejadian {X = x} dan {Y = x} keduanya
adalah himpunan bagian dari kejadian {T(X) = T(x)}. Juga ingat itu
dan probabilitas bersyarat ini tidak bergantung pada 𝜃. Jadi, kita memiliki
𝑃𝜃 (𝐗 = 𝐱)
= 𝑃𝜃 (𝐘 = 𝐱).
𝑃𝜃 (𝐗=𝐱)
=𝑃
𝜃 (𝑇(𝐗)=𝑇(𝐱))
𝑝(𝐱|𝜃)
= 𝑞(𝑇(𝐱)|𝜃)
di mana 𝑝(𝐱|𝜃) adalah pmf gabungan dari sampel X dan 𝑞(𝑡|𝜃) adalah pmf
dari T(X). Jadi, T(X) adalah statistik yang cukup untuk 𝜃 jika dan hanya jika, untuk
setiap x, rasio pmfs di atas adalah konstan sebagai fungsi dari 𝜃. Jika X dan T(X)
memiliki distribusi kontinu, maka probabilitas bersyarat di atas tidak dapat
8
ditafsirkan dalam pengertian Bab 1. Tetapi masih tepat untuk menggunakan kriteria
di atas untuk menentukan apakah T(X) adalah statistik yang cukup untuk 𝜃.
Teorema 6.2.2 jika 𝑝(𝐱|𝜃) adalah gabungan pdf atau pmf dari X dan 𝑞(𝑡|𝜃) adalah
pdf atau pms dari T(X), maka T(X) adalah statistik yang cukup untuk 𝜃 jika, untuk
energi x dalam ruang sampel, rasio 𝑝(𝐱|𝜃)/𝑞(𝑇(𝐱)|𝜃) adalah konstan sebagai
fungsi dari 𝜃.
𝜃∑ 𝑥𝑖 (1−𝜃)∑(1−𝑥𝑖 )
= 𝑛 (Π𝜃 𝑥𝑖 = 𝜃 ∑ 𝑥𝑖 )
( )𝜃𝑡 (1−𝜃)𝑛−𝑡
𝑡
𝜃𝑡 (1−𝜃)𝑛−𝑡
= 𝑛 𝑡
( )𝜃 (1−𝜃)𝑛−𝑡
𝑡
1
= 𝑛
( )
𝑡
1
= 𝑛
(∑ 𝑥 )
𝑖
Karena rasio ini tidak bergantung pada 𝜃, menurut Teorema 6.2.2, T(X)
adalah statistik yang cukup untuk 𝜃. Interpretasinya adalah sebagai berikut: Jumlah
total 1 dalam sampel Bernoulli ini berisi semua informasi tentang 𝜃 yang ada di
data. Fitur lain dari data, seperti nilai pasti 𝑋3 tidak mengandung informasi
tambahan.
9
Contoh 6.2.4 (Statistik cukup normal) Misalkan 𝑋1 , … , 𝑋𝑛 sampel
𝑛(𝜇, 𝜎 2 ),dimana 𝜎 2 diketahui. Kami ingin menunjukkan bahwa mean sampel,
T(X)= 𝑋̅ = (𝑋1 + ⋯ + 𝑋𝑛 )/𝑛, adalah statistik yang cukup untuk 𝜇. Pdf gabungan
dari sampel X adalah
Persamaan terakhir benar karena suku hasil kali silang ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑥̅ − 𝜇)
mungkin ditulis ulang sebagai (𝑥̅ − 𝜇) ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) dan ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) = 0. Ingat
bahwa sampel mean 𝑋̅ memiliki distribusi 𝑛(𝜇, 𝜎 2 /𝑛). Jadi, rasio pdf adalah
yang tidak bergantung pada 𝜇. Dengan Teorema 6.2.2, mean sampel adalah statistik
yang cukup untuk 𝜇.
dimana 𝑥(𝑖) ≤ 𝑥(2) ≤ ⋯ ≤ 𝑥(𝑛) adalah statistik berurut. Dengan Teorema 6.2.2,
kita dapat menunjukkan bahwa statistik orde adalah statistik yang cukup. Tentu
saja, ini bukan pengurangan yang besar, tetapi kita seharusnya tidak mengharapkan
lebih banyak dengan begitu sedikit informasi tentang kepadatan f.
10
Namun, bahkan jika kita menentukan lebih banyak tentang kepadatan, kita
mungkin masih tidak bisa mendapatkan banyak pengurangan kecukupan. Misalnya,
1
anggaplah / adalah pdf Cauchy 𝑓(𝑥|𝜃) = 𝜋(𝑥−𝜃)2 atau pdf logistik 𝑓(𝑥|𝜃) =
𝑒 −(𝑥−𝜃)
. Kami kemudian memiliki hal yang sama pengurangan seperti pada
(1+𝑒 −(𝑥−𝜃) )2
(6.2.2), dan tidak lebih. Jadi pengurangan statistik urutan adalah yang paling bisa
kita dapatkan dalam keluarga ini.
Mungkin sulit untuk menggunakan definisi statistik yang cukup untuk menemukan
statistik yang cukup untuk model tertentu. Untuk menggunakan definisi tersebut,
kita harus menebak statistik T(X) agar mencukupi, menemukan pmf atau pdf dari
T(X), dan memeriksa bahwa rasio pdf atau pmfs tidak bergantung pada 𝜃. Langkah
pertama membutuhkan banyak intuisi dan yang kedua terkadang membutuhkan
beberapa analisis yang membosankan. Untungnya, teorema berikutnya, karena
Halmos dan Savage (1949), memungkinkan kita untuk menemukan statistik yang
cukup dengan pemeriksaan sederhana terhadap pdf atau pmf sampel.
Misalkan T(X) adalah statistik yang cukup. Pilih 𝑔(t|𝜃) = 𝑃𝜃 (𝑇(𝑿) = 𝑡) dan h(x)
= 𝑃(𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)). Karena T(X) cukup, probabilitas bersyarat yang
mendefinisikan h(x) tidak bergantung pada 𝜃. Jadi pilihan h(x) dan 𝑔(t|𝜃) ini sah,
dan untuk pilihan ini kita memiliki
11
𝑓(𝐱|𝜃) = 𝑃𝜃 (𝐗 = 𝐱)
= 𝑔(𝑇(𝐱)|𝜃)ℎ(𝐱)
Jadi faktorisasi (6.2.3) telah dipamerkan. Kami juga melihat dari dua baris terakhir
di atas bahwa
Sekarang asumsikan faktorisasi (6.2.3) ada. Misalkan 𝑞(t|𝜃) adalah pmf dari T(X).
Untuk menunjukkan bahwa T(X) cukup, kita periksa rasio 𝑓(𝐱|𝜃)/𝑞(𝑇(𝐱)|𝜃).
Definisikan 𝐴𝑇(𝐱) = {𝐲 ∶ 𝑇(𝐲) = 𝑇(𝐱)}. maka
𝑔(𝑇(𝐱)|𝜃 )ℎ(𝐱)
= (definisi dari itu pmf dari T)
∑ 𝐴𝑇(𝐱) 𝑔(𝑇(𝐲)|𝜃 )ℎ(𝐲)
𝑔(𝑇(𝐱)|𝜃 )ℎ(𝐱)
= (karena T konstan pada 𝐴𝑇(𝐱) )
𝑔(𝑇(𝐱)|𝜃 ) ∑ 𝐴𝑇(𝐱) ℎ(𝐲)
ℎ(𝐱)
= ∑𝐴
𝑇(𝐱) ℎ(𝐲)
'Karena rasio tidak bergantung pada 𝜃, menurut Teorema 6.2.2, T(X) adalah
statistik yang cukup.
12
Contoh 6.2.7 (Lanjutan Contoh 6.2.4) Untuk model normal yang dijelaskan
sebelumnya, kita melihat bahwa pdf dapat difaktorkan sebagai:
yang tidak bergantung pada parameter 𝜇 yang tidak diketahui. Faktor dalam (6.2.4)
yang mengandung 𝜇 bergantung pada sampel x hanya melalui fungsi T(x) = 𝑥̅ , mean
sampel. Jadi kita punya
dan ingat
𝑓(𝐱|𝜇) = ℎ(𝐱)𝑔(𝑇(𝐱)|𝜇)
Jadi, dengan Teorema Faktorisasi, T(X) =𝑋̅ adalah statistik yang cukup untuk 𝜇.
1
𝑥 = 1,2, … , 𝜃
𝑓(𝑥|𝜃) = {𝜃
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.
𝜃 −𝑛 𝑥𝑖 𝜖{1, … , 𝜃} 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛
𝑓(𝑥|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.
13
Pembatasan “𝑥𝑖 𝜖{1, … , 𝜃} 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛” dapat dinyatakan kembali sebagai
“𝑥𝑖 𝜖{1,2, … } 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛 (perhatikan bahwa tidak ada 𝜃 dalam batasan ini)
dan 𝑚𝑎𝑥𝑖 𝑥𝑖 ≤ 𝜃.” Jika kita mendefinisikan 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑥𝑖 ,
1 𝑥𝑖 𝜖{1,2, … } 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛
ℎ(𝑥) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.
Dan
𝜃 −𝑛 𝑡 ≤ 𝜃
𝑔(𝑡|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎,
Jenis analisis ini terkadang dapat dilakukan dengan lebih jelas dan ringkas
menggunakan fungsi indikator. Ingat bahwa 𝐼𝐴 (𝑥) adalah fungsi indikator dari
himpunan A, yaitu sama dengan 1 jika 𝑥 ∈ 𝐴 dan sama dengan 0 sebaliknya.
Misalkan 𝒩 = {1,2, … } adalah himpunan bilangan bulat positif dan misalkan
𝒩𝜃 = {1,2, … , 𝜃}. Maka pmf gabungan dari 𝑋1 , … , 𝑋𝑛 adalah
Faktor pertama tergantung pada 𝑥1 , … , 𝑥𝑛 hanya melalui nilai 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑥𝑖 dan
faktor kedua tidak bergantung pada 𝜃. Dengan Teorema Faktorisasi, 𝑇(𝑋) =
𝑚𝑎𝑥𝑖 𝑋𝑖 ; adalah statistik yang cukup untuk 𝜃.
14
Dalam semua contoh sebelumnya, statistik cukup adalah fungsi bernilai nyata dari
sampel tâe. Semua informasi tentang 𝜃 dalam sampel x dirangkum dalam bilangan
tunggal T(x). Terkadang, informasi tidak dapat diringkas dalam satu angka
danbeberapa nomor diperlukan sebagai gantinya. Dalam kasus seperti itu, statistik
yang cukup adalah vektor, katakanlah T(X) = (T1(X), ... , Tr(X)). Situasi ini sering
terjadi ketika parameter hjuga sebuah vektor, katakanlah 𝜃 = (𝜃1 , … , 𝜃𝑠 ) , dan
biasanya terjadi bahwa statistik cukup dan vektor parameter memiliki panjang yang
sama, yaitu r = s. Kombinasi berbeda dari panjangnya mungkin, namun, seperti
yang diilustrasikan oleh latihan dan Contoh 6.2.15, 6.2.18, dan 6.2. Teorema
Faktorisasi dapat digunakan untuk menemukan statistik cukup bernilai vektor,
seperti pada Contoh 6.2.9.
Contoh 6.2.9 (Statistik cukup normal, kedua parameter tidak diketahui) Sekali
lagi asumsikan bahwa 𝑋1 , … , 𝑋𝑛 adalah iid 𝑛(𝜇, 𝜎 2 ) tetapi, tidak seperti Contoh
6.2.4, asumsikan bahwa 𝜇 dan 𝜎 2 tidak diketahui sehingga vektor parameternya
adalah 𝜃 = (𝜇, 𝜎 2 ). Sekarang ketika kembali menggunakan Teorema Faktorisasi,
bagian mana pun dari pdf gabungan yang bergantung pada 𝜇 atau 𝜎 2 keduanya harus
disertakan dalam fungsi g. Dari (6.2.1) jelas bahwa pdf bergantung pada sampel x
hanya melalui dua nilai 𝑇1 (𝑥) = 𝑥̅ dan 𝑇2 (𝑥) = 𝑠 2 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2⁄𝐼𝑛 − 1).
Dengan demikian kita dapat mendefinisikan h(x) = 1 dan
15
statistik yang memadai bergantung pada model. Untuk model lain, yaitu, keluarga
kepadatan lain, mean dan varians sampel mungkin bukan statistik yang cukup untuk
mean dan varians populasi. Eksperimen yang hanya menghitung 𝑋̅ dan S2 dan sama
sekali mengabaikan sisa data akan menempatkan keyakinan yang kuat pada asumsi
model normal.
𝑛 𝑛
Itu selalu benar bahwa sampel lengkap, X, adalah statistik yang cukup. Kita
dapat membuat fakta0l pdf atau pmf dari X sebagai 𝑓(𝑥|𝜃) = 𝑓(𝑇(𝑥)|𝜃)ℎ(𝑥), di
mana T(x) = x dan h(x) = 1 untuk semua x. Dengan Teorema Faktorisasi, T(X) = X
adalah statistik yang cukup.
Juga, berarti bahwa setiap fungsi satu-ke-satu dari statistik yang cukup
adalah statistik yang cukup. Misalkan T(X) adalah statistik yang cukup dan
16
tentukan T* (x) = r(T(x)) untuk semua x, di mana r adalah fungsi satu-satu dengan
invers r-1. Maka dengan Teorema Faktorisasi ada g dan h sedemikian rupa sehingga
𝑓(𝑥|𝜃) = 𝑔∗ (𝑇 ∗ (𝑥)|𝜃)ℎ(𝑥)
Karena banyaknya statistik yang cukup dalam suatu masalah, kita mungkin
bertanya apakah satu statistik yang cukup lebih baik dari yang lain. Ingat bahwa
tujuan dari statistik yang cukup adalah untuk mencapai reduksi data tanpa
kehilangan informasi tentang parameter 𝜃; dengan demikian, statistik yang
mencapai reduksi data paling banyak sambil tetap mempertahankan semua
informasi tentang 𝜃 mungkin dianggap lebih disukai. Definisi statistik seperti itu
diformalkan sekarang.
Definisi 6.2.11 Statistik cukup T(X) disebut statistik cukup minimal jika, untuk
setiap statistik memadai lainnya T'(X), T(x) adalah fungsi dari T'(x).
Untuk mengatakan bahwa T(x) adalah fungsi dari T'(x) berarti jika T'(x) = T'(y),
maka T(x) = T(y). Dalam hal himpunan partisi yang dijelaskan di awal bab, jika
{𝐵𝑡 ′ : 𝑡 ′ 𝜖𝒯 ′ } adalah himpunan partisi untuk T'(x) dan {𝐴𝑡 : 𝑡𝜖𝒯} adalah himpunan
partisi untuk T(x), maka Definisi 6.2.11 menyatakan bahwa setiap 𝐵𝑡 ′ adalah subset
dari beberapa 𝐴𝑡 . Jadi, partisi yang terkait dengan statistik cukup minimal, adalah
partisi yang paling kasar untuk statistik yang cukup, dan statistik yang cukup
minimal mencapai reduksi data terbesar untuk statistik yang cukup.
Contoh 6.2.12 (Dua statistik cukup normal) Model yang dipertimbangkan dalam
Contoh 6.2.4 memiliki 𝑋1 , … , 𝑋𝑛 iid n(𝜇, 𝜎 2 ) dengan 𝜎 2 diketahui. Menggunakan
faktorisasi (6.2.4), kami menyimpulkan bahwa 𝑇(𝑋) = 𝑋̅ adalah statistik yang
cukup untuk 𝜇. Sebagai gantinya, kita dapat menuliskan faktorisasi (6.2.5) untuk
masalah ini (𝜎 2 adalah nilai yang diketahui sekarang) dan dengan benar
menyimpulkan bahwa 𝑇 ′ (𝑋) = (𝑋̅, 𝑆 2 ) adalah statistik yang cukup untuk 𝜇 dalam
masalah ini. Jelas T(X) mencapai reduksi data yang lebih besar daripada T'(X)
17
karena kita tidak mengetahui varians sampel jika kita hanya mengetahui T(X) Kita
dapat menulis T(x) sebagai fungsi dari T'(x) dengan mendefinisikan fungsi r (a, b)
= a. Maka 𝑇(𝑥) = 𝑥̅ = 𝑟(𝑥̅ , 𝑠 2 ) = 𝑟(𝑇 ′ (𝑥)). Karena T(X) dan T'(X) keduanya
merupakan statistik yang cukup, keduanya mengandung informasi yang sama
tentang hal 𝜇. Dengan demikian, informasi tambahan tentang nilai S2, varians
sampel, tidak menambah pengetahuan kita tentang 𝜇 karena varians populasi 𝜎 2
diketahui. Tentu saja, jika 𝜎 2 tidak diketahui, seperti pada Contoh 6.2.9, 𝑇(𝑥) = 𝑋̅
bukan statistik yang cukup dan T'(X) berisi lebih banyak informasi tentang
parameter (𝜇, 𝜎 2 ) daripada T(X). ||
Teorema 6.2.13 Biarkan 𝑓(𝑥|𝜃) menjadi pms atau pdf dari sampel X Misalkan
terdapat suatu fungsi T(x) sedemikian sehingga, untuk setiap dua titik sampel x dan
y, rasio 𝑓(𝑥|𝜃)/𝑓(𝑦|𝜃) adalah konstan sebagai fungsi dari 𝜃 jika dan hanya jika
𝑇(𝑥) = 𝑇(𝑦). Maka T (X) adalah statistic minimal cukup untuk 𝜃.
Pertama kita tunjukkan bahwa T(X) adalah statistik yang cukup. Misalkan 𝒯 =
{𝑡: 𝑡 = 𝑇(𝑥) untuk beberapa 𝑥𝜖𝒳} menjadi bayangan dari 𝒳 di bawah T(x).
Tentukan himpunan partisi yang diinduksi oleh T(x) karena 𝐴𝑡 = {𝑥: 𝑇(𝑥) = 𝑡}.
Untuk setiap At; memilih dan memperbaiki satu elemen 𝑥𝑡 ∈ 𝐴𝑡 . Untuk setiap 𝑥 ∈
𝒳,XT(x) adalah elemen tetap yang berada di himpunan yang sama, At , sebagai x.
Karena x dan xT(x) adalahdi himpunan yang sama At, 𝑇(𝑥) = 𝑇(𝑥𝑇(𝑥) ) dan,
karenanya, 𝑓(𝑥|𝜃)/𝑓(𝑥𝑇(𝑥) |𝜃) adalah konstanta sebagai fungsi dari 𝜃. Dengan
18
demikian, kita dapat mendefinisikan suatu fungsi pada 𝒳 dengan ℎ(𝑥) =
𝑓(𝑥|𝜃)/𝑓(𝑥𝑇(𝑥) |𝜃) dan h tidak bergantung pada 𝜃. Definisikan suatu fungsi pada
𝒯 dengan 𝑔(𝑡|𝜃) = 𝑓(𝑥𝑇(𝑥) |𝜃). Maka dapat dilihat bahwa
𝑓(𝑥𝑇(𝑥) |𝜃)𝑓(𝑥|𝜃)
𝑓(𝑥|𝜃) = = 𝑔(𝑇(𝑥)|𝜃)ℎ(𝑥)
𝑓(𝑥𝑇(𝑥) |𝜃)
dan, dengan Teorema Faktorisasi, T(X) adalah statistik yang cukup untuk 𝜃.
Sekarang untuk menunjukkan bahwa T(X) minimal, misalkan T'(X) adalah statistik
cukup lainnya. Dengan Teorema Faktorisasi, terdapat fungsi g' dan h' sehingga
𝑓(𝑥|𝜃) = 𝑔′(𝑇 ′ (𝑥)|𝜃)ℎ′(𝑥). Misalkan x dan y adalah dua titik sampel dengan T'(x)
= T'(y). Kemudian
Karena rasio ini tidak bergantung pada 𝜃, asumsi teorema menyiratkan bahwa T(x)
= T(y). Jadi, T(x) adalah fungsi dari T'(x) dan F(x) minimal.
Rasio ini akan konstan sebagai fungsi dari 𝜇 dan 𝜎 2 jika dan hanya jika 𝑥̅ = 𝑦̅ dan
̅ 𝑆 2 )adalah statistik cukup minimal
𝑠𝑥 2 = 𝑠𝑦 2 . Jadi, menurut Teorema 6.2.13, (𝑋,
untuk (𝜇, 𝜎 2 ). ||
Jika himpunan xs di mana pdf atau pmf positif bergantung pada parameter 𝜃, maka,
agar rasio dalam Teorema 6.2.13 konstan sebagai fungsi 𝜃, pembilangnya dan
19
penyebut harus positif untuk nilai 𝜃. Pembatasan ini biasanya tercermin dalam
statistik yang cukup minimal, seperti yang diilustrasikan pada contoh berikut.
1 𝜃 < 𝑥𝑖 < 𝜃 + 1, 𝑖 = 1, … , 𝑛,
𝑓(𝑥|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎
Jadi, untuk dua titik sampel x dan y, pembilang dan penyebut rasio 𝑓(𝑥|𝜃)/𝑓(𝑦|𝜃)
akan positif untuk nilai 𝜃 yang sama jika dan hanya jika 𝑚𝑖𝑛𝑖 𝑥𝑖 = 𝑚𝑖𝑛𝑖 𝑦𝑖 dan
𝑚𝑎𝑥𝑖 𝑥𝑖 = 𝑚𝑎𝑥𝑖 𝑦𝑖 . Dan, jika minima dan maxima sama, maka rasio adalah
konstan dan, pada kenyataannya, sama dengan 1. Jadi, biarkan 𝑋(1) = 𝑚𝑖𝑛𝑖 𝑋𝑖 , dan
𝑋(𝑛) = 𝑚𝑎𝑥𝑖 𝑋𝑖 ;. kita memiliki bahwa 𝑇(𝑋) = (𝑋(1) , 𝑋(𝑛) ) adalah statistik yang
cukup minimal. Ini adalah kasus di mana dimensi statistik cukup minimal tidak
cocok dengan dimensi parameter. ||
Sebuah statistik yang cukup minimal adalah tidak unik. Setiap fungsi satu-
ke-satu dari statistik cukup minimal juga merupakan statistik cukup minimal. Jadi,
𝑋(𝑛) +𝑋(1)
misalnya, 𝑇′(𝑋) = (𝑋(𝑛) − 𝑋(1) , ) juga merupakan statistik yang cukup
2
minimal dalam Contoh 6.2.15 dan 𝑇 ′ (𝑋) = (∑𝑛𝑖=1 𝑋𝑖 , ∑𝑛𝑖=1 𝑋𝑖 2 ) adalah juga
minimal memadai statistik dalam Contoh 6.2.14.
Definisi 6.2.16 Statistik S(X) yang distribusinya tidak bergantung pada parameter
𝜃 disebut statistik tambahan.
20
Sendirian, statistik tambahan tidak mengandung informasi tentang 𝜃. Statistik
tambahan adalah pengamatan pada variabel acak yang distribusinya tetap dan
diketahui, tidak terkait dengan 𝜃. Secara paradoks, statistik tambahan, bila
digunakan bersama dengan statistik lain, kadang-kadang mengandung informasi
berharga untuk kesimpulan tentang 𝜃. Kami akan menyelidiki perilaku ini di bagian
selanjutnya. Untuk saat ini, kami hanya memberikan beberapa contoh statistik
tambahan.
Jadi, pdf gabungan dari 𝑋(1) dan 𝑋(𝑛) , seperti yang diberikan oleh (5.4.7), adalah
mengambil transformasi 𝑅 = 𝑋(𝑛) − 𝑋(1) dan 𝑀 = (𝑋(1) + 𝑋(𝑛) )/2, yang memiliki
invers transformasi 𝑋(1) = (2𝑀 − 𝑅)/2 dan 𝑋(𝑛) = (2𝑀 + 𝑅)/2 dengan Jacobian
1, lihat kembali bahwa pdf gabungan dari Rdan M adalah
(Perhatikan daerah positif yang agak terlibat untuk ℎ(𝑟, 𝑚|𝜃).) Jadi, pdf untuk R
adalah
21
Ini adalah beta pdf dengan 𝛼 = 𝑛 − 1 dan 𝛽 = 2. Lebih penting lagi, pdf adalah
sama untuk semua 𝜃. Dengan demikian, distribusi tidak bergantung pada 𝜃, dan R
adalah tambahan. ||
Dalam Contoh 6.2. l7 statistik jangkauan adalah tambahan karena model dianggap
ada model parameter lokasi. Tambahan dari R itu tidak tergantung pada
keseragaman dari 𝑋𝑖 𝑠, melainkan pada parameter distribusi yang menjadi parameter
lokasi. Kita sekarang mempertimbangkan itu umum lokasi parameter model.
22
setiap statistik yang bergantung pada sampel hanya melalui n — 1 nilai
𝑋1⁄𝑋𝑛 , … , 𝑋𝑛−1 /𝑋𝑛 adalah statistik tambahan. Sebagai contoh,
Secara khusus, misalkan 𝑋1dan 𝑋2 adalah iid 𝑛(0, 𝜎 2 ) pengamatan. Dari hasil di
atas, kita lihat bahwa 𝑋1 /𝑋2 memiliki distribusi yang sama untuk setiap nilai 𝜎.
Tetapi, pada Contoh 4.3.6, kita melihat bahwa, jika 𝜎 = 1, 𝑋1 /𝑋2 memiliki
distribusi Cauchy (0, l). Jadi, untuk setiap 𝜎 > 0, distribusi 𝑋1 /𝑋2 adalah distribusi
Cauchy yang sama. ||
Di bagian ini, kami telah memberikan contoh, beberapa yang agak umum,
statistik yang merupakan tambahan untuk berbagai model. Pada bagian berikutnya
kita akan mempertimbangkan hubungan antara statistik yang memadai dan statistik
tambahan.
23
matematis, secara fungsional independen dari) statistik tambahan. Namun, ini
belum tentu demikian. Pada bagian ini, kami menyelidiki hubungan ini dalam
beberapa detail.
Kami telah membahas situasi di mana statistik tambahan tidak independen dari
statistik yang cukup minimal. Ingat Contoh 6.2.15 di mana 𝑋1 , … , 𝑋𝑛 adalah
pengamatan iid dari distribusi seragam (θ, θ+1). Pada akhir Bagian 6.2.2, kami
𝑋(1)
mencatat bahwa statistic 𝑋(𝑛) − 𝑋(1) , (𝑋(𝑛) + ) adalah statistik cukup minimal,
2
dan dalam Contoh 6.2.17, kami menunjukkan bahwa 𝑋(𝑛) − 𝑋(1) adalah statistik
tambahan. Dengan demikian, dalam hal ini, statistik tambahan merupakan
komponen penting dari kecukupan statistik minimal. Tentu saja, statistik tambahan
dan statistik cukup minimal tidak independen. Untuk menekankan poin bahwa
statistik tambahan terkadang dapat memberikan informasi penting untuk inferensi
tentang θ, kami memberikan contoh lain.
Contoh 6.2.20 (Presisi tambahan) Misalkan 𝑋1 dan 𝑋2 adalah pengamatan iid dari
distribusi diskrit yang memenuhi
1
𝑃θ (X = θ) = 𝑃θ (𝑋 = θ + 1) = 𝑃θ (𝑋 = θ + 2) =
3
dimana θ, parameter yang tidak diketahui, adalah bilangan bulat apa pun. Misalkan
𝑋(1) ≤ 𝑋(2) adalah statistik orde untuk sampel. Hal ini dapat ditunjukkan dengan
argumen yang mirip dengan contoh 6.2.15 bahwa (R, M), di mana R= 𝑋(2) − 𝑋(1)
dan M =𝑋(1) + 𝑋(2) /2 , adalah statistik yang cukup minimal. Karena ini adalah
keluarga parameter lokasi, dengan Contoh 6.2.17, R adalah statistik tambahan.
Untuk melihat bagaimana R dapat memberikan informasi tentang θ, meskipun itu
adalah tambahan, pertimbangkan titik sampel (r, m), di mana m adalah bilangan
bulat. Pertama kita pertimbangkan hanya m; untuk titik sampel ini memiliki
probabilitas positif, θ harus merupakan salah satu dari tiga nilai. Salah satu θ =
𝑚 𝑎𝑡𝑎𝑢 θ = m − 1 atau θ = m − 2. Dengan hanya informasi bahwa M = m,
24
semua tiga nilai θ adalah nilai yang mungkin. Tapi sekarang misalkan kita
mendapatkan informasi tambahan bahwa R = 2. Maka harus terjadi bahwa 𝑋(1) =
𝑚 − 1 𝑑𝑎𝑛 𝑋(2) = 𝑚 + 1. Dengan informasi tambahan ini, satu-satunya nilai yang
mungkin untuk θ adalah θ = m − 1. Jadi, pengetahuan tentang nilai statistik
tambahan R telah meningkatkan pengetahuan kita tentang θ. Tentu saja,
pengetahuan tentang R saja tidak akan memberi kita informasi tentang θ.
Namun, untuk banyak situasi penting, intuisi kita bahwa statistik minimal yang
memadai tidak bergantung pada statistik tambahan adalah benar. Deskripsi situasi
di mana ini terjadi bergantung pada definisi berikutnya.
Definisi 6.2.21 misalnya 𝑓(𝑡|θ) menjadi keluarga pdfs atau pmfs untuk statistik
T(X). Keluarga distribusi probabilitas disebut lengkap jika 𝐸θg (𝑇) = 0 untuk semua
θ menyiratkan 𝑃θ (𝑔(𝑇)= 0 =1 untuk semua θ. Secara ekivalen, T(X) disebut
statistik lengkap.
25
untuk semua r, 0 < r < ∞. Tapi ekspresi terakhir adalah polinomial derajat n di r, di
𝑛
mana koefisien 𝑟 𝑡 adalah g(t)( ). Agar polinomial menjadi 0 untuk semua r, setiap
𝑡
𝑛
koefisien harus 0. Karena tidak ada suku ( ) yang 0, ini menyiratkan bahwa g(t) =
𝑡
0 untuk t = 0, 1,..., n. Karena T mengambil nilai 0, 1,...,n dengan probabilitas 1, ini
menghasilkan bahwa 𝑃p 𝑔((𝑇) = 0)=1 untuk semua p, kesimpulan yang diinginkan.
Oleh karena itu, T adalah statistik lengkap.
Contoh 6.2.23 (Statistik cukup lengkap seragam) Misalkan 𝑋1, ... , 𝑋𝑛 adalah
pengamatan seragam iid(0, θ), 0 < θ < ∞. Dengan menggunakan argumen yang
mirip dengan Contoh 6.2.8, kita dapat melihat bahwa T(X) = 𝑚𝑎𝑥𝑖 𝑋𝑖 adalah
statistik yang cukup dan, dengan Teorema 5.4.4, pdf dari T(X) adalah
26
Suku pertama pada baris berikutnya adalah hasil dari penerapan Teorema Dasar
Kalkulus. Suku kedua adalah 0 karena integralnya, kecuali konstanta, sama dengan
𝐸𝜃𝑔 (𝑇), yaitu 0. Karena 𝜃 −1 𝑛𝑔(𝜃) = 0 dan 𝜃 −1 𝑛 ≠ 0, pasti g(𝜃) = 0. Ini benar
untuk setiap 𝜃 > 0; karenanya, T adalah statistik lengkap.
Teorema 6.2.24 (Teorema Basu) Jika T(X) adalah statistik yang lengkap dan cukup
minimal, maka T(X) bebas dari setiap statistik tambahan.
Misalnya S(X) menjadi statistik tambahan apa pun. Maka P(S(X) = s) tidak
bergantung pada 𝜃 karena S(X) adalah tambahan. Juga peluang bersyarat,
Karena T(X) adalah statistik lengkap, ini menyiratkan bahwa g(t) = 0 untuk semua
kemungkinan nilai t ∈ T. Oleh karena itu (6.2.6) diverifikasi.
27
pada keunikan transformasi Laplace, sebuah properti yang disebutkan dalam
Bagian 2.3.
28
tambahan. Distribusi eksponensial juga membentuk keluarga eksponensial dengan
t(x)=x dan seterusnya, dengan Teorema 6.2.25,
adalah statistik lengkap dan, menurut Teorema 6.2.10, T(X) adalah statistik cukup.
(Seperti disebutkan di bawah, kita tidak perlu memverifikasi bahwa T(X) minimal,
meskipun dapat dengan mudah diverifikasi menggunakan Teorema 6.2.13.) Oleh
karena itu, dengan Teorema Basu, T(X) dan g(X) bebas. Jadi kita punya
Teorema 6.2.28 Jika muncul statistik minimal yang cukup, maka semua statistik
lengkap.
29
Jadi meskipun kata "minimal" berlebihan dalam pernyataan Teo rem Basu, hal itu
dinyatakan sebagai pengingat bahwa statistik T(X) dalam teorema adalah statistik
cukup minimal.
Teorema Basu memberikan satu hubungan antara statistik yang cukup dan
tambahan statistika dengan menggunakan konsep statistik lengkap. Ada
kemungkinan definisi lain dari ancillarity dan kelengkapan. Beberapa hubungan
antara kecukupan dan ancilarity untuk definisi ini dibahas oleh Lehmann (1981).
30
BAB III
PENUTUP
3.1 Kesimpulan
Reduksi data dalam hal statistik tertentu dapat dianggap sebagai partisi dari
ruang sampel 𝒳. Biarkan 𝒯= {t : t = T(x) untuk beberapa x ∈ 𝒳 } menjadi
gambar dari 𝒳 di bawah T(x). Kemudian T(x) mempartisi ruang sampel menjadi
himpunan 𝐴𝑡 , 𝑡 ∈ 𝒯 yang didefinisikan oleh 𝐴𝑡 = {𝐱 ∶ 𝑇(𝐱) = 𝑡}. Statistik
meringkas data di dalamnya, daripada melaporkan seluruh sampel x, itu hanya
melaporkan bahwa T(x) = t atau, ekuivalen, x ∈ 𝐴𝑡 .
PRINSIP YANG EFISIEN: Jika T(X) adalah statistik yang cukup untuk 𝜃,
maka setiap inferensi tentang 𝜃 harus bergantung pada sampel X hanya melalui
nilai T(X). Artinya, jika x dan y busur dua titik sampel sedemikian rupa sehingga
T(x) = T(y), maka inferensi tentang 𝜃 harus sama apakah X = x atau X = y diamati.
3.2 Saran
31
DAFTAR PUSTAKA
32