Anda di halaman 1dari 32

MAKALAH STATISTIKA MATEMATIKA

Prinsip Reduksi Data


(Prinsip Reduksi Data dan Prinsip Kecukupan)

Disusun Oleh Kelompok 3:


Febby Yusnanda Putri (P2A921003)
Dania Noviyla (P2A921012)
Khatifa Maulany (P2A921016)

Dosen Pengampu Mata Kuliah:


Dr. Nizlel Huda, M.Kes.
Dr. Drs. Kamid, M.Si.

PROGRAM STUDI MAGISTER PENDIDIKAN MATEMATIKA


FAKULTAS KEGURUAN DAN ILMU PENDIDIKAN
UNIVERSITAS JAMBI
2022
KATA PENGANTAR

Alhamdulillah puji syukur kepada Allah SWT, Tuhan Yang Maha Kuasa
yang selalu memberikan limpahan nikmat dan berkah kepada kita, sehingga
makalah ini dapat diselesaikan dengan baik. Shalawat dan salamatas Nabi SAW
pembawa risalah pencerahan dan risalah ilmu pengetahuan bagi manusia. Dalam
rangka memahami pengetahuan dasar dalam mata kuliah Statistika Matematika,
maka dirangkum makalah ini dari sumber buku, jurnal-jurnal, dan sumber lainnya.

Makalah ini diharapkan dapat memberikan penjelasan tentang prinsip


reduksi data dan prinsip kecukupan agar pemahaman kita tentang materi tersebut
bertambah luas. Tidak lupa pula, terimakasih kepada Dosen pengampu yang telah
mengampu mata kuliah dan rekan-rekan yang membantu dalam menyelesaikan
makalah ini.

Makalah ini jauh dari kata sempurna, untuk itu, jika ada kritik dan saran
yang dapat membangun makalah ini kearah yang lebih baik lagi kami dengan
senang hati menerima dan memperbaiki makalah selanjutnya dengan baik. Akhir
kata, semoga makalah ini dapat bermanfaat bagi semua orang.

Jambi, Oktober 2022

Tim Penulis

2
DAFTAR ISI

KATA PENGANTAR ..............................................................................................2


DAFTAR ISI .............................................................................................................3
BAB I .........................................................................................................................4
1.1 Latar Belakang ..........................................................................................4
1.2 Rumusan Masalah .....................................................................................4
1.3 Tujuan ........................................................................................................4
BAB II .......................................................................................................................5
2.1 Prinsip Pengurangan Data .......................................................................5
2.2 Prinsip Kecukupan ....................................................................................6
2.3 Statistik yang cukup, tambahan, dan lengkap........................................6
BAB III ....................................................................................................................31
3.1 Kesimpulan ..............................................................................................31

3
BAB I
PENDAHULUAN

1.1 Latar Belakang


Statistik deskriptif merupakan bidang ilmu statistika yang mempelajari cara
cara pengumpulan, penyusunan, dan penyajian data suatu penelitian. Statistik
deskriptif adalah bagian dari ilmu statistik yang meringkas, menyajikan dan
mendeskripsikan data dalam bentuk yang mudah dibaca sehingga
memberikanminformasi tersebut lebih lengkap. Statistik deskriptif hanya
berhubungan dengan hal menguraikan atau memberikan keterangan-keterangan
mengenai suatu data atau keadaan atau fenomena, dengan kata lain hanya melihat
gambaran secara umum dari data yang didapatkan.

Statistika deskriptif adalah metode-metode yang berkaitan dengan


pengumpulan dan penyajian suatu data sehingga memberikan informasi yang
berguna (Walpole, 1995). Statistik deskriptif berfungsi untuk mendeskripsikan atau
memberi gambaran terhadap objek yang diteliti melalui data sampel atau populasi
(Sugiyono,2007). Data yang disajikan dalam statistik deskriptif biasanya dalam
bentuk ukuran pemusatan data (Kuswanto, 2012). Salah satu ukuran pemusatan
data yang biasa digunakan adalah mean (Fauzy, 2009). Selain dalam bentuk ukuran
pemusatan data juga dapat disajikan dalam bentuk salah satunya adalah diagram
pareto dan tabel. Pada makalah ini penjelasan mengenai prinsip reduksi data dan
prinsip kecukupan data.

1.2 Rumusan Masalah

1. Bagaimana prinsip reduksi data?


2. Bagaimana prinsip kecukupan?

1.3 Tujuan

1. Untuk mengetahui prinsip reduksi data


2. Untuk mengetahui prinsip kecukupan

4
BAB II
PEMBAHASAN
2.1 Prinsip Pengurangan Data
Eksperimen menggunakan informasi dalam sampel 𝑋1 , … , 𝑋𝑛 untuk
membuat kesimpulan tentang parameter yang tidak diketahui 𝜃. Jika ukuran sampel
n besar, maka sampel yang diamati 𝑥1 , … , 𝑥𝑛 adalah daftar panjang angka yang
mungkin sulit untuk ditafsirkan. Eksperimen mungkin ingin meringkas informasi
dalam sampel dengan menentukan beberapa fitur kunci dari nilai sampel. Ini
biasanya dilakukan dengan menghitung statistik, fungsi sampel. Misalnya, rata-rata
sampel, varians sampel, pengamatan terbesar, dan pengamatan terkecil adalah
empat statistik yang dapat digunakan untuk meringkas beberapa fitur utama sampel.
Ingat bahwa kita menggunakan huruf tebal untuk menunjukkan beberapa narasi,
jadi X menunjukkan variabel acak 𝑋1 , … , 𝑋𝑛 dan x menunjukkan sampel 𝑥1 , … , 𝑥𝑛 .

Setiap statistik, T(X), mendefinisikan bentuk reduksi data atau ringkasan


data. Eksperimen yang hanya menggunakan nilai statistik yang diamati, T(x),
daripada seluruh sampel yang diamati, x, akan diperlakukan sebagai dua sampel
yang sama, x dan y, yang memenuhi T(x) = T( y) meskipun nilai sampel sebenarnya
mungkin berbeda dalam beberapa hal.

Reduksi data dalam hal statistik tertentu dapat dianggap sebagai partisi dari
ruang sampel 𝒳. Biarkan 𝒯= {t : t = T(x) untuk beberapa x ∈ 𝒳 } menjadi
gambar dari 𝒳 di bawah T(x). Kemudian T(x) mempartisi ruang sampel menjadi
himpunan 𝐴𝑡 , 𝑡 ∈ 𝒯 yang didefinisikan oleh 𝐴𝑡 = {𝐱 ∶ 𝑇(𝐱) = 𝑡}. Statistik
meringkas data di dalamnya, daripada melaporkan seluruh sampel x, itu hanya
melaporkan bahwa T(x) = t atau, ekuivalen, x ∈ 𝐴𝑡 . Untuk contoh,jika 𝑇(𝐱) =
𝑥1 … + 𝑥𝑛 , maka T(x) tidak melaporkan sampel yang sebenarnya nilai tetapi hanya
jumlah. Mungkin ada banyak titik sampel berbeda yang memiliki jumlah yang
sama. Keuntungan dan konsekuensi dari jenis reduksi data ini adalah topik bab ini.

Kami mempelajari tiga prinsip reduksi data. Kami tertarik pada metode
reduksi data yang tidak membuang informasi penting tentang parameter 𝜃 yang
tidak diketahui dan metode yang berhasil membuang informasi yang tidak relevan
sejauh menyangkut perolehan pengetahuan tentang 𝜃. Prinsip Kecukupan

5
mempromosikan metode pengurangan data bahwa dokumen tidak membuang
informasi tentang 𝜃 sambil mencapai beberapa ringkasanrisasi data. Prinsip
Kemungkinan menggambarkan fungsi dari parameter,ditentukan oleh sampel yang
diamati, yang berisi semua informasi tentang 𝜃 itu yang tersedia dari sampel.
Prinsip Kesetaraan menetapkan metode reduksi data lain yang masih
mempertahankan beberapa fitur penting dari model.

2.2 Prinsip Kecukupan


Statistik yang cukup untuk parameter 𝜃 adalah statistik yang, dalam arti
tertentu, menangkap semua informasi tentang 𝜃 yang terkandung dalam sampel.
Setiap informasi tambahan dalam sampel, selain nilai statistik yang cukup, tidak
mengandung informasi lebih lanjut tentang 𝜃. Pertimbangan ini mengarah pada
teknik reduksi data yang dikenal sebagai Prinsip Kecukupan.

PRINSIP YANG EFISIEN: Jika T(X) adalah statistik yang cukup untuk 𝜃, maka
setiap inferensi tentang 𝜃 harus bergantung pada sampel X hanya melalui nilai
T(X). Artinya, jika x dan y busur dua titik sampel sedemikian rupa sehingga T(x) =
T(y), maka inferensi tentang 𝜃 harus sama apakah X = x atau X = y diamati.

Di bagian ini kami menyelidiki beberapa aspek statistik yang memadai dan Prinsip
Kecukupan.

2.2.1 Statistik yang memadai


Statistik yang memadai secara formal didefinisikan sebagai berikut.

Definisi 6.2.1 Statistik T(X) adalah statistik yang cukup untuk 𝜃 jika distribusi
terkondisi dari sampel X yang diberikan nilai T(X) tidak bergantung pada 𝜃.

Jika T(X) memiliki distribusi kontinu, maka 𝑃𝜃 (𝑇(𝐗 = 𝑡) = 0 untuk


semua nilai t. Sebuah gagasan yang lebih canggih tentang probabilitas bersyarat
daripada yang diperkenalkan pada Bab 1 diperlukan untuk memahami Definisi
6.2.1 dalam kasus ini. Sebuah diskusi tentang ini dapat ditemukan dalam teks-teks
yang lebih maju seperti Lehmann (1986). Kami akan melakukan perhitungan kami

6
dikasus diskrit dan akan menunjukkan hasil analog yang benar dalam kasus
kontinu.

Untuk memahami Definisi 6.2.1, misalkan t adalah nilai yang mungkin dari
T(X), yaitu nilai sedemikian rupa sehingga 𝑃𝜃 (𝑇(𝐗 = 𝑡) > 0. Kita ingin
mempertimbangkan probabilitas bersyarat 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑡) . Jika x adalah titik
sampel sehingga T(x)≠ t, maka jelas 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑡) = 0. Jadi, kita tertarik
pada 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)) . Menurut definisi, jika T(X) adalah statistik yang
cukup, probabilitas bersyarat ini sama untuk semua nilai 𝜃 jadi yang telah kita
hilangkan subskripnya.

Statistik yang memadai menangkap semua informasi tentang 𝜃 dalam


pengertian ini. Pertimbangkan Eksperimen 1, yang mengamati X = x dan, tentu saja,
dapat menghitung T(X) = T(x). Untuk membuat inferensi tentang 𝜃 ia dapat
menggunakan informasi bahwa X = x dan T(X) = T(x). Sekarang perhatikan
Eksperimen 2, yang tidak diberitahu nilai X tetapi hanya bahwa T(X) = T(x).
Eksperimen 2 mengetahui 𝑃𝜃 (𝐗 = 𝐲|𝑇(𝐗) = 𝑇(𝐱)) , distribusi probabilitas pada
𝐴𝑇(𝐱) = {𝐲 ∶ 𝑇(𝐲) = 𝑇(𝐱)}, karena ini dapat dihitung dari model tanpa mengetahui
nilai sebenarnya dari 𝜃. Jadi, Eksperimen 2 dapat menggunakan distribusi ini dan
perangkat pengacakan, seperti tabel bilangan acak, untuk menghasilkan
pengamatan Y yang memuaskan P(Y = y | T(X) = T(x)) = P(X = y | T(X) = T(x)).
Ternyata, untuk setiap nilai 𝜃, X dan Y memiliki distribusi probabilitas tak
bersyarat yang sama, seperti yang akan kita lihat di bawah. Jadi Eksperimen 1, yang
mengetahui X, dan Eksperimen 2, yang mengetahui Y, memiliki informasi yang
ekuivalen tentang 𝜃. Tetapi tentunya penggunaan tabel bilangan acak untuk
menghasilkan Y belum menambah pengetahuan Eksperimen 2 tentang 𝜃. Semua
pengetahuannya tentang 𝜃 adalah terkandung dalam pengetahuan bahwa T(X) =
T(x). Jadi Eksperimen 2, siapa yang tahu hanya T(X) = T(x), baru saja sebanyak
informasi tentang 𝜃 seperti halnya Eksperimen 1, siapa yang tahu seluruh sampel
X = x.

Untuk melengkapi argumen di atas, kita perlu menunjukkan bahwa X dan


Y memiliki distribusi tak bersyarat yang sama, yaitu, 𝑃𝜃 (𝐗 = 𝐱) = 𝑃𝜃 (𝐘 = 𝐱)

7
untuk semua x dan 𝜃. Perhatikan bahwa kejadian {X = x} dan {Y = x} keduanya
adalah himpunan bagian dari kejadian {T(X) = T(x)}. Juga ingat itu

𝑃(𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)) = 𝑃(𝐘 = 𝐱|𝑇(𝐗) = 𝑇(𝐱))

dan probabilitas bersyarat ini tidak bergantung pada 𝜃. Jadi, kita memiliki

𝑃𝜃 (𝐗 = 𝐱)

= 𝑃𝜃 (𝐗 = 𝐱 𝑑𝑎𝑛 𝑇(𝐗) = 𝑇(𝐱))

= 𝑃(𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱))𝑃𝜃 (𝑇(𝐗) = 𝑇(𝐱)) definisi dari probabilitas bersyarat

= 𝑃(𝐘 = 𝐱|𝑇(𝐗) = 𝑇(𝐱))𝑃𝜃 (𝑇(𝐗) = 𝑇(𝐱))

= 𝑃𝜃 (𝐘 = 𝐱 𝑑𝑎𝑛 𝑇(𝐗) = 𝑇(𝐱))

= 𝑃𝜃 (𝐘 = 𝐱).

Untuk menggunakan Definisi 6.2.1 untuk memverifikasi bahwa statistik


T(X) adalah statistik yang cukup untuk 𝜃, kita harus memverifikasi bahwa untuk
setiap nilai tetap dari x dan t, probabilitas bersyarat 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) = 𝑡) adalah
sama untuk semua nilai 𝜃. Sekarang, probabilitas ini adalah 0 untuk semua nilai 𝜃
jika 𝑇(𝐱) ≠ 𝑡. Jadi, kita harus memverifikasi hanya bahwa 𝑃𝜃 (𝐗 = 𝐱|𝑇(𝐗) =
𝑇(𝐱)) tidak bergantung pada 𝜃. Tetapi karena {X = x} adalah himpunan bagian dari
{T(X) = T(x)},

𝑃𝜃 (𝐗=𝐱 𝑑𝑎𝑛 𝑇(𝐗)=𝑇(𝐱))


𝑃𝜃 (𝑿 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)) = 𝑃𝜃 (𝑇(𝐗)=𝑇(𝐱))

𝑃𝜃 (𝐗=𝐱)
=𝑃
𝜃 (𝑇(𝐗)=𝑇(𝐱))

𝑝(𝐱|𝜃)
= 𝑞(𝑇(𝐱)|𝜃)

di mana 𝑝(𝐱|𝜃) adalah pmf gabungan dari sampel X dan 𝑞(𝑡|𝜃) adalah pmf
dari T(X). Jadi, T(X) adalah statistik yang cukup untuk 𝜃 jika dan hanya jika, untuk
setiap x, rasio pmfs di atas adalah konstan sebagai fungsi dari 𝜃. Jika X dan T(X)
memiliki distribusi kontinu, maka probabilitas bersyarat di atas tidak dapat

8
ditafsirkan dalam pengertian Bab 1. Tetapi masih tepat untuk menggunakan kriteria
di atas untuk menentukan apakah T(X) adalah statistik yang cukup untuk 𝜃.

Teorema 6.2.2 jika 𝑝(𝐱|𝜃) adalah gabungan pdf atau pmf dari X dan 𝑞(𝑡|𝜃) adalah
pdf atau pms dari T(X), maka T(X) adalah statistik yang cukup untuk 𝜃 jika, untuk
energi x dalam ruang sampel, rasio 𝑝(𝐱|𝜃)/𝑞(𝑇(𝐱)|𝜃) adalah konstan sebagai
fungsi dari 𝜃.

Kami sekarang menggunakan Teorema 6.2.2 untuk memverifikasi bahwa


statistik umum tertentu adalah statistik yang memadai.

Contoh 6.2.3 (Statistik cukup binomial) Membiarkan 𝑋1 , … , 𝑋𝑛 sampel


Bernoulli variabel acak dengan parameter 𝜃, 0 < 𝜃 < 1. Akan ditunjukkan bahwa
T(X) = 𝑋1 + ⋯ + 𝑋𝑛 adalah statistik yang cukup untuk 𝜃. Perhatikan bahwa T(X)
menghitung jumlah nya yang sama dengan 1, sehingga T(X) memiliki distribusi
binomial(n, 𝜃). Rasio pmfs demikian

𝑝(𝐱|𝜃) Π𝜃𝑥𝑖 (1−𝜃)1−𝑥𝑖


= 𝑛 (tentukan t =∑ 𝑥𝑖 )
𝑞(𝑇(𝐱)|𝜃) ( )𝜃𝑡 (1−𝜃)𝑛−𝑡
𝑡

𝜃∑ 𝑥𝑖 (1−𝜃)∑(1−𝑥𝑖 )
= 𝑛 (Π𝜃 𝑥𝑖 = 𝜃 ∑ 𝑥𝑖 )
( )𝜃𝑡 (1−𝜃)𝑛−𝑡
𝑡

𝜃𝑡 (1−𝜃)𝑛−𝑡
= 𝑛 𝑡
( )𝜃 (1−𝜃)𝑛−𝑡
𝑡

1
= 𝑛
( )
𝑡

1
= 𝑛
(∑ 𝑥 )
𝑖

Karena rasio ini tidak bergantung pada 𝜃, menurut Teorema 6.2.2, T(X)
adalah statistik yang cukup untuk 𝜃. Interpretasinya adalah sebagai berikut: Jumlah
total 1 dalam sampel Bernoulli ini berisi semua informasi tentang 𝜃 yang ada di
data. Fitur lain dari data, seperti nilai pasti 𝑋3 tidak mengandung informasi
tambahan.

9
Contoh 6.2.4 (Statistik cukup normal) Misalkan 𝑋1 , … , 𝑋𝑛 sampel
𝑛(𝜇, 𝜎 2 ),dimana 𝜎 2 diketahui. Kami ingin menunjukkan bahwa mean sampel,
T(X)= 𝑋̅ = (𝑋1 + ⋯ + 𝑋𝑛 )/𝑛, adalah statistik yang cukup untuk 𝜇. Pdf gabungan
dari sampel X adalah

𝑓(𝐱|𝜇) = ∏𝑛𝑖=1(2𝜋𝜎 2 )−1/2 exp (−(𝑥𝑖 − 𝜇)2 /(2𝜎 2 ))

= (2𝜋𝜎 2 )−𝑛/2 𝑒𝑥𝑝(− ∑𝑛𝑖=1(𝑥𝑖 − 𝜇)2 /(2𝜎 2 ))

= (2𝜋𝜎 2 )−𝑛/2 𝑒𝑥𝑝(− ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ + 𝑥̅ − 𝜇)2 /(2𝜎 2 )) (tambah dan kurangi 𝑥̅ )

= (2𝜋𝜎 2 )−𝑛/2 𝑒𝑥𝑝(−(∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 + 𝑛(𝑥̅ − 𝜇)2 )/(2𝜎 2 )) (6.2.1)

Persamaan terakhir benar karena suku hasil kali silang ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )(𝑥̅ − 𝜇)
mungkin ditulis ulang sebagai (𝑥̅ − 𝜇) ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) dan ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ ) = 0. Ingat
bahwa sampel mean 𝑋̅ memiliki distribusi 𝑛(𝜇, 𝜎 2 /𝑛). Jadi, rasio pdf adalah

𝑓(𝐱|𝜃) (2𝜋𝜎 2 )−𝑛/2 𝑒𝑥𝑝(−(∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 + 𝑛(𝑥̅ − 𝜇)2 )/(2𝜎 2 ))


=
𝑞(𝑇(𝐱)|𝜃) 𝑛−1/2 (2𝜋𝜎 2 )−(𝑛−1)/2 𝑒𝑥𝑝(− ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 /(2𝜎 2 ))

yang tidak bergantung pada 𝜇. Dengan Teorema 6.2.2, mean sampel adalah statistik
yang cukup untuk 𝜇.

Dalam contoh berikut, kita melihat situasi di mana pengurangan sampel


yang substansial tidak mungkin dilakukan.

Contoh 6.2.5 (Statistik urutan yang memadai) Misalkan 𝑋1 , … , 𝑋𝑛 sampel


dari pdf f, di mana kami adalah tidak dapat ke menentukan setiap lagi informasi
tentang itu pdf (sebagai adalah itu kasus di perkiraan nonparametrik). kemudian
mengikuti itu Sampel kepadatan adalah diberikan oleh

(6.2.2) 𝑓(𝐱) = ∏𝑛𝑖=1 𝑓(𝑥𝑖 ) = ∏𝑛𝑖=1 𝑓(𝑥(𝑖) )

dimana 𝑥(𝑖) ≤ 𝑥(2) ≤ ⋯ ≤ 𝑥(𝑛) adalah statistik berurut. Dengan Teorema 6.2.2,
kita dapat menunjukkan bahwa statistik orde adalah statistik yang cukup. Tentu
saja, ini bukan pengurangan yang besar, tetapi kita seharusnya tidak mengharapkan
lebih banyak dengan begitu sedikit informasi tentang kepadatan f.

10
Namun, bahkan jika kita menentukan lebih banyak tentang kepadatan, kita
mungkin masih tidak bisa mendapatkan banyak pengurangan kecukupan. Misalnya,
1
anggaplah / adalah pdf Cauchy 𝑓(𝑥|𝜃) = 𝜋(𝑥−𝜃)2 atau pdf logistik 𝑓(𝑥|𝜃) =

𝑒 −(𝑥−𝜃)
. Kami kemudian memiliki hal yang sama pengurangan seperti pada
(1+𝑒 −(𝑥−𝜃) )2

(6.2.2), dan tidak lebih. Jadi pengurangan statistik urutan adalah yang paling bisa
kita dapatkan dalam keluarga ini.

Ternyata di luar keluarga distribusi eksponensial, sangat jarang memiliki


statistik yang cukup berdimensi lebih kecil dari ukuran sampel, sehingga dalam
banyak kasus ternyata statistik orde adalah yang terbaik yang bisa kita lakukan.
(Lihat Lehmann dan Casella 1998, Bagian 1.6, untuk rincian lebih lanjut.) ||

Mungkin sulit untuk menggunakan definisi statistik yang cukup untuk menemukan
statistik yang cukup untuk model tertentu. Untuk menggunakan definisi tersebut,
kita harus menebak statistik T(X) agar mencukupi, menemukan pmf atau pdf dari
T(X), dan memeriksa bahwa rasio pdf atau pmfs tidak bergantung pada 𝜃. Langkah
pertama membutuhkan banyak intuisi dan yang kedua terkadang membutuhkan
beberapa analisis yang membosankan. Untungnya, teorema berikutnya, karena
Halmos dan Savage (1949), memungkinkan kita untuk menemukan statistik yang
cukup dengan pemeriksaan sederhana terhadap pdf atau pmf sampel.

Teorema 6.2.6 (Teorema Faktorisasi) Misalkan 𝑓(𝐱|𝜃) menunjukkan pdf atau


pms gabungan dari sampel X. Sebuah statistik T(X) adalah statistik yang cukup
untuk 𝜃 jika dan hanya jika ada fungsi 𝑔(t|𝜃) dan h(x) sedemikian rupa sehingga,
untuk semua titik sampel x. dan semua parameter poin 𝜃,

(6.2.3) 𝑓(𝐱|𝜃) = 𝑔(𝑇(𝐱)|𝜃)ℎ(𝐱)

Bukti: Kami memberikan bukti untuk distribusi diskrit.

Misalkan T(X) adalah statistik yang cukup. Pilih 𝑔(t|𝜃) = 𝑃𝜃 (𝑇(𝑿) = 𝑡) dan h(x)
= 𝑃(𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)). Karena T(X) cukup, probabilitas bersyarat yang
mendefinisikan h(x) tidak bergantung pada 𝜃. Jadi pilihan h(x) dan 𝑔(t|𝜃) ini sah,
dan untuk pilihan ini kita memiliki

11
𝑓(𝐱|𝜃) = 𝑃𝜃 (𝐗 = 𝐱)

= 𝑃𝜃 (𝐗 = 𝐱 𝑑𝑎𝑛 𝑇(𝐗) = 𝑇(𝐱))

= 𝑃𝜃 (𝑇(𝐗) = 𝑇(𝐱))𝑃(𝐗 = 𝐱|𝑇(𝐗) = 𝑇(𝐱)) (Kecukupan)

= 𝑔(𝑇(𝐱)|𝜃)ℎ(𝐱)

Jadi faktorisasi (6.2.3) telah dipamerkan. Kami juga melihat dari dua baris terakhir
di atas bahwa

𝑃𝜃 (𝑇(𝐗) = 𝑇(𝐱)) = 𝑔(𝑇(𝐱)|𝜃)

jadi 𝑔(𝑇(𝐱)|𝜃) adalah pmf dari T(X).

Sekarang asumsikan faktorisasi (6.2.3) ada. Misalkan 𝑞(t|𝜃) adalah pmf dari T(X).
Untuk menunjukkan bahwa T(X) cukup, kita periksa rasio 𝑓(𝐱|𝜃)/𝑞(𝑇(𝐱)|𝜃).
Definisikan 𝐴𝑇(𝐱) = {𝐲 ∶ 𝑇(𝐲) = 𝑇(𝐱)}. maka

𝑓(𝐱|𝜃 ) 𝑔(𝑇(𝐱)|𝜃 )ℎ(𝐱)


= (sejak (6.2.3) terpenuhi)
𝑞(𝑇(𝐱)|𝜃 ) 𝑞(𝑇(𝐱)|𝜃 )

𝑔(𝑇(𝐱)|𝜃 )ℎ(𝐱)
= (definisi dari itu pmf dari T)
∑ 𝐴𝑇(𝐱) 𝑔(𝑇(𝐲)|𝜃 )ℎ(𝐲)

𝑔(𝑇(𝐱)|𝜃 )ℎ(𝐱)
= (karena T konstan pada 𝐴𝑇(𝐱) )
𝑔(𝑇(𝐱)|𝜃 ) ∑ 𝐴𝑇(𝐱) ℎ(𝐲)

ℎ(𝐱)
= ∑𝐴
𝑇(𝐱) ℎ(𝐲)

'Karena rasio tidak bergantung pada 𝜃, menurut Teorema 6.2.2, T(X) adalah
statistik yang cukup.

Untuk menggunakan Teorema Faktorisasi untuk menemukan statistik yang


memadai, kita memfaktorkan gabungan pdf dari sampel menjadi dua bagian,
dengan satu bagian tidak bergantung pada 𝜃. Bagian yang tidak bergantung pada 𝜃
merupakan fungsi h(x). Bagian lain, yang bergantung pada 𝜃, biasanya bergantung
pada sampel x hanya melalui beberapa fungsi T(x) dan fungsi ini merupakan
statistik yang cukup untuk 𝜃. Hal ini diilustrasikan dalam contoh berikut.

12
Contoh 6.2.7 (Lanjutan Contoh 6.2.4) Untuk model normal yang dijelaskan
sebelumnya, kita melihat bahwa pdf dapat difaktorkan sebagai:

(6.2.4) 𝑓(𝐱|𝜇) = (2𝜋𝜎 2 )−𝑛/2 𝑒𝑥𝑝(− ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2 /(2𝜎 2 ))exp (−𝑛(𝑥̅ −


𝜇)2 /(2𝜎 2 )

Kita dapat menentukan


𝑛
2 −𝑛/2
ℎ(𝑥) = (2𝜋𝜎 ) 𝑒𝑥𝑝 (− ∑(𝑥𝑖 − 𝑥̅ )2 /(2𝜎 2 ))
𝑖=1

yang tidak bergantung pada parameter 𝜇 yang tidak diketahui. Faktor dalam (6.2.4)
yang mengandung 𝜇 bergantung pada sampel x hanya melalui fungsi T(x) = 𝑥̅ , mean
sampel. Jadi kita punya

𝑔(𝑡|𝜇) = exp (−𝑛(𝑡 − 𝜇)2 /(2𝜎 2 ))

dan ingat

𝑓(𝐱|𝜇) = ℎ(𝐱)𝑔(𝑇(𝐱)|𝜇)

Jadi, dengan Teorema Faktorisasi, T(X) =𝑋̅ adalah statistik yang cukup untuk 𝜇.

Teorema Faktorisasi mensyaratkan bahwa persamaan 𝑓(𝐱|𝜃) = 𝑔(𝑇(𝐱)|𝜃)ℎ(𝐱)


berlaku untuk semua x dan 𝜃. Jika himpunan x di mana 𝑓(𝐱|𝜃) positif bergantung
pada 𝜃, perawatan harus diambil dalam definisi h dan g untuk memastikan bahwa
produk adalah 0 di mana f adalah 0. Tentu saja, definisi h dan g yang benar membuat
statistik yang cukup terbukti, seperti yang diilustrasikan pada contoh berikut.

Contoh 6.2.8 (Statistik cukup seragam) Misalkan 𝑋1 , … , 𝑋𝑛 menjadi iid observasi


dari distribusi seragam diskrit pada 1, ... , 𝜃. Artinya, parameter yang tidak
diketahui, 𝜃, adalah bilangan bulat positif dan pmf dari 𝑋𝑖 ; adalah

1
𝑥 = 1,2, … , 𝜃
𝑓(𝑥|𝜃) = {𝜃
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.

Dengan demikian gabungan pmf dari 𝑋1 , … , 𝑋𝑛 adalah

𝜃 −𝑛 𝑥𝑖 𝜖{1, … , 𝜃} 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛
𝑓(𝑥|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.

13
Pembatasan “𝑥𝑖 𝜖{1, … , 𝜃} 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛” dapat dinyatakan kembali sebagai
“𝑥𝑖 𝜖{1,2, … } 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛 (perhatikan bahwa tidak ada 𝜃 dalam batasan ini)
dan 𝑚𝑎𝑥𝑖 𝑥𝑖 ≤ 𝜃.” Jika kita mendefinisikan 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑥𝑖 ,

1 𝑥𝑖 𝜖{1,2, … } 𝑢𝑛𝑡𝑢𝑘 𝑖 = 1, … , 𝑛
ℎ(𝑥) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎.

Dan

𝜃 −𝑛 𝑡 ≤ 𝜃
𝑔(𝑡|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎,

mudah diverifikasi bahwa 𝑓(𝑥|𝜃) = 𝑔(𝑇(𝑥)|𝜃)ℎ(𝑥) untuk semua x dan 𝜃. Jadi,


statistik orde terbesar, 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑋𝑖 , adalah statistik yang cukup untuk masalah
ini.

Jenis analisis ini terkadang dapat dilakukan dengan lebih jelas dan ringkas
menggunakan fungsi indikator. Ingat bahwa 𝐼𝐴 (𝑥) adalah fungsi indikator dari
himpunan A, yaitu sama dengan 1 jika 𝑥 ∈ 𝐴 dan sama dengan 0 sebaliknya.
Misalkan 𝒩 = {1,2, … } adalah himpunan bilangan bulat positif dan misalkan
𝒩𝜃 = {1,2, … , 𝜃}. Maka pmf gabungan dari 𝑋1 , … , 𝑋𝑛 adalah

Mendefinisikan 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑥𝑖 , kita lihat bahwa

Jadi kita memiliki faktorisasi

Faktor pertama tergantung pada 𝑥1 , … , 𝑥𝑛 hanya melalui nilai 𝑇(𝑥) = 𝑚𝑎𝑥𝑖 𝑥𝑖 dan
faktor kedua tidak bergantung pada 𝜃. Dengan Teorema Faktorisasi, 𝑇(𝑋) =
𝑚𝑎𝑥𝑖 𝑋𝑖 ; adalah statistik yang cukup untuk 𝜃.

14
Dalam semua contoh sebelumnya, statistik cukup adalah fungsi bernilai nyata dari
sampel tâe. Semua informasi tentang 𝜃 dalam sampel x dirangkum dalam bilangan
tunggal T(x). Terkadang, informasi tidak dapat diringkas dalam satu angka
danbeberapa nomor diperlukan sebagai gantinya. Dalam kasus seperti itu, statistik
yang cukup adalah vektor, katakanlah T(X) = (T1(X), ... , Tr(X)). Situasi ini sering
terjadi ketika parameter hjuga sebuah vektor, katakanlah 𝜃 = (𝜃1 , … , 𝜃𝑠 ) , dan
biasanya terjadi bahwa statistik cukup dan vektor parameter memiliki panjang yang
sama, yaitu r = s. Kombinasi berbeda dari panjangnya mungkin, namun, seperti
yang diilustrasikan oleh latihan dan Contoh 6.2.15, 6.2.18, dan 6.2. Teorema
Faktorisasi dapat digunakan untuk menemukan statistik cukup bernilai vektor,
seperti pada Contoh 6.2.9.

Contoh 6.2.9 (Statistik cukup normal, kedua parameter tidak diketahui) Sekali
lagi asumsikan bahwa 𝑋1 , … , 𝑋𝑛 adalah iid 𝑛(𝜇, 𝜎 2 ) tetapi, tidak seperti Contoh
6.2.4, asumsikan bahwa 𝜇 dan 𝜎 2 tidak diketahui sehingga vektor parameternya
adalah 𝜃 = (𝜇, 𝜎 2 ). Sekarang ketika kembali menggunakan Teorema Faktorisasi,
bagian mana pun dari pdf gabungan yang bergantung pada 𝜇 atau 𝜎 2 keduanya harus
disertakan dalam fungsi g. Dari (6.2.1) jelas bahwa pdf bergantung pada sampel x
hanya melalui dua nilai 𝑇1 (𝑥) = 𝑥̅ dan 𝑇2 (𝑥) = 𝑠 2 = ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2⁄𝐼𝑛 − 1).
Dengan demikian kita dapat mendefinisikan h(x) = 1 dan

kemudian bisa melihat itu

(6.2.5) 𝑓(𝑥|𝜇, 𝜎 2 ) = 𝑔(𝑇1 (𝑥), 𝑇2 (𝑥)|𝜇, 𝜎 2 )ℎ(𝑥).

Dengan demikian,dengan Teorema Faktorisasi, 𝑇(𝑋) = (𝑇1 (𝑋), 𝑇2 (𝑋)) = (𝑋, 𝑆 2 )


sudah cukup statistik untuk (𝜇, 𝜎 2 ) dalam model normal ini. ||

Contoh 6.2.9 menunjukkan bahwa, untuk model normal, praktik umum


meringkas kumpulan data dengan melaporkan hanya rata-rata sampel dan varians
dibenarkan. Statistik memadai (𝑋̅, 𝑆 2 ) berisi semua informasi tentang (𝜇, 𝜎 2 ) yang
tersedia dalam sampel. Eksperimen harus ingat, bagaimanapun, bahwa definisi dari

15
statistik yang memadai bergantung pada model. Untuk model lain, yaitu, keluarga
kepadatan lain, mean dan varians sampel mungkin bukan statistik yang cukup untuk
mean dan varians populasi. Eksperimen yang hanya menghitung 𝑋̅ dan S2 dan sama
sekali mengabaikan sisa data akan menempatkan keyakinan yang kuat pada asumsi
model normal.

Sangat mudah untuk menemukan statistik yang cukup untuk keluarga


distribusi eksponensial menggunakan Teorema Faktorisasi. Bukti dari hasil penting
berikut dibiarkan sebagai Latihan 6.4.

Teorema 6.2.10 Misalkan 𝑋1 , … , 𝑋𝑛 menjadi iid pengamatan dari pdf atau


pmf 𝑓(𝑥|𝜃) yang termasuk ke sebuah eksponensial keluarga diberikan oleh

𝑓(𝑥|𝜃) = ℎ(𝑥)𝑐(𝜃) exp (∑ 𝑤𝑖 (𝜃)𝑡𝑖 (𝑥)),


𝑖=1

Dimana 𝜃 = (𝜃1 , 𝜃2 , … , 𝜃𝑑 ), 𝑑 ≤ 𝑘. Maka

𝑛 𝑛

𝑇(𝑋) = (∑ 𝑡1 (𝑋𝑗 ), … , ∑ 𝑡𝑘 (𝑋𝑗 ))


𝑗=1 𝑗=1

adalah sebagai statistik yang memadai untuk 𝜃.

2.2.2 Statistik Minimal yang Cukup


Pada bagian sebelumnya kami menemukan satu statistik yang cukup untuk setiap
model yang dipertimbangkan. Dalam masalah apa pun, sebenarnya ada banyak
statistik yang memadai.

Itu selalu benar bahwa sampel lengkap, X, adalah statistik yang cukup. Kita
dapat membuat fakta0l pdf atau pmf dari X sebagai 𝑓(𝑥|𝜃) = 𝑓(𝑇(𝑥)|𝜃)ℎ(𝑥), di
mana T(x) = x dan h(x) = 1 untuk semua x. Dengan Teorema Faktorisasi, T(X) = X
adalah statistik yang cukup.

Juga, berarti bahwa setiap fungsi satu-ke-satu dari statistik yang cukup
adalah statistik yang cukup. Misalkan T(X) adalah statistik yang cukup dan

16
tentukan T* (x) = r(T(x)) untuk semua x, di mana r adalah fungsi satu-satu dengan
invers r-1. Maka dengan Teorema Faktorisasi ada g dan h sedemikian rupa sehingga

𝑓(𝑥|𝜃) = 𝑔(𝑇(𝑥)|𝜃)ℎ(𝑥) = 𝑔(𝑟 −1 (𝑇 ∗ (𝑥))|𝜃)ℎ(𝑥).

Mendefinisikan 𝑔∗ (𝑡|𝜃) = 𝑔(𝑟 −1 (𝑡)|𝜃), kita melihat itu

𝑓(𝑥|𝜃) = 𝑔∗ (𝑇 ∗ (𝑥)|𝜃)ℎ(𝑥)

Jadi, dengan Teorema Faktorisasi, T*(X) adalah statistik yang cukup.

Karena banyaknya statistik yang cukup dalam suatu masalah, kita mungkin
bertanya apakah satu statistik yang cukup lebih baik dari yang lain. Ingat bahwa
tujuan dari statistik yang cukup adalah untuk mencapai reduksi data tanpa
kehilangan informasi tentang parameter 𝜃; dengan demikian, statistik yang
mencapai reduksi data paling banyak sambil tetap mempertahankan semua
informasi tentang 𝜃 mungkin dianggap lebih disukai. Definisi statistik seperti itu
diformalkan sekarang.

Definisi 6.2.11 Statistik cukup T(X) disebut statistik cukup minimal jika, untuk
setiap statistik memadai lainnya T'(X), T(x) adalah fungsi dari T'(x).

Untuk mengatakan bahwa T(x) adalah fungsi dari T'(x) berarti jika T'(x) = T'(y),
maka T(x) = T(y). Dalam hal himpunan partisi yang dijelaskan di awal bab, jika
{𝐵𝑡 ′ : 𝑡 ′ 𝜖𝒯 ′ } adalah himpunan partisi untuk T'(x) dan {𝐴𝑡 : 𝑡𝜖𝒯} adalah himpunan
partisi untuk T(x), maka Definisi 6.2.11 menyatakan bahwa setiap 𝐵𝑡 ′ adalah subset
dari beberapa 𝐴𝑡 . Jadi, partisi yang terkait dengan statistik cukup minimal, adalah
partisi yang paling kasar untuk statistik yang cukup, dan statistik yang cukup
minimal mencapai reduksi data terbesar untuk statistik yang cukup.

Contoh 6.2.12 (Dua statistik cukup normal) Model yang dipertimbangkan dalam
Contoh 6.2.4 memiliki 𝑋1 , … , 𝑋𝑛 iid n(𝜇, 𝜎 2 ) dengan 𝜎 2 diketahui. Menggunakan
faktorisasi (6.2.4), kami menyimpulkan bahwa 𝑇(𝑋) = 𝑋̅ adalah statistik yang
cukup untuk 𝜇. Sebagai gantinya, kita dapat menuliskan faktorisasi (6.2.5) untuk
masalah ini (𝜎 2 adalah nilai yang diketahui sekarang) dan dengan benar
menyimpulkan bahwa 𝑇 ′ (𝑋) = (𝑋̅, 𝑆 2 ) adalah statistik yang cukup untuk 𝜇 dalam
masalah ini. Jelas T(X) mencapai reduksi data yang lebih besar daripada T'(X)

17
karena kita tidak mengetahui varians sampel jika kita hanya mengetahui T(X) Kita
dapat menulis T(x) sebagai fungsi dari T'(x) dengan mendefinisikan fungsi r (a, b)
= a. Maka 𝑇(𝑥) = 𝑥̅ = 𝑟(𝑥̅ , 𝑠 2 ) = 𝑟(𝑇 ′ (𝑥)). Karena T(X) dan T'(X) keduanya
merupakan statistik yang cukup, keduanya mengandung informasi yang sama
tentang hal 𝜇. Dengan demikian, informasi tambahan tentang nilai S2, varians
sampel, tidak menambah pengetahuan kita tentang 𝜇 karena varians populasi 𝜎 2
diketahui. Tentu saja, jika 𝜎 2 tidak diketahui, seperti pada Contoh 6.2.9, 𝑇(𝑥) = 𝑋̅
bukan statistik yang cukup dan T'(X) berisi lebih banyak informasi tentang
parameter (𝜇, 𝜎 2 ) daripada T(X). ||

Menggunakan Definisi 6.2.11 untuk menemukan statistik yang cukup minimal


tidak praktis, seperti halnya menggunakan Definisi 6.2.1 untuk menemukan
statistik yang memadai. Kita perlu menebak bahwa T(X) adalah statistik yang
cukup minimal dan kemudian memverifikasi kondisi dalam definisi. (Perhatikan
bahwa kami tidak menunjukkan bahwa 𝑋̅ adalah statistik cukup minimal dalam
Contoh 6.2.12.) untungnya, hasil Lehmann dan Scheffé (1950, Teorema 6.3)
berikut memberikan cara yang lebih mudah untuk menemukan statistik cukup
minimal.

Teorema 6.2.13 Biarkan 𝑓(𝑥|𝜃) menjadi pms atau pdf dari sampel X Misalkan
terdapat suatu fungsi T(x) sedemikian sehingga, untuk setiap dua titik sampel x dan
y, rasio 𝑓(𝑥|𝜃)/𝑓(𝑦|𝜃) adalah konstan sebagai fungsi dari 𝜃 jika dan hanya jika
𝑇(𝑥) = 𝑇(𝑦). Maka T (X) adalah statistic minimal cukup untuk 𝜃.

Pembuktian: Untuk menyederhanakan pembuktian, kita asumsikan 𝑓(𝑥|𝜃) >


0 untuk semua 𝑥 ∈ 𝒳 dan 𝜃.

Pertama kita tunjukkan bahwa T(X) adalah statistik yang cukup. Misalkan 𝒯 =
{𝑡: 𝑡 = 𝑇(𝑥) untuk beberapa 𝑥𝜖𝒳} menjadi bayangan dari 𝒳 di bawah T(x).
Tentukan himpunan partisi yang diinduksi oleh T(x) karena 𝐴𝑡 = {𝑥: 𝑇(𝑥) = 𝑡}.
Untuk setiap At; memilih dan memperbaiki satu elemen 𝑥𝑡 ∈ 𝐴𝑡 . Untuk setiap 𝑥 ∈
𝒳,XT(x) adalah elemen tetap yang berada di himpunan yang sama, At , sebagai x.
Karena x dan xT(x) adalahdi himpunan yang sama At, 𝑇(𝑥) = 𝑇(𝑥𝑇(𝑥) ) dan,
karenanya, 𝑓(𝑥|𝜃)/𝑓(𝑥𝑇(𝑥) |𝜃) adalah konstanta sebagai fungsi dari 𝜃. Dengan

18
demikian, kita dapat mendefinisikan suatu fungsi pada 𝒳 dengan ℎ(𝑥) =
𝑓(𝑥|𝜃)/𝑓(𝑥𝑇(𝑥) |𝜃) dan h tidak bergantung pada 𝜃. Definisikan suatu fungsi pada
𝒯 dengan 𝑔(𝑡|𝜃) = 𝑓(𝑥𝑇(𝑥) |𝜃). Maka dapat dilihat bahwa

𝑓(𝑥𝑇(𝑥) |𝜃)𝑓(𝑥|𝜃)
𝑓(𝑥|𝜃) = = 𝑔(𝑇(𝑥)|𝜃)ℎ(𝑥)
𝑓(𝑥𝑇(𝑥) |𝜃)

dan, dengan Teorema Faktorisasi, T(X) adalah statistik yang cukup untuk 𝜃.

Sekarang untuk menunjukkan bahwa T(X) minimal, misalkan T'(X) adalah statistik
cukup lainnya. Dengan Teorema Faktorisasi, terdapat fungsi g' dan h' sehingga
𝑓(𝑥|𝜃) = 𝑔′(𝑇 ′ (𝑥)|𝜃)ℎ′(𝑥). Misalkan x dan y adalah dua titik sampel dengan T'(x)
= T'(y). Kemudian

𝑓(𝑥|𝜃) 𝑔′(𝑇 ′ (𝑥)|𝜃)ℎ′(𝑥) ℎ′(𝑥)


= = .
𝑓(𝑦|𝜃) 𝑔′(𝑇 ′ (𝑦)|𝜃)ℎ′(𝑦) ℎ′(𝑦)

Karena rasio ini tidak bergantung pada 𝜃, asumsi teorema menyiratkan bahwa T(x)
= T(y). Jadi, T(x) adalah fungsi dari T'(x) dan F(x) minimal.

Contoh 6.2.14 (Statistik cukup minimal normal) Misalkan 𝑋1 , … , 𝑋𝑛 menjadi


iid n(𝜇, 𝜎 2 ), keduanya 𝜇 dan 𝜎 2 tidak diketahui. Misalkan x dan y menyatakan dua
titik sampel, dan misalkan (𝑥̅ , 𝑠𝑥 2 ) dan (𝑦̅, 𝑠𝑦 2 ) masing-masing adalah rata-rata
sampel dan varians yang bersesuaian dengan sampel x dan y. Kemudian, dengan
menggunakan (6.2.5), kita melihat bahwa rasio densitas adalah

Rasio ini akan konstan sebagai fungsi dari 𝜇 dan 𝜎 2 jika dan hanya jika 𝑥̅ = 𝑦̅ dan
̅ 𝑆 2 )adalah statistik cukup minimal
𝑠𝑥 2 = 𝑠𝑦 2 . Jadi, menurut Teorema 6.2.13, (𝑋,
untuk (𝜇, 𝜎 2 ). ||

Jika himpunan xs di mana pdf atau pmf positif bergantung pada parameter 𝜃, maka,
agar rasio dalam Teorema 6.2.13 konstan sebagai fungsi 𝜃, pembilangnya dan

19
penyebut harus positif untuk nilai 𝜃. Pembatasan ini biasanya tercermin dalam
statistik yang cukup minimal, seperti yang diilustrasikan pada contoh berikut.

Contoh 6.2.15 (Statistik cukup minimal seragam) Misalkan 𝑋1 , … , 𝑋𝑛 adalah


pengamatan seragam iid pada interval (𝜃, 𝜃 + 1), −∞ < 𝜃 < ∞. Maka pdf
gabungan dari X adalah

1 𝜃 < 𝑥𝑖 < 𝜃 + 1, 𝑖 = 1, … , 𝑛,
𝑓(𝑥|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎

yang dapat ditulis sebagai

1 𝑚𝑎𝑥𝑖 𝑥𝑖 − 1 < 𝜃 < 𝑚𝑖𝑛𝑖 𝑥𝑖


𝑓(𝑥|𝜃) = {
0 𝑙𝑎𝑖𝑛𝑛𝑦𝑎

Jadi, untuk dua titik sampel x dan y, pembilang dan penyebut rasio 𝑓(𝑥|𝜃)/𝑓(𝑦|𝜃)
akan positif untuk nilai 𝜃 yang sama jika dan hanya jika 𝑚𝑖𝑛𝑖 𝑥𝑖 = 𝑚𝑖𝑛𝑖 𝑦𝑖 dan
𝑚𝑎𝑥𝑖 𝑥𝑖 = 𝑚𝑎𝑥𝑖 𝑦𝑖 . Dan, jika minima dan maxima sama, maka rasio adalah
konstan dan, pada kenyataannya, sama dengan 1. Jadi, biarkan 𝑋(1) = 𝑚𝑖𝑛𝑖 𝑋𝑖 , dan
𝑋(𝑛) = 𝑚𝑎𝑥𝑖 𝑋𝑖 ;. kita memiliki bahwa 𝑇(𝑋) = (𝑋(1) , 𝑋(𝑛) ) adalah statistik yang
cukup minimal. Ini adalah kasus di mana dimensi statistik cukup minimal tidak
cocok dengan dimensi parameter. ||

Sebuah statistik yang cukup minimal adalah tidak unik. Setiap fungsi satu-
ke-satu dari statistik cukup minimal juga merupakan statistik cukup minimal. Jadi,
𝑋(𝑛) +𝑋(1)
misalnya, 𝑇′(𝑋) = (𝑋(𝑛) − 𝑋(1) , ) juga merupakan statistik yang cukup
2

minimal dalam Contoh 6.2.15 dan 𝑇 ′ (𝑋) = (∑𝑛𝑖=1 𝑋𝑖 , ∑𝑛𝑖=1 𝑋𝑖 2 ) adalah juga
minimal memadai statistik dalam Contoh 6.2.14.

2.2.3 Tambahan Statistik


Pada bagian-bagian sebelumnya,kami menganggap statistik yang cukup. Statistik
tersebut, dalam arti tertentu, berisi semua informasi tentang 𝜃 yang tersedia dalam
sampel. Pada bagian ini kita memperkenalkan jenis statistik yang berbeda, yang
memiliki tujuan yang saling melengkapi.

Definisi 6.2.16 Statistik S(X) yang distribusinya tidak bergantung pada parameter
𝜃 disebut statistik tambahan.

20
Sendirian, statistik tambahan tidak mengandung informasi tentang 𝜃. Statistik
tambahan adalah pengamatan pada variabel acak yang distribusinya tetap dan
diketahui, tidak terkait dengan 𝜃. Secara paradoks, statistik tambahan, bila
digunakan bersama dengan statistik lain, kadang-kadang mengandung informasi
berharga untuk kesimpulan tentang 𝜃. Kami akan menyelidiki perilaku ini di bagian
selanjutnya. Untuk saat ini, kami hanya memberikan beberapa contoh statistik
tambahan.

Contoh 6.2.17 (Statistik tambahan yang seragam Seperti pada Contoh


6.2.15, misalkan 𝑋1 , … , 𝑋𝑛 adalah pengamatan seragam iid pada interval
((𝜃, 𝜃 + 1), −∞ < 𝜃 < ∞. Misalkan 𝑋(1) < … < 𝑋(𝑛) adalah statistik orde dari
sampel. Kami menunjukkan di bawah ini statistik kisaran 𝑅 = 𝑋(𝑛) − 𝑋(1) , adalah
statistik tambahan dengan menunjukkan bahwa pdf dari R tidak bergantung pada
𝜃. Ingat bahwa cdf dari setiap X, adalah

Jadi, pdf gabungan dari 𝑋(1) dan 𝑋(𝑛) , seperti yang diberikan oleh (5.4.7), adalah

mengambil transformasi 𝑅 = 𝑋(𝑛) − 𝑋(1) dan 𝑀 = (𝑋(1) + 𝑋(𝑛) )/2, yang memiliki
invers transformasi 𝑋(1) = (2𝑀 − 𝑅)/2 dan 𝑋(𝑛) = (2𝑀 + 𝑅)/2 dengan Jacobian
1, lihat kembali bahwa pdf gabungan dari Rdan M adalah

(Perhatikan daerah positif yang agak terlibat untuk ℎ(𝑟, 𝑚|𝜃).) Jadi, pdf untuk R
adalah

21
Ini adalah beta pdf dengan 𝛼 = 𝑛 − 1 dan 𝛽 = 2. Lebih penting lagi, pdf adalah
sama untuk semua 𝜃. Dengan demikian, distribusi tidak bergantung pada 𝜃, dan R
adalah tambahan. ||

Dalam Contoh 6.2. l7 statistik jangkauan adalah tambahan karena model dianggap
ada model parameter lokasi. Tambahan dari R itu tidak tergantung pada
keseragaman dari 𝑋𝑖 𝑠, melainkan pada parameter distribusi yang menjadi parameter
lokasi. Kita sekarang mempertimbangkan itu umum lokasi parameter model.

Contoh 6.2.18 (Statistik tambahan famili lokasi) Misalkan 𝑋1 , … , 𝑋𝑛 menjadi iid


Pengamatan dari famili parameter lokasi dengan cdf 𝐹(𝑥 − 𝜃), −∞ < 𝜃 < ∞.
Kami akan menunjukkan bahwa jangkauan, 𝑅 = 𝑋(𝑛) − 𝑋(1), adalah statistik
tambahan. Kami menggunakan Teorema 3.5.6 dan bekerja dengan 𝑍1 , … , 𝑍𝑛 iid
pengamatan dari F (x) (sesuai dengan 𝜃 = 0) dengan 𝑋1 = 𝑍1 + 𝜃, … , 𝑋𝑛 = 𝑍𝑛 + 𝜃.
Jadi cdf dari statistik jangkauan, R, adalah

Probabilitas terakhir tidak bergantung pada 𝜃 karena distribusi 𝑍1 , … , 𝑍𝑛 tidak


bergantung pada 𝜃. Dengan demikian, cdf dari R tidak bergantung pada 𝜃 dan,
karenanya, R adalah statistik tambahan.

Contoh 6.2.19 (Statistik tambahan keluarga skala) Keluarga parameter skala


juga memiliki jenis statistik tambahan tertentu. Misalkan 𝑋1 , … , 𝑋𝑛 adalah
pengamatan iid dari keluarga parameter skala dengan cdf 𝐹(𝑥/𝜎), 𝜎 > 0. Maka

22
setiap statistik yang bergantung pada sampel hanya melalui n — 1 nilai
𝑋1⁄𝑋𝑛 , … , 𝑋𝑛−1 /𝑋𝑛 adalah statistik tambahan. Sebagai contoh,

adalah statistik tambahan. Untuk melihat fakta ini, biarkan 𝑍1 , … , 𝑍𝑛 menjadi


pengamatan iid dari F(x) (sesuai ke 𝜎 = 1) dengan 𝑋𝑖 = 𝜎𝑍𝑖 . cdf gabungan dari
𝑋1⁄𝑋𝑛 , … , 𝑋𝑛−1 /𝑋𝑛 adalah

Probabilitas terakhir tidak bergantung pada 𝜎 karena distribusi 𝑍1 , … , 𝑍𝑛 tidak


bergantung pada 𝜎. Jadi distribusi dari 𝑋1⁄𝑋𝑛 , … , 𝑋𝑛−1 /𝑋𝑛 tidak bergantung pada
𝜎, seperti halnya distribusi fungsi dari besaran-besaran ini.

Secara khusus, misalkan 𝑋1dan 𝑋2 adalah iid 𝑛(0, 𝜎 2 ) pengamatan. Dari hasil di
atas, kita lihat bahwa 𝑋1 /𝑋2 memiliki distribusi yang sama untuk setiap nilai 𝜎.
Tetapi, pada Contoh 4.3.6, kita melihat bahwa, jika 𝜎 = 1, 𝑋1 /𝑋2 memiliki
distribusi Cauchy (0, l). Jadi, untuk setiap 𝜎 > 0, distribusi 𝑋1 /𝑋2 adalah distribusi
Cauchy yang sama. ||

Di bagian ini, kami telah memberikan contoh, beberapa yang agak umum,
statistik yang merupakan tambahan untuk berbagai model. Pada bagian berikutnya
kita akan mempertimbangkan hubungan antara statistik yang memadai dan statistik
tambahan.

2.2.4 Statistik yang Cukup, Tambahan, dan Lengkap


Statistik cukup minimal adalah statistik yang telah mencapai jumlah reduksi data
maksimal yang mungkin dilakukan sambil tetap mempertahankan semua informasi
tentang parameter θ. Secara intuitif, statistik cukup minimal menghilangkan semua
informasi asing dalam sampel, hanya menyimpan bagian itu dengan informasi
tentang θ. Karena distribusi statistik tambahan tidak bergantung pada θ, maka dapat
diduga bahwa statistik cukup minimal tidak berhubungan dengan (atau secara

23
matematis, secara fungsional independen dari) statistik tambahan. Namun, ini
belum tentu demikian. Pada bagian ini, kami menyelidiki hubungan ini dalam
beberapa detail.

Kami telah membahas situasi di mana statistik tambahan tidak independen dari
statistik yang cukup minimal. Ingat Contoh 6.2.15 di mana 𝑋1 , … , 𝑋𝑛 adalah
pengamatan iid dari distribusi seragam (θ, θ+1). Pada akhir Bagian 6.2.2, kami
𝑋(1)
mencatat bahwa statistic 𝑋(𝑛) − 𝑋(1) , (𝑋(𝑛) + ) adalah statistik cukup minimal,
2

dan dalam Contoh 6.2.17, kami menunjukkan bahwa 𝑋(𝑛) − 𝑋(1) adalah statistik
tambahan. Dengan demikian, dalam hal ini, statistik tambahan merupakan
komponen penting dari kecukupan statistik minimal. Tentu saja, statistik tambahan
dan statistik cukup minimal tidak independen. Untuk menekankan poin bahwa
statistik tambahan terkadang dapat memberikan informasi penting untuk inferensi
tentang θ, kami memberikan contoh lain.

Contoh 6.2.20 (Presisi tambahan) Misalkan 𝑋1 dan 𝑋2 adalah pengamatan iid dari
distribusi diskrit yang memenuhi

1
𝑃θ (X = θ) = 𝑃θ (𝑋 = θ + 1) = 𝑃θ (𝑋 = θ + 2) =
3

dimana θ, parameter yang tidak diketahui, adalah bilangan bulat apa pun. Misalkan
𝑋(1) ≤ 𝑋(2) adalah statistik orde untuk sampel. Hal ini dapat ditunjukkan dengan
argumen yang mirip dengan contoh 6.2.15 bahwa (R, M), di mana R= 𝑋(2) − 𝑋(1)
dan M =𝑋(1) + 𝑋(2) /2 , adalah statistik yang cukup minimal. Karena ini adalah
keluarga parameter lokasi, dengan Contoh 6.2.17, R adalah statistik tambahan.
Untuk melihat bagaimana R dapat memberikan informasi tentang θ, meskipun itu
adalah tambahan, pertimbangkan titik sampel (r, m), di mana m adalah bilangan
bulat. Pertama kita pertimbangkan hanya m; untuk titik sampel ini memiliki
probabilitas positif, θ harus merupakan salah satu dari tiga nilai. Salah satu θ =
𝑚 𝑎𝑡𝑎𝑢 θ = m − 1 atau θ = m − 2. Dengan hanya informasi bahwa M = m,

24
semua tiga nilai θ adalah nilai yang mungkin. Tapi sekarang misalkan kita
mendapatkan informasi tambahan bahwa R = 2. Maka harus terjadi bahwa 𝑋(1) =
𝑚 − 1 𝑑𝑎𝑛 𝑋(2) = 𝑚 + 1. Dengan informasi tambahan ini, satu-satunya nilai yang
mungkin untuk θ adalah θ = m − 1. Jadi, pengetahuan tentang nilai statistik
tambahan R telah meningkatkan pengetahuan kita tentang θ. Tentu saja,
pengetahuan tentang R saja tidak akan memberi kita informasi tentang θ.

Namun, untuk banyak situasi penting, intuisi kita bahwa statistik minimal yang
memadai tidak bergantung pada statistik tambahan adalah benar. Deskripsi situasi
di mana ini terjadi bergantung pada definisi berikutnya.

Definisi 6.2.21 misalnya 𝑓(𝑡|θ) menjadi keluarga pdfs atau pmfs untuk statistik
T(X). Keluarga distribusi probabilitas disebut lengkap jika 𝐸θg (𝑇) = 0 untuk semua
θ menyiratkan 𝑃θ (𝑔(𝑇)= 0 =1 untuk semua θ. Secara ekivalen, T(X) disebut
statistik lengkap.

Perhatikan bahwa kelengkapan adalah properti dari keluarga distribusi probabilitas,


bukan dari distribusi tertentu. Sebagai contoh, jika X memiliki distribusi n(0, 1),
maka mendefinisikan g(x)=x, kita memiliki Eg(X) = EX=0. Tetapi fungsi g(x) = x
memenuhi P(g(X) = 0 ) = P(X = 0) = 0, bukan 1. Namun, ini adalah distribusi
tertentu, bukan keluarga distribusi. Jika X memiliki distribusi n(θ,1), -∞< θ <∞,
kita akan melihat bahwa tidak ada fungsi X, kecuali satu yang 0 dengan probabilitas
1 untuk semua θ, memenuhi 𝐸θg (𝑋) = 0. untuk semua θ. Jadi, keluarga dari n(θ, 1)
distribusi, -∞< θ <∞, lengkap.

Contoh 6.2.22 (Statistik cukup lengkap binomial) Misalkan T memiliki distribusi


binomial (n, p), 0 < p < 1. Misalkan g adalah fungsi sedemikian rupa sehingga
𝐸p 𝑔(𝑇) = 0.

25
untuk semua r, 0 < r < ∞. Tapi ekspresi terakhir adalah polinomial derajat n di r, di
𝑛
mana koefisien 𝑟 𝑡 adalah g(t)( ). Agar polinomial menjadi 0 untuk semua r, setiap
𝑡
𝑛
koefisien harus 0. Karena tidak ada suku ( ) yang 0, ini menyiratkan bahwa g(t) =
𝑡
0 untuk t = 0, 1,..., n. Karena T mengambil nilai 0, 1,...,n dengan probabilitas 1, ini
menghasilkan bahwa 𝑃p 𝑔((𝑇) = 0)=1 untuk semua p, kesimpulan yang diinginkan.
Oleh karena itu, T adalah statistik lengkap.

Contoh 6.2.23 (Statistik cukup lengkap seragam) Misalkan 𝑋1, ... , 𝑋𝑛 adalah
pengamatan seragam iid(0, θ), 0 < θ < ∞. Dengan menggunakan argumen yang
mirip dengan Contoh 6.2.8, kita dapat melihat bahwa T(X) = 𝑚𝑎𝑥𝑖 𝑋𝑖 adalah
statistik yang cukup dan, dengan Teorema 5.4.4, pdf dari T(X) adalah

26
Suku pertama pada baris berikutnya adalah hasil dari penerapan Teorema Dasar
Kalkulus. Suku kedua adalah 0 karena integralnya, kecuali konstanta, sama dengan
𝐸𝜃𝑔 (𝑇), yaitu 0. Karena 𝜃 −1 𝑛𝑔(𝜃) = 0 dan 𝜃 −1 𝑛 ≠ 0, pasti g(𝜃) = 0. Ini benar
untuk setiap 𝜃 > 0; karenanya, T adalah statistik lengkap.

Teorema 6.2.24 (Teorema Basu) Jika T(X) adalah statistik yang lengkap dan cukup
minimal, maka T(X) bebas dari setiap statistik tambahan.

Bukti: Kami memberikan bukti hanya untuk distribusi diskrit.

Misalnya S(X) menjadi statistik tambahan apa pun. Maka P(S(X) = s) tidak
bergantung pada 𝜃 karena S(X) adalah tambahan. Juga peluang bersyarat,

Karena T(X) adalah statistik lengkap, ini menyiratkan bahwa g(t) = 0 untuk semua
kemungkinan nilai t ∈ T. Oleh karena itu (6.2.6) diverifikasi.

Teorema Basu berguna karena memungkinkan kita untuk menyimpulkan


independensi dua statistik tanpa pernah menemukan distribusi gabungan dari dua
statistik. Untuk menggunakan Teorema Basu, kita perlu menunjukkan bahwa suatu
statistik lengkap, yang kadang-kadang & agak sulit masalah analisis. Untungnya,
sebagian besar masalah yang kita bahas dicakup oleh teorema berikut. Kami tidak
akan membuktikan teorema ini tetapi perhatikan bahwa pembuktiannya tergantung

27
pada keunikan transformasi Laplace, sebuah properti yang disebutkan dalam
Bagian 2.3.

Teorema 6.2.25 (Statistik lengkap dalam keluarga eksponensial). Misalnya


𝑋1 , … , 𝑋𝑛 menjadi observasi iid dari keluarga eksponensial dengan pdf atau pmf dari

Kondisi ruang parameter yang berisi himpunan terbuka diperlukan untuk


menghindari situasi seperti berikut ini. Distribusi n(𝜃,𝜃 2 ) dapat ditulis dalam
bentuk (6.2.7); namun, ruang parameter (𝜃,𝜃 2 ) tidak berisi himpunan terbuka dua
dimensi, karena hanya terdiri dari titik-titik pada parabola. Hasilnya, kita dapat
menemukan transformasi dari statistik T(X) yang merupakan estimator tak bias dari
0 (lihat Latihan 6.15). (Ingat bahwa keluarga eksponensial seperti n(𝜃,𝜃 2 ), di mana
ruang parameter adalah kurva berdimensi lebih rendah, disebut keluarga
eksponensial melengkung; lihat Bagian 3.4.) Hubungan antara kecukupan,
kelengkapan, dan minimalitas dalam keluarga eksponensial adalah yang menarik.

Contoh 6.2.26 (Menggunakan Teorema Basu-I) Misalkan 𝑋1 , … , 𝑋𝑛 adalah


pengamatan eksponensial iid dengan parameter 𝜃. Pertimbangkan untuk
menghitung nilai harapan dari

Kami pertama mencatat bahwa distribusi eksponensial membentuk keluarga


parameter skala dan dengan demikian, dengan Contoh 6.2.19, g(X) adalah statistik

28
tambahan. Distribusi eksponensial juga membentuk keluarga eksponensial dengan
t(x)=x dan seterusnya, dengan Teorema 6.2.25,

adalah statistik lengkap dan, menurut Teorema 6.2.10, T(X) adalah statistik cukup.
(Seperti disebutkan di bawah, kita tidak perlu memverifikasi bahwa T(X) minimal,
meskipun dapat dengan mudah diverifikasi menggunakan Teorema 6.2.13.) Oleh
karena itu, dengan Teorema Basu, T(X) dan g(X) bebas. Jadi kita punya

Contoh 6.2.27 (Menggunakan Teorema Basu-II) Sebagai contoh lain dari


penggunaan Teorema Basu, kita mempertimbangkan independensi 𝑋̅ dan 𝑆 2 , mean
sampel dan varians, ketika mengambil sampel dari populasi n(µ,σ2 ). Tentu saja kita
telah menunjukkan bahwa statistik ini independen dalam Teorema 5.3.1, tetapi kita
akan mengilustrasikan penggunaan Teorema Basu dalam konteks penting ini.
Pertama pertimbangkan σ2 tetap dan biarkan µ bervariasi, -∞< µ <∞. Dengan
Contoh 6.2.4, 𝑋̅ adalah statistik yang cukup untuk µ. Teorema 6.2.25 dapat
digunakan untuk menyimpulkan bahwa keluarga dari distribusi n(µ,σ2 /n), -∞<μ<∞,
σ2 /𝑛 diketahui, adalah keluarga lengkap. Karena ini adalah distribusi 𝑋̅, 𝑋̅ adalah
statistik lengkap. Sekarang pertimbangkan 𝑆 2 . Argumen yang mirip dengan yang
digunakan dalam Contoh 6.2.18 dan 6.2.19 dapat digunakan untuk menunjukkan
bahwa dalam setiap keluarga parameter lokasi (ingat σ2 adalah tetap, µ adalah
parameter lokasi), 𝑆 2 adalah statistik tambahan. Atau, untuk model normal ini, kita
dapat menggunakan Teorema 5.3.1 untuk melihat bahwa distribusi 𝑆 2 bergantung
pada besaran tetap σ2 tetapi tidak pada parameter μ.

Teorema 6.2.28 Jika muncul statistik minimal yang cukup, maka semua statistik
lengkap.

29
Jadi meskipun kata "minimal" berlebihan dalam pernyataan Teo rem Basu, hal itu
dinyatakan sebagai pengingat bahwa statistik T(X) dalam teorema adalah statistik
cukup minimal.

Teorema Basu memberikan satu hubungan antara statistik yang cukup dan
tambahan statistika dengan menggunakan konsep statistik lengkap. Ada
kemungkinan definisi lain dari ancillarity dan kelengkapan. Beberapa hubungan
antara kecukupan dan ancilarity untuk definisi ini dibahas oleh Lehmann (1981).

30
BAB III
PENUTUP

3.1 Kesimpulan

Reduksi data dalam hal statistik tertentu dapat dianggap sebagai partisi dari
ruang sampel 𝒳. Biarkan 𝒯= {t : t = T(x) untuk beberapa x ∈ 𝒳 } menjadi
gambar dari 𝒳 di bawah T(x). Kemudian T(x) mempartisi ruang sampel menjadi
himpunan 𝐴𝑡 , 𝑡 ∈ 𝒯 yang didefinisikan oleh 𝐴𝑡 = {𝐱 ∶ 𝑇(𝐱) = 𝑡}. Statistik
meringkas data di dalamnya, daripada melaporkan seluruh sampel x, itu hanya
melaporkan bahwa T(x) = t atau, ekuivalen, x ∈ 𝐴𝑡 .

PRINSIP YANG EFISIEN: Jika T(X) adalah statistik yang cukup untuk 𝜃,
maka setiap inferensi tentang 𝜃 harus bergantung pada sampel X hanya melalui
nilai T(X). Artinya, jika x dan y busur dua titik sampel sedemikian rupa sehingga
T(x) = T(y), maka inferensi tentang 𝜃 harus sama apakah X = x atau X = y diamati.

3.2 Saran

Penulis berharap bagi pembaca memberikan masukkan atau kritik agar


penulis bisa memperbaiki kekurangan yang ada pada makalah ini agar menjadi
lebih baik.

31
DAFTAR PUSTAKA

Casella, G dan Berger, R. L. 1990. Statistical Inference. California: Pasfic Grove.

32

Anda mungkin juga menyukai