Anda di halaman 1dari 13

RESPONSI 2-

PROSTOK
Oleh:

{ 1. Mega Aprillia
2. Euis Apriyanti
 Proses Stokastik
 Rantai Markov

 Peluang Transisi n-Step

OUTLINE
PROSES STOKASTIK
 Proses Stokastik (Stochastic Process) 𝑋 = {𝑋(𝑡),𝑡∈𝑇} adalah
kumpulan dari peubah acak yang memetakan dari ruang
contoh ke ruang state 𝑆 dengan indeks t dalam ruang
parameter 𝑇.
 Lambang 𝑡 sering diinterpretasikan sebagai waktu dan 𝑇
adalah indeks dari suatu proses.
 𝑋(𝑡) adalah state/kejadian dari suatu proses pada waktu t.
 Jika T dapat dicacah maka proses stokastik disebut sebagai
proses stokastik waktu diskret. {X𝑛, 𝑛=0,1,……..}
CONTOH 1 : GAMBLER’S
RUIN
A dan B melakukan permainan dengan aturan sebagai berikut.
Jika A menang, B membayar satu satuan ke A.
Jika A kalah, A membayar satu satuan ke B.
Misalkan peluang A menang 0.6 dan peluang A kalah 0.4. Modal awal A
dan B masing-masing 4 satuan. Permainan dihentikan jika salah satu
bangkrut. X𝑛 : merupakan peubah acak yang menyatakan banyaknya
modal A setelah permainan ke-𝑛.
• 𝑛 ∈ 𝑁 dengan 𝑁= 0,1,2,3,4,…, menyatakan permainan ke 0,1,2,3,4,….
 Proses Stokastik 𝑿 = {X𝑛; 𝑛 = 0,1,2,3,…} menyatakan kepemilikan modal A,

dengan ruang state S = 0,1,2,3,4,5,6,7,8


 X0 ={4}, {X1 |X0 =4}={3,5} dengan 𝑃 *X1 =3|X0 =4}=0.4 dan 𝑃{X1 =5|X0 =4}=0.6

 𝑋 disebut sebagai proses stokastik dengan waktu diskret karena 𝑇 tercacah.


RANTAI MARKOV
WAKTU DISKRET
• Proses stokastik {X𝑛, 𝑛=0,1,2,…} dengan ruang state
{0,1,2,…} disebut sebagai rantai Markov dengan
waktu diskret jika untuk setiap 𝑛={0,1,2,…} berlaku
𝑃{X𝑛+1 = j | X𝑛 = i, X𝑛−1 = i𝑛−1 ,…, X1 = i1 , X0 = i0 }=𝑃
{X𝑛+1 = j | X𝑛 = i}
untuk semua kemungkinan nilai dari i0 , i1 , i2 ,…, i𝑛−1 ,
i, j ∈ 0,1,2,…
 𝑃{X𝑛+1 =j|X𝑛=i} menyatakan peluang bahwa proses
berpindah dari state i ke state j dalam satu langkah
 Gambler’s Ruin: Kepemilikan modal pada waktu n hanya
tergantung pada kepemilikan modal pada waktu n-1, tidak
tergantung pada kepemilikan modal pada waktu n-2, n-3,
dst.
RANTAI MARKOV
DISKRET HOMOGEN

 Rantai Markov X𝑛 disebut homogen jika


𝑃{X𝑛+1 = j| X𝑛 = i} = 𝑃{X1 = j | X0 = i} = 𝑝i j
untuk semua 𝑛 dan semua i, j ∈ {0,1,2,…}
 Jadi pada rantai Markov homogen, 𝑝i j (peluang transisi

satu langkah) tidak tergantung dari waktu 𝑛.


MATRIKS PELUANG
TRANSISI SATU STEP
 Misalkan P adalah matriks peluang transisi satu-step 𝑝𝑖𝑗 , maka

State awal : baris


State baris : kolom
 Catatan : Jumlah nilai peluang tiap baris dari suatu matriks
peluang transisi sama dengan satu.
CONTOH 2 :
RAMALAN CUACA
 Peluang besok akan terjadi hujan hanya tergantung pada
keadaan cuaca hari ini, serta tidak tergantung dari keadaan
cuaca sebelumnya.
• Misalkan:
 Jika hari ini hujan, maka peluang besok akan hujan
adalah 0.5
 Jika hari ini tidak hujan, maka peluang besok akan
hujan adalah 0.3
• Misalkan:
 State 0 = hujan
 State 1 = tidak hujan
 Maka, matriks peluang transisi rantai Markov dua-state
adalah
0 1

1
PELUANG TRANSISI N-
STEP
 Peluang transisi 𝑛-step yaitu peluang bahwa suatu proses yang
mula-mula berada pada state i akan berada pada state j setelah 𝑛
tambahan transisi.
𝑝𝑖𝑗 (n) = 𝑃{X𝑛 = j | X0 = i} i, j ∈ 0,1,2,…
untuk setiap 𝑛=1,2,…
(𝑛)
 𝑝𝑖𝑗 = 𝑝𝑖𝑗
 Matriks peluang transisi n-langkah: 𝑃 𝑛 = 𝑃𝑛
 Jadi, matriks transisi n-step dapat ditentukan dengan mengalikan
matriks P dengan dirinya sendiri sebanyak n-kali.
CONTOH 3 : PELUANG
TRANSISI N-STEP
• Perhatikan contoh 2 !
• Tentukan:
1. Peluang bahwa 4 hari lagi akan hujan, jika hari
ini adalah hujan
2. Peluang bahwa 4 hari lagi tidak akan hujan, jika
hari ini tidak hujan
Matriks peluang transisi 4-step 𝑃(4) ?
PERSAMAAN CHAPMAN-
KOLMOGOROV
PELUANG TIDAK
BERSYARAT
 Jika kita menginginkan sebaran tidak bersyarat dari
state pada waktu 𝑛 maka kita perlu menentukan
sebaran peluang dari state awal. Misalkan :

 Peluang tidak bersyarat :


CONTOH 4 : PELUANG
TIDAK BERSYARAT
 Perhatikan contoh 3 !
 Diketahui : 𝛼0 =0.4 dan 𝛼1 =0.6
 Tentukan peluang tanpa syarat bahwa akan hujan
empat hari lagi !

Anda mungkin juga menyukai