Anda di halaman 1dari 7

III.

Rantai Markov

Salah satu alat analisis proses stokastik yang dapat


digunakan untuk memperkirakan perubahan dari
variabel dalam proses berdasarkan perubahan waktu
yang bergerak dinamis.
1. Karakteristik proses Rantai Markov
2. Matriks peluang transisi
3. Klasifikasi state
4. Peluang transisi n-langkah
5. Keadaan steady state
6. Rantai Absorbing

Contoh permasalahan…
Misalkan di suatu daerah dijual produk sampo dengan
merk A, merk B, merk C, dan merk D. Dilakukan
pengamatan selama dua periode untuk mengetahui
jumlah konsumen pada setiap merk detergen dan
mengetahui jumlah konsumen yang beralih merk pada
periode kedua. Hasil pengamatan telah diringkas dan
ditampilkan pada Tabel sebagai berikut.

Merk Jumlah Tambahan Pengurangan Jumlah


Konsumen dari merk ke merk Konsumen
Periode 1 Periode 2
A B C D A B C D
A 220 0 40 0 10 0 20 10 15 225

B 300 20 0 25 15 40 0 5 25 290

C 230 10 5 0 10 0 25 0 0 230
D 250 15 25 0 0 10 15 10 0 255
JML 1000 1000
 Bagaimana peluang keadaan konsumen dari Periode
1 ke Periode 3?
 Bagaimana pada Periode ke 30?
 Bagaimana pangsa pasar (market share) setiap merk
pada Periode 1 dan 2?
Rantai Markov
Ross: p191 – p197
Taylor & Karlin: p95 – p99
Model Rantai Markov ditemukan oleh Andrey
Andreyevich Markov (Rusia, 1906)
Rantai Markov (RM) adalah salah satu teknik untuk
memodelkan proses stokastik yang memenuhi
sifat/karakteristik RM.
Karakteristik RM:
“untuk setiap waktu n, kejadian X pada proses yang
n

diketahui dan semua kejadian sebelumnya dituliskan


dengan X , X ,…, X . Probabilitas seluruh kejadian yang
n−1 n−2 0

akan datang yaitu X hanya ditentukan oleh state


n+1

(keadaan) proses pada saat X ” n

“kejadian akibat suatu eksperimen hanya tergantung


pada kejadian yang langsung mendahuluinya dan tidak
tergantung pada rangkaian kejadian eksperimen
sebelumnya”.
Definisi Formal Rantai Markov
adalah proses stokastik dengan nilai-nilai
{ X n ,n=0 , 1 ,2 , ...}

yang mungkin dan dinyatakan dengan himpunan nilai-


nilai {0, 1, 2, …}. X =i disebut proses dalam state-i pada
n

waktu-n. Proses Rantai Markov dinyatakan dengan


P { X n +1= j| X n=i , X n−1=i n−1 , … , X 1=i 1 , X 0=i 0 }=P ij

untuk semua i ,i ,… , i 0 1 n−1 ,i , j dan n ≥ 0

P { X n +1= j| X n=i }=Pijn ,n+1 … peluang transisi satu-langkah


--peluang X n+1 di state j setelah melalui X di state i--
n

Untuk suatu Rantai Markov, distribusi bersyarat kejadian


yang akan datang untuk state X , dengan diberikan n+1

state-state sebelumnya X , X , … , X dan state saat ini X , 0 1 n−1 n

adalah bebas/tidak tergantung dari state-state lampau


dan hanya tergantung dari state saat ini
Pij menyatakan peluang proses yang akan terjadi saat
state-i kemudian berubah pada state-j.
P ≥0 dan p roses mengalami perubahan (transisi) ke beberapa
state sedemikian sehingga Pij ≥ 0 ; i, j≥ 0 dan ∑ P =1 , i=0 , 1 ,…
j=1
ij

Proses perubahan dari state-i ke state-j ditampilkan


dengan suatu matriks peluang transisi.
Matriks peluang transisi dituliskan dengan
P00 P 01 P02 ⋯

[ ]
P10 P11 P12 ⋯
Pij = ⋮ ⋮ ⋮ ⋯
P i 0 Pi 1 Pi 2
¿ ⋮ ¿⋮ ¿ ⋮


Contoh
Ross. Ex. 4.1
Misalkan kemungkinan terjadi hujan pada esok hari
tergantung dari kondisi cuaca sebelumnya yaitu hanya
dari keadaan apakah hari ini hujan atau tidak.
Misalkan ditentukan peluang sebagai berikut:
Jika hari ini hujan, maka besok akan hujan dengan
peluang sebesar α dan
Jika hari ini tidak hujan maka besok akan hujan dengan
peluang sebesar β.
Apabila dinyatakan bahwa proses dalam state-0 adalah
saat terjadi hujan dan dalam state-1 adalah tidak terjadi
hujan maka matriks peluang transisi Rantai Markov 2-
state adalah
Pij = [ αβ 1−α
1−β ]

Jika α =0,7 dan β=0,4


Matriks peluang transisi 2-state, satu-langkah
Pij = [0,40,7 0,60,3]
Ross:
Example. 4.2Ex. 4.3 Ex. 4.5 Ex. 4.8 Ex 4.9
Taylor & Karlin:
Exercise. 1.1 s.d. 1.5

Anda mungkin juga menyukai