RANTAI MARKOV
Markov merupakan model stokastik untuk sistem yang mengalami
perubahan secara acak dalam waktu diskrit. Konsep utama dalam Rantai Markov
adalah sifat "memori yang terbatas" yaitu probabilitas transisi dari satu keadaan ke
keadaan lain hanya bergantung pada keadaan saat ini dan tidak bergantung pada
keadaan sebelumnya.
Bab ini membahas berbagai konsep terkait dengan Rantai Markov,
termasuk definisi formalnya, sifat-sifat penting, contoh-contoh, dan algoritma-
algoritma untuk menghitung probabilitas transisi dan distribusi stasioner.
Beberapa topik yang dibahas meliputi sebagai berikut.
Definisi dan Sifat-Sifat, Rantai Markov didefinisikan sebagai sekumpulan
variabel acak yang membentuk rangkaian keadaan yang mungkin terjadi, dan
setiap keadaan hanya bergantung pada keadaan saat ini. Sifat utama dari Rantai
Markov adalah sifat "memori yang terbatas" dan sifat "transisi" yaitu probabilitas
transisi dari satu keadaan ke keadaan lain hanya bergantung pada keadaan saat ini.
Matrix Probabilitas Transisi, Untuk menggambarkan Rantai Markov, kita
dapat menggunakan matriks probabilitas transisi, yang menunjukkan probabilitas
transisi dari setiap keadaan ke keadaan lain dalam satu langkah waktu. Matriks ini
dapat digunakan untuk menghitung probabilitas transisi dari keadaan awal ke
keadaan akhir dalam beberapa langkah waktu.
Fungsi probabilitas transisi dari setiap rantai Markov {xn}memenuhi
persamaan Chapman.J Persamaan Kolmogorov. Kita dapat menggunakan relasi
Markov dasar dalam (15-6) untuk mendapatkan persamaan fundamental yang
mengatur evolusi semua rantai. Untuk n > r > m, kita memiliki
Dengan demikian
pij ( m , n )=P { x n=e j|x m =e j }
Atau
pij ( m , n )=∑ Pik (m , r) Pkj (r , n)
k
Dari (15-7), untuk sebuah rantai homogen p(nij ) merupakan masukan ke-(i,
j) dari P (0, n) = Pn. Dengan demikian
Pn ≜(P(n)
ij ) (15-42)
P(m
ij
+n)
=∑ P(m)
ik Pkj =∑ Pik P kj
(n ) (n) (m)
k k
Terlepas dari kondisi awal awal ej? Ketika batas-batas tersebut ada, sistem
menunjukkan keteraturan jangka panjang atau perilaku stasioner. Menariknya,
untuk rantai tak tereduksi yang mengandung aperiodik, keadaan tak nol yang
persisten (rantai ergodik), dari Teorema 15-1. (16-170), dan (15-160),
Contoh Rantai Markov, Bab ini memberikan beberapa contoh Rantai
Markov, seperti Rantai Markov diskrit dengan dua keadaan, Rantai Markov
dengan empat keadaan, dan Rantai Markov dengan keadaan kontinu.
Aplikasi Rantai Markov, Rantai Markov digunakan dalam berbagai
aplikasi, termasuk analisis antrian, model ekonomi, dan peramalan cuaca. Bab ini
juga membahas aplikasi Rantai Markov dalam komputasi, seperti algoritma
PageRank untuk mengurutkan halaman web.
Bab ini menyajikan pemahaman yang komprehensif tentang Rantai
Markov, dan memberikan konsep dan alat matematika yang diperlukan untuk
menghitung probabilitas transisi dan distribusi stasioner.
Contoh Soal
1. Klasifikasikan keadaan rantai Markov dengan probabilitas transisi berikut
juga tak tereduksi dan bersifat periodik. Matriks rantai Markov ketiga yang
diwakili oleh
adalah memiliki dua himpunan tertutup periodik {e1,e2} dan {e3,e4} dan juga
keadaan sementara es.
2. Pertimbangkan sebuah rantai Markov {xn} dengan state e0. e1, ... , em dan
matriks probabilitas transisi
Perhatikan bahwa jumlah baris dan jumlah kolom adalah kesatuan dalam
kasus ini. Oleh karena itu, P merupakan matriks stokastik ganda di sini, dan
( )
1 1 … 1 1
n 1 1 1 … 1 1
P=
m+1 ⋮ ⋮ ⋮ ⋮ ⋮
1 1 … 1 1
1
lim P {x n=e k }= k=0 , 1 ,2 , ... ,m
n→∞ m+1
BAB 16
MARKOV PROSES DAN TEORI ANTRIAN
Markov Proses
Markov Proses adalah suatu proses stokastik yang memenuhi sifat
Markov, yaitu bahwa keadaan masa depan hanya bergantung pada keadaan saat
ini dan bukan pada sejarah dari keadaan sebelumnya.
Markov Proses dapat digambarkan dengan diagram transisi keadaan, di
mana keadaan adalah simpul dalam diagram dan transisi adalah garis-garis antara
simpul.
Ada beberapa jenis Markov Proses, termasuk Markov Proses waktu diskrit
dan waktu kontinu, Markov Proses homogen, dan Markov Proses non-homogen.
Sebuah proses Markov waktu kontinu x(t) dapat menempati secara acak
sejumlah keadaan e0, e1, e2, e3,... pada waktu t. Status proses pada waktu t
dijelaskan oleh x(t) dan sama dengan keadaan ej yang ditempati oleh proses pada
waktu itu. Misalkan proses x(t) berada dalam status ej pada waktu ke t0. Untuk
sebuah proses Markov, dari (15-2) probabilitas bahwa proses tersebut masuk ke
state ej pada waktu ke + t diberikan oleh
P {x (t 0+ t)=e j ∨x( t 0 ) ei }
{
1− p n
m +i
p p≠1
Pn= 1− p
1
p=1
r +1
Dimana p= λ /μ
Menggunakan (16-123) dengan r=1 memberikan
{
pn
p0 p ≠1
n!
P n=
1
p=1
r +1
n
¿ p p0, 0 ≤ n ≤ m
Dengan demikian
m m
( 1− pm+1 )
∑ p n=¿ p0 ∑ p n= p0 1− p
=1 ¿
n=0 n=0
→p 1− p
0=¿ ¿
(1− pm +1 )
Dan karena nya
p 1−p
n=¿ pn ,0 ≤n ≤ m , p ≠1 ¿
( 1− pn+1 )
Dan lim p →1, didapatkan
p 1
n=¿ , p=1 ¿
m +1