∑ 𝑝𝑖𝑗 = 1 𝑖 = 1,2, … , 𝑛
Dalam rantai Markov, state yang dapat dicapai dari keadaan lain disebut state terakses (accessible)
karena tidak semua keadaan dapat dicapai dari semua keadaan lainnya. Dalam analisis rantai
Markov, state terakses sangat penting karena memengaruhi pemahaman kita tentang struktur dan
dinamika rantai. Dengan menentukan state terakses, kita dapat memahami bagaimana informasi
atau pengaruh dapat mengalir dari satu keadaan ke keadaan lain melalui rantai Markov.
Dalam analisis rantai Markov, pemahaman tentang state terakses sangat penting karena membantu
dalam mengidentifikasi hubungan antara keadaan dalam rantai, memodelkan perpindahan antar-
keadaan, dan mengukur sifat-sifat sistem yang sedang dipelajari. State terakses juga berkaitan
dengan sifat-sifat seperti ergodisitas dan ireducibility dalam analisis rantai Markov.
Suatu keadaan j dikatakan sebagai “terakses” dari keadaan i jika ada suatu 𝑛 ≥ 1 sehingga 𝑝𝑖𝑗 𝑛 >
0. Dimana 𝑝𝑖𝑗 𝑛 adalah probabilitas transisi dari keadaan i ke keadaan j dalam n langkah Waktu.
Dalam rumusnya dapat dinyatakan sebagai:
𝑝𝑖𝑗 𝑛 = 𝑃(𝑋𝑛 = 𝑗|𝑋0 = 𝑖 ) > 0
Dimana Xn adalah keadaan sistem pada waktu n, X0 adalah keadaan awal dan 𝑃(𝑋𝑛 = 𝑗|𝑋0 = 𝑖 )
adalah probabilitas bahwa sistem akan berada dalam keadaan j setelah n langkah waktu, dimulai
dari keadaan i.
Dalam kasus ketika n=1, ini mengacu pada probabilitas transisi langsung dari i ke j. Dalam kasus
n>1, ini menunjukkan bahwa keadaan j dapat dicapai dalam n langkah waktu/lebih dengan
probabilitas yang lebih besar dari 0 mulai dari keadaan i.
Dalam konteks rantai Markov, keadaan yang tidak dapat direduksi adalah keadaan di mana setiap
keadaan dalam rantai Markov memiliki kemampuan untuk mencapainya dengan probabilitas lebih
besar dari nol. Dengan kata lain, setiap keadaan dalam rantai Markov memiliki kemampuan untuk
mencapai keadaan yang irreducible dalam jumlah langkah tertentu. Keadaan yang tidak dapat
direduksi menunjukkan bahwa sistem tidak terbatas pada kumpulan keadaan tertentu, dan bahwa
semua keadaan sangat terkait satu sama lain.
Salah satu elemen penting dalam analisis rantai Markov adalah sifat state yang tidak dapat
direduksi, yang dikenal sebagai sifat ergodisitas. Sebuah rantai Markov dikatakan ergodik jika
memiliki state yang tidak dapat direduksi dan memiliki distribusi stasioner yang terjadi setelah
langkah waktu tertentu. Ini adalah ide penting untuk memahami perilaku rantai Markov dalam
jangka panjang.
Dalam notasi matematis, rantai Markov dengan matriks transisi P disebut irreducible jika:
∀𝑖,𝑗 = 𝑆, ∃𝑛,𝑚 ∈ 𝑁 sehingga 𝑝𝑖𝑗 𝑛 > 0 𝑑𝑎𝑛 𝑝𝑗𝑖 𝑚 > 0
Disini 𝑝𝑖𝑗 𝑛 adalah elemen dari matriks transisi P yang menunjukkan probabilitas transisi dari
keadaan i ke keadaan j dalam n langkah waktu.
5. Jelaskan yang dimaksud dengan state recurrent dan transient!
a) State Recurrent (Keadaan Rekuren) : Sebuah keadaan dalam rantai Markov dikatakan sebagai
state recurrent jika, setelah meninggalkan keadaan tersebut, sistem kemungkinan besar akan
kembali ke keadaan tersebut dalam jumlah langkah waktu yang terbatas atau tak terbatas.
Dengan kata lain, jika suatu keadaan adalah state recurrent, maka peluang kembali ke keadaan
itu adalah 1 atau mendekati 1. State-state recurrent adalah keadaan-keadaan yang sistem
cenderung "mengunjungi" secara berkala. Suatu state atau kedudukan rantai Markov i disebut
state absorbing jika sekali sistem tersebut tinggal pada state i, maka sistem itu akan tetap tinggal
pada state i untuk selamanya
Definisi: Suatu state i, 𝑗 ∈ 𝑆 pada suatu rantai Markov disebut keadaaan menyerap (state
absorbing) jika 𝑝𝑖𝑖 = 1 atau 𝑝𝑖𝑗 = 0 untuk i≠j.
b) State Transient : sebuah keadaan dikatakan sebagai state transient jika setelah meninggalkan
keadaan tersebut, sistem kemungkinan besar tidak akan kembali ke keadaan tersebut. Peluang
kembali ke keadaan tersebut adalah kurang dari 1. State-state transient adalah keadaan-keadaan
yang sistem cenderung meninggalkan dan mungkin tidak pernah kembali.
Suatu state atau kedudukan rantai Markov j disebut state transien jika rantai markov mulai dari
j belum tentu kembali lagi ke j.
Definisi: Suatu state 𝑗 ∈ 𝑆 pada suatu rantai Markov disebut transien jika 𝜃𝑖𝑗 < 1
Sumber Referensi :
- Haryono., Dewi Juliah Ratnaningsih. (2018). BMP Pengantar Proses Stokastik. Tangerang
Selatan: Universitas Terbuka
- Ross, S. M. (2014). "Introduction to Probability Models." Academic Press.