PENGANTAR STOKASTIK
“RANTAI MAKROV”
Oleh
Kelompok 2:
PSM A 2019
JURUSAN MATEMATIKA
2021
KATA PENGANTAR
Puji dan Syukur kami panjatkan kepada Tuhan Yang Maha Esa. Berkat limpahan dan
rahmat-Nya kami mampu menyelesaikan makalah Pengantar Stokastik yang berjudul
“Rantai Makrov”
Tugas makalah ini disusun dengan harapan menambah wawasan yang lebih luas
kepada kita. kami menyadari bahwa dalam makalah ini masih terdapat banyak kesalahan
kesalahan dalam segi isi, tulisan, maupun kualitasnya untuk itu bagi para pembaca saya
sebagai penulis meminta maaf atas kekurangan yang terdapat dalam tugas kami. Karena itu
kami mengharapkan saran dan kritik dari para pembaca demi perbaikan pembuatan makalah
kami di masa yang akan datang.
Akhir kata kami mengucapkan terima kasih mudah mudahan dengan adanya
pembuatan tugas ini dapat memberikan manfaat bagi para pembaca.
Kelompok 2
i
DAFTAR ISI
KATA PENGANTAR.......................................................................................................i
DAFTAR ISI......................................................................................................................ii
BAB I PENDAHULUAN..................................................................................................3
1.1. Latar Belakang ...........................................................................................3
1.2 Rumusan masalah.................................................................................................3
1.3 Tujuan..................................................................................................................3
BAB II PEMBAHASAN...................................................................................................4
2.1 Sejarah Rantai Markov.........................................................................................4
2.2 Definisi Rantai Markov........................................................................................4
2.3 Klasifikasi Rantai Markov...................................................................................4
2.4 Ciri-Ciri Rantai Markov.......................................................................................5
2.5 Langkah-Langkah Penyelesaian Rantai Markov..................................................6
2.6 Model-Model Rantai Markov..............................................................................7
2.7 Probabilitas Transisi.............................................................................................8
2.8 Rantai Markov Diskrit..........................................................................................9
2.9 Waktu Lewat Pertama (First Passage Time)........................................................9
2.10 Rantai Markov Irreducible.................................................................................11
DAFTAR PUSTAKA........................................................................................................13
ii
BAB I
PENDAHULUAN
1.3 Tujuan
Untuk memahami sistematika dari rantai Markov
3
BAB II
PEMBAHASAN
Model rantai Markov dikembangkan oleh seorang ahli Rusia bernama A.A.Markov,
pada tahun 1906. Penerapan rantai Markov mula-mula adalah pada ilmu- ilmu pengetahuan
fisik dan meteorologi. Teknik ini mula-mula digunakan untuk menganalisis dan
memperkirakan perilaku partikel-partikel gas dalam suatu wadah (container) tertutup serta
meramal keadaan cuaca. Konsep dasar rantai Markov diperkenalkan pada tahun 1907 oleh
seorang ahli matematika dari Rusia yang bernama Andrei A. Markov (1856-1922). Markov
membuat asumsi bahwa sistem dimulai pada kondisi awal.
“Untuk setiap waktu t, ketika kejadian adalah Kt dan seluruh kejadian sebelumnya
adalah Kt(j),…, Kt(j-n) yang terjadi dari proses yang diketahui, probabilitas seluruh kejadian
yang akan datang Kt(j) hanya bergantung pada kejadian Kt(j-1) dan tidak bergantung pada
kejadian-kejadian sebelumnya yaitu Kt(j-2), Kt(j-3), …, Kt(j-n)”
Markov berfokus pada perluasan hukum bilangan besar dalam berbagai percobaan.
Model ini berhubungan dengan suatu rangkaian proses dimana kejadian akibat suatu
eksperimen hanya tergantung pada kejadian yang langsung mendahuluinya dan tidak
tergantung pada rangkaian kejadian sebelum-sebelumnya yang lain.
Isaacson and Madson (1976) menyatakan bahwa Rantai Markov adalah suatu teknik
yang digunakan dalam menganalisis perilaku saat ini dari beberapa variabel dengan tujuan
untuk memprediksi perilaku dari variabel yang sama pada masa mendatang.
Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa
digunakan untuk melakukan pembuatan model (modelling) bermacam-macam sistem dan
proses bisnis (Subagyo, Asri, dan Handoko (1984).
Dengan kata lain, rantai Markov adalah rangkaian proses kejadian dimana peluang
bersyarat kejadian yang akan datang tergantung pada kejadian sekarang dan tidak tergantung
pada keadaan yang sebelumnya.
Ada beberapa syarat agar rantai markov dapat diaplikasikan dalam evaluasi
keandalan sistem. Syarat-syarat tersebut adalah:
4
Contoh: 0 1 2 3 4
[ ]
0 0,4 0,6 0 0 0
1 0,5 0,5 0 0 0
P= 2 0 0 0,3 0,7 0
3 0 0 0,5 0,4 0,1
5 0 0 0 0,8 0,2
Jawab : 3 → 2
2 3 4 3→3
3→4
2. Berkomunikasi ( communicability )
Defenisi : Keadaan i dan j berkomunikasi jika i dapat diakses dari j dan
j dapat diakses dari i
Notasi : i ↔ j
Contoh : kita ambil dari contoh ke 1 maka state(keadaan) yang saling
berkomunikasi ialah state 0 ↔ 1, 2 ↔ 3, 3 ↔ 4
3. Kelas keadaan
Defenisi : Dua keadaan i dan j berada dalam kelas yang sama jika i dan
j saling berkomunikasi, yaitu jika i ↔ j maka i dan j berada
dalam kelas yang sama.
Contoh : 0 ↔ 1 {0,1}
2 Kelas
2 ↔ 3, 3 ↔ 4 {2,3,4}
4. Sifat keadaan recurrent dan transient
Defenisi : f i=P ( pernah kembali keadaani|X 0=i )
Keadaan i recurrent jika f i=1
Keadaan i transient jika f i< 1
5
Suatu keadaan A atau B, atau disebut state A atau state B atau state 1 atau state 2
Jika berada pada state A, pasti tidak mungkin berada pada state B, dan sebaliknya
Contoh :
Kendaraan umum, jika ada dua kondisi yaitu mogok dan narik. Pasti kendaraan tersebut kalau
tidak mogok pasti narik.
Dalam konteks ini kendaraan selalu berada pada salah satu state diatas secara bergantian.
Perubahan dari satu status ke status yang lain pada periode berikutnya merupakan suatu
proses atau kejadian random yang dinyatakan dalam probabilitas dan dinamakan probablitias
transisi.
Contoh :
Yang artinya jika P (mogok, narik) = 0,8, maka peluang besok narik jika sekarang mogok
adalah 0,8.
Jika sekarang kenadaraan naik, besok hanya ada dua kemungkinan status, yaitu narik
lagi atau mogok. Sehingga jumlah probabilitas transisi pada setiap baris adalah 1
Probabilitas transisi itu tidak akan berubah untuk selamanya
Probabilitas transisi hanya tergantung pada status sekarang dan bukan pada status
peiode sebelumnya
6
3. Ulang proses yang sama sampai menemukan probabilitas yang hendak dicari
Model Inventory
Misalkan sebuah barang harus tersedia agar dapat memenuhi permintaan. Asumsikan
penambahan barang dilakukan pada akhir periode ke-n = 0, 1, 2, …. Misalkan δ n menyatakan
total permintaan komoditi selama periode n, adalah peubah acak yang mempunyai fungsi
distribusi bebas dari periode waktu,
{
X n= X n−δn jika s< X n ≤ S
S−δ n +1 jika X n ≤ s
¿
{
P { δ n +1=i− j } jika s< i≤ S
P { δ n+ 1=S− j } jika i≤ s
Rantai Ehrenfest
Misalkan tersedia dua kotak dan d buah bola dengan nomor 1, 2, ..., d. Pada awalnya
sebuah bola berada di dalam kotak pertama, sedangkan sisanya berada di kotak kedua.
Tersedia undian dengan nomor 1, 2, ..., d. Kemudian diambil selembar undian secara acak
(undian dikembalikan sebelum pengambilan berikutnya). Bola dengan nomor yang sama
dengan nomor undian yang terambil dipindahkan dari kotaknya dimasukkan ke kotak lain.
Proses ini dilakukan tak hingga kali. Tentukan fungsi peluang transisi dari proses ini.
Jawab.
Misalkan Xn menyatakan banyaknya bola pada kotak pertama setelah pengambilan (trial) ke-
n. Maka { Xn } adalah rantai Markov dengan ruang keadaan (state) S = {0, 1, 2, …, d}
7
Karena ada i bola pada kotak I, maka undian juga ada k. Maka peluang untuk mengambil
bola dari kotak I adalah i/d dan bola ini dipindahkan ke kotak II. Maka
|
P {X n+1=i−1 X n=i}=Pi , (i−1)=
i
d
Probabilitas transisi adalah perubahan dari suatu status ke status yang lain pada
periode (waktu) berikutnya dan merupakan suatu proses random yang dinyatakan dalam
probabilitas.
8
n = jumlah keadaan dalam proses
Jika saat ini berada pada keadaan i maka baris i dari tabel di atas berisi angka-angka Pi1, Pi2,
Pin merupakan kemungkinan berubah ke keadaan berikutnya
Rantai Markov diskrit adalah sebuah proses Markov yang ruang statenya adalah
bilangan yang dapat dihitung, bilangan indeksnya T = 0, 1, 2, ..... dan ruang state dari rantai
Markov dinyatakan dengan bilangan bulat tak negatif {0,1,2,3,4,5 ...}, dan X n= i menyatakan
X n berada pada state i. (Howard. M, 1984).
Dalam rantai Markov diskrit terdapat beberapa macam kedudukan yang saling
berhubungan atu dengan yang lain. Kedudukan rantai Markov diskrit dibagi menjadi
beberapa macam yaitu kedudukan accessible, kedudukan communicate, kedudukan
irreducible, first passage time (waktu lewat pertama), kedudukan absorbsing, kedudukan
rekuren dan transient, kedudukan periodik dan aperiodik, kedudukan steady state (stabil).
Apabila rantai Markov diskrit mencapai kedudukan steady state atau stabil maka dapat
ditentukan kedudukan jangka panjang dari rantai Markov tersebut.
Defenisi :
P{X(n+1) = j | Xn =i , X(n-1) = i(n-1),…., X1 = i1 = i1 , X0 = i0}
= P{X(n+1) = j | Xn =i} = Pij
Misalkan f (n)
ij menyatakan peluang bahwa , mulai dari state i, proses bertransisi untuk
Jadi, untuk setiap i,j ∈{0,1,2,...) , menyatakan peluang bahwa suatu proses yang dimulai pada
state i akan pernah bertransisi ke state j
Contoh :
9
[ ]
1/3 2/ 3 0 0
P= 1/2 1/ 2 0 0
1/4 1/4 1/4 1 /4
0 0 0 1
Penyelesaian : 0 1 2 3
[ ]
0 1/3 2/3 0 0
P= 1 1/2 1/2 0 0
2 1/4 1/ 4 1/4 1 /4
3 0 0 0 1
0 1 2 3
= {
3 1 1 1 2 1 1 2 2 1
+ . + . . + . . . +…
4 4 3 4 3 3 4 3 3 3 }
Merupakan Deret Geometri dengan
1 1 1 2
U1= 4 . 3 = 12 , r= 3
a 1/12 1 1
S= = = =
1−r 1−1 /3 12−8 4
3 1
= + =1 (Recurrent)
4 4
Maka, {0,1} merupakan state recurrent karena dalam satu kelas state-statenya sama.
{
1 1 1 1 1 1 1 1 1 1
¿ + . + . . + . . . +…
2 2 3 2 3 3 2 3 3 3 }
10
Merupakan Deret Geometri dengan
1 1 1 1
U1= 2 . 3 = 6 , r= 3
a 1/6 1 1
S= = = =
1−r 1−1 /3 6−2 4
1 1 3
= + = <1 ( Transient )
2 4 4
Definisi-definisi (irreducible) :
(i) Suatu himpunan C yang tidak kosong dikatakan tertutup, jika tidak ada state
dalam C menuju sembarang state di luar C, atau ρ xy = 0, x∈S dan y∉S
(ii) Himpunan C yang tidak kosong dikatakan tertutup, jika jika P n(x,y)=0, x∈C, y∉
C, n ≥1 Atau dapat pula didefinisikan (yang lebih lemah) : Himpunan C yang tidak
kosong dikatakan tertutup, jika P(x,y)=0, x∈C, y∉C. Disini apabila C tertutup, maka
rantai Markov bermula dari C akan selalu tinggal di C dengan probabilitas 1.
(iii) Himpunan tertutup C dikatakan irreducible jika untuk semua x dan y ∈ C, x
menuju y.
Teorema
Diberikan C himpunan berhingga tertutup irreducible, maka tiap anggota C adalah
rekuren.
Pembuktian :
[ ]
0 0,4 0,6 0
P= 1 0 0 0,2
2 0,5 0 0
Dari diagaram transisi yang telah kita buat dapat kita simpulkan bahwa matriks P merupakan
irredusible karena semua state-state saling berkomunikasi.
11
BAB III
PENUTUP
3.1 KESIMPULAN
Rantai Markov adalah rangkaian proses kejadian dimana peluang bersyarat kejadian
yang akan datang tergantung pada kejadian sekarang dan tidak tergantung pada keadaan yang
sebelumnya. Syarat-syarat rantai Markov adalah:
12
Pandang suatu rantai Markov dengan banyaknya anggota (state) berhingga,
Teorema III mengatakan bahwa rantai irreducible mesti rekuren. Bila rantai tidak
irreducible dapat ditentukan state mana yang rekuren dan mana yang transien.
DAFTAR PUSTAKA
https://socs.binus.ac.id/2013/06/30/markov-chain/
Minora, Yerizon. 2003. Diktat Pengantar Stokastik. Universitas Negeri Padang. Padang
13