ANALISA MARKOV
ANGGOTA KELOMPOK 1A :
2113020 1. AHMAD FAUZI NUR HIDAYAT
2113040 2. DITO AJI FARENZA
2113045 3. RISKA
2113046 4. ROSSA DITA OKTAFIA
2113051 5. FERDO KHUSNA NURAHMAT
TEKNIK INDUSTRI S1
FAKULTAS TEKNOLOGI INDUSTRI
INSTITUT TEKNOLOGI NASIONAL MALANG
2023
PETA KONSEP
Proses Stokastik
Proses Skokastik merupakan berbagai kejadian yang memenuhi hukum-
hukum peluang..Setiap nilai yang berubah terhadap waktu dengan caara yang
tidak tertentu (dalam ketidakpastian) dikatakan mengikuti proses stokastik. Jika
data masa lalu dapat digunakan untuk meramalkan sesuatu secara pasti, maka
kejadian yang akan datang tersebut dinamakan kejadian yang deterministik.
Namun jika data masa lalu hanya dapat menyajikan struktur peluang di masa yang
akan datang,maka dinamakan kejadian stokastik.
Model Skokastik
Model yang mencakup distribusi kemungkinan untuk input dan
memberikan serangkaian nilai dari sekurang – kurangnya satu variabel output
dengan probabilitas yang berkaitan pada tiap nilai.
Contoh : Waktu kedatangan pelanggan, waktu antrian pelanggan dsb
Rantai markov diskrit adalah proses stokastik dengan ruang state dan
ruang parameternya diskrit serta memenuhi sifat markov. Rantai markov
ditentukan dengan probabilitas awal dan probabilitas transisi. Jika probabilitas
transisi tidak diketahui maka perlu untuk membuat inferensi tentang probabilitisik
transisi dari data.
(Kulkarni, V.G, 2011) Proses Stokastik { X n , n ≥ 0} atau ruang state disebut Rantai
Markov waktu Diskrit jika untuk setiap i dan j di S.
Rantai Markov waktu Diskrit dikatakan homogen waktu atau disebut juga peluang
transisi stasioner. Peluang transisi dari keadaan i ke keadaan j (P)j persamaan
rumus (pers 1) hanya bergantung pada waktu sekarang, secara umum. Apabila
peluang transisi bebas dari waktu n.
P=[P ij ]¿
∞
Dengan Pij ≥ dan ∑ Pij =1(i , j=0 , 1 , 2, ...)
j=0
Contoh
P=
[ P AA P AB
PBA PBB ][
=
0.85 0.15
0.05 0.95 ]
2. Matriks peluang transisi untuk rantai markov dua keadaan secara umum
P=
[ P00 P01
P10 P11
=
][
1−a
b
a
1−b ]
3. Matriks peluang transisi untuk markov empat keadaan
[ ]
1 1
0 0
2 2
1 1 1
0
3 3 3
1 1 1 1
4 4 4 4
0 0 1 0
Contoh Kasus
Misal diketahui
- P(hujan | hujan) = 0 , 6
- P(cerah | hujan) = 0, 8
- P(hujan | cerah) = 0 , 4
- P(cerah | cerah) = 0, 2
P=
[ 00 ,, 68 0,4
0,2 ]
Menghitung menggunakan probabilitas Tree
Probabilitas cuaca berstatus hujan pada hari ke-3, jika pada hari pertama hujan
adalah
HH(3)= 0,36+0,32 = 0,68
Probabilitas cuaca berstatus cerah pada hari ke-3, jika pada hari pertama hujan
adalah
CH(3)= 0,24+0,08 = 0,32
Probabilitas matriks
State 1=hujan dan state 2= cerah. Probablty matrix:
P=
[ 00 ,, 68 0,4
0,2 ]
Jika pada hari ke 1 hujan maka peluang hari ke-2 hujan adalah 0,6 dan peluang
hari ke-2 cerah adalah 0,4.
Probability transisi 2 langka :
P=
[ 00 ,, 68 ][ ][
0,4 0,6
x
0,2 0,4
=
0 , 68 0 ,32
0 ,64 0 ,36 ]
Jadi peluang hari ke-3 hujan adalah 68% dan cerah adalah 32%.
Matriks Probabilitas Transisi
Probabilitas Transisi adalah perubahan dari satu status ke status yang lain pada
periode (waktu) berikutnya dan merupakan suatu proses random yang dinyatakan
dalam probabilitas.
Rumus dari probabilitas transisi adalah berikut :
P(X =x | Xo = x0, X = x , …, X = x ) = P(Xn+1 = xn+1| Xn = xn)
n+1 n+1 1 1 n n
Keterangan :
N = jumlah keadaan dalam proses
I = kondisi awal ke-i (i = 1, 2, …, n)
J = kondisi akhir ke-j (j = 1, 2, …, n)
Pij = peluang perubahan kondisi dari kondisi ke-i menjadi kondisi ke-j
Sehingga perhitungan probabilitas untuk minggu kedua dan ketiga adalah sebagai
berikut.
Dari hasil perhitungan dia tas, maka dapat disimpulkan bahwa jika Bambang
membeli di toko X pada minggu pertama, probabilitas Bambang membeli di toko
X pada minggu ketiga adalah 92,58%.
Persamaan Chapman-Kolmogorov
Didefinisikan peluang dari keadaan ke-i menuju keadaan ke-j pada saat i sebagai
berikut
Pij (t) = P( X(t+s) = j X(s) = i )
Dengan Pij peluang transisi stau langkah dengan πj merupakan sistem persamaan
linier homogen dan memberikan penyelesaian yang tidak tunggal. Dan jika
penyelesaian tersebut ada, maka penyelesaian untuk waktu yang lama ( panjang)
akan berdistribusi stasioner..
Pada rantai markov kontinu, peluang transisi digantikan oleh intensitas transisi
yang
didefinisikan seperti pada Lemma 1. Dengan menggunakan persamaan
Chapman
Kolmogorov dapat ditentukan distribusi peluang pada saat t+h.
Untuk menentukan distribusi peluang di waktu t+h dapat juga dengan
mengkondisikan terhadap keadaan di waktu yang telah lalu dan di waktu
mendatang, yang secara berturutturut dengan menggunakan persamaan
Backward Kolomogorof dan persamaan Forward Kolmogorof.
P'(t)=
ij qP
ikkj(t)-vP(t),
iij i,j,t 0
ki
P'(t)=
ij qP(t)-vP(t),
kjik jij i,j,t 0
kj
Dan
P(s,t)=
ij q(s)P(s,t)-q(s)P(t),
ik ij i ij i,j,t 0 persamaan BackwordKolmogorof
t kj
P(s,t)=
ij q(t)P(s,t)-q(t)P(t),
kj ik j ij i,j,t 0 persamaan Forward Kolmogorof
t k i
0 1 2 3 4 0 1 2 3 4
01 3 0 0 0 0 0 0 0
4 4
11 1 0 0 0 1 0 0 0
P 2 2 2 P 2 0 0 0 0
0 0 1 0 0
3 0 0 1 2 0 3 0 0 0
3 3
4 1 0 0 0 0
4 0 0 0
Dari hasil perhitungan dia tas, maka dapat disimpulkan bahwa jika Bambang
membeli di toko X pada minggu pertama, probabilitas Bambang membeli di toko
X pada minggu ketiga adalah 92,58%.
Persamaan Chapman-Kolmogorov
Didefinisikan peluang dari keadaan ke-i menuju keadaan ke-j pada saat i sebagai
berikut
Pij (t) = P( X(t+s) = j X(s) = i )
Dengan Pij peluang transisi stau langkah dengan πj merupakan sistem persamaan
linier homogen dan memberikan penyelesaian yang tidak tunggal. Dan jika
penyelesaian tersebut ada, maka penyelesaian untuk waktu yang lama ( panjang)
akan berdistribusi stasioner..
Pada rantai markov kontinu, peluang transisi digantikan oleh intensitas transisi
yang
didefinisikan seperti pada Lemma 1. Dengan menggunakan persamaan
Chapman
Kolmogorov dapat ditentukan distribusi peluang pada saat t+h.
Untuk menentukan distribusi peluang di waktu t+h dapat juga dengan
mengkondisikan terhadap keadaan di waktu yang telah lalu dan di waktu
mendatang, yang secara berturutturut dengan menggunakan persamaan
Backward Kolomogorof dan persamaan Forward Kolmogorof.
P'(t)=
ij qP(t)-vP(t),
ikkj iij i,j,t 0
ki
P'(t)=
ij qP(t)-vP(t),
kjik jij i,j,t 0
kj
Dan
P(s,t)=
ij q(s)P(s,t)-q(s)P(t),
ik ij i ij
t kj
P(s,t)=
ij q(t)P(s,t)-q(t)P(t),
kj ik j ij
t k i
0 1 2 3 4 0 1 2 3 4
0 1 3 0 0 0 0 0 0 0
4 4
11 1 0 0 0 1 0 0 0
P 2 2 2 P 2 0 0 0 0
0 0 1 0 0
3 0 0 1 2 0 3 0 0 0
3 3
4 1 0 0 0 0
4 0 0 0
Jika peluang sistem pergi dari state r ke state s akhirnya (mungkin dalam
sejumlah besar tahapan) sama dengan 1,maka waktu singgah pertama tersebut
Trs.jika tidak maka nilai tersebut akan ∞.
dengan
: waktu kebangkrutan
dengan adalah nilai barrier atau batas kegagalan. Secara umum nilai pasar
ekuitas dalam model First Passage Time adalah
dengan
dengan:
Dengan menggunakan persamaan ekuitas dari model First Passage Time, maka
diperoleh nilai liabilitas sebagai berikut:
dengan
dengan
: Volatilitas dari
dengan
Contoh kasus
Perubahan dari satu state ke state yang lain pada periode hari berikutnya di
tuliskan dalam matriks/ tabel probabilitas transisi sebagai berikut :
Dari kedua hasil tersebut, terlihat bahwa apapun status awalnya, maka
nilai probabilitas status di masa depan akan konstan, yaitu probabilitas
akan jalan adalah 0,6667 dan probabilitas mogok adalah 0,3333
Suatu proses stokastik {X(t),t [0, ), t R }waktu kontinu disebut rantai markov
waktu
kontinu bila proses stokastk tersebut mempunyai sifat Markovian. Sifat
Markovian
merupakan distribusi bersyarat dari keadaan di waktu mendatang t+s, diberikan
keadaan pada
waktu saat ini s dan semua keadaan pada waktu lampau, dimana peluang dari
keadaan
diwaktu mendatang t+s hanya bergantung pada keadaan saat ini s dan tidak
bergantung pada
keadaan pada waktu lampau
Jika peluang P (X(t+s) = j X(s) = i) tidak bergantung dari nilai s maka rantai
Markov waktu
kontinu dikatakan mempunyai peluang transisi yang homogen atau stasioner.
Rantai Markov waktu kontinu dikatakan waktu homogen jika untuk sebarang s t
dan
sebarang keadaan i.j S berlaku
Pada rantai Markov diketahui bahwa transisi dari proses terjadi setiap satu satuan
waktu.
Tidak demikian halnya untuk proses Markov. Misalkan proses Markov yang
diteliti
berpindah ke keadaan –i pada waktu t0. Misalkan setelah s waktu kemudian
proses masih
berada di keadaan yang sama ( peluang transisi tidak terjadi ).
Asumsikan bahwa Pij (s,t) kontinu di t=0 yaitu peluang transisi stasioner yang
didefinisikan ssebagai berikut
Contoh rantai markov kontinu salah satunya adalah proses poisson. Jika pada
proses poisson, keadaan dari proses pada waktu t adalah banyaknya kedatangan
pada pada waktu t, N(t) = n, maka pada rantai markov waktu kontinu banyaknya
kedatangan n berubah menjadi keadaan i pada waktu t dan bertransisi ke
keadaan j, i,j = 0,1,2,…
Birth and Death Process merupakan rantai markov waktu kontinu dengan
keadaan 0,1,2,… dimana transisi dari keadaan i hanya bisa dilakukan ke keadaan
i+1 atau i-1. Ketika keadaan bertambah 1 dikatakan kelahiran terjadi dan ketika
keadaan berkurang 1 dikatakan kematian terjadi. Keadaan dari proses ini
biasanya mewakili ukuran dari sebuah populasi.
Misalkan 𝜆i dan 𝜇i , 𝜆i = 𝑞i.i:1 dan 𝜇i = 𝑞i,i;1. Karena ∑j 𝑞ij = 𝑢i
ditulis 𝑢i = 𝜆i + 𝜇i.
Kemudian jika
Misalkan h →∞ maka
Atau sama dengan
𝑃′ (𝑡) = 𝜆j;1 𝑃i,j;1 (𝑡) + 𝜇j:1 𝑃i,j:1 (𝑡) − (𝜆j + 𝜇j )𝑃ij (𝑡) Forward Equation
Seperti pada rantai markov waktu diskrit, pada rantai markov waktu
kontinu peluangnya untuk t →∞ kadang akan menuju ke suatu nilai. Misal
nilai tersebut 𝑃j
𝑃j = lim 𝑃ij(𝑡)
𝑡→∞
= ∑𝑘❜j 𝑞i𝑘 𝑃𝑘 − 𝑢j 𝑃j
Atau
Gambar II.6. Diagram Transisi dari Birth and Death Process. Keadaan
menyatakan banyaknya populasi dengan rate proses
meninggalkan keadaan i sama dengan rate proses memasuki
keadaan ke j.
λ1
untuk n= 2 : 21 = P1
u2
λ0 λ1
= P0
u 1 u2
PENGANTAR_MODEL_STOKASTIK.pptx (live.com)
Rantai Makrov:
Frekuensi Hari Hujan Menurut Bulan di Kota Balikpapan dengan Rantai Markov Waktu
Diskrit | SPECTA Journal of Technology (itk.ac.id)
http://eprints.undip.ac.id/32229/6/M99_Betty_Ardianarini_chapter_II.pdf
Slide 1 (dinus.ac.id)
Rantai Markov | Matriks Peluang Transisi dan Peluang Kejadian di Waktu akan datang -
YouTube
5. rantai-markov-diskrit (slideshare.net)
Rantai Markov Diskrit (Discrete Markov Chain) - PDF Free Download (adoc.pub)
Estimasi Interval Konfidensi untuk Probabilitas Transisi Rantai Markov Diskrit (uns.ac.id)
https://informasains.com/edu/post/2021/12/markov-chain-rantai-markov-
pengertian-perhitungan-contoh/
https://ilkomitt.files.wordpress.com/2012/10/6-rantai-markovklasifikasi-
state.ppt
https://ejournal.unsrat.ac.id/index.php/JIS/article/view/54
https://karyailmiah.unisba.ac.id/index.php/statistika/article/download/8390/
pdf
First passage time dan kondisi
steady-state pada rantai Markov Rantai Markov kontinu:
https://darmanto.akakom.ac.id
https://repository.dinus.ac.id
https://journal.uny.ac.id
https://digilib.itb.ac.id/assets/files/disk1/456/jbptitbpp-gdl-fransiskaa-22761-3-
2016ta-2.pdf
https://media.neliti.com/media/publications/176802-ID-proses-kelahiran-dan-
kematian-sebagai-ra.pdf