Anda di halaman 1dari 11

Nama : Ashari

NPM : 1610501004
Matkul : Keandalan Sistem Tenaga
Listrik

ANALISA RANTAI MARKOV


A. Model Markov
Dalam teori probabilitas, model Markov adalah model stokastik yang
digunakan untuk memodelkan sistem yang berubah-ubah secara random di
mana diasumsikan bahwa kondisi masa depan tergantung hanya pada keadaan
sekarang dan bukan pada urutan peristiwa yang mendahuluinya
(mengasumsikan properti Markov). Umumnya, asumsi ini memungkinkan
penalaran dan perhitungan, yang jika menggunakan model lain mungkin akan
lebih sulit diselesaikan.
Ada empat model Markov yang digunakan dalam situasi yang berbeda,
tergantung pada apakah setiap kondisi berurutan dapat diamati atau tidak, dan
apakah sistem ini terjadi secara acak atau kejadiannya dapat dikontrol.
Berikut adalah tabel yang menunjukkan beberapa model Markov berdasarkan
situasinya.
Tabel 1 Model Markov berdasarkan Situasinya

Dalam skripi ini penulis menggunakan Markov chain (rantai Markov),


yaitu proses acak yang mengalami transisi dari satu kondisi ke yang lain pada
ruang keadaan. Model Markov ini harus memiliki properti yang biasanya
ditandai sebagai "memoryless": distribusi probabilitas pada kondisi
berikutnya tergantung, hanya pada keadaan saat ini dan bukan pada urutan
peristiwa yang mendahuluinya. Jenis tertentu ini disebut properti Markov.
Analisis Markov hampir sama dengan decision analysis, bedanya adalah
decision analysis memberikan keputusan berupa rekomendasi sedangkan
analisis rantai markov tidak memberikan keputusan berupa rekomendasi.
Analisis rantai markov hanya memberikan informasi probabilitas mengenai
situasi keputusan yang dapat membantu proses pengambilan keputusan. Oleh
karena itu, analisis rantai markov bukanlah teknik optimisasi, melainkan
teknik deskriptif yang menghasilkan informasi probabilitas pada masa
mendatang.
B. Rantai Markov
Rantai Markov (Markov Chains) adalah suatu teknik matematika yang
biasa digunakan untuk melakukan pemodelan (modelling) bermacam-macam
sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan
perubahan-perubahan di waktu yang akan datang dalam variabel-variabel
dinamis atas dasar perubahan-perubahan dari variabel-variabel dinamis
tersebut di waktu yang lalu. Teknik ini dapat digunakan juga untuk
menganalisis kejadian-kejadian di waktu-waktu mendatang secara matematis.
Model Rantai Markov ditemukan oleh seorang ahli Rusia yang bernama A.A.
Markov pada tahun 1906, yaitu:
“Untuk setiap waktu t, ketika kejadian adalah Kt dan seluruh kejadian
sebelumnya adalah Kt(j), ... , Kt(j-n) yang terjadi dari proses yang diketahui,
probabilitas seluruh kejadian yang akan datang Kt(j) hanya bergantung pada
kejadian Kt(j-1) dan tidak bergantung pada kejadian-kejadian sebelumnya yaitu
Kt(j-2), Kt(j-3),..., Kt(j-n).”
Gambaran mengenai rantai Markov ini kemudian dituangkan dalam
Gambar 1 dimana gerakan-gerakan dari beberapa variabel di masa yang akan
datang bisa diprediksi berdasarkan gerakan-gerakan variabel tersebut pada
masa lalu. Kt4 dipengaruhi oleh kejadian Kt3, Kt3 dipengaruhi oleh kejadian Kt2
dan demikian seterusnya dimana perubahan ini terjadi karena peranan
probabilitas transisi (transition probability). Kejadian Kt2 misalnya, tidak akan
mempengaruhi kejadian Kt4.
Gambar 1 Peristiwa dalam Rantai Markov
Kejadian-kejadian di atas sifatnya berantai. Oleh karena itu, teori ini
dikenal dengan nama Rantai Markov. Dengan demikian, Rantai Markov akan
menjelaskan gerakan-gerakan beberapa variabel dalam satu periode waktu di
masa yang akan datang berdasarkan pada gerakan-gerakan variabel tersebut
di masa kini. Secara matematis dapat ditulis: Kt(j) = P x Kt(j-1)

Dimana :

Kt(j) = peluang kejadian pada t(j)


P = Probabilitas Transisional
t(j) = waktu ke-j
Peluang kejadian Kt(j) dinyatakan ke dalam bentuk vektor sehingga jumlah
seluruh selnya akan selalu 100%.

C. Syarat Dalam Analisis Markov


Beberapa syarat yang harus dipenuhi pada analisis Markov adalah sebagai
berikut:
1. Jumlah probabilitas transisi untuk suatu keadaan awal dari sistem sama
dengan 1 (satu).
2. Probabilitas-probabilitas tersebut berlaku untuk semua partisipan dalam
system.
3. Probabilitas transisi konstan sepanjang waktu.
4. Kondisi merupakan kondisi yang independen sepanjang waktu.
Untuk rumus rantai markov dengan transisi ke-n adalah P n. Sementara
untuk rumus rantai markov di mana hanya memerlukan sebagian dari seluruh
matriks adalah sebagai berikut:

Di mana xn (kondisi pada transisi ke-n) dan x0 (kondisi pada transisi awal)
menggunakan matriks 1 x 3, dan Pn menggunakan matriks 3 x 3.

D. Contoh Kasus
1. Contoh Kasus 1 Probabilitas Transisi
a. Probabilitas Transisi
Probabilitas Transisi adalah perubahan dari satu status ke status
yang lain pada periode (waktu) berikutnya dan merupakan suatu
proses random yang dinyatakan dalam probabilitas.
Tabel 2. Matriks Kemungkinan Transisi

• n = jumlah keadaan dalam proses


• Pij = kemungkinan transisi dari keadaan saat i ke keadaan j
• Jika saat ini berada pada keadaan i maka baris i dari tabel di atas
berisi angka-angka Pi1, Pi2, Pin merupakan kemungkinan berubah
ke keadaan berikutnya.
• Oleh karena angka tersebut melambangkan kemungkinan, maka
semuanya merupakan bilangan non negatif dan tidak lebih dari
satu.
b. Ciri-ciri Markov
 Suatu keadaan A atau B, atau disebut state A atau dan state B, atau
state 1 atau state 2
 Jika berada pada state A, pasti tidak pada state B dan sebaliknya
Contoh kendaraan umum, jika ada dua kondisi mogok dan narik. Pasti
kendaraan tersebut jika tidak mogok pasti narik
Jika narik  state 1
Jika mogok  state 2
Dlm konteks ini kendaraan selalu berada pada salah satu state diatas
secara bergantian.
 Perubahan dari suatu status ke status yang lain pada periode
berikutnya merupakan suatu proses random yang dinyatakan dalam
probabilitas dan dinamakan probabilitas transisi.
Contoh:
P (narik I narik ) = 0,6 P (narik I mogok) = 0,4
P (mogok I narik) = 0,8 P (mogok I mogok) = 0,2
P (mogok I narik) = 0,8, berarti peluang besok narik jika sekarang
mogok adalah 0,8.
Probabilitas ini dapat disusun dalam bentuk tabel 3 (matriks)

Dari status Ke status (besok)

(sekarang) Narik Mogok

Narik 0,6 0,4

Mogok 0,8 0,2


c. Digolongkan Proses Markov Jika Masalah Di Atas Memenuhi
Asumsi:
 Jika sekarang kendaraan narik, besok hanya ada dua kemungkinan
status, yaitu narik lagi atau mogok. Sehingga jumlah probabilitas
transisi pada setiap baris adalah 1.
 Probabilitas transisi itu tidak akan berubah untuk selamanya.
 Probabilitas transisi hanya tergantung pada status sekarang dan
bukan pada status periode sebelumnya.

2. Contoh Kasus II

Pada suatu kota kecil terdapat dua pasar swalayan W dan L.


Diasumsikan setiap pembeli di kota tersebut melakukan kunjungan belanja
satu kali per minggu. Dalam sembarang minggu seorang pembeli hanya
berbelanja di W atau di L saja, dantidak di keduanya. Kunjungan belanja
disebut percobaan (trial) dari proses dan took yang dipilih disebut keadaan
dari proses. Suatu sampel 100 pembeli diambil dalam periode 10 minggu,
kemudian data dikompilasikan.
Dalam menganalisis data, terlihat bahwa dari seluruh pembeli yang
belanja di W dalam suatu minggu, 90 persen tetap belanja do took W pada
minggu berikutnya, sedangkan sisanya berpindah belanja pada took L 80%
dari yang berbelanja di took L dalam suatu minggu tetap berbelanja di
took L sedangkan 20% berpindah belanja pada took W. Informasi tersebut
disusun pada tabel 4 berikut :
Tabel 4. Matriks Kemungkinan Transisi
• Pada kedua baris berjumlah 100, tetapi jumlah kolom tidak
• Informasi ini digunakan untuk membuat matriks kemungkinan
perpindahan keadaan/transisi
• Didefinisikan : Keadaan 1 : Pembeli berbelanja di W , Keadaan 2 :
Pembeli berbelanja di L
• Dengan demikian matriks kemungkinan transisinya adalah :
Tabel 5 : Probabilitas Transisi

• Terlihat bahwa kemungkinan dari setiap baris berjumlah satu.

3. Contoh Kasus III Probabilitas Tree


Probabilitas Tree merupakan cara yang mudah untuk menggambarkan
transisi dengan jumlah terbatas dari suatu proses Markov.
Sebuah perusahaan transportasi mempunyai 220 unit mobil. Namun
tidak semua mobil dapat beroperasi dikarenakan mesin rusak. Data mobil
yang sedang beroperasi (narik) dan rusak (mogok) adalah sebagai
berikut :
Tabel 6. Data mobil
Dalam waktu dua hari terdapat perubahan, mobil yang tadinya
beroperasi ternyata rusak, begitu pula sebaliknya untuk mengetahui
perubahan yang terjadi ada pada tabel berikut :
Tabel 7. Perubahan yang terjadi mobil

Dari data tersebut hitunglah :


a. Probabilitas Transisi
b. Probabilitas hari ke-3 narik jika hari ke-1 narik
c. Probabilitas hari ke-3 mogok jika hari ke-1 narik
d. Probabilitas hari ke-3 narik jika hari ke-1 mogok
e. Probabilitas hari ke-3 mogok jika hari ke-1 mogok

Jawab

a. Probabilitas Transisi
Tabel 8. Data mobil narik dan mogok
Dari 2 gambar, kita bias menjawab soal di asas, sehingga
a. Probabilitas hari ke-3 narik, jika hari ke-1 narik = 0,3402 + 0,3084
= 0,6486
b. Probabilitas hari ke-3 mogok jika hari ke-1 narik = 0,2431 + 0,1083
= 0,3514
c. Probabilitas hari ke-3 narik, jika hari ke-1 mogok = 0,4316 +
0.1924 = 0,624
d. Probabilitas hari ke-3 mogok jika hari ke-1 mogok = 0,3084 +
0,0676 = 0,376
b. Peralatan Analisis Markov
Informasi yang dapat dihasilkan dari analisis Markov adalah
probabilitas berada dalam suatu status pada satu periode di masa
depan. Ada dua cara untuk menemukan informasi itu, yaitu Dengan
probabilitas tree dan Perkalian matriks. Probabilitas Tree merupakan
cara yang nyaman untuk menunjukkan sejumlah terbatas transisi dari
suatu proses Markov. Contoh kendaraan umum.
Tabel 9. Data mobil narik dan mogok

Dari status Ke status (besok)


(sekarang) Narik Mogok

Narik 0,6 0,4

Mogok 0,8 0,2

Misalkan ingin diketahui peluang narik pada hari ketiga jika pada hari
pertama kendaraan berstatus narik .
Jika pada hari pertama mogok, berapa peluang mogok pada hari ketiga

Jika yang ingin diketahui adalah probabilitas status pada periode ke t di


masa depan, dimana t cukup besar, maka alternatif yang digunakan adalah
dengan perkalian matriks

Matriks probabilitas transisi

Jika kendaraan narik pada hari ke 1, maka berlaku probabilitas berikut ini:

Nn (1) = 1
Mm(1) = 0

jika kedua probabilitas ini disusun ke dlm matrik (1 0)


Kemudian kalikan dengan matrik probabilitas transisi

Anda mungkin juga menyukai