Anda di halaman 1dari 10

Rantai

Markov

1.
2.
3.
4.
5.

Andan Sari
Intan Puspitasari
M. Fajar Nur Effendi
Susana Septia Ulfa
Yogi Prayogo

PENDAHULUAN

Model Rantai Markov dikembangkan oleh


seorang ahli Rusia A.A. Markov pada tahun
1896. Dalam analisis markov yang dihasilkan
adalah suatu informasi probabilistik yang
dapat digunakan untuk membantu pembuatan
keputusan, jadi analisis ini bukan suatu teknik
optimisasi melainkan suatu teknik deskriptif.
Analisis Markov merupakan suatu bentuk
khusus dari model probabilistik yang lebih
umum yang dikenal sebagai proses Stokastik
(Stochastic process).

Suatu Rantai Markov merupakan proses stokastik yang


berarti bahwa semua transisi adalah probabilitas
(ditentukan oleh kebetulan acak dan dengan demikian
tidak dapat diprediksi secara detail, meskipun mungkin
diprediksi dalam sifat statistik). Markov Chain
merupakan proses acak di mana semua informasi
tentang masa depan terkandung di dalam keadaan
sekarang (yaitu orang tidak perlu memeriksa masa lalu
untuk menentukan masa depan). Untuk lebih tepatnya,
Rantai Markov berarti bahwa bentuk ke depan hanya
tergantung pada keadaan sekarang
bergantung pada bentuk sebelumnya.

dan

tidak

Konsep dasar analisis markov adalah state dari sistem atau


state transisi, sifat dari proses ini adalah apabila
diketahui proses berada dalam suatu keadaan tertentu,
maka peluang berkembangnya proses di masa mendatang
hanya tergantung pada keadaan saat ini dan tidak
tergantung pada keadaan sebelumnya, atau dengan kata
lain rantai Markov adalah rangkaian proses kejadian
dimana peluang bersyarat kejadian yang akan datang
tergantung pada kejadian sekarang.

Analisis Markov ini sangat sering digunakan untuk


membantu pembuatan keputusan dalam bisnis dan industri,
misalnya dalam masalah ganti merek, masalah hutangpiutang, masalah operasi mesin, analisis pengawasan dan
lain-lain. Informasi yang dihasilkan tidak mutlak menjadi
suatu keputusan, karena sifatnya yang hanya memberikan
bantuan dalam proses pengambilan keputusan.

a sebuah Rantai Markov memiliki k keadaan yang


but (1, 2, . . . , k), maka probabilitas bahwa sistem
m keadaan i pada sebarang pengamatan sesudah
keadaan j pada pengamatan sebelumnya di
Pij dan disebut kemungkinan peralihan dari
eadaan i. Matriks P = disebut matriks peralihan
arkov.

Contoh :

DEFINISI : Vektor keadaan (state vektor) untuk


suatu pengamatan rantai markov dengan k keadaan
adalah vektor kolom x dimana komponennya yang
ke-i, yaitu xi, adalah probabilitas bahwa sistemnya
berada dalam keadaan ke-I pada waktu lalu.

Contoh
1:

Sebuah perusahaan persewaan mobil mempunyai


tiga lokasi persewaan, yang kita tandai sebagai lokasi
1,2, dan 3. seorang pelanggan dapat menyewa mobil
dari salah satu diantara ketiga lokasi dan dapat
mengembalikan mobil tersebut kesalah satu di antara
ketiga lokasi. Pimpinan perusahaan mendapatkan
bahwa para pelanggan mengembalikan mobil-mobil
tersebut ke berbagai lokasi menurut
kemungkinan/probabilitas berikut :
Disewa dari lokasi
1

dikembalikan ke lokasi

Solusi :
Matriks ini adalah matriks peralihan dari
sistem yang ditinjau sebagai sebuah
rantai Markov. Dari matriks ini probabilitas
adalah 0,6 bahwa sebuah mobil disewa
dari lokasi 3 akan dikembalikan ke lokasi
2, dan probabilitasnya adalah 0,8 bahwa
sebuah mobil yang disewa dari lokasi
akan dikembalikan ke lokasi 1, dan lain
sebagainya.

Contoh 2 :
Ketika
meninjau ulang buku catatan mengenai

sumbangan yang diterimanya, kantor alumni sebuah


perguruan tinggi mendapatkan bahwa 80% alumninya
yang menyumbang selama setahun akan menyumbang
tahun berikutnya. Hal ini dapat dipandang dalam proses
Markov dengan dua keadaan: keadaan 1 bersesuaian
dengan seorang alumni yang memberi sumbangan
dalam satu tahun, dan keadaan 2 bersesuaian dengan
seorang alumni yang tidak memberi sumbangan dalam
tahun itu. Matriks peralihan dari proses tersebut adalah :
P=

Dalam contoh-contoh di atas, matriks peralihan


dari Matriks Markov mempunyai ciri bahwa entri
pada kolom manapun berjumlah 1. ini bukan hal
yang kebetulan. Jika p = [pij] adalah matriks
peralihan dari Rantai Markov dengan k keadaan,
maka untuk setiap j kita harus mempunyai :
P1j + P2j + .. + Pkj = 1
(1)
Karena jika sistemnya berada dalam keadaan j pada satu
pengamatan, pasti ia berada pada satu dari k keadaan yang
mungkin pada pengamatan selanjutnya.

Anda mungkin juga menyukai