0514104024
0514104026
Poppy Oktavia
0514104030
0514104032
Siti Nurjanah
051304022
BAB I
PENDAHULUAN
1.1 LATAR BELAKANG
Sebagian besar penelitian
probabilitas
menangani
proses
percobaan
Lebih lanjut,
BAB II
ISI
2.1 TEORI
Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa
digunakan untuk melakukan pemodelan (modelling) bermacam-macam
sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan
perubahan-perubahan di waktu yang akan datang dalam variabel-variabel
dinamis atas dasar perubahan-perubahan dari variabel-variabel dinamis
tersebut di waktu yang lalu. Teknik ini dapat digunakan juga untuk
menganalisis kejadian-kejadian di waktu-waktu mendatang secara matematis.
Model Rantai Markov ditemukan oleh seorang ahli Rusia yang bernama A.A.
Markov pada tahun 1906, yaitu:
Untuk setiap waktu t, ketika kejadian adalah K t dan seluruh kejadian
sebelumnya adalah Kt(j), ... , Kt(j-n) yang terjadi dari proses yang diketahui,
probabilitas seluruh kejadian yang akan datang Kt(j) hanya bergantung pada
kejadian Kt(j-1) dan tidak bergantung pada kejadian-kejadian sebelumnya yaitu
Kt(j-2), Kt(j-3),..., Kt(j-n).
Gambaran mengenai rantai Markov ini kemudian dituangkan dalam Gambar
1 dimana gerakan-gerakan dari beberapa variabel di masa yang akan datang
bisa diprediksi berdasarkan gerakan-gerakan variabel tersebut pada masa lalu.
Kt4 dipengaruhi oleh kejadian Kt3, Kt3 dipengaruhi oleh kejadian Kt2 dan
demikian seterusnya dimana perubahan ini terjadi karena peranan probabilitas
transisi (transition probability). Kejadian Kt2 misalnya, tidak akan
mempengaruhi kejadian Kt4.
Kejadian-kejadian di atas sifatnya berantai. Oleh karena itu, teori ini dikenal
dengan nama Rantai Markov. Dengan demikian, Rantai Markov akan
menjelaskan gerakan-gerakan beberapa variabel dalam satu periode waktu di
masa yang akan datang berdasarkan pada gerakan-gerakan variabel tersebut
di masa kini. Secara matematis dapat ditulis:
Kt(j) = P x Kt(j-1)
dimana,
Kt(j) = peluang kejadian pada t(j)
P = Probabilitas Transisional
t(j) = waktu ke-j
Peluang kejadian Kt(j) dinyatakan ke dalam bentuk vektor sehingga jumlah
seluruh selnya akan selalu 100%.
Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena
sifatnya yang hanya memberikan bantuan dalam proses pengambilan
keputusan.
Langkah langkah Penyelesaian Permasalahan Markov Chain:
1. Buatlah matriks transisi dari probabilitas yang diketahui.
Keadaan transisi adalah perubahan dari suatu keadaan (status) ke keadaan
(status) lainnya pada periode berikutnya. Keadaan transisi ini merupakan
suatu proses random dan dinyatakan dalam bentuk probabilitas.
Probabilitas ini dikenal sebagai probabilitas transisi. Probabilitas ini
dapat digunakan untuk menentukan probabilitas keadaan atau periode
berikutnya.
2. Menghitung probabilitas untuk waktu yang akan datang.
Dengan diketahui {aj(0)} dan P dari sebuah rantai Markov, probabilitas
absolut dari sistem tersebut setelah sejumlah transisi tertentu ditentukan
sebagai berikut. Anggaplah {aj(0)} adalah probabilitas absolut dari sistem
tersebut setelah n transisi, yaitu pada saat tn. Ekspresi umum dari {a j(0)}
dalam bentuk {aj(0)} dan P dapat ditemukan sebagai berikut.
aj(1) = a1(0) P1j + a2(0) P2j + a3(0) P3j + ... = ai(0) Pij
Rumusnya:
a j(n) = ai(0 ) ( Pik (n1) P kj)= ai( 0) P ij(n )
i
A'
A 0.8 0.2
A ' 0.6 0.4
a =[0.1 0.9]
Langkah 2: Menghitung probabilitas untuk waktu yang akan datang.
Probabilitas untuk periode ke-1:
a(1) = a(0) P(1)
a(1) =
[ 0.62 0.38 ]
Ini berarti setelah diadakan kampanye, probabilitas pengguna KB suntik
meningkat dari 10% menjadi 62%.
Probabilitas untuk periode ke-2:
P(1) =
][
0.8 0.2
0.8 0.2
0.6 0.4
0.6 0.4
0.76 0.24
0.72 0.28
[ 0.724 0.276 ]
Probabilitas untuk periode ke-3:
a(3) =
[ 0.749 0.251 ]
[ 0.75 0.25 ]
[ 0.75 0.25 ]
A '=[ A
A ']
0.8 0.2
0.6 0.4
BAB III
PENUTUP
3.1 KESIMPULAN
Berdasarkan semua penjelasan tentang Rantai Markov sebagai ilmu
probabilitas, maka dapat disimpulkan bahwa Rantai Markov merupakan suatu
bagian dari ilmu probabilitas. Teori ini sangat berguna untuk memprediksi
kejadian yang akan terjadi dengan hanya melihat kondisi saat ini tanpa
mempedulikan kondisi masa lalu.
Aplikasi dari Rantai Markov ini banyak sekali ditemukan dalam kehidupan
kita sehari-hari tanpa kita sadari. Teori ini bisa digunakan untuk menganalisis
perpindahan merk yang dilakukan oleh konsumen, kebiasaan seseorang untuk
browsing dalam jaringan internet, permainan ular tangga, dan juga dalam
memprediksi kondisi cuaca.
Rantai Markov ini sangat erat kaitannya dengan ilmu probabilitas. Sehingga
teori ini sangat penting untuk dikembangkan untuk membantu setiap orang
untuk mengambil sebuah keputusan. Meskipun hanya bisa membantu untuk
mendeskripsikan, tidak bisa untuk mengambil keputusan yang sebenarnya.
3.2 SARAN
Dalam penyelesaian berbagai aplikasi dari masalah Markov Chain ini
sebaiknya
memahami
terlebih
dahulu
mengenai
metode-metode
10