0514104024
0514104026
Poppy Oktavia
0514104030
0514104032
Siti Nurjanah
051304022
BAB I
PENDAHULUAN
1.1 LATAR BELAKANG
Sebagian besar penelitian
probabilitas
menangani
proses
percobaan
Lebih lanjut,
BAB II
ISI
2.1 TEORI
Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa
digunakan untuk melakukan pemodelan (modelling) bermacam-macam
sistem dan proses bisnis. Teknik ini dapat digunakan untuk memperkirakan
perubahan-perubahan di waktu yang akan datang dalam variabel-variabel
dinamis atas dasar perubahan-perubahan dari variabel-variabel dinamis
tersebut di waktu yang lalu. Teknik ini dapat digunakan juga untuk
menganalisis kejadian-kejadian di waktu-waktu mendatang secara matematis.
Model Rantai Markov ditemukan oleh seorang ahli Rusia yang bernama A.A.
Markov pada tahun 1906, yaitu:
Untuk setiap waktu t, ketika kejadian adalah K t dan seluruh kejadian
sebelumnya adalah Kt(j), ... , Kt(j-n) yang terjadi dari proses yang diketahui,
probabilitas seluruh kejadian yang akan datang Kt(j) hanya bergantung pada
kejadian Kt(j-1) dan tidak bergantung pada kejadian-kejadian sebelumnya yaitu
Kt(j-2), Kt(j-3),..., Kt(j-n).
Gambaran mengenai rantai Markov ini kemudian dituangkan dalam Gambar
1 dimana gerakan-gerakan dari beberapa variabel di masa yang akan datang
bisa diprediksi berdasarkan gerakan-gerakan variabel tersebut pada masa lalu.
Kt4 dipengaruhi oleh kejadian Kt3, Kt3 dipengaruhi oleh kejadian Kt2 dan
demikian seterusnya dimana perubahan ini terjadi karena peranan probabilitas
transisi (transition probability). Kejadian Kt2 misalnya, tidak akan
mempengaruhi kejadian Kt4.
Kejadian-kejadian di atas sifatnya berantai. Oleh karena itu, teori ini dikenal
dengan nama Rantai Markov. Dengan demikian, Rantai Markov akan
menjelaskan gerakan-gerakan beberapa variabel dalam satu periode waktu di
masa yang akan datang berdasarkan pada gerakan-gerakan variabel tersebut
di masa kini. Secara matematis dapat ditulis:
Kt(j) = P x Kt(j-1)
dimana,
Kt(j) = peluang kejadian pada t(j)
P = Probabilitas Transisional
t(j) = waktu ke-j
Peluang kejadian Kt(j) dinyatakan ke dalam bentuk vektor sehingga jumlah
seluruh selnya akan selalu 100%.
Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena
sifatnya yang hanya memberikan bantuan dalam proses pengambilan
keputusan.
Langkah langkah Penyelesaian Permasalahan Markov Chain:
1. Buatlah matriks transisi dari probabilitas yang diketahui.
Keadaan transisi adalah perubahan dari suatu keadaan (status) ke keadaan
(status) lainnya pada periode berikutnya. Keadaan transisi ini merupakan
suatu proses random dan dinyatakan dalam bentuk probabilitas.
Probabilitas ini dikenal sebagai probabilitas transisi. Probabilitas ini
dapat digunakan untuk menentukan probabilitas keadaan atau periode
berikutnya.
Suatu proses stokastik {Xt} dikatakan memiliki sifat markov jika :
P{Xt+1 = j X0 = k0, X1 = k1, ... Xt-1 = kt-1, Xt = I} = P{Xt+1 = j Xt = i}
Untuk t = 0,1, ... dan untuk tiap i, j, k0, k1, ...., kt-1.
Sifat markov ini dikatakan sebagai berikut :
Bahwa probabilitas bersyarat dari kejadian di masa mendatang, jika
diketahui kejadian dimasa lalu dan kondisi saat ini Xt = i, adalah tidak
tergantung pada masa lalu dan hanya tergantung pada kondisi dari proses
saat ini
Probabilitas bersyarat P{Xt+1 = j | Xt = i} dikatakan sebagai probabilitas
transisi.
Jika untuk setiap i dan j :
P{Xt+1 = j | Xt = i} = P{X1 = j | X0 = i}, untuk semua t = 0, 1, .....
maka probabilitas transisi (1 langkah) dikatakan stasioner, (probabilitas
transisi tidak berubah terhadap waktu) dinotasikan dengan Pij.
Jika untuk setian i dan j :
P{Xt+1 = j | Xt = i} = P{Xn = j | X0 = i}, untuk semua t = 0, 1, .....
Probabilitas bersyarat ini dinotasikan dengan Pij(n) dan disebut sebagai
probabilitas transisi n-langkah.
Pij(n) : probabilitas bersyarat dimana peubah acak X, dimulai dari state i,
akan
berapa pada state j setelah tepat n langkah (unit waktu).
karena Pij(n) adalah probabilitas bersyarat maka harus memenuhi sifatsifat :
Pij(n) 0 i dan j, n = 0,1,2,... (sifat ketidaknegatifan)
m
P(n)
ij =1 i dan j n=0,1, 2
j=1
a j = ai ( Pik
(n)
(0 )
( n1)
( 0)
P kj)= ai P ij
(n )
( nm )
(m)
P kj , 0<m<n
merek
lain
dapat
karena
periklanan,
promosi
khusus,
harga,
Market Share untuk merek A, B, C, dan D sekarang adalah 22, 30, 23, dan
25 persen untuk periode pertama. Manajemen akan memperoleh manfaat
bila mereka mengetahui berapa market sharenya di periode waktu yang
akan datang.
Jawaban:
Langkah 1: Membuat matriks transisi dari probabilitas yang diketahui.
Matrik perpindahan pelanggan:
0.796
0.091
a(1) = [ 0.22 0.30 0.23 0.25 ]
0.046
0.067
0.133
0.767
0.017
0.083
0.000
0.109
0.891
0.000
0.040
0.060
0.040
0.860
Merek A = 23%
Merek B = 28.4%
Merek C = 23.8%
Merek D = 25.1%
Probabilitas untuk periode ke-2:
P(2) = P(1) x P(1)
P(2) =
0.796
0.091
0.046
0.067
0.648
0.151
0.082
0.119
0.133
0.767
0.017
0.083
0.211
0.607
0.038
0.144
0.000
0.109
0.891
0.000
0.014
0.181
0.796
0.009
][
0.040
0.796 0.133
0.060
0.091 0.767
0.040
0.046 0.017
0.860
0.067 0.083
0.074
0.106
0.073
0.747
0.000
0.109
0.891
0.000
0.040
0.060
0.040
0.860
0.648
0.151
a(2) = [ 0.22 0.30 0.23 0.25 ]
0.082
0.119
0.211
0.607
0.038
0.144
0.014
0.181
0.796
0.009
0.074
0.106
0.073
0.747
Jadi pada periode ke-2 market share untuk masing-masing merk adalah:
Merek A = 24.1%
Merek B = 26.6%
Merek C = 24.6%
Merek D = 25.2%
Probabilitas untuk periode ke-8:
P(4) = P(2) x P(2)
P(4) =
0.648
0.151
0.082
0.119
0.462
0.217
0.133
0.188
0.211
0.607
0.038
0.144
0.276
0.423
0.081
0.220
0.014
0.181
0.796
0.009
0.060
0.257
0.642
0.042
][
0.014
0.181
0.796
0.009
0.074
0.106
0.073
0.747
][
0.060
0.257
0.642
0.042
0.127
0.167
0.123
0.583
0.074
0.648 0.211
0.106
0.151 0.607
0.073
0.082 0.038
0.747
0.119 0.144
0.127
0.167
0.123
0.583
P(8) =
0.462
0.217
0.133
0.188
0.306
0.258
0.187
0.250
0.276
0.423
0.081
0.220
0.277
0.296
0.149
0.277
0.060
0.257
0.642
0.042
0.142
0.293
0446
0.119
0.127
0.462 0.276
0.167
0.217 0.423
0.123
0.133 0.081
0.583
0.188 0.220
0.186
0.227
0.180
0.406
0.306
0.258
a(8) = [ 0.22 0.30 0.23 0.25 ]
0.187
0.250
0.277
0.296
0.149
0.277
0.142
0.293
0.446
0.119
0.186
0.227
0.180
0.406
Jadi pada periode ke-8 market share untuk masing-masing merk adalah:
Merek A = 25.1%
Merek B = 25.3%
Merek C = 25.2%
Merek D = 25.2%
10
A'
A 0.8 0.2
A ' 0.6 0.4
[ 0.62 0.38 ]
Ini berarti setelah diadakan kampanye, probabilitas pengguna KB suntik
meningkat dari 10% menjadi 62%.
11
P(1) =
[
[
][
]
0.8 0.2
0.8 0.2
0.6 0.4
0.6 0.4
0.76 0.24
0.72 0.28
a(2) =
0.72 0.28
[ 0.724 0.276 ]
Probabilitas untuk periode ke-3:
a(3) =
[ 0.749 0.251 ]
[ 0.75 0.25 ]
[ 0.75 0.25 ]
12
A ' =[ A
A ']
0.8 0.2
0.6 0.4
13
14
BAB III
PENUTUP
3.1 KESIMPULAN
1. Berdasarkan semua penjelasan tentang Rantai Markov sebagai ilmu
probabilitas, maka dapat disimpulkan bahwa Rantai Markov merupakan
suatu bagian dari ilmu probabilitas. Teori ini sangat berguna untuk
memprediksi kejadian yang akan terjadi dengan hanya melihat kondisi saat
ini tanpa mempedulikan kondisi masa lalu.
2. Aplikasi dari Rantai Markov ini banyak sekali ditemukan dalam kehidupan
kita sehari-hari tanpa kita sadari. Teori ini bisa digunakan untuk
menganalisis perpindahan merk yang dilakukan oleh konsumen, kebiasaan
seseorang untuk browsing dalam jaringan internet, permainan ular tangga,
dan juga dalam memprediksi kondisi cuaca.
3. Rantai Markov ini sangat erat kaitannya dengan ilmu probabilitas.
Sehingga teori ini sangat penting untuk dikembangkan untuk membantu
setiap orang untuk mengambil sebuah keputusan. Meskipun hanya bisa
membantu untuk mendeskripsikan, tidak bisa untuk mengambil keputusan
yang sebenarnya.
4. Penyelesaian permasalahan rantai markov ini dilakukan dengan membuat
matriks transisi dari probabilitas yang diketahui kemudian menghitung
probabilitas untuk masa yang akan datang.
3.2 SARAN
Dalam penyelesaian berbagai aplikasi dari masalah Markov Chain ini
sebaiknya
memahami
terlebih
dahulu
mengenai
metode-metode
15