Anda di halaman 1dari 16

Rantai Markov

Rantai Markov (Markov Chains) adalah suatu teknik matematika yang biasa
digunakan untuk melakukan pemodelan (modelling) bermacam-macam sistem dan
proses bisnis. Teknik ini dapat digunakan untuk memperkirakan perubahan-
perubahan di waktu yang akan datang dalam variabel-variabel dinamis atas dasar
perubahan-perubahan dari variabel-variabel dinamis tersebut di waktu yang lalu.
Teknik ini dapat digunakan juga untuk menganalisis kejadian-kejadian di waktu-
waktu mendatang secara matematis.Model Rantai Markov ditemukan oleh
seorang ahli Rusia yang bernama A.A. Markov pada tahun 1906, yaitu:
“Untuk setiap waktu t, ketika kejadian adalah Kt dan seluruh kejadian sebelumnya
adalah Kt(j), ... , Kt(j-n) yang terjadi dari proses yang diketahui, probabilitas
seluruh kejadian yang akan datang Kt(j) hanya bergantung pada kejadian Kt(j-1)
dan tidak bergantung pada kejadian-kejadian sebelumnya yaitu Kt(j-2), Kt(j-3),...,
Kt(j-n).”
Gambaran mengenai rantai Markov ini kemudian dituangkan dalam Gambar 1
dimana gerakan-gerakan dari beberapa variabel di masa yang akan datang bisa
diprediksi berdasarkan gerakan-gerakan variabel tersebut pada masa lalu. Kt4
dipengaruhi oleh kejadian Kt3, Kt3 dipengaruhi oleh kejadian Kt2 dan demikian
seterusnya dimana perubahan ini terjadi karena peranan probabilitas transisi
(transition probability). Kejadian Kt2 misalnya, tidak akan mempengaruhi
kejadian Kt4.
Probabilitas Transisional
Probabilitas Transisional
Probabilitas
Transisional
K1 ... K2 ... K3 ... K4 ... Kn

t1 t2 t3 t4
Gambar 1 Peristiwa dalam Rantai Markov
Kejadian-kejadian di atas sifatnya berantai. Oleh karena itu, teori ini dikenal
dengan nama Rantai Markov. Dengan demikian, Rantai Markov akan menjelaskan
gerakan-gerakan beberapa variabel dalam satu periode waktu di masa yang akan
datang berdasarkan pada gerakan-gerakan variabel tersebut di masa kini. Secara
matematis dapat ditulis:
Kt(j) = P x Kt(j-1)
dimana,
Kt(j) = peluang kejadian pada t(j)
P = Probabilitas Transisional
t(j) = waktu ke-j
Peluang kejadian Kt(j) dinyatakan ke dalam bentuk vektor sehingga jumlah
seluruh selnya akan selalu 100%.
1. Probabilitas Absolut dan Transisi
Dengan diketahui {aj(0)} dan P dari sebuah rantai Markov, probabilitas absolut
dari sistem tersebut setelah sejumlah transisi tertentu ditentukan sebagai berikut.
Anggaplah {aj(0)} adalah probabilitas absolut dari sistem tersebut setelah n
transisi, yaitu pada saat tn. Ekspresi umum dari {aj(0)} dalam bentuk {aj(0)} dan
P dapat ditemukan sebagai berikut.
aj (1) = a1 (0) P1j + a2 (0) P2j + a3 (0) P3j + ... = ∑ ai (0) Pij
Juga
a j ( 2)  ∑ai (1) Pij  ∑(∑ak (0) Pki )Pij  ∑ak (0) (∑Pk i Pij ) 
∑ak ( 0) Pkj ( 2)
i ik k i k
dimanaPkj ( 2)  ∑Pki Pij adalah probabilitas transisi dua langkah atau
order kedua (two step
atau second-order transition probability), yaitu probabilitas untuk bergerak dari
keadaan k ke keadaan j dalam tepat dua transisi.
Demikian pula dapat diperlihatkan berdasarkan induksi bahwa
a j ( n )  ∑ai (0 ) (∑Pik ( n −1) Pkj  ∑ai (0 ) Pij ( n )
i k i
dimana Pij(n) adalah probabilitas transisi n langkah atau order n dengan diketahui
rumus rekursif
(n) ( n−1)
Pij ∑Pik Pkj
Secara umum, untuk semua i dan j
Pij ( n )  ∑Pik ( n −m ) (m)
Pkj, 0mn
Persamaan-persamaan ini dikenal sebagai persamaan Chapman-Kolmogorov.
Elemen-elemen dan matriks transisi yang lebih tinggi ||Pij(n)|| dapat diperoleh
secara langsung dengan perkalian matriks. Jadi
|| Pij(2) || = || Pij || || Pij || = P2
|| Pij(3) || = || Pij 2 || || Pij || = P3
dan secara umum,
|| Pij(n) || = Pn-1 P = Pn
Jadi, jika probabilitas absolut didefinisikan dalam bentuk vektor sebagai
a(n) = {a1 (n), a2 (n), a3 (n),...}
Maka a(n) = a(0) Pn
Contoh
Pertimbangkan rantai Markov berikut ini dengan dua keadaan 2 8
P
6 4
dengan a(0) = (7 3). Tentukan a(1), a(4), a(8)
solusi
2 8 2 852 48
P2 
6 4 6 436 64
P4 P2P2  52 48 52 48 443 557

64
36 36 64417 583
P8  P 4 P 4 443 557 443 557
4281 5719
 
417
4274 5726
417 583 583
jadi
2 8  32 68

a (1)  7 3
6 4
a ( 4)  7 443 557 435 565
3
417 583
a (8)  7 4281 5719  4279 5721
3
4274
5726
Hasil yang menarik adalah bahwa baris-baris dari P8 cenderung identik. Juga, a8
cenderung identik dengan baris-baris dari P8. Hasil ini berkaitan dengan sifat
jangka panjang dari rantai Markov, hasil tersebut menyiratkan bahwa probabilitas
absolut jangka panjang tidak bergantung dari a(0). Dalam kasus ini, probabilitas
yang dihasilkan dikenal sebagai steady-state probabilities.

2. Rantai Markov yang irreducible


Sebuah rantai Markov dikatakan Irreducible, jika setiap keadaan Ej dapat dicapai
dari setiap keadaan lain Ei setelah sejumlah terbatas transisi, yaitu untuk i ≠ j.
Pij(n) > 0, untuk 1 ≤ n < ∞
Dalam kasus ini semua keadaan dalam rantai tersebut berkomunikasi
3. Himpunan Tertutup dan Keadaan yang Menyerap
Dalam rantai Markov, himpunan C dari keadaan-keadaan dikatakan tertutup jika
sistem tersebut, begitu berada dalam satu keadaan C akan tetap berada dalam C.
Sebuah contoh kasus dari sebuah himpunan tertutup adalah satu keadaan Ej
dengan probabilitas transisi Pij =
1. Dalam kasus ini, Ej dikatakan keadaan yang menyerap (absorbing state).
Semua keadaan dari sebuah rantai yang bersifat irreducible pasti membentuk
sebuah himpunan tertutup dan tidak ada sub-himpunan lain yang dapat tertutup.
Himpunan tertutup C juga memenuhi semua kondisi dari sebuah rantai Markov
dan karena itu dapat dipelajari secara independen.
Contoh
Pertimbangkan rantai Markov berikut ini:
1/ 2 1 / 4 1 / 4 0

0 0 1 0
P 0
1/3 1/ 3 1/ 3
0 0 0 1
Rantai ini diilustrasikan secara grafik dalam gambar.2. Gambar ini
memperlihatkan bahwa keempat keadaan ini tidak membentuk sebuah rantai yang
irreducible, karena keadaan 0, 1, dan 2 tidak dapat dicapai dari keadaan 3.
Keadaan 3 secara sendirian membentuk sebuah himpunan tertutup dan karena itu
menyerap. Kita dapat juga mengatakan bahwa keadaan 3 membentuk sebuah
rantai yang irreducible.
1/4 1
1/2 1/3
0 1/4 2 3
1/3 1

1/3
Gambar 2. Proses Model Rantai Markov
4. Menyusun Matriks Probabilitas Transisi
Untuk menggambarkan proses Markov, akan disajikan suatu contoh masalah
tentang kegiatan-kegiatan pemilihan merek dan peramalan probabilitas transisi
yang kemungkinan dilakukan para konsumen, yaitu pergantian dari satu merek ke
merek lain. Anggapan bahwa sampel konsumen terdiri dari kombinasi 1000
responden yang tersebar pada 4 merek, A, B, C, dan D. Anggapan selanjutnya
adalah bahwa sampel tersebut telah mewakili keseluruhan kelompok dalam
kesetiaanya terhadap suatu merek dan pola pergantian dari satu merek ke merek
lain. Konsumen berpindah dari satu merek ke merek lain dapat karena periklanan,
promosi khusus, harga, ketidakpuasan, dan lain-lain.
Dalam Tabel 1, sebagian besar pelanggan yang mula-mula membeli merek A,
tetap memilih merek tersebut pada periode kedua. Meskipun demikian, ada 50
konsumen tambahan dibanding 45 konsumen yang berpindah dari merek A ke
merek-merek lain.
Tabel 1. Perubahan Pelanggan
Periode Perpindahan Peride
` Pertama A B C D Kedua
A 220 175 40 0 10 225
B 300 20 230 25 15 290
C 230 10 5 205 10 230
D 250 15 25 2 215 255
JML 1000 220 300 230 250 1000
Meskipun kita mempunyai informasi pola perpindahan merek langganan dalam
tabel di atas, tetapi tidak ada perubahan pada jumlah dan total pelanggan. Hal ini
merupakan karakteristik dasar proses-proses Markov, yaitu serangkaian
perubahan progresif dan saling ketergantungan.
Selanjutnya adalah kita bentuk probabilitas transisi dan matriksnya
Data ini dapat meramalkan tingkat di mana suatu merek akan mendapatkan atau
kehilangan market share-nya dan dapat menunjukan kemungkinan market share
ekuilibrium di waktu yang akan datang sehingga manajemen dapat mengarahkan
usaha-usaha promosinya.
5. First-Order dan High-Order Analisa Markov
Proses Markov dapat berbeda order. First-Order hanya mempertimbangkan
pilihan-pilihan merek yang dibuat selama suatu periode untuk penentuan
probabilitas pilihan dalam periode berikutnya. Second-order analisa Markov
menganggap pilihan-pilihan untuk suatu merek tertentu dalam periode berikutnya
tergantung pada pilihan-pilihan merek yang dibuat oleh para pelanggan selama
dua periode terakhir. Begitu juga untuk third-order, proses Markov yang
digunakan untuk meremal perilaku periode berikutnya terhadap merek-merek
tertentu berdasarkan pola pemilihan merek para pelanggan selama dua periode
terakhir.
Banyak riset pemasaran telah membuktikan bahwa penggunaan anggapan first-
order untuk maksud-maksud peramalan adalah valid.
6. Menghitung Kemungkinan Market Share di Waktu yang Akan Datang
Market Share untuk merek A, B, C, dan D sekarang adalah 22, 30, 23, dan 25
persen untuk periode pertama. Manajemen akan memperoleh manfaat bila mereka
mengetahui berapa market sharenya di periode waktu yang akan datang.
Perhitungan market share yang mungkin untuk merek A, B, C, dan D dalam
periode kedua dapat diperoleh dengan mengalikan matriks probabilitas transisi
dengan market share pada periode pertama
Setelah pemecahan untuk periode kedua, periode ketiga dapat ditentukan dengan
dua cara. Metode pertama adalah kelanjutan pendekatan perhitungan terdahulu,
mengalikan matriks probabilitas transisi mula-mula dengan market share periode
kedua yang akan menghasilka market share periode ketiga. Metode kedua adalah
mengkuadratkan matriks probabilitas transisi untuk jumlah periode yang
diinginkan kemudian mengalikan matriks yang dihasilkan dengan market share
awal.
Perhitungan Metode Pertama
Perkalian matriks digunakan lagi untuk mencari market share setiap merek.
A B C D
A 0.796 0.133 0.000 0.040 0.225 0.228
B 0.091 0.767 0.109 0.060 0.290 0.283
C 0.046 0.017 0.891 0.040 × 0.230
=0.231
0.067 0.083 0.000 0.860 0.255
D 0.258
Perhitungan Metode Kedua
A B C D
A 0.796 0.133 0.000 0.040 0.796 0.133 0.000 0.040

B 0.091 0.767 0.109 0.060 0.091 0.767 0.109 0.060


C 0.046 0.017 0.891 0.040 × 0.046 0.017
0.891 0.040
0.067 0.083 0.000 0.860 0.067 0.083
0.000 0.860
D 0.6484 0.2112 0.0145 0.742
= 0.1513 0.6073 0.1808 0.1056
0.0818 0.0375 0.7957 0.0729
0.1185 0.1440 0.0090 0.7473
A B C D
A 0.6484 0.2112 0.0145 0.0742 0.22 0.228

B 0.1513 0.6073 0.1808 0.1056 0.30 0.283


C 0.0818 0.0375 0.7957 0.0729 × 0.23 = 0.231
0.1185 0.1440 0.0090 0.7473 0.25
D 0.258
7. Menentukan Kondisi Ekuilibrium
Ekuilibrium adalah istilah untuk menandai terjadinya keseimbangan antara dua
kekuatan yang saling mencari kondisi yang saling menguntungkan bagi masing-
masing. Misalnya, keseimbangan pasar antara permintaan dan penawaran. Dalam
pembahasan rantai Markov ini, keseimbangan itu akan menjelaskan bagaimana
perubahan-perubahan variabel di dalam sistem itu akhirnya membawa Kt(j) dalam
kondisi yang tidak berubah-ubah lagi atau stabil. Secara matematis, jika Kt(j) = P
x Kt(j-1) maka kondisi ekuilibrium akan tercapai jika :
Kt(eq) = P x Kt(eq)
Contoh
Perusahaan G mempunyai dua pesaing dalam suatu segmen pasar dunia bisnisnya.
Pada tahun ini, market share yang dikuasai masing-masing perusahaan adalah
sebagai berikut: Perusahaan G 30%, pesaing A 20% dan pesaing B 50%. Matriks
probabilitas transisi (rantai Markov first order), yang menujukan arus para
pelanggan adalah sebagai berikut:
G A B
G 0.6 0.2 0.2
A 0.1 0.6 0.2
0.3 0.2 0.6
Persamaan untuk market share perusahaan G pada ekulibrium sama dengan 0.6
bagian yang dikuasai dalam periode ekuilibrium sebelumnya (atau eq.-1)
ditambah 0.2 bagian pesaing A pada periode ekulibrium dikurangi satu periode
dan 0.2 bagian pesaing B pada periode ekulibrium dikurangi satu periode.
Persamaan tersebut dapat ditulis: Geq.-1 = 0.6 Geq.-1 + 0.2 Aeq.-1 + 0.2 Beq.-1
Bentuk persamaan yang sama dapat dibuat untuk kedua pesaing. Tiga persamaan
dalam contoh dapat dinyatakan berikut ini:
I. G = 0.6 G + 0.2 A + 0.2 B
II. A = 0.1 G + 0.6 A + 0.2 B
III. B = 0.3 G + 0.2 A + 0.6 B
IV. 1.0 = G + A + B
Ini menunjukan bahwa total ketiga market share baru = 1)
Dengan ada bilangan yang sama pada kedua sisi persamaan, dapat dihasilkan
persamaan yang menunjukan tambahan dan kehilangan untuk setiap perusahaan
sebagai berikut:
I. 0 = -0.4 G + 0.2 A + 0.2 B
II. 0 = 0.1 G – 0.4 A + 0.2 B
III. 0 = 0.3 G + 0.2 A – 0.4 B IV. 1.0 = G + A + B
Dari persamaan I dan III
0 = -0.4 G + 0.2 A + 0.2 B
0 = 0.3 G + 0.2 A – 0.4 B -
0 = -0.7 G + 0.6 B
0.7 G = 0.6 B
G = 0.857 B
Persamaan III dikalikan 4/3
0 = -0.4 G + 0.2 A + 0.2 B
0 = 0.4 G + 0.267 A – 0.533 B -
0 = 0.467 A – 0.333 B
0.467 A = 0.333 B
A = 0.715 B
Substitusikan nilai-nilai G dan A
1=G+A+B
1 = 0.857 B + 0.715 B + 1.0 B
1 = 2.572 B
B = 0.389 (B pada ekuilibrium)
Kemudian menentukan nilai-nilai G dan A
G = 0.857 x 0.389 = 0.333 (G pada ekuilibrium)
A = 0.715 x 0.389 = 0.278 (A pada ekuilibrium)
Untuk membuktikan bahwa telah tercapai kondisi ekuilibrium adalah dengan
mengalikan matriks probabilitas transisi dengan market share ekuilibrium. Ini
dapat dihitung dengan menggunakan aljabar matriks dan ditunjukan sebagai
berikut:
G A B
G 0.6 0.2 0.2 0.333 0.333
A 0.1 0.6 0.2 × 0.278 = 0.278
0.3 0.2 0.6 0.389 0.389
8. Ekuilibrium Markov dengan Program Lindo
Ekuilibrium Markov juga dapat diselesaikan dengan menggunakan program
Lindo.Karena program ini menghendaki format input baku, maka kita gunakan
persamaan V-VIII. Output Program Lindo untuk ekuilibrium Markov
max Geq + Aeq + Beq
-0.4 Geq + 0.2 Aeq + 0.2 Beq = 0
0.1 Geq - 0.4 Aeq + 0.2 Beq =0
0.3 Geq + 0.2 Aeq - 0.4 Beq =0
Geq + Aeq + Beq =1
End
OBJECTIVE FUNCTION VALUE
1) 1.000000
VARIABLE VALUE REDUCED COST
GEQ 0.333333 0.000000
AEQ 0.277778 0.000000
BEQ 0.388889 0.000000
ROW SLACK OR SURPLUS DUAL PRICES
2) 0.000000 0.000000
3) 0.000000 0.000000
4) 0.000000 0.000000
5) 0.000000 1.000000
RANGES IN WHICH THE BASIS IS UNCHANGED:
OBJ COEFFICIENT RANGES
VARIABLE CURRENT ALLOWABLE ALLOWABLE
COEF INCREASE DECREASE
GEQ 1.000000 INFINITY INFINITY
AEQ 1.000000 INFINITY INFINITY
BEQ 1.000000 INFINITY INFINITY
RIGHTHAND SIDE RANGES
ROW CURRENT ALLOWABLE ALLOWABLE
RHS INCREASE DECREASE
2 0.000000 0.000000 0.000000
3 0.000000 0.000000 0.000000
4 0.000000 0.000000 0.000000
5 1.000000 INFINITY 1.000000

Rantai Markov (Markov Chain) adalah sebuah teknik perhitungan yang umumnya
digunakan dalam melakukan pemodelan bermacam-macam kondisi. Teknik ini
digunakan untuk membantu dalam memperkirakan perubahan yang mungkin
terjadi di masa mendatang. Perubahan-perubahan tersebut diwakili dalam
variabel-variabel dinamis di waktu-waktu tertentu. Sehingga perlu untuk
menyimpan nilai dari variabel keadaan pada tiap-tiap waktu tertentu itu

I.        Sejarah Markov Chain


Model Rantai Markov ditemukan oleh seorang ilmuwan Rusia bernama Andrey
Andreyevich Markov pada tahun 1906.

“Untuk setiap waktu t, ketika kejadian adalah Kt dan seluruh kejadian sebelumnya
adalah Kt(j),…, Kt(j-n) yang terjadi dari proses yang diketahui, probabilitas seluruh
kejadian yang akan datang Kt(j) hanya bergantung pada kejadian Kt(j-1) dan tidak
bergantung pada kejadian-kejadian sebelumnya yaitu Kt(j-2), Kt(j-3), …, Kt(j-n)”

Gambar 1. Andrey Andreyevich Markov


Markov berfokus pada perluasan hukum bilangan besar dalam berbagai
percobaan. Model ini berhubungan dengan suatu rangkaian proses dimana
kejadian akibat suatu eksperimen hanya tergantung pada kejadian yang langsung
mendahuluinya dan tidak tergantung pada rangkaian kejadian sebelum-
sebelumnya yang lain.
II.      Analisa Markov
Dalam kenyataannya, penerapan analisa Markov bisa dibilang cukup terbatas
karena sulit untuk menemukan permasalahan yang memenuhi semua sifat yang
diperlukan untuk analisa Markov, terutama persyaratan bahwa probabilitas transisi
harus konstan sepanjang waktu.

Proses Markov Chain terdiri dari dua prosedur, yaitu menyusun matriks
probabilitas transisi, dan kemudian menghitung kemungkinan market share di
waktu yang akan datang. Probabilitas transisi adalah sebagai contoh pergantian
yang mungkin dilakukan oleh konsumen dari satu merk ke merk yang lain.
Konsumen dapat berpindah dari suatu merk ke merk yang lain disebabkan karena
periklanan, promosi khusus, harga, ketidakpuasan, dan lain-lain. Hal ini akan
bermanfaat karena jumlah market share-nya di periode yang akan datang akan
bisa diperhitungkan sejak dini.

Metode ini banyak digunakan untuk pengambilan keputusan, namun sebenarnya


hanya memberikan informasi bagi pengambil keputusan untuk memperbaiki
keputusannya, bukan untuk memberi solusi.

Gambar 2. Rantai Markov


Langkah-langkah untuk menyelesaikan perhitungan probabilitas pada periode
waktu tertentu menggunakan rantai Markov adalah sebagai berikut:

1. Buatlah matriks transisi dari probabilitas yang diketahui


2. Lakukan operasi perkalian matriks dari probabilitas waktu
sebelumnya dengan matriks transisi. Rumusnya adalah: Matriks periode
ke-n = Matriks periode ke-n+1 * Matriks transisi
3. Ulang proses yang sama sampai menemukan probabilitas yang
hendak dicari
Dalam perhitungan probabilitas yang terus berulang tersebut, akan ditemui pada
periode tertentu bahwa probabilitas hasil perhitungan kedua matriks itu bernilai
sama/tetap/tidak berubah apabila dihitung untuk periode-periode selanjutnya.
Kondisi ini disebut dengan probabilitas keadaan tetap (steady state probability).
Langkah yang dikerjakan untuk menemukan steady state probability adalah sama
seperti langkah untuk menghitung probabilitas pada kondisi tertentu.

Nilai probabilitas pada periode-periode selanjutnya setelah bertemu dengan steady


state probability ini akan sama. Karenanya, probabilitas ini bisa digunakan
sebagai prediksi jumlah dalam keadaan tetap, dengan cara mengalikan steady state
probability dengan jumlah orang yang terkait dengan permasalahan yang sedang
dihadapi.

Permasalahan selanjutnya apabila perhitungan dilakukan per periode, tentunya


akan memakan waktu yang lama, karena contohnya saja apabila steady state
probability ada pada periode ke-15, maka harus dilakukan perhitungan sebanyak
14 kali. Hal ini bisa diatasi dengan menghitung probabilitas keadaan tetap secara
langsung menggunakan persamaan.

Semua contoh perhitungan untuk semua penjelasan di atas bisa dilihat pada bagian
Case Study di bawah ini.

III.    Case Study
Suatu survei dilakukan di sebuah wilayah di kota Jakarta. Diketahui bahwa
wilayah tersebut terdiri dari 1000 keluarga. Dari survei tersebut, diperoleh data
bahwa 600 keluarga merupakan pelanggan toserba ‘Serba’ dan 400 keluarga
merupakan pelanggan toserba ‘Ada’. Pada bulan itu, diketahui bahwa :

 Dari 600 keluarga pelanggan toserba ‘Serba’ diperoleh data bahwa


400 keluarga tetap berbelanja di toserba ‘Serba’ dan 200 lainnya
berbelanja di toserba ‘Ada’.
 Dari 400 keluarga pelanggan toserba ‘Ada’ dinyatakan bahwa 150
keluarga tetap berbelanja di toserba ‘Ada’. Sedang 250 lainnya
berbelanja di toserba ‘Serba’.
Hitunglah :

1. Matriks probabilitas transisi untuk permasalahan di atas!


2. Probabilitas untuk toko “Serba” dan “Ada” pada bulan ketiga apabila
pada bulan pertama keluarga tersebut memilih untuk berbelanja di toko
“Serba”
3. Probabilitas untuk toko “Serba” dan “Ada” pada bulan ketiga apabila
pada bulan pertama keluarga tersebut memilih untuk berbelanja di toko
“Ada”
4. Nilai probabilitas pelanggan dalam keadaan tetap!
5. Jumlah perkiraan pelanggan dalam jangka panjang untuk masing-
masing toserba tersebut!
Jawab:
a. Langkah pertama yang perlu dilakukan untuk menyelesaikan seluruh
pertanyaan di atas adalah dengan menentukan matriks transisi untuk menghitung
nilai probabilitas

 Probabilitas bulan pertama “Serba” dan bulan kedua “Serba” =


400/600 = 0.667
 Probabilitas bulan pertama “Serba” dan bulan kedua “Ada” = 200/600
= 0.333
 Probabilitas bulan pertama “Ada” dan bulan kedua “Serba” = 250/400
= 0.625
 Probabilitas bulan pertama “Ada” dan bulan kedua “Serba” = 150/400
= 0.375
Sehingga matriks transisi yang diperoleh adalah:

Keterangan:

Baris pertama kolom pertama :  Bulan pertama “Serba”, bulan kedua “Serba”

Baris pertama kolom kedua   :  Bulan pertama “Serba”, bulan kedua “Ada”

Baris kedua kolom pertama   :  Bulan pertama “Ada”, bulan kedua “Serba”

Baris kedua kolom kedua     :  Bulan pertama “Ada”, bulan kedua “Ada”
b. Apabila pada bulan pertama, keluarga tersebut memilih untuk berbelanja di
toko “Serba” artinya keluarga tersebut pasti memilih untuk berbelanja di toko
“Serba”, jadi probabilitas keluarga tersebut datang ke toserba “Serba” adalah 1,
dan probabilitas keluarga tersebut datang ke toserba “Ada” adalah 0.

Sehingga matriks probabilitas untuk bulan pertama adalah [ 1   0]

Apabila dilakukan perkalian antara matriks probabilitas pada bulan pertama


dengan matriks transisi pada kasus ini maka akan diperoleh data:

Probabilitas pada bulan kedua yang diperoleh memiliki nilai yang sama dengan
matriks transisi pada baris pertama. Tentu saja demikian, karena perhitungan yang
dilakukan adalah matriks pada bulan pertama dengan matriks transisi yang
dibentuk dari data probabilitas pada bulan kedua.
Kemudian, untuk menghitung probabilitas pada bulan ketiga adalah dengan
mengoperasikan perkalian matriks antara matriks probabilitas bulan kedua dengan
matriks transisinya. Sehingga diperoleh:

 Jadi diperoleh probabilitas bulan ketiga, apabila pada bulan pertama memilih di
toko “Serba”, untuk toserba “Serba” adalah 0.653, dan toserba “Ada” adalah
0.347.
NB: Ingat bahwa jumlah probabilitasnya harus selalu satu (1)
DAFTAR PUSTAKA
School, indo. 2017. “markov chain https://idschool.net/sm/contoh-soal-dan-
pembahasan-sm/
Mulyanto, alwin 2015. “Belajar rantai markov operasional”
https://www.studiobelajar.com/belajar-Rantai-markov/
Id, math. 2016 “Cara menyelesaikan soal markov chain”
https://maths.id/menyelesaikan-markov-rantai-menggunakan-konsep-gradien-
garis-tanpa-menggambar-grafik.php
Hatin, sriwulan. 2017. “Rangkuman Lengkap markov rantai dan Model Model
Matematika” https://jagomatematika.info/rangkuman-lengkap-materi-rantai-
markov.html
Dwijanto, mas 2013. ”Program rantai markov”
https://masdwijanto.files.wordpress.com/2013/03/bab-vi-rantai -.
Angga, dwi 2014 . “markov chain dan pemecahan masalah”
https://ko2smath06.wordpress.com/2014/03/12/markov-chain/
Nursiwi, asri 2016 “ markov chain soal dan pembelajaran”
https://www.slideshare.net/fransiskaputeri/markov-chain
Dhaniirwanto, arif 2015 “markov chain operasial”
http://arifdhaniirwanto.blogspot.com/2011/10/markov-chain.html

Anda mungkin juga menyukai