Anda di halaman 1dari 13

TOPIK 6.

ANALISIS MARKOV

ANALISIS MARKOV

OBJEKTIF :
6
1. Mahasiswa Mampu Melakukan Perhitungan Analisis Markov.
2. Mahasiswa Mampu Menggunakan Software QM For Windows Dalam
Perhitungan Analisis Markov.

6.1 Analisis Markov


A. Pengertian Analisis Markov
Beberapa penjelasan mengenai pengertian analisis markov: (Marli, etc. 2018.
Page 111)

1. Analisa Rantai Markov adalah suatu metode yang mempelajari sifat-


sifat suatu variabel pada masa sekarang yang didasarkan pada sifat-
sifatnya di masa lalu dalam usaha menaksir sifat-sifat variabel tersebut
dimasa yang akan datang.
2. Analisis Markov adalah suatu teknik matematik untuk peramalan
perubahan pada variabel-variabel tertentu berdasarkan pengetahuan
dari perubahan sebelumnya.

Model Rantai Markov dikembangkan oleh seorang ahli Rusia A.A. Markov pada
tahun 1896. Dalam analisis markov yang dihasilkan adalah suatu informasi
probabilistik yang dapat digunakan untuk membantu pembuatan keputusan, jadi
analisis ini bukan suatu teknik optimisasi melainkan suatu teknik deskriptif. Analisis
Markov merupakan suatu bentuk khusus dari model probabilistik yang lebih umum
yang dikenal sebagai proses Stokastik (Stochastic process). Rantai markov adalah
jenis proses stokastik yang sangat penting, Rantai Markov memiliki properti khusus
bahwa probabilitas yang melibatkan bagaimana proses akan berkembang di masa
depan hanya bergantung pada keadaan proses saat ini, dan juga tidak bergantung
pada peristiwa di masa lalu.
Kata stokastik (stochastics) merupakan jargon untuk keacakan. Oxford
Dictionary menakrifkan proses stokastik sebagai suatu barisan kejadian yang
memenuhi hukum-hukum peluang. Hull menyatakan bahwa setiap nilai yang berubah
terhadap waktu dengan cara yang tidak tertentu (dalam ketidakpastian) dikatakan
mengikuti proses stokastik. Dengan demikian, jika dari pengalaman yang lalu keadaan
yang akan datang suatu barisan kejadian dapat diramalkan secara pasti, maka barisan
kejadian itu dinamakan deterministik. Sebaliknya jika pengalaman yang lalu hanya
dapat menyajikan struktur peluang keadaan yang akan datang, maka barisan kejadian
yang demikian disebut stokastik.
Konsep dasar analisis markov adalah state dari sistem atau state transisi, sifat
dari proses ini adalah apabila diketahui proses berada dalam suatu keadaan tertentu,
maka peluang berkembangnya proses di masa mendatang hanya tergantung pada

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 1


TOPIK 6. ANALISIS MARKOV

keadaan saat ini dan tidak tergantung pada keadaan sebelumnya, atau dengan kata
lain rantai Markov adalah rangkaian proses kejadian dimana peluang bersyarat
kejadian yang akan datang tergantung pada kejadian sekarang.
Analisis Markov ini sangat sering digunakan untuk membantu pembuatan
keputusan dalam bisnis dan industri, misalnya dalam masalah ganti merek, masalah
hutang-piutang, masalah operasi mesin, analisis pengawasan dan lain-lain. Informasi
yang dihasilkan tidak mutlak menjadi suatu keputusan, karena sifatnya yang hanya
memberikan bantuan dalam proses pengambilan keputusan (Marli, etc. 2018. Page
113).

B. Proses Pengambilan Keputusan Markovian


Proses pengambilan keputusan cara Markov meliputi cara penyelesaian
masalah dengan prinsip dan orientasi, yaitu memaksimumkan penghasilan
(maximizes revenue) atau meminimumkan biaya tergantung dari data yang tersedia
dalam masalah yang harus diputuskan. Intinya mengoptimalkan kebijakan dengan
hasil yang maksimum atau biaya minimum. Prosesnya dengan menggunakan data
(states) disertai probabilitas masing-masing data untuk waktu yang berbeda.
State digunakan untuk mengidentifikasikan seluruh kondisi yang mungkin dari
suatu proses atau sistem. Misalnya saja, sebuah mesin dapat berada dalam satu state
dari dua state yang ada dalam satu waktu. Mesin tersebut dapat berfungsi dengan
baik atau dapat juga berfungsi secara tidak baik (rusak). Kondisi di mana mesin dapat
berfungsi disebut dengan state pertama. Sedangkan kondisi di mana mesin tidak
dapat berfungsi disebut dengan state kedua. Contoh lainnya adalah mahasiswa
manajemen di salah satu Universitas dapat memilih satu diantara peminatan yang
ada yaitu peminatan e-bussiness, marketing, dan entrepreneurship. Masing-masing
peminatan ini dapat dianggap sebagai sebuah state.
Probabilitas state yaitu setelah state dari sistem atau proses yang akan diteliti
telah diidentifikasi, langkah selanjutnya adalah menentukan probabilitas sistem
berada dalam state tertentu dengan menggunakan vektor probabilitas state (Sarjono.
2014. Page 200):
n(i) = vektor dari probabilitas state untuk periode i
= π1, π2, π3,… πn
Di mana,
n = jumlah state
π1, π2, π3,… πn = probabilitas berada dalam state ke-1, state ke-2, state ke-n

Mengapa harus menggunakan probabilitas? Jawabannya adalah setiap


keputusan yang akan diambil menyangkut masa depan yang mengandung
ketidakpastian. Dalam ilmu ekonomi cara menanggulangi ketidakpastian
(uncertainty) adalah menggunakan besaran-besaran angka kemungkinan atau
probabilitas. Seperti disebutkan di atas bila data biaya yang digunakan maka harus
diproses untuk mencari solusi yang minimum. Sebaliknya bila data penghasilan
berarti harus solusi maksimum. Permainan transisi data dengan masing-masing
probabitasnya dinyatakan rantai markov (Prawirosentono. 2018. Page: 194).

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 2


TOPIK 6. ANALISIS MARKOV

C. Proses Model Markov


Proses markov: suatu sistem stochastic yang mempunyai karakter bahwa
terjadinya suatu state pada suatu saat bergantung pada state yang sebelumnya.
T0 < t1 < … tn (n=0, 1, …)

Kumpulan variabel random {x(t0)} adalah suatu proses markov jika memenuhi
sifat sebagai berikut:
P {x(t0) = x0 / x (t0-1) = x0-1, …, x(t0) = x0} =
P {x(t0) = x0 / x (t0-1) = x0-1 untuk seluruh harga x(t0), x(t1), …, x(t0)

Probabilitas Pxn-1,xn = P {x(tn) = xn / x(tn-1) = xn-1 disebut sebagai probabilitas


transisi.
Probabilitas transisi: probabilitas bersyarat dari sistem yang berada dalam xn
pada saat t0 jika diketahui bahwa sistem berada dalam xn-1 pada saat tn-1,
Pij = p {x(tn) = j / x(tn-1) = I} : probabilitas transisi dari state 1 pada saat tn-1 ke state j
pada saat tn, dan diasumsikan bahwa probabilitas ini tetap sepanjang waktu. Maka
probabilitas transisi dari state i ke sj akan lebih mudah jika disusun dalam bentuk
matriks berikut:

P = P00 P01 P02 P03 …


P10 P11 P12 P13 …
P20 P21 P22 P23 …
P30 P31 P22 P33 …

Matriks P ini disebut transisi homogen atau matriks stochastic, karena seluruh
probabilitas transisi pij berharga tetap dan independen terhadap waktu. Probabilitas
pij ini harus memenuhi kondisi berikut:
∑𝑗 𝑝𝑖𝑗 = 1 untuk seluruh i
Pij ≥ 0 untuk seluruh i dan j

Dalam pemrograman dinamis telah dijelaskan bahwa seluruh state dapat


terbatas atau tidak terbatas. Pada bab ini akan disajikan suatu penerapan baru
pemrograman dinamis terhadap pemecahan suatu proses keputusan stochastic yang
dapat dijelaskan oleh sejumlah state yang terbatas (Marli, etc. 2018. Page 115).
Adapun langkah-langkah penyelesaian perhitungan probabilitas menggunakan
rantai markov:
1. Menyusun matriks probabilitas transisi
Probabilitas transisi di antara state ini dijelaskan oleh suatu rantai markov
(Markov chain), sedangkan struktur biaya proses ini dijelaskan oleh suatu
matriks yang elemen-elemennya menyatakan pendapatan atau ongkos yang
dihasilkan dari suatu state ke state yang lain. Matriks transisi dan matriks
pendapatan (ongkos) sifatnya bergantung pada alternatif – alternatif keputusan
yang dapat digunakan oleh pengambil keputusan. Tujuan persoalan ini adalah
menentukan keputusan optimum yang dapat memaksimumkan ekspektasi

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 3


TOPIK 6. ANALISIS MARKOV

pendapatan dari proses yang mempunyai jumlah state terbatas atau tidak
terbatas (Marli, etc. 2018. Page 115).
2. Menghitung probabilitas dari suatu kejadian di waktu yang akan datang
Informasi yang dapat dihasilkan dari analisis Markov adalah probabilitas berada
dalam suatu status pada satu periode di masa depan. Untuk memperoleh itu,
seluruh probabilitas transisi dalam proses Markov memainkan peran yang
menentukan. Ada dua cara untuk menemukan informasi itu, yaitu dengan
probabilities tree dan perkalian matriks. Probabilitas tree merupakan cara yang
nyaman untuk menunjukkan sejumlah terbatas transisi dari suatu proses
markov. (Sri Mulyono. 2017. Page 249).
3. Menentukan kondisi steady state
Dalam banyak kasus, proses markov akan menuju kepada kondisi steady state
(keseimbangan) artinya setelah proses berjalan selama beberapa periode,
probabilitas status akan bernilai tetap, dan ini dinamakan probabilitas steady
state. (Mulyono, Sri. 2017. Page 257).

Contoh Soal:
(Harjono, Pangestu. 2014. Page 198)
Penelitian yang dilakukan oleh Steven Chandra (mahasiswa semester 7 sebuah
Universitas Swasta Jakarta Barat) untuk meneliti minat responden terhadap provider
Internet. Sampel diambil dari mahasiswa Universitas Swasta jurusan manajemen
semester 7, dispesifikan karena mahasiswa semester 7 banyak menggunakan Internet
untuk mencari jurnal-jurnal atau bahan untuk pembuatan skripsi. Penyedia yang
ditawarkan untuk dipilih dalam bentuk nirkabel adalah IndosatM2, NetZap, dan XL.

Penelitian pada periode pertama menunjukkan bahwa terdapat:


• 93 responden memilih IndosatM2, dinamakan dengan state 1.
• 49 responden memilih NetZap, dinamakan dengan state 2.
• 78 responden memilih XL, dinamakan dengan state 3.

Penelitian pada periode kedua menunjukkan perubahan sebagai berikut.


• 72 pemilih IndosatM2 tetap memilih IndosatM2.
• 17 pemilih IndosatM2 pindah ke NetZap.
• 4 pemilih IndosatM2 pindah ke XL.
• 40 pemilih NetZap tetap memilih NetZap.
• 2 pemilih NetZap pindah ke IndosatM2.
• 7 pemilih NetZap pindah ke XL.
• 62 pemilih XL tetap memilih XL.
• 5 pemilih XL pindah ke IndosatM2.
• 11 pemilih XL pindah ke NetZap.

Bagaimanakah dugaan pangsa pasar masing-masing provider pada periode


selanjutnya?

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 4


TOPIK 6. ANALISIS MARKOV

Jawaban Perhitungan Secara Manual


Step 1: Menyusun Matriks Probabilitas Transisi:
Probabilitas dari satu orang yang menggunakan satu diantara ketiga provider tersebut
adalah :
State I - IndosatM2 93/220 = 0.43 = 43%
State 2 - NetZap 49/220 = 0.22 = 22%
State 3 - XL 78 / 220 = 0.35 = 35%

Jika probabilitas tersebut diletakkan dalam vektor probabilitas state maka akan
menjadi:
n(1) = (0,43, 0,22, 0,35)
di mana,
n (1) = vektor probabilitas state ketiga provider untuk periode 1
n(1) = 0,43 = probabilitas satu orang yang memilih IndosatM2, state 1 n2
= 0,22 = probabilitas satu orang yang memilih NetZap, state 2
n3 = 0,35 = probabilitas satu orang yang memilih XL, state 3

Persentase perpindahan keputusan konsumen pada periode ke-2:


• 77,4% pemilih IndosatM2 tetap memilih IndosatM2
72
: 93 × 100% = 0,774 = 77,4%
• 18,3% pemilih IndosatM2 pindah ke NetZap
17
: × 100% = 0,1827 = 18,3%
93
• 4,3% pemilih IndosatM2 pindah ke XL
4
: 93 × 100% = 0,043 = 4,3%

• 81,6% pemilih NetZap tetap memilih NetZap


40
: 49 × 100% = 0,816 = 81,6%
• 4,1% pemilih NetZap pindah ke IndosatM2
2
: 49 × 100% = 0,0408 = 4,1%
• 14,3% pemilih NetZap pindah ke XL
7
: 49 × 100% = 0,1428 = 14,3%

• 79,5% pemilih XL tetap memilih XL


62
: 78 × 100% = 0,7948 = 79,5%
• 6,4% pemilih XL pindah ke IndosatM2
5
: 78 × 100% = 0,064 = 6,4%
• 14,1% pemilih XL pindah ke NetZap
11
: 78 × 100% = 0,141 = 14,1%

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 5


TOPIK 6. ANALISIS MARKOV

Step 2: Menghitung Probabilitas Suatu Kejadian di Waktu yang Akan Datang:


A. Probabilitas Tree

0,77 #1 0,3311 = 0,43 (0,77)


IndosatM2 #1 Catatan: 0,43 x 0,77 = 0,3311
0,18
0,43 0,0774 = 0,43 (0,18)
0,04 #2 Catatan: 0,43 x 0,18 = 0,0774

#3 0,0172 = 0,43 (0,04)


Catatan: 0,43 x 0,04 = 0,0172

0,04 0,0088 = 0,22 (0,04)


#1
NetZap #2 0,82 Catatan: 0,22 x 0,04 = 0,0088
0,22
#2 0,1804 = 0,22 (0,82)
0,14 Catatan: 0,22 x 0,82 = 0,1804

0,0308 = 0,22 (0,14)


#3
Catatan: 0,22 x 0,14 = 0,0308

0,06
#1 0,0210 = 0,35 (0,06)
XL #3 0,14 Catatan: 0,35 x 0,06 = 0,0210
0,35
0,0490 = 0,35 (0,14)
#2
0,80 Catatan: 0,35 x 0,14 = 0,0490

0,2800 = 0,35 (0,80)


#3 Catatan: 0,35 x 0,80 = 0,2800

Tabel Diagram Pohon Pemilihan Provider Internet

B. Perkalian Matriks
Berdasarkan data yang telah dijelaskan sebelumnya, maka matriks transisi
probabilitasnya akan menjadi yang ada di bawah ini:

Mempertahankan dan kehilangan

0,77 0,18 0,04 Mempertahankan dan


memperoleh 0,04 0,82 0,14
0,06 0,14 0,80

IndosatM2 mewakili state 1, NetZap mewakili state 2, XL mewakili state 3. Arti dari
probabilitas di atas dapat digambarkan seperti berikut.
Baris 1
0,77 = P11 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya merupakan
pemilih IndosatM2

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 6


TOPIK 6. ANALISIS MARKOV

0,18 = P12 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan pemilih
IndosatM2
0,04 = P13 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan pemilih
IndosatM2

Baris 2
0,04 = P21 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya merupakan
pemilih NetZap
0,82 = P22 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan pemilih
NetZap
0,14 = P23 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan pemilih
NetZap

Baris 3
0,06 = P31 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya merupakan
pemilih XL
0,14 = P32 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan pemilih
XL
0,80 = P33 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan pemilih XL

Pendugaan pangsa pasar periode berikutnya


Berdasarkan pada data yang telah dikumpulkan, maka pendugaan pangsa pasar untuk
ketiga provider internet wireless untuk periode berikutnya dapat dihitung seperti
berikut:
n(1) = n(0)P

Pangsa Pasar Matriks transisi probabilitas Dugaan pangsa pasar


periode berikutnya

0,77 0,18 0,04


= (0,43, 0,22, 0,35) 0,04 0,82 0,14 = (0,3609, 0,3068, 0,3280)
0,06 0,14 0,80

Baris 1 x kolom 1 :
Pangsa pasar IndosatM2 x kecenderungan IndosatM2 untuk mempertahankan pemilih
= 0,43 x 0,77 = 0,3311
Pangsa pasar NetZap x kecenderungan IndosatM2 untuk menarik pemilih NetZap
= 0,22 x 0,04 = 0,0088
Pangsa pasar XL x kecenderungan IndosatM2 untuk menarik pemilih XL
= 0,35 x 0,06 = 0,0210
Pangsa pasar IndosatM2 periode berikutnya = 0,3311 + 0,0088 + 0,0210 = 0,3609

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 7


TOPIK 6. ANALISIS MARKOV

Baris 1 x kolom 2 :
Pangsa pasar IndosatM2 x kecenderungan NetZap untuk mempertahankan pemilih
IndosatM2
= 0,43 x 0,18 = 0,0774
Pangsa pasar NetZap x kecenderungan IndosatM2 untuk menarik pemilih NetZap
= 0,22 x 0,82 = 0,1804
Pangsa pasar XL x kecenderungan IndosatM2 untuk menarik pemilih XL
= 0,35 x 0,14 = 0,0490
Pangsa pasar NetZap periode berikutnya = 0,0774 + 0,1804 + 0,0490 = 0,3068

Baris 1 x kolom 3 :
Pangsa pasar IndosatM2 x kecenderungan XL untuk menarik pemilih IndosatM2
= 0,43 x 0,04 = 0,0172
Pangsa pasar NetZap x kecenderungan XL untuk menarik pemilih NetZap
= 0,22 x 0,14 = 0,0308
Pangsa pasar XL x kecenderungan XL untuk mempertahankan pemilih
= 0,35 x 0,80 = 0,2800
Pangsa pasar XL periode berikutnya = 0,0172 + 0,0308 + 0,2800 = 0,3280

Step 3. Menentukan kondisi steady state

Pengerjaan Menggunakan Aplikasi

1. Aktifkan program QM for Windows.


2. Klik menu Module, pilih Markov Analysis.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 8


TOPIK 6. ANALISIS MARKOV

3. Klik menu File, pilih New.

4. Isi kolom Title dengan Pangsa pasar provider internet wireless (sifatnya pilihan).

5. Isi kolom Number of States dengan angka 3.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 9


TOPIK 6. ANALISIS MARKOV

6. Ubah nama state sesuai dengan data penelitian. Masukkan probabilitas State
awal n(1) = (0,43, 0,22, 0,35) pada kolom Initial.

Nama
Initial
state

7. Masukkan matriks transisi probabilitas

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 10


TOPIK 6. ANALISIS MARKOV

8. Isi kolom Number of transitions dengan 1.

9. Klik Solve untuk mendapatkan hasil perhitungan.

10. Klik menu Window, pilih Markov Analysis Results. Maka akan didapat hasilnya
pada Ending Probability (given initial) dan probabilitas steady state.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 11


TOPIK 6. ANALISIS MARKOV

Kesimpulan :
• Pangsa pasar IndosatM2 periode berikutnya adalah sebesar 0,3609
• Pangsa pasar NetZap periode berikutnya adalah sebesar 0,3068
• Pangsa pasar XL periode berikutnya adalah sebesar 0,3280

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 12


TOPIK 6. ANALISIS MARKOV

REFERENSI

Marli, etc. 2018. Pengantar Biostatistika dan Aplikasinya Pada Status Kesehatan Gizi
Remaja. Syaih Kuala University Press Darussalam. Banda Aceh
Mulyono, Sri. 2007. Riset Operasi. Fakultas Ekonomi Uniersitas Indonesia. Jakarta
Sarjono, Haryadi. 2014. Aplikasi Riset Operasi. Salemba Empat. Jakarta
Prawirosentono. 2018. Riset Operasi & Ekonofisika (Opertions Research &
Econophysics). Grafika Offset. Jakarta

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 13

Anda mungkin juga menyukai