Anda di halaman 1dari 43

ANALISIS MARKOV

6
OBJEKTIF :
1. Mahasiswa Mampu Melakukan Perhitungan Analisis Markov.
2. Mahasiswa Mampu Menggunakan Software QM For Windows Dalam
Perhitungan Analisis Markov.

6.1 Konsep Dasar Analisis Markov


A. Pengertian Analisis Markov
Beberapa penjelasan mengenai pengertian analisis markov :

1. Analisa Rantai Markov adalah suatu metode yang mempelajari sifat-sifat


suatu variabel pada masa sekarang yang didasarkan pada sifat-sifatnya di
masa lalu dalam usaha menaksir sifat-sifat variabel tersebut dimasa yang
akan datang.
2. Analisis Markov adalah suatu teknik matematik untuk peramalan
perubahan pada variable-variabel tertentu berdasarkan pengetahuan dari
perubahan sebelumnya.

Model Rantai Markov dikembangkan oleh seorang ahli Rusia A.A. Markov
pada tahun 1896. Dalam analisis markov yang dihasilkan adalah suatu informasi
probabilistik yang dapat digunakan untuk membantu pembuatan keputusan, jadi
analisis ini bukan suatu teknik optimisasi melainkan suatu teknik deskriptif .
Analisis Markov merupakan suatu bentuk khusus dari model probabilistik yang
lebih umum yang dikenal sebagai proses Stokastik (Stochastic process). Rantai
markov adalah jenis proses stokastik yang sangat penting, Rantai Markov
memiliki properti khusus bahwa probabilitas yang melibatkan bagaimana proses
TOPIK 6. ANALISIS MARKOV

akan berkembang di masa depan hanya bergantung pada keadaan proses saat ini,
dan juga tidak bergantung pada peristiwa di masa lalu.
Kata stokastik (stochastics) merupakan jargon untuk keacakan. Oxford
Dictionary menakrifkan proses stokastik sebagai suatu barisan kejadian yang
memenuhi hukum-hukum peluang. Hull menyatakan bahwa setiap nilai yang
berubah terhadap waktu dengan cara yang tidak tertentu (dalam ketidakpastian)
dikatakan mengikuti proses stokastik. Dengan demikian, jika dari pengalaman
yang lalu keadaan yang akan datang suatu barisan kejadian dapat diramalkan
secara pasti, maka barisan kejadian itu dinamakan deterministik. Sebaliknya jika
pengalaman yang lalu hanya dapat menyajikan struktur peluang keadaan yang
akan datang, maka barisan kejadian yang demikian disebut stokastik.
Konsep dasar analisis markov adalah state dari sistem atau state transisi,
sifat dari proses ini adalah apabila diketahui proses berada dalam suatu keadaan
tertentu, maka peluang berkembangnya proses di masa mendatang hanya
tergantung pada keadaan saat ini dan tidak tergantung pada keadaan sebelumnya,
atau dengan kata lain rantai Markov adalah rangkaian proses kejadian dimana
peluang bersyarat kejadian yang akan datang tergantung pada kejadian sekarang.
Analisis Markov ini sangat sering digunakan untuk membantu pembuatan
keputusan dalam bisnis dan industri, misalnya dalam masalah ganti merek,
masalah hutang-piutang, masalah operasi mesin, analisis pengawasan dan lain-
lain. Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena
sifatnya yang hanya memberikan bantuan dalam proses pengambilan
keputusan.

B. Proses Model Markov


Proses dalam pembuatan rantai markov terdiri dari tiga proses, yaitu
menyusun matriks probabilitas transisi, menghitung kemungkinan market
share, dan mendapatkan suatu kondisi ekuilibrium. Berikut penjelasan secara
lebih rinci pada setiap proses.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 2


TOPIK 6. ANALISIS MARKOV

1. Menyusun matriks probabilitas transisi


Bagian ini akan mebahas proses perpindahan para konsumen dalam
hubungannya dengan suatu model produk satu dengan model produk
lainnya. Anggapan dasar adalah bahwa para konsumen tidak berpindah dari
suatu model produk produk ke model produk lainnya secara acak,
disamping itu pilihan konsumen atas model produk yang akan dibeli di masa
yang akan datang berdasarkan pada pilihan-pilihan konsumen yang dibuat
di waktu yang lalu. Probabilitas Transisi adalah perubahan dari satu status
ke status yang lain pada periode (waktu) berikutnya dan merupakan suatu
proses random yang dinyatakan dalam probabilitas.
Untuk lebih jelasnya akan digunakan sebuah contoh kasus pada kendaraan
umum. Dalam kasus ini terdapat dua buah state (kondisi / status) yaitu narik
dan mogok. Jadi kendaraan umum tersebut akan selalu berada pada salah
satu dari dua state tersebut, jika tidak narik maka mogok.
2. Menghitung kemungkinan Market Share
Proses markov dibagi menjadi beberapa order. First-order hanya
mempertimbangkan pilihan-pilihan produk yang dibuat selama satu
periode untuk penentuan probabilitas pilihan pada periode
berikutnya. Second-order analisis Markov menganggap pilihan-pilihan
untuk suatu produk tertentu dalam periode berikutnya tergantung pada
pilihan-pilihan produk yang dibuat oleh para konsumen selama dua periode
terakhir, sedangkan pada third-order, proses Markov yang digunakan untuk
meramal perilaku konsumen pada periode berikutnya terhadap jenis
produk tertentu adalah berdasarkan pola pemilihan jenis produk oleh para
konsumen selama tiga periode terakhir.
3. Kondisi equilibrium
Kondisi equilibrium tercapai hanya jika tidak ada pesaing yang mengubah
matriks probabilitas transisi. Probabilitas market share akan tetap setelah
perhitungan beberapa periode. Keadaan equilibrium meliputi pertukaran

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 3


TOPIK 6. ANALISIS MARKOV

para konsumen berkenaan dengan “retention”, “mendapatkan”, dan


“kehilangan” akan statis. Keadaan yang umum terjadi adalah bahwa tidak
ada satu perusahaan pun yang seluruh konsumennya tetap setia
menggunakan produknya, yang berarti kondisi equilibrium akhir tercapai
berdasarkan matriks probabilitas transisi tetap.

Agar dapat digunakan dalam proses Markov dibutuhkan beberapa asumsi


seperti berikut :
a. Jika state kendaraan saat ini adalah narik maka hanya ada dua
kemungkinan untuk kondisi waktu (hari) berikutnya yaitu narik kembali
atau mogok. Sehingga jumlah probabilitas transisi pada setiap baris adalah
satu.
b. Probabilitas transisi itu tidak akan berubah untuk selamanya.
Probabilitas transisi hanya tergantung pada status sekarang bukan status
periode sebelumnya.

C. Cakupan Permasalahan Keputusan Markovian


Analisis Markov ini sangat sering digunakan untuk membantu pembuatan
keputusan dalam bisnis dan industri, misalnya dalam masalah ganti merek,
masalah hutang-piutang, masalah operasi mesin, analisis pengawasan dan lain-
lain. Informasi yang dihasilkan tidak mutlak menjadi suatu keputusan, karena
sifatnya yang hanya memberikan bantuan dalam proses pengambilan keputusan.
Model untuk proses keputusan Markov yang dipertimbangkan dalam bab
ini dapat diringkas sebagai berikut :
1. Keadaan i dari waktu diskrit Rantai Markov diamati setelah setiap transisi,
di mana kemungkinan statusnya adalah i = 0, 1,…. M.
2. Setelah setiap observasi, kita memiliki keputusan dimana, keputusan
(tindakan) k dipilih dari sekumpulan K keputusan yang mungkin (k = 1, 2,
...K). (Beberapa keputusan K mungkin tidak relevan untuk beberapa status.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 4


TOPIK 6. ANALISIS MARKOV

3. Jika keputusan dᵢ = k dibuat di negara bagian i, biaya langsung timbul yang


memiliki nilai yang diharapkan Cᵢₖ
4. Keputusan dᵢ = k di negara bagian i menentukan apa yang akan terjadi
dengan probabilitas transisi untuk transisi berikutnya dari keadaan i.
Nyatakan probabilitas transisi ini dengan pᵢⱼ (k), untuk j = 0, 1, ... M.
5. Spesifikasi keputusan untuk masing-masing negara bagian (d0, d1,…. Dm)
dilakukan kebijakan untuk proses keputusan Markov.
6. Tujuannya adalah untuk menemukan kebijakan yang optimal sesuai
dengan beberapa kriteria biaya yang mempertimbangkan biaya langsung
dan biaya selanjutnya yang dihasilkan dari evolusi proses di masa
mendatang.

Contoh Soal 1.:


Penelitian yang dilakukan oleh Steven Chandra (mahasiswa semester 7
sebuah Universitas Swasta Jakarta Barat) untuk meneliti minat responden
terhadap provider Internet. Sampel diambil dari mahasiswa Universitas Swasta
jurusan manajemen semester 7, dispesihkan karena mahasiswa semester 7
banyak menggunakan Internet untuk mencari jurnal-jurnal atau bahan untuk
pembuatan skripsi. Penyedia yang ditawarkan untuk dipilih dalam bentuk nirkabel
adalah IndosatM2, NetZap, dan XL.

Penelitian pada periode pertama menunjukkan bahwa terdapat :


• 93 responden memilih IndosatM2, dinamakan dengan state 1.
• 49 responden memilih NetZap, dinamakan dengan state 2.
• 78 responden memilih XL, dinamakan dengan state 3.

Penelitian pada periode kedua menunjukkan perubahan sebagai berikut.


• 72 pemilih IndosatM2 tetap menmilih IndosatM2.
• 17 pemilih IndosatM2 pindah ke NetZap.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 5


TOPIK 6. ANALISIS MARKOV

• 4 pemilih IndosatM2 pindah ke XL.


• 40 pemilih NetZap tetap memilih NetZap.
• 2 pemilih NetZap pindah ke IndosatM2.
• 7 pemilih NetZap pindah ke XL.
• 62 pemilih XL tetap memilih XL.
• 5 pemilih XL pindah ke IndosatM2.
• 11 pemilih XL pindah ke NetZap.

Bagaimanakah dugaan pangsa pasar masing-masing provider pada periode


selanjutnya?

Jawaban Perhitungan Secara Manual


Probabilitas dari satu orang yang menggunakan satu diantara ketiga provider
tersebut adalah :
State I - IndosatM2 93/220 = 0.43 = 43%
State 2 - NetZap 49/220 = 0.22 = 22%
State 3 - XL 78 / 220 = 0.35 = 35%

Jika probabilitas tersebut diletakkan dalam vektor probabilitas state maka akan
menjadi :
n(1) = (0,43, 0,22, 0,35)
dimana,
n (1) = vektor probabilitas state ketiga provider untuk periode 1
n(1) = 0,43 = probabilitas satu orang yang memilih IndosatM2 , state 1
n2 = 0,22 = probabilitas satu orang yang memilih NetZap, state 2
n3 = 0,35 = probabilitas satu orang yang memilih XL, state 3

Persentase perpindahan keputusan konsumen pada periode ke-2 :


• 77,4% pemilih IndosatM2 tetap memilih IndosatM2

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 6


TOPIK 6. ANALISIS MARKOV

• 18,3% pemilih IndosatM2 pindah ke NetZap


• 4,3% pemilih IndosatM2 pindah ke XL
• 81,6% pemilih NetZap tetap memilih NetZap
• 4,1% pemilih NetZap pindah ke IndosatM2
• 14,3% pemilih NetZap pindah ke XL
• 79,5% pemilih XL tetap memilih XL
• 6,4% pemilih XL pindah ke IndosatM2
• 14,1% pemilih XL pindah ke NetZap

0,77 #1 0,3311 = 0,43 (0,77)


IndosatM2 #1
0,18
0,43 #2 0,0774 = 0,43 (0,18)
0,04

#3 0,0172 = 0,43 (0,04)

0,04
#1 0,0088 = 0,22 (0,04)
NetZap #2 0,82
0,22
#2 0,1804 = 0,22 (0,82)
0,14

#3 0,0308 = 0,22 (0,14)

0,06
#1 0,0210 = 0,35 (0,06)
XL #3 0,14
0,35
#2 0,0490 = 0,35 (0,14)
0,80

#3 0,2800 = 0,35 (0,80)

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 7


TOPIK 6. ANALISIS MARKOV

Tabel Diagram Pohon Pemilihan Provider Internet

Berdasarkan data yang telah dijelaskan sebelumnya, maka matriks


transisi probabilitasnya akan menjadi yang ada di bawah ini :

Mempertahankan dan kehilangan

0,77 0,18 0,04 Mempertahankan dan


memperoleh 0,04 0,82 0,14
0,06 0,14 0,80

IndosatM2 mewakili state 1, NetZap mewakili state 2, XL mewakili state 3. Arti


dari probabilitas di atas dapat digambarkan seperti berikut.

Baris 1
0,77 = P11 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya
merupakan pemilih IndosatM2
0,18 = P12 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan
pemilih IndosatM2
0,04 = P13 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan
pemilih IndosatM2
Baris 2
0,04 = P21 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya
merupakan pemilih NetZap
0,82 = P22 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan
pemilih NetZap

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 8


TOPIK 6. ANALISIS MARKOV

0,14 = P23 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan


pemilih NetZap

Baris 3
0,06 = P31 = Probabilitas pangsa pasar IndosatM2 setelah sebelumnya
merupakan pemilih XL
0,14 = P32 = Probabilitas pangsa pasar NetZap setelah sebelumnya merupakan
pemilih XL
0,80 = P33 = Probabilitas pangsa pasar XL setelah sebelumnya merupakan
pemilih XL

Perhitungan Manual
Pendugaan pangsa pasar periode berikutnya
Berdasarkan pada data yang telah dikumpulkan, maka pendugaan pangsa pasar
untuk ketiga provider internet wireless untuk periode berikutnya dapat dihitung
seperti berikut:
n(1) = n(0)P
Pangsa Pasar Matriks transisi probabilitas Dugaan pangsa pasar
periode berikutnya

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 9


TOPIK 6. ANALISIS MARKOV

0,77 0,18 0,04


= (0,43, 0,22, 0,35) 0,04 0,82 0,14 = (0,3609, 0,3068, 0,3280)
0,06 0,14 0,80

Baris 1 x kolom 1 :
Pangsa pasar IndosatM2 x kecenderungan IndosatM2 untuk mempertahankan pemilih
= 0,43 x 0,77 = 0,3311
Pangsa pasar NetZap x kecenderungan IndosatM2 untuk menarik pemilih NetZap
= 0,22 x 0,04 = 0,0088
Pangsa pasar XL x kecenderungan IndosatM2 untuk menarik pemilih XL
= 0,35 x 0,06 = 0,0210
Pangsa pasar IndosatM2 periode berikutnya = 0,3311 + 0,0088 + 0,0210 = 0,3609

Baris 1 x kolom 2 :
Pangsa pasar IndosatM2 x kecenderungan NetZap untuk mempertahankan pemilih
IndosatM2
= 0,43 x 0,18 = 0,0774
Pangsa pasar NetZap x kecenderungan IndosatM2 untuk menarik pemilih NetZap
= 0,22 x 0,82 = 0,1804
Pangsa pasar XL x kecenderungan IndosatM2 untuk menarik pemilih XL
= 0,35 x 0,14 = 0,0490
Pangsa pasar NetZap periode berikutnya = 0,0774 + 0,1804 + 0,0490 = 0,3068

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 10


TOPIK 6. ANALISIS MARKOV

Baris 1 x kolom 3 :
Pangsa pasar IndosatM2 x kecenderungan XL untuk menarik pemilih IndosatM2
= 0,43 x 0,04 = 0,0172
Pangsa pasar NetZap x kecenderungan XL untuk menarik pemilih NetZap
= 0,22 x 0,14 = 0,0308
Pangsa pasar XL x kecenderungan XL untuk mempertahankan pemilih
= 0,35 x 0,80 = 0,2800
Pangsa pasar XL periode berikutnya = 0,0172 + 0,0308 + 0,2800 = 0,3280

Pengerjaan Menggunakan Aplikasi


1. Aktifkan program QM for Windows.
2. Klik menu Module, pilih Markov Analysis.

3. Klik menu File, pilih New.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 11


TOPIK 6. ANALISIS MARKOV

4. Isi kolom Title dengan Pangsa pasar provider internet wireless (sifatnya
pilihan).

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 12


TOPIK 6. ANALISIS MARKOV

5. Isi kolom Number of States dengan angka 3.

6. Ubah nama state sesuai dengan data penelitian. Masukkan probabilitas


State awal n(1) = (0,43, 0,22, 0,35) pada kolom Initial.

Nama
state Initial

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 13


TOPIK 6. ANALISIS MARKOV

7. Masukkan matriks transisi probabilitas

8. Isi kolom Number of transitions dengan 1.

9. Klik Solve untuk mendapatkan hasil perhitungan.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 14


TOPIK 6. ANALISIS MARKOV

10. Klik menu Window, pilih Markov Analysis Results. Maka akan didapat
hasilnya pada Ending Probability (given initial).

Kesimpulan :
• Pangsa pasar IndosatM2 periode berikutnya adalah sebesar 0,3609
• Pangsa pasar NetZap periode berikutnya adalah sebesar 0,3068
• Pangsa pasar XL periode berikutnya adalah sebesar 0,3280

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 15


TOPIK 6. ANALISIS MARKOV

Contoh Soal 2.
Perusahaan Raja Mie, produsen mie instan “Gurih”, ketika ini mempunyai 75% dari
pasar mie instan. Data dari tahun kemudian memperlihatkan bahwa 88% dari
pelanggan Raja Mie tetap loyal pada mie “Gurih”, akan tetapi 12% pelanggannya
berpindah kepada kompetitor, PT. Sayap, dengan produknya mie “Enaak”. Sebagai
tambahan, 85% dari pelanggan perusahaan competitor (PT. sayap) tetap loyal
kepada mereka, tetapi 15% dari pelanggan mereka beralih ke mie “Gurih”.
Simpulkan bagaimana tren ini sanggup menentukan Market Share mie instant
“Gurih” untuk 2 tahun kedepan.

Penyelesaian menggunakan aplikasi QM for Windows:

1. Aktifkan program QM for Windows.


2. Klik menu Module, pilih Markov Analysis.

3. Klik menu File, pilih New.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 16


TOPIK 6. ANALISIS MARKOV

4. Isi kolom Title dengan Pangsa pasar mie instan (sifatnya pilihan).

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 17


TOPIK 6. ANALISIS MARKOV

5. Isi kolom Number of States dengan angka 2.

6. Ubah nama state sesuai dengan data penelitian. Masukkan probabilitas


State awal n(1) = (0,75 dan 0,25) pada kolom Initial.

Nama
state Initial

7. Masukkan matriks transisi probabilitas

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 18


TOPIK 6. ANALISIS MARKOV

8. Isi kolom Number of transitions dengan 2.

9. Klik Solve untuk mendapatkan hasil perhitungan.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 19


TOPIK 6. ANALISIS MARKOV

10. Klik menu Window, pilih Markov Analysis Results. Maka akan didapat
hasilnya pada Ending Probability (given initial).

Kesimpulan :
Hasil diatas mengindikasikan dalam 2 tahun kedepan terjadi penurunan
market share Raja Mie dari semula 75 % menjadi 65, 92%.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 20


TOPIK 6. ANALISIS MARKOV

6.2 Model Pemrograman Dinamis


Model pemrograman dinamis pada markov dibagi menjadi 2 (dua), yaitu
program dinamis dengan tahapan terbatas dan program dinamis tahapan tidak
terbatas.
a. Dalam model program dinamis terbatas, perilaku jangka panjang dari suatu
proses Markov ditandai oleh ketidak bergantungannya pada state awal
dari sistemnya. Sistem tersebut dikatakan telah mencapai Steady State,
Misalkan, si pengambil keputusan dari persoalan perbaikan mesin di atas
merencanakan untuk menghentikan pengoperasian mesin itu dalam N
bulan. Maka persoalannya adalah menentukan tindakan optimum
(Overhaul atau tidak) untuk masing-masing bulan selama waktu
perencanaan.
b. Pada program dinamis tidak terbatas, ada dua metode yang dapat
digunakan untuk menyelesaikan persoalan dengan state yang tidak
terbatas ini. Metode pertama disebut metode enumerasi sempurna yang
mengenumerasi seluruh stationary policy hingga diperoleh solusi
optimumnya. Metode ini hanya dapat digunakan apabila jumlah total
stationary policy-nya tidak terlalu besar sehingga masih dapat dihitung.
Metode kedua adalah metode policy interation yang mampu mengurangi
kesulitan perhitungan pada metode pertama. Metode ini umumnya
bersifat efisien. Namun kedua metode ini menghasilkan solusi optimum
yang sama.

Contoh Soal 3.
Kondisi volume penjualan di “PT Bagus” kedalam tiga situasi yaitu sangat baik,
baik, biasa. Saat ini perusahaan berencana untuk melakukan promosi dan
mempertimbangkan dua media yang akan digunakan , yaitu tv dan radio. Media
manakah yang sebaiknya dipilih selama 3 bulan kedepan, jika matriks probabilitas

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 21


TOPIK 6. ANALISIS MARKOV

transisi (P) dan matriks keuntungan tahunan yang dapat diperoleh (R) untuk
masing-masing status dan media promosi adalah sbb :

● Jika media promosi adalah tv (pilihan 1) :

Keadaan sistem bulan depan

State pada 1 (Sangat Baik) 2 (Baik) 3 (Biasa)

bulan ini = 1 (Sangat Baik) 0,2 0,5 0,3


P1 2 (Baik) 0 0,5 0,5
3 (Biasa) 0 0 1

1 (Sangat Baik) 2 (Baik) 3 (Biasa)

1 (Sangat Baik) 7 6 3
R1 = 0 5 1
2 (Baik)

3 (Biasa) 0 0 -1

● Jika media promosi adalah radio (pilihan 2) :

State 1 (Sangat Baik) 2 (Baik) 3 (Biasa)


pada 1 (Sangat Baik) 0,3 0,6 0,1
bulan ini = 2 (Baik) 0,1 0,6 0,3
P2 3 (Biasa) 0,05 0,4 0,55

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 22


TOPIK 6. ANALISIS MARKOV

1 (Sangat Baik) 2 (Baik) 3 (Biasa)


1 (Sangat Baik) 6 5 -1
R2 = 2 (Baik) 7 4 0
3 (Biasa) 6 3 -2

Misalkan jumlah stage (bulan) adalah m sebanyak 3 bulan


Langkah 1 : Tetapkan Vik
Vik menyatakan ekspektasi pendapatan yang dihasilkan dari suatu transisi
tunggal dari state ke i pada alternatif k, maka :
𝑚

𝑣𝑖 = ∑ 𝑝𝑖𝑗 𝑘 𝑟𝑖𝑗 𝑘
𝑘

𝑗=1

Untuk k = 1 (tidak dilakukan overhaul) , dperoleh :


V 11 = (0,2 x 7)+ (0,5 x 6) + (0,3 x 3) = 5,3
V 21 = (0 x 0) + (0,5 x 5) + (0,5x1) =3
V 31 = (0 x 0) + (0 x 0) + (1 x -1) = -1

Keadaan sistem bulan depan

State pada 1 (Sangat Baik) 2 (Baik) 3 (Biasa)

bulan ini = 1 (Sangat Baik) 0,2 0,5 0,3


P1 2 (Baik) 0 0,5 0,5
3 (Biasa) 0 0 1

1 (Sangat Baik) 2 (Baik) 3 (Biasa)

1 (Sangat Baik) 7 6 3
R1 = 0 5 1
2 (Baik)

3 (Biasa) 0 0 -1

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 23


TOPIK 6. ANALISIS MARKOV

1 (Sangat Baik) 2 (Baik) 3 (Biasa)


State pada
1 (Sangat Baik) 0,3 0,6 0,1
bulan ini =
2 (Baik) 0,1 0,6 0,3
P2
3 (Biasa) 0,05 0,4 0,55

1 (Sangat Baik) 2 (Baik) 3 (Biasa)


1 (Sangat Baik) 6 5 -1
R2 = 2 (Baik) 7 4 0
3 (Biasa) 6 3 -2

Vik selengkapnya diperoleh :

i vi1 vi2

1 5,3 4,7

2 3,0 3,1

3 -1,0 0,4

Langkah 2 : Tetapkan 𝒇𝒏 (𝒊)


fn(i) menyatakan ekspektasi pendapatan optimum dari stage n, n+1, ... , N
Lakukanlah perhitungan mundur yang menghubungkan fn dengan fn+1 dengan
persamaan :
𝑚

𝑓𝑛 (𝑖) = 𝑚𝑎𝑥 {𝑣𝑖 + ∑ 𝑝𝑖𝑗 𝑘 𝑓𝑛+1 (𝑗)} , 𝑛 = 1,2, . . . , 𝑁 − 1


𝑘
𝑘
𝑗=1

Maka penyelesaian soal tersebut adalah sebagai berikut :

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 24


TOPIK 6. ANALISIS MARKOV

Stage 3 :

vik Pemecahan optimal

I k=1 k=2 f3(i) k*

1 5,3 4,7 5,3 1

2 3,0 3,1 3,1 2

3 -1,0 0,4 0,4 2

Stage 2 :

vik+ pi1kf3(1) + pi2kf3(2) + pi3kf3(3) Pemecahan


optimal
i k=1 k=2 f2(i) k*
1 5,3 + (0,2x5,3) + (0,5x3,1) + 4,7 + (0,3x5,3) + (0,6x3,1) + (0,1x0,4) = 8,19 2
(0,3x0,4) = 8,03 8,19
2 3,0 + (0x5,3) + (0,5x3,1) + 3,1 + (0,1x5,3) + (0,6x3,1) + (0,3x0,4) = 5,61 2
(0,5x0,4) = 4,75 5,61
3 -1,0 + (0x5,3) + (0x3,1) + 0,4 + (0,05x5,3) + (0,4x3,1) + (0,55x0,4) 2,13 2
(1x0,4) = -0,6 = 2,13

Stage 1 :

vik+ pi1kf2(1) + pi2kf2(2) + pi3kf2(3) Pemecahan


optimal
i k=1 k=2 f1(i) k*
1 5,3 + (0,2x8,19) + 4,7 + (0,3x8,19) + 10,74 2
(0,5x5,61) + (0,3x2,13) = (0,6x5,61) + (0,1x2,13) =
10,38 10,74

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 25


TOPIK 6. ANALISIS MARKOV

2 3,0 + (0x8,19) + (0,5x5,61) 3,1 + (0,1x8,19) + 7,92 2


+ (0,5x2,13) = 6,87 (0,6x5,61) + (0,3x2,13) =
7,92
3 -1,0 + (0x8,19) + (0x5,61) + 0,4 + (0,05x8,19) + 4,23 2
(1x2,13) = 1,13 (0,4x5,61) + (0,55x2,13)
= 4,23

Solusi optimum dari hasil perhitungan adalah :


● Bulan ke-1 dan bulan ke-2 media promosi yang harus digunakan adalah
radio (pilihan ke-2) apapun status atau kondisi perusahaan saat ini
● Bulan ke-3, media promosi yang harus digunakan adalah tv jika kondisi
penjualan saat ini adalah sangat baik, tetapi untuk kondisi penjualan baik
dan biasa maka media promosi yang dipilih adalah radio. Total pendapatan
yang akan diterima sebesar :
- 10,74 jika kondisi penjualan saat ini sangat baik,
- 7,92 jika kondisi penjualan saat ini baik, dan
- 4,23 jika kondisi penjualan saat ini biasa.

6.3 Solusi Pemograman Linear Dengan Permasalahan Keputusan Markovian


Pada bagian sebelumnya menjelaskan jenis kebijakan utama (disebut
kebijakan stasioner dan deterministik) yang digunakan oleh proses keputusan
Markov. Kebijakan R dapat dilihat sebagai aturan yang menentukan keputusan di
(R) setiap kali sistem dalam state i, untuk setiap i = 0, 1 ..... M. Jadi, R dicirikan oleh
nilai-nilai :
{d0(R), d1(R), ..... dM(R)}.
Secara ekuivalen, R dapat dikarakterisasikan dengan menetapkan nilai Dik = 0 atau
1 dalam matriks :

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 26


TOPIK 6. ANALISIS MARKOV

Decision K

1 2 ... K
0 D01 D02 ... D0K
State 1 D11 D12 ... D1K
: ..... ..... .... .....
M DM1 DM2 .... ....

dimana setiap Dik (i = 0, 1, ..., M dan k = 1, 2, ..., K) didefinisikan sebagai :


Dik = 1 jika keputusan k akan dibuat di negara state i
0 sebaliknya

Oleh karena itu, setiap baris dalam matriks harus berisi 1 tunggal dengan
elemen lainnya 0s. Misalnya, kebijakan optimal Rb dicirikan oleh matriks :

1 2 3
0 1 0 0
1 1 0 0
2 0 1 0
3 0 0 1

Dengan tidak melakukan apa-apa (keputusan 1) ketika mesin dalam


keadaan 0 atau 1, perbaikan (keputusan 2) dalam keadaan 2, dan mengganti mesin
(keputusan 3) ketika dalam keadaan 3.

Kebijakan Acak
Memperkenalkan Dik memberikan motivasi untuk perumusan pemrograman
linier. Diharapkan biaya yang diharapkan dari suatu kebijakan dapat dinyatakan
sebagai fungsi linier Dik atau variabel terkait, tunduk pada kendala linier.
Sayangnya, nilai Dik adalah bilangan bulat (0 atau 1), dan variabel kontinu

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 27


TOPIK 6. ANALISIS MARKOV

diperlukan untuk formulasi pemrograman linier. Persyaratan ini dapat ditangani


dengan memperluas interpretasi kebijakan. Definisi sebelumnya menyerukan
untuk membuat keputusan yang sama setiap kali sistem dalam keadaan i.
Interpretasi baru dari sebuah kebijakan akan memanggil untuk menentukan
distribusi probabilitas untuk keputusan yang akan dibuat ketika sistem dalam
status i.
Dengan interpretasi baru ini, Dik sekarang perlu didefinisikan ulang menjadi :

Dik = P{keputusan = k ÷ state = i}.


Dengan kata lain, mengingat sistem dalam keadaan i, variabel Dik adalah
probabilitas untuk memilih keputusan k sebagai keputusan yang akan diambil.
Oleh karena itu, (Di1, Di2,..., DiK) adalah distribusi probabilitas untuk keputusan
yang akan dibuat di negara bagian i.
Kebijakan yang menggunakan distribusi probabilitas ini disebut kebijakan
acak, sedangkan kebijakan yang menyerukan Dik = 0 atau 1 merupakan kebijakan
deterministik. Kebijakan yang diacak kembali dapat dikarakterisasi oleh matriks :
Decision K

1 2 ... K
0 D01 D02 ... D0K
State 1 D11 D12 ... D1K
: ..... ..... .... .....
M DM1 DM2 .... ....

di mana setiap baris berjumlah 1, dan sekarang :

0 ≤ Dik ≤ 1.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 28


TOPIK 6. ANALISIS MARKOV

Untuk mengilustrasikan, pertimbangkan kebijakan acak untuk contoh prototipe


yang diberikan oleh matriks

1 2 3
0 1 0 0
1 1/2 0 1/2
2 1/4 1/4 1/2
3 0 0 1

Kebijakan ini menyerukan untuk selalu membuat keputusan 1 (tidak


melakukan apa-apa) saat mesin dalam keadaan 0. Jika ditemukan dalam state 1,
maka dibiarkan apa adanya dengan probabilitas 1/2 dan diganti dengan
probabilitas 1/2, sehingga koin dapat dibalik untuk membuat pilihan. Jika
ditemukan di state bagian 2, itu dibiarkan apa adanya dengan probabilitas 1/4,
diperbaiki dengan probabilitas 1/4, dan diganti dengan probabilitas 1/2. Perangkat
acak dengan probabilitas ini (tabel nomor acak dapat digunakan untuk membuat
keputusan sebenarnya. Akhirnya, jika mesin ditemukan dalam status 3, itu selalu
diperbaiki. Dengan mengizinkan kebijakan acak, sehingga Dik menjadi variabel
kontinu, bukan variabel integer, sekarang dimungkinkan untuk merumuskan
model pemrograman linier untuk menemukan kebijakan yang optimal.

Formulasi Pemrograman Linear


Variabel keputusan convenient (dilambangkan di sini dengan yik) untuk
model pemrograman linier didefinisikan sebagai berikut. Untuk setiap i = 0, 1,. . . ,
M dan k = 1, 2,. . . , K, biarkan yik menjadi kondisi steady state probabilitas tak
bersyarat bahwa sistem dalam keadaan i dan keputusan k dibuat yaitu :
yik = P{state = i and decision = k}.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 29


TOPIK 6. ANALISIS MARKOV

Setiap yik terkait erat dengan Dik yang sesuai sejak, dari aturan bersyarat
kemungkinan,
yik = πi Dik,
di mana i adalah probabilitas steady state bahwa rantai Markov berada dalam
kondisi i. Selanjutnya,
𝐾

𝜋𝑖 = ∑ 𝑦𝑖𝑘
𝑘=1

Maka,
𝑦𝑖𝑘 𝑦𝑖𝑘
𝐷𝑖𝑘 = = 𝐾
𝜋𝑖 ∑ 𝑦𝑖𝑘
𝑘=1

Ada beberapa kendala pada yik :


1. ∑𝑀 𝑀 𝐾
𝑖 =1 𝜋𝑖 = 1 maka ∑𝑖=0 ∑𝑘=1 𝑦𝑖𝑘 = 1

2. Dari hasil probabilitas steady state


𝑀

𝜋𝑗 = ∑ 𝜋𝑖 𝑃𝑖𝑗
𝑖=0

Maka,

𝑀
∑𝐾 𝐾
𝑘=1 𝑦𝑖𝑘 = ∑𝑖=0 ∑𝑘=1 𝑦𝑖𝑘 𝑃𝑖𝑗 (𝑘), 𝑗 = 0, 1, … . , 𝑀.

3. 𝑦𝑖𝑘 ≥ 0, 𝑖 = 0, 1, … . . , 𝑀 dan 𝑘 = 0, 1, … . . , 𝐾.

Biaya rata-rata jangka panjang yang diharapkan per unit waktu


diberikan oleh

𝐸(𝐶) = ∑𝑀 𝐾 𝑀 𝐾
𝑖=0 ∑𝑘=1 𝜋𝑖 𝐶𝑖𝑘 𝐷𝑖𝑘 = ∑𝑖=0 ∑𝑘=1 𝐶𝑖𝑘 𝑌𝑖𝑘

Oleh karena itu, model pemrograman linier adalah memilih yik untuk
Meminimalkan :

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 30


TOPIK 6. ANALISIS MARKOV

𝑍 = ∑𝑀 𝐾
𝑖=0 ∑𝑘=1 𝐶𝑖𝑘 𝑌𝑖𝑘

subject to the constraints

1) ∑𝑀 𝐾
𝑖=0 ∑𝑘=1 𝑦𝑖𝑘 = 1
𝑀
2) ∑𝐾 𝐾
𝑘=1 𝑦𝑖𝑘 = ∑𝑖=0 ∑𝑘=1 𝑦𝑖𝑘 𝑃𝑖𝑗 (𝑘), 𝑗 = 0, 1, … . , 𝑀.
3) 𝑦𝑖𝑘 ≥ 0, 𝑖 = 0, 1, … . . , 𝑀 dan 𝑘 = 0, 1, … . . , 𝐾.

Dengan demikian, model ini memiliki batasan fungsional M + 2 dan variabel


keputusan K (M + 1). [Sebenarnya, (2) menyediakan satu kendala yang berlebihan,
sehingga salah satu dari kendala M + 1 ini bisa dihapus.] Dengan asumsi model
tidak terlalu besar maka dapat diselesaikan dengan metode simpleks.
Setelah nilai yik diperoleh, setiap Dik ditemukan dari :

𝑦𝑖𝑘
𝐷𝑖𝑘 = 𝐾
∑ 𝑦𝑖𝑘
𝑘=1

Solusi optimal yang diperoleh dengan metode simpleks memiliki beberapa


sifat yang menarik. Ini akan berisi M + 1 variabel dasar yik ≥ 0. Dapat ditunjukkan
bahwa yik > 0 setidaknya 1 Argumen k diperkenalkan dalam pij (k) untuk
menunjukkan bahwa probabilitas transisi yang sesuai bergantung pada keputusan
k. satu k = 1, 2,. . . , K, untuk setiap i = 0, 1,. . . , M. Oleh karena itu, maka yik > 0
hanya untuk satu k untuk setiap i = 0, 1,. . . , M. Akibatnya, setiap Dik = 0 atau 1.
Kesimpulan kuncinya adalah bahwa kebijakan optimal yang ditemukan
dengan metode simpleks lebih bersifat deterministik daripada acak. Dengan
demikian, membiarkan kebijakan diacak sama sekali tidak membantu dalam
memperbaiki kebijakan akhir. Namun, ini memiliki peran yang sangat berguna
dalam perumusan ini dengan mengubah variabel integer (Dik) menjadi variabel
kontinu sehingga program linier (LP) dapat digunakan. (Analogi dalam
pemrograman integer adalah menggunakan relaksasi LP sehingga metode

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 31


TOPIK 6. ANALISIS MARKOV

simpleks dapat diterapkan dan kemudian memiliki properti solusi integer sehingga
solusi optimal untuk relaksasi LP ternyata tetap menjadi integer.)

Contoh Soal 4:
Pabrik ABC memiliki satu mesin utama sebagai inti dari salah satu proses
produksinya. Karena penggunaan yang berat, mesin mengalami penurunan
kualitas dan keluaran dengan cepat. Oleh karena itu, pada akhir setiap minggu,
pemeriksaan menyeluruh dilakukan yang menghasilkan klasifikasi kondisi mesin
menjadi salah satu dari empat kemungkinan status :

State Kondisi
0 Bagus seperti baru
1
Dapat dioperasikan — kerusakan kecil
2
Dapat dioperasikan — kerusakan parah
3 Tidak dapat dioperasikan — keluaran dengan kualitas
yang tidak dapat diterima

Setelah data historis pada hasil pemeriksaan ini dikumpulkan, analisis statistik
dilakukan tentang bagaimana status mesin berkembang dari bulan ke bulan. Grafik
berikut menunjukkan frekuensi relatif (probabilitas) dari setiap kemungkinan
transisi dari status dalam satu bulan (baris matriks) ke status di bulan berikutnya
(kolom matriks).
State 0 1 2 3

0 0 7 1 1
8 16 16
1 0 3 1 1
4 8 8
2 0 0 1 1
2 2

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 32


TOPIK 6. ANALISIS MARKOV

3 0 0 0 1

Selain itu, analisis statistik menemukan bahwa probabilitas transisi ini tidak
terpengaruh dengan juga mempertimbangkan keadaan di bulan sebelumnya.
"Properti kekurangan memori" ini adalah properti Markovian. Oleh karena itu,
untuk variabel random Xt yang merupakan keadaan mesin pada akhir bulan t,
dapat disimpulkan bahwa proses stokastik {Xt, t = 0, 1, 2,. . .} adalah rantai Markov
waktu diskrit yang matriks transisinya (satu langkah) hanya matriks di atas.
Seperti yang ditunjukkan oleh entri terakhir dalam matriks transisi ini, setelah
mesin menjadi tidak dapat dioperasikan (memasuki kondisi 3), mesin tetap tidak
dapat dioperasikan. Dengan kata lain, keadaan 3 adalah keadaan menyerap.
Membiarkan mesin dalam keadaan ini tidak dapat ditoleransi, karena ini akan
menghentikan proses produksi, sehingga mesin harus diganti. (Perbaikan tidak
dapat dilakukan dalam keadaan ini.) Mesin baru kemudian akan mulai dalam
keadaan 0.
Proses penggantian membutuhkan waktu 1 minggu hingga selesai sehingga
produksi hilang untuk periode ini. Biaya produksi yang hilang (laba yang hilang)
adalah $ 2.000, dan biaya penggantian mesin adalah $ 4.000, jadi total biaya yang
dikeluarkan setiap kali mesin saat ini memasuki kondisi 3 adalah $ 6.000.
Bahkan sebelum mesin mencapai keadaan 3, biaya mungkin timbul dari produksi
barang yang rusak. Biaya yang diharapkan per minggu dari sumber ini adalah
sebagai berikut :

State Biaya yang Diharapkan Karena Item Cacat, $


0 0
1 1,000
2 3,000

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 33


TOPIK 6. ANALISIS MARKOV

Sekarang telah menyebutkan semua biaya relevan yang terkait dengan satu
pemeliharaan tertentu kebijakan (ganti mesin jika sudah tidak bisa dioperasikan
tetapi tidak melakukan perawatan jika tidak). Di bawah kebijakan ini, evolusi
status sistem (suksesi mesin) masih merupakan rantai Markov, tetapi sekarang
dengan matriks transisi berikut :

State 0 1 2 3

0 0 7 1 1
8 16 16
1 0 3 1 1
4 8 8
2 0 0 1 1
2 2
3 1 0 0 0

Untuk mengevaluasi kebijakan pemeliharaan ini, kita harus mempertimbangkan


biaya langsung yang timbul selama minggu depan (baru saja dijelaskan) dan biaya
selanjutnya yang dihasilkan membuat sistem berkembang dengan cara ini. Salah
satu yang banyak digunakan ukuran kinerja untuk rantai Markov adalah biaya rata-
rata per yang diharapkan (jangka panjang) waktu satuan untuk menghitung
ukuran ini, pertama-tama kita mendapatkan probabilitas kondisi-mapan 𝜋0, 𝜋1, 𝜋2,
dan 𝜋3 untuk rantai Markov ini dengan menyelesaikan persamaan kondisi-mapan
berikut:
𝜋0 = 𝜋 3
7 3
𝜋1 = 𝜋0 + 4 𝜋1 ,
8
1 1 1
𝜋2 = 𝜋0 + 8 𝜋1 + 2 𝜋2 ,
16
1 1 1
𝜋2 = 𝜋0 + 8 𝜋1 + 2 𝜋2 ,
16

1 = 𝜋0 + 𝜋1 + 𝜋2 + 𝜋3 ,

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 34


TOPIK 6. ANALISIS MARKOV

Namun, ada juga kebijakan perawatan lain yang harus dipertimbangkan dan
dibandingkan dengan yang ini. Misalnya, mungkin mesin harus diganti sebelum
mencapai :

Biaya yang Biaya (Laba Total Biaya per


Biaya
Diharapkan Karena Hilang) dari Minggu,
Pemeliharan, $
Keputusan State Memproduksi Barang Produksi yang
$
Cacat, $ Hilang, $
1. Tidak melakukan 0 0 0 0 0
apa-apa 1 1,000 0 0 1,000
2 3,000 0 0 3,000
2. Perbaikan 2 0 2,000 2,000 4,000
3. Ganti 1, 2, 3 0 4,000 2,000 6,000

Alternatif lain adalah merombak mesin dengan biaya $ 2.000. Opsi ini adalah tidak
layak di bagian 3 dan tidak meningkatkan mesin sementara di bagian 0 atau 1, jadi
biaya hanya di bagian 2. Dalam keadaan ini, perombakan akan mengembalikan
mesin ke status 1. A diperlukan minggu, jadi konsekuensi lain adalah $ 2.000 dalam
keuntungan yang hilang dari produksi yang hilang. Singkatnya, keputusan yang
mungkin diambil setelah setiap inspeksi adalah sebagai berikut :

Keputusan Tindakan State Relevan


1 Tidak melakukan apa-apa 0, 1, 2
2 Perbaikan (Kembalikan sistem ke 2
state 1)
3 Ganti (Kembalikan sistem ke status 0) 1, 2, 3

Untuk referensi mudah, Tabel di atas juga merangkum biaya yang relevan untuk
setiap keputusan setiap negara bagian di mana keputusan itu mungkin menarik.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 35


TOPIK 6. ANALISIS MARKOV

Lihat contoh di atas. Dua kolom pertama Tabel di atas memberikan


kombinasi yang relevan dari bagian dan keputusan. Oleh karena itu, variabel
keputusan itu perlu yang akan disertakan dalam model adalah y01, y11, y13, y21,
y22, y23, dan y33. (Ekspresi umum diberikan di atas untuk model termasuk yik
untuk kombinasi yang tidak relevan dari keadaan dan keputusan di sini, jadi ini yik
0 dalam solusi optimal, dan mereka mungkin juga dihapus diawal.) Kolom paling
kanan dari Tabel di atas memberikan koefisien dari variabel-variabel ini dalam
fungsi tujuan. Probabilitas transisi pij (k) untuk setiap kombinasi yang relevan
bagian i dan keputusan k juga dijabarkan di atas. Model pemrograman linier yang
dihasilkan adalah

Minimalkan :

Z = 1,000y11 + 6,000y13 + 3,000y21 + 4,000y22 + 6,000y23 + 6,000y33,

Bergantung atas :
y01 + y11 + y13 + y21 + y22 + y23 + y33 =1
y01 — (y13 + y23 + y33) =0
7 3
y11 + y13 — ( 8 y01 +4 y11 + y22 ) =0
1 1 1
y21 + y22 + y23 — ( 16 y01 + y11 + 2 y21 ) =0
8
1 1 1
y33 — ( 16 y01 + y11 + 2 y21 ) =0
8

dan
𝑦𝑖𝑘 ≥ 0

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 36


TOPIK 6. ANALISIS MARKOV

Cara penyelesaian software :


Mencari nilai optimal sebagai berikut :

Y01 Y11 Y13 Y21 Y22 Y23 Y33 RHS


Minimize 0 1000 6000 3000 4000 6000 6000
Const. 1 1 1 1 1 1 1 1 1
Const. 2 1 0 -1 0 0 -1 -1 0
Const. 3 -0.875 0.25 1 0 -1 0 0 0
Const. 4 -0.0625 -0,125 0 0.5 1 1 0 0
Const. 5 -0.0625 -0.125 0 -0.5 0 0 1 0

1. Aktifkan program QM for Windows.


2. Klik menu Module, pilih Linear Programming.

3. Klik menu File, pilih New.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 37


TOPIK 6. ANALISIS MARKOV

4. Isi Number of Constraints dengan angka 5 karena terdapat 5 fungsi


kendala, dan masukkan Number of Variables dengan angka 7 karena
terdapat 7 variabel dalam fungsi tujuan.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 38


TOPIK 6. ANALISIS MARKOV

5. Pada menu objective pilih minimize karena kita akan meminimalkan fungsi
tujuan.

6. Ubah nama variabel sesuai dengan data pada soal.

Nama Variabel

7. Isi nilai Variabel yang terdapat pada fungsi tujuan yaitu Z = 1,000y11 +
6,000y13 + 3,000y21 + 4,000y22 + 6,000y23 + 6,000y33.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 39


TOPIK 6. ANALISIS MARKOV

8. Isi nilai constraints sesuai dengan fungsi kendala.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 40


TOPIK 6. ANALISIS MARKOV

9. Klik Solve untuk mendapatkan hasil perhitungan.

10. Klik menu Window, pilih Linear Programming Results. Maka akan didapat
hasilnya pada Solution List pada Optimal Value (Z).

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 41


TOPIK 6. ANALISIS MARKOV

Kesimpulan :

Kebijakan ini meminta untuk meninggalkan mesin sebagaimana adanya


(keputusan 1) ketika berada dalam status 0 atau 1, perbaikan itu (keputusan 2)
ketika di bagian 2, dan menggantinya (keputusan 3) ketika di bagian 3. Dengan
nilai kebijakan optimal sebesar 1666,67.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 42


TOPIK 6. ANALISIS MARKOV

REFERENSI
Frederick S. Hillier dan Gerald J. Lieberman, 2001. Introduction To Operations
Research Seventh Edition. McGraw-Hill, an imprint of The McGraw-Hill
Companies, Inc., 1221 Avenue of the Americas, New York, NY, 10020.
Hamda A. Taha. 2007. Operations Research : An Introduction Eight Edition. Pearson
Education, Inc. Pearson Prentice Hall. Pearson Education, Inc. Upper Saddle
River, NJ 07458.
Hillier and Lieberman. 1991. “Introduction to Mathematical Programming”,
1stedition, McGraw-Hill.
Don T.Philips. 1987. “Operation Research: Principle and Practice”, 2ndedition,
JohnWiley and Sons.
Mulyono, Sri. 2007. Riset Operasi. Fakultas Ekonomi Uniersitas Indonesia. Jakarta
Sarjono, Haryadi. 2010. Aplikasi Riset Operasi. Salemba Empat. Jakarta.
Dimyati, Tjutju Tarliah, Ahmad. 1999. “Operations Research”, PT. Sinar Baru
Algensindo Bandung.
Ayu, Media Anugrah. 1994, Pengantar Riset Operasional. Jakarta: Gunadarma.

Integrated Laboratory Universitas Gunadarma-Riset Operasional 2 43

Anda mungkin juga menyukai