Anda di halaman 1dari 5

RISET OPERASI

“Tulisan ini bertujuan untuk memenuhi tugas dalam perkuliahan Riset Operasi”

Pengampu : I Gede Santi Astawa, S.T.,M.Cs

OLEH KELOMPOK 4:

1. Inggit srie hartina (1408605010)

2. I putu yuda juniantara putra (1408605024)

3. Faisal Achmad Failusufi (1408605039)

4. I gusti ngurah bagus Putra A (1408605041)

5. Sidin Rahman (1408605056)

PROGRAM STUDI TEKNIK INFORMATIKA

JURUSAN ILMU KOMPUTER

FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM

UNIVERSITAS UDAYANA
2016
RESUME ANALISIS RANTAI MARKOV

1. Analisis Rantai Markov


Analisis Markov merupakan sebuah teknik yang berhubungan dengan probabilitas
akan state di masa mendatang dengan menganalisa probabilitas saat ini (Render et al,
2006, p652). Definisi lain menyatakan bahwa Analisa Markov merupakan sebuah metode
dalam menganalisa perilaku saat ini dari beberapa variabel dengan tujuan untuk
memprediksi perilaku dari variabel yang sama di masa mendatang (Levin et al., 1992,
p802).
Analisa Markov hampir sama dengan decision analysis, bedanya adalah analisa
rantai Markov tidak memberikan keputusan rekomendasi, melainkan hanya informasi
probabilitas mengenai situasi keputusan yang dapat membantu pengambil
keputusan.Dengan demikian. Analisa rantai Markov bukanlah teknik optimisasi, tetapi
adalah teknik deskriptif yang menghasilkan informasi probabilitas dimasa mendatang.

2. Sejarah Markov
Markov ditemukan oleh seorang matematikawan terkenal dari Rusia bernama
Andrey Andreyevich Markov yang lahir pada tanggal 14 Juni 1856 di Ryazan, Russia dan
wafat pada tanggal 20 Juli 1922 di Petrograd, Russia. Pada tahun 1886, Markov menjadi
anggota St.Petersburg Academy Of Science. Markov terkenal lewat teori yang
ditemukannya tentang proses stokastik, yang kemudian dikenal dengan nama Markov
Chain.

3. State
State digunakan untuk mengidentifikasi seluruh kondisi yang mungkin dari suatu
proses atau sistem (Render et al, 2006, p652). Misalnya saja, sebuah mesin dapat berada
dalam satu state dari dua state yang ada dalam satu waktu. Mesin tersebut dapat berfungsi
dengan baik atau dapat juga berfungsi secara tidak baik (rusak). Kondisi dimana mesin
dapat berfungsi disebut dengan state pertama. Sedangkan kondisi dimana mesin tidak
dapat berfungsi disebut dengan state kedua.
Menurut Render et al (2004, p652), dalam analisis Markov diasumsikan bahwa
state memiliki dua buah sifat yaitu:
a. Collectively exhaustive
peneliti dapat membuat daftar seluruh state yang mungkin timbul atau dimiliki
oleh suatu sistem atau proses dimana asumsinya adalah terdapat jumlah state
yang terbatas untuk sistem.
b. Mutually exclusive
Sebuah sistem hanya dapat berada dalam satu state dalam satu waktu (sistem
tidak dapat berada dalam lebih dari satu state). Misalnya, mahasiswa manajemen
UBinus hanya dapat memilih satu peminatan dari tiga peminatan yang ada.

4. Probabilitas State
Setelah state dari sistem atau proses yang akan diteliti telah diidentifikasi, langkah
selanjutnya adalah menentukan probabilitas sistem berada dalam state tertentu dengan
menggunakan vektor probabilitas state.

Π (i) = vektor dari probabilitas state untuk periode i


= (π1,π2,π3,…,πn)
dimana

n = jumlah state
π1,π2,π3,…,πn = probabilitas berada dalam state ke-1, state ke-2, state ke-n

Untuk beberapa kasus dimana hanya terdapat satu item, misalnya sebuah mesin.
Maka dapat ditentukan dengan pasti state dari item tersebut. Misalnya saja, jika penelitian
dilakukan hanya pada satu buah mesin, maka kita dapat mengetahui dengan pasti bahwa
pada saat ini mesin dapat berfungsi dengan baik, atau tidak berfungsi. Maka vektor untuk
mesin tersebut dapat diggambarkan sebagai berikut:
π(1) = (1,0)
dimana
π1 = 1 = probabilitas berada dalam state ke-1
π2 = 0 = probabilitas berada dalam state ke-2

Hal ini menunjukkan bahwa probabilitas mesin berfungsi dengan baik, state ke-1,
adalah 1 dan probabilitas mesin tidak berfungsi, state ke-2, adalah 0 untuk periode
pertama. Namun dalam beberapa kasus, penelitian dilakukan tidak hanya pada satu item
saja melainkan beberapa item.
Dibandingkan dengan menggunakan diagram pohon, penggunaan matriks
probabilitas state lebih memudahkan dalam melakukan perhitungan. Matriks ini
digunakan bersama dengan probabilitas state saat ini untuk memprediksi kondisi di masa
mendatang.

5. Matriks Transisi Probabilitas


Matriks Transisi Probabilitas memungkinkan untuk melakukan perhitungan
probabilitas state di masa mendatang berdasarkan pada state saat ini. Pij = probabilitas
kondisi berada dalam state j di masa mendatang berdasarkan pada state i saat ini.
Misalkan P12 adalah probabilitas berada pada state 2 di masa mendatang dimana
sebelumnya berada pada state 1 (Render et al. 2006, p655).

P = matriks transisi probabilitas

Nilai Pij biasanya ditentukan secara empiris.

6. Memprediksi Kondisi di Masa Mendatang


Menurut Render et al ( 2006, p656 ) Salah satu tujuan analisis Markov adalah
untuk memprediksi masa depan. Jika periode saat ini adalah 0, menghitung probabilitas
state untuk periode berikutnya ( periode 1 ) dapat dilakukan sebagai berikut:
Π(1) = Π (0)P

Jika penghitungan dilakukan pada periode n, maka probabilitas state untuk


periode n + 1 adalah sebagai berikut:

Π (n + 1) = Π (n)P

7. Kondisi Ekuilibrium
Merupakan sebuah kondisi yang sangat masuk akal jika di masa mendatang akan
tercapai suatu kondisi yang stabil dimana semua state yang ada tidak mengalami
perubahan lagi atau disebut juga dengan kondisi ekuilibrium. Kondisi ini akan tercapai
hanya jika tidak ada state yang melakukan tindakan yang dapat mengubah matriks
transisi probabilitas.

Anda mungkin juga menyukai