MANUFAKTUR
Disusun oleh:
KELOMPOK 4
Puji syukur kami panjatkan kepada Allah SWT atas berkat, rahmat, dan
karuniaNya sehingga kami dapat menyelesaikan makalah “Penerapan Rantai
Markov Dalam Sistem Manufaktur” guna memenuhi tugas mata kuliah
Probabilitas dengan Dosen Pengampu Mata Kuliah Bapak Rafi Renaldy Tamalea
S.TP., M.TP.
Kami menyadari bahwa makalah ini masih jauh dari kesempurnaan dan
kami telah berusaha semaksimal mungkin dalam menyusun tugas makalah ini.
Oleh sebab itu, kami sangat mengharapkan kritik, saran, dan nasehat yang baik
demi perbaikan tugas makalah ini kedepannya. Demikianlah yang dapat kami
sampaikan, semoga makalah ini dapat berguna dan bemanfaat untuk kita semua.
Penyusun
2
DAFTAR ISI
KATA PENGANTAR.......................................................................................................
DAFTAR ISI.....................................................................................................................
BAB I PENDAHULUAN.................................................................................................
BAB IV PENUTUP.........................................................................................................
A. Kesimpulan.......................................................................................................
B. Saran.................................................................................................................
DAFTAR PUSTAKA......................................................................................................
3
BAB I
PENDAHULUAN
4
BAB II
TINJAUAN PUSTAKA
A. Definisi Manufaktur
5
BAB III
PEMBAHASAN
6
memprediksi biaya, memprediksi permintaan sumber daya dan material, dan
menjalankan studi pengoptimalan. Dijelaskan pula bahwa rantai markov dapat
dapat memberikan representasi bisnis yang lebih andal dan mengurangi risiko
ketidakakuratan pemodelan serta membantu memprediksi hasil di masa
mendatang dan menjalankan pengoptimalan dengan lebih akurat.
7
ditertentukan. Pada dasarnya itu adalah keluarga variabel acak, X (t): t
Є T didefinisikan pada ruang probabilitas yang diberikan, diindeks
oleh variabel waktu t, di mana t bervariasi atas set indeks T. Proses
stokastik mungkin berupa kontinu atau diskrit. Proses stokastik
diklaim sebagai proses waktu diskrit jika set T terbatas atau dapat
dihitung. Di sisi lain proses stokastik X (t): t Є T dianggap sebagai
proses waktu kontinu jika T tidak terhingga atau tidak dapat dihitung.
Artinya, jika T= [0, ∞) atau T= [0, k] untuk beberapa nilai k. Ruang
dengan keadaan S adalah himpunan keadaan di mana proses stokastik
dapat masuk. Keadaan dapat terbatas atau dapat dihitung sehingga
ruang keadaan S adalah bisa disebut diskrit.
3.3.3 Rantai markov
Rantai Markov adalah alat matematika yang kuat yang digunakan
secara luas untuk menangkap proses stokastik dari transisi sistem di
antara keadaan yang berbeda. Rantai Markov memiliki kekuatan
representasi yang signifikan dan kemungkinannya untuk
memodelkan berbagai masalah kehidupan nyata selain kualitas
indeks kinerja yang digunakan atau di sebut juga dengan proses
stokastik yang merupakan model stokastik waktu diskrit yang
didefinisikan pada ruang keadaan, dilengkapi dengan probabilitas
transisi dari satu keadaan ke keadaan lain pada tahap waktu
berikutnya. Rantai markov memiliki 2 jenis waktu yang berbeda
ketika mendekati rantai Markov yaitu, rantai Markov waktu diskrit
dan rantai Markov waktu kontinu. rantai Markov waktu diskrit
merupakan waktu yang diamati hanya pada titik waktu yang
berbeda. dan Rantai Markov waktu kontinyu adalah proses stokastik
dengan karakteristik Markov yang probabilitas kondisi masa
depannya bergantung pada kondisi saat ini yang tidak memiliki
hubungan dengan kondisi proses sebelumnya atau bisa juga di sebut
dengan Rantai Markov waktu terus menerus berubah kapan saja
(Perubahan status dapat terjadi di mana saja dalam waktu).
3.3.4 Status model rantai markov
8
Model rantai Markov adalah proses berurutan yang terdiri dari
banyak langkah dengan perbedaan kondisi. Kondisi pertama yaitu
“State i mengkomunikasikan dirinya sendiri”. Kondisi kedua yaitu
“Jika state i berkomunikasi dengan state j, maka j berkomunikasi
dengan state i.” kondisi ke 3 yaitu “Jika state i berkomunikasi
dengan state j, dan j berkomunikasi dengan state k, maka i
berkomunikasi dengan state k.”
3.3.5 Probabilitas transisi
Probabilitas transisi adalah probabilitas bersyarat s P (X t+1 = j/ X t
=i} = Pij disusun dalam bentuk matriks n x n yang disebut matriks
probabilitas transisi diberikan oleh Jurnal Internasional Teknik
Industri dan Penelitian Operasional (IJIEOR), Vol. 3, No. 1, Halaman
1-13 Matriks transisi menunjukkan probabilitas transisi antara tahap
baris ke tahap kolom. Untuk membentuk model rantai Markov
diperlukan probabilitas transisi dan dihitung dengan menggunakan
persamaan di bawah ini yang menentukan probabilitas melakukan
transisi dari tahap i ke tahap j Matriks Probabilitas Transisi memiliki
sifat-sifat berikut: 1. untuk semua i dan j. 2. Untuk semua i dan j,
jumlah elemen pada setiap baris sama dengan 1. Jumlah tersebut
menyatakan probabilitas total transisi dari keadaan i ke dirinya sendiri
atau ke keadaan lainnya. 3. Elemen diagonal mewakili transisi dari
satu keadaan ke keadaan yang sama. Model Rantai Markov berguna
dalam mempelajari evolusi sistem selama percobaan berulang. Uji
coba berulang seringkali merupakan periode waktu yang berurutan di
mana keadaan sistem dalam periode tertentu tidak dapat ditentukan
dengan pasti. Sebaliknya, probabilitas transisi digunakan untuk
menggambarkan cara sistem melakukan transisi dari satu periode ke
periode berikutnya. Ini membantu kita untuk menentukan probabilitas
sistem berada dalam keadaan tertentu pada periode waktu tertentu.
3.3.6 Sifat rantai markov
Periodisitas Suatu keadaan i memiliki periode k jika setiap kembali ke
keadaan i harus terjadi dalam kelipatan k langkah waktu. Perhatikan
9
bahwa meskipun sebuah state memiliki periode k, tidak mungkin
berhasil dalam state dalam k langkah. Misalnya, anggaplah mungkin
untuk kembali ke keadaan dalam {6, 8, 10, 12….} langkah waktu; k
akan menjadi 2, meskipun 2 tidak muncul dalam daftar ini.Jika k = 1,
maka keadaan diklaim periodik: kembali ke keadaan i dapat terjadi
pada waktu yang tidak beraturan, dengan kata lain keadaan i adalah
aperiodik jika ada n Jika tidak keadaan dikatakan periodik dengan
periode k. Rantai Markov adalah aperiodik jika setiap keadaan
aperiodik. Rantai Markov yang tidak dapat direduksi hanya
membutuhkan satu keadaan aperiodik untuk menyiratkan bahwa
semua keadaan adalah aperiodik. Setiap keadaan grafik bi partit
memiliki periode genap. Keadaan i dikatakan sementara jika,
mengingat bahwa sistem mulai dalam keadaan i, ada probabilitas
bukan nol bahwa sistem tidak akan pernah kembali ke i secara formal,
tetapi variabel acak Ti menjadi waktu kembali pertama ke keadaan i
( "waktu memukul") Negara i berulang jika tidak sementara. Status
berulang dijamin memiliki waktu pukulan yang terbatas
Ergodisitas.Suatu keadaan i dikatakan ergodik jika periodik dan
rekuren positif. Dengan kata lain,suatu keadaan memiliki periode 1
dan memiliki waktu perulangan rata-rata yang terbatas. Jika semua
keadaan dalam rantai Markov tak tereduksi adalah ergodik, maka
rantai tersebut dikatakan ergodik. Dapat ditunjukkan bahwa keadaan
terbatas rantai Markov yang tidak dapat direduksi adalah ergodik jika
itu adalah keadaan periodik. Sebuah model memiliki sifat ergodik jika
ada bilangan berhingga sehingga setiap keadaan dapat dicapai dari
keadaan lain tepat dalam N langkah. Dalam kasus matriks transisi
yang terhubung penuh di mana semua transisi memiliki probabilitas
bukan nol, kondisi ini dipenuhi dengan N = 1. Model dengan lebih
dari satu status dan hanya satu transisi keluar per status tidak bisa
ergodik. Pengurangan Sebuah state j diklaim dapat diakses dari state
sebuah sistem yang dimulai pada state i memiliki probabilitas tidak
nol untuk bertransisi ke state j di beberapa titik. Secara formal, state
10
dapat diakses dari state i jika terdapat bilangan bulat, Bilangan bulat
ini dapat bervariasi untuk setiap pasangan status, sehingga subskrip di
nij. Membiarkan n menjadi nol berarti bahwa setiap negara
didefinisikan dapat diakses dari dirinya sendiri. Suatu state i dikatakan
berkomunikasi dengan state j ) Bilangan bulat ini dapat bervariasi
untuk setiap pasangan status, sehingga subskrip di nij. Membiarkan n
menjadi nol berarti bahwa setiap negara didefinisikan dapat diakses
dari dirinya sendiri. Suatu state i dikatakan berkomunikasi dengan
state. Himpunan status C dapat menjadi kelas yang berkomunikasi
jika setiap pasangan status di C berkomunikasi satu sama lain, dan
tidak ada status di C yang berkomunikasi dengan status apa pun yang
tidak di C. Dapat ditunjukkan bahwa komunikasi dalam pengertian ini
adalah relasi ekivalensi dan dengan demikian bahwa kelas yang
berkomunikasi adalah kelas ekuivalen dari relasi ini. Sebuah kelas
komunikasi tertutup jika probabilitas meninggalkan kategori adalah
nol, yaitu jika i ada di C tetapi j tidak ada, maka j tidak dapat diakses
dari i. Suatu keadaan i dikatakan essensial atau final jika untuk semua
j sedemikian rupa sehingga juga benar Keadaan i tidak penting jika
tidak penting. Rantai Markov dikatakan tidak dapat direduksi jika
ruang keadaannya mungkin merupakan kelas komunikasi tunggal;
dengan kata lain, jika memungkinkan untuk mencapai negara bagian
mana pun dari negara bagian mana pun.
3.3.7 Klasifikasi keadaan rantai Markov
Keadaan Berulang Sebuah state diklaim sebagai state berulang jika,
setelah memasuki state ini, metode pasti akan kembali ke state
sekarang. Oleh karena itu, suatu keadaan berulang jika dan selama itu
tidak bersifat sementara. Karena keadaan berulang pasti akan ditinjau
kembali setelah setiap kunjungan, itu akan sering dikunjungi tanpa
batas jika prosesnya berlanjut selamanya. Jika metode memasuki
keadaan tertentu kemudian tetap selama keadaan ini pada langkah
berikutnya, ini sering dianggap kembali ke keadaan sekarang. Oleh
karena itu, jenis keadaan berikut adalah jenis khusus dari keadaan
11
berulang . Negara Sementara Suatu keadaan diklaim sebagai keadaan
sementara jika, setelah memasuki keadaan ini, metode tersebut
mungkin tidak akan pernah kembali ke keadaan saat ini lagi. Oleh
karena itu, state i bersifat sementara jika dan selama ada state j (j≠ i)
yang dapat diakses dari state i tetapi tidak sebaliknya, yaitu state i
tidak dapat diakses dari state j . Jadi, jika state i bersifat sementara dan
proses mengunjungi state ini, ada probabilitas positif (bahkan
mungkin probabilitas 1) bahwa proses nantinya akan pindah ke state j
dan tidak akan pernah kembali ke state i. Konsekuensinya, keadaan
sementara hanya akan dikunjungi beberapa kali . Jurnal Internasional
Teknik Industri dan Penelitian Operasional (IJIEOR), Vol. 3, No. 1,
Halaman 1-13 Saat memulai di state i, kemungkinan lain adalah
proses pasti akan kembali ke state ini . Proses Markov bersifat
sementara jika keadaan hanya dapat dikunjungi beberapa kali, jika
tidak, keadaan akan berulang. Menyerap negara Dalam model rantai
Markov penyerap, rantai Markov dapat mencakup lingkaran dan
secara teoritis memungkinkan jumlah sirkulasi yang tak terbatas di
antara keadaan proses tertentu Suatu keadaan diklaim sebagai
keadaan penyerap jika, setelah memasuki keadaan ini, proses tidak
akan pernah pergi keadaan ini lagi. Oleh karena itu, keadaan i adalah
keadaan penyerap jika dan hanya jika Rantai Markov dengan satu
atau lebih keadaan penyerap dipahami sebagai rantai Markov
penyerap. Keadaan yang menyerap, seperti namanya, adalah keadaan
yang bertahan. Dengan kata lain, ketika suatu bagian kerja mencapai
keadaan seperti itu, ia tidak pernah meninggalkan keadaan tersebut
3.3.8 Area penerapan rantai Markov
Rantai Markov digunakan dalam berbagai situasi karena dapat
dianggap memodelkan banyak proses dunia nyata. Bidang-bidang ini
termasuk, untuk menyebutkan beberapa, manajemen mutu, kinerja
sistem (keandalan & ketersediaan), elektronik, pemantauan kondisi,
fisika, kimia, ilmu komputer, teori antrian, ekonomi, permainan, dan
olahraga . 3. Model Markov di bidang manufaktur Dalam upaya untuk
12
mendapatkan pemahaman yang lebih baik tentang rantai markov dan
penerapannya di bidang manufaktur, dan untuk memberikan dasar
bagi penelitian di masa depan, tinjauan luas dari beberapa penelitian
yang ada tentang subjek telah disajikan. Tabel 1 memberikan
ringkasan kutipan pada model Markov di bidang manufaktur.
Sebanyak 42 kutipan tentang model Markov di bidang manufaktur
ditinjau. Sebagian besar kutipan ditemukan dalam jurnal (78,571%),
prosiding, konferensi dan lain-lain (11,905%), buku (4,762%) dan
Tesis PhD yang diterbitkan (4,762%). Dari literatur yang direview,
terdapat beberapa ketidakpastian yang mempengaruhi kinerja pada
perusahaan manufaktur. Dari tabel 2 terlihat bahwa kegagalan dan
perbaikan sistem (45%) adalah sifat ketidakpastian yang paling
banyak diteliti yang mempengaruhi manufaktur, kemudian kebutuhan
atau permintaan pasar/pelanggan (25%), tingkat persediaan (5%),
kualitas produk (5%) , dan lainnya (20%) Terlihat juga bahwa
pendekatan Rantai Markov Waktu Diskrit (DTMC) dan Rantai
Markov Waktu Berkelanjutan (CTMC) digunakan meskipun Rantai
Markov Waktu Diskrit lebih banyak digunakan. Kesimpulan Makalah
ini telah menyajikan survei literatur yang luas tentang penerapan
rantai Markov dalam sistem manufaktur. Rantai Markov adalah
konsep yang mapan dalam riset operasi dan teori probabilitas dan
telah diterapkan ke banyak bidang di bidang manufaktur termasuk
manajemen mutu, kinerja sistem (keandalan & ketersediaan), rantai
pasokan, elektronik, pemantauan kondisi, teori antrian, ekonomi, dan
lain-lain. Beberapa. Sebagai dasar pengambilan keputusan, tidak
terkecuali metode prediksi Rantai Markov dan kombinasi hasil dari
penggunaan Rantai Markov untuk memprediksi dengan faktor lain
dapat lebih bermanfaat. Penelitian lebih lanjut harus dilakukan pada
pengembangan model dalam konteks Continuous Time Markov
Chains (CTMC) . Model harus dikembangkan lebih lanjut untuk
diterapkan pada produk yang memiliki komponen dan modul, operasi
logistik di belakang transisi perlu dimodelkan sehingga akurasi model
13
ditingkatkan dan, aspek ekonomi harus dimasukkan dalam model,
untuk membantu pembuat kebijakan dalam membuat keputusan yang
komprehensif.
BAB IV
PENUTUP
A. Kesimpulan
Rantai Markov adalah model matematis yang digunakan untuk
menganalisis sistem yang mengalami perubahan dari satu keadaan ke
keadaan lainnya secara acak. Dalam konteks manufacturing atau
manufaktur, rantai Markov dapat digunakan untuk memodelkan dan
menganalisis proses produksi yang melibatkan transisi antara berbagai
keadaan atau kondisi. Kesimpulan dari penerapan rantai Markov pada
manufacturing adalah Memprediksi Keadaan Sistem: Dengan
menggunakan rantai Markov, kita dapat memprediksi keadaan sistem di
masa depan berdasarkan keadaan saat ini. Hal ini dapat membantu
perusahaan manufaktur dalam merencanakan produksi, pengaturan
persediaan, dan peramalan permintaan. Optimalisasi Proses: Rantai
Markov dapat membantu dalam menemukan solusi yang optimal untuk
berbagai masalah yang terkait dengan proses manufaktur. Misalnya, model
ini dapat membantu dalam menentukan urutan produksi yang paling
efisien, meminimalkan waktu tunggu, atau mengoptimalkan penggunaan
sumber daya. Analisis Kinerja: Dengan memodelkan proses manufaktur
sebagai rantai Markov, kita dapat menganalisis kinerja sistem secara
keseluruhan. Ini melibatkan mengukur parameter seperti waktu siklus,
waktu produksi, efisiensi, dan throughput. Informasi ini dapat digunakan
untuk mengidentifikasi dan mengatasi bottlenecks serta meningkatkan
efisiensi operasional. Perencanaan Kapasitas: Rantai Markov dapat
membantu perusahaan manufaktur dalam merencanakan kapasitas
produksi yang optimal. Dengan memodelkan permintaan dan kapasitas
14
produksi sebagai keadaan dalam rantai Markov, perusahaan dapat
mengidentifikasi kebutuhan kapasitas di masa depan dan mengambil
tindakan yang tepat untuk memenuhi permintaan pelanggan. Pengendalian
Kualitas: Dalam konteks pengendalian kualitas, rantai Markov dapat
digunakan untuk memodelkan perubahan status kualitas produk dari satu
keadaan ke keadaan lainnya. Ini memungkinkan perusahaan manufaktur
untuk mengidentifikasi penyebab perubahan kualitas dan mengambil
tindakan pencegahan yang sesuai untuk meningkatkan kualitas produk.
Secara keseluruhan, penerapan rantai Markov dalam manufacturing dapat
membantu perusahaan manufaktur dalam merencanakan, mengoptimalkan,
dan menganalisis berbagai aspek operasional mereka. Dengan memahami
transisi antara keadaan sistem yang berbeda, perusahaan dapat
meningkatkan efisiensi, mengurangi biaya, dan meningkatkan kualitas
produk mereka.
B. Saran
1. Identifikasi Langkah Proses: Identifikasi dan dokumentasikan langkah-
langkah proses dalam rantai produksi manufaktur Anda. Misalnya,
mulai dari penerimaan bahan baku, proses produksi, pengujian
kualitas, hingga pengiriman produk.
2. Analisis Kejadian: Tinjau setiap langkah proses dan identifikasi
berbagai kejadian yang mungkin terjadi, seperti kegagalan mesin,
keterlambatan pengiriman bahan baku, atau cacat produk.
3. Buat Diagram Rantai Markov: Buat diagram atau grafik yang
mewakili rantai Markov dengan kejadian-kejadian yang telah
diidentifikasi. Setiap langkah proses harus menjadi simpul, dan transisi
antar simpul menggambarkan kemungkinan perpindahan ke langkah
berikutnya berdasarkan peluang.
4. Menghitung Probabilitas: Kumpulkan data historis tentang kejadian-
kejadian yang terjadi dalam proses manufaktur Anda untuk
menghitung probabilitas transisi antar simpul. Ini dapat melibatkan
analisis statistik dari data yang ada.
15
DAFTAR PURTAKA
[4] C. Tochukwu and I. Hyacinth, “Agent Based Markov Chain for Job Shop
Scheduling and Control: Review of the Modeling Technigue,” 2015.
[Online]. Available: www.ijiset.com.
16