Anda di halaman 1dari 3

REFLEKSI

PN. WAN SHAHREHAL BINTI WAN BAKAR


Rasa syukur yang tidak terhingga dirafakkan ke hadrat Allah kerana dengan
keizinan-Nya dapatlah saya dan rakan-rakan mempelajari dan mendalami lagi ilmu
berkaitan dengan Algebra Linear (MTE 3110).
Melalui kursus ini juga saya dan rakan-rakan diterangkan dengan mendalam sistem
persamaan dan ketaksamaan linear, penggunaan algebra matriks untuk
menyelesaikan persamaan linear, mengenal pasti set vektor, menentukan sifat
vektor menggunakan hasil darab skalar dan mengintegrasikan pengetahuan algebra
matriks dan vektor dalam penggunaan seharian.
Pada interaksi yang kedua saya dan rakan-rakan telah menerima tugasan daripada
pensyarah. Terima kasih diucapkan kepada En. Mohamed Azli b Abu Samah kerana
telah memberikan penerangan yang mendalam bagaimana menghasilkan tugasan
yang baik.
Pada mulanya tugasan ini saya rasa sukar untuk dilaksanakan kerana banyak
perkara yang perlu dipelajari dan dilaksanakan. Namun dengan penerangan yang
mendalam daripada pensyarah dan bantuan daripada rakan-rakan akhirnya tugasan
ini dapat dilaksanakan dengan jayanya. Terima kasih diucapkan.
Perkara pertama yang perlu dilakukan ialah mengumpul bahan maklumat dari
pelbagai sumber tentang penggunaan algebra linear dalam kehidupan seharian.
Bahan-bahan tersebut merangkumi bidang-bidang seperti Rantaian Markov dalam
ekonomi, Rantaian Markov dalam biologi, Peruntukan sumber, Mengimbangkan
persamaan kimia, Rangkaian elektrik dan Analisis rangkaian.
Bahan-bahan ini juga sukar untuk didapati kerana kebanyakkan sumber bahan-
bahan ini didapati dalam bahasa Inggeris dan Indonesia. Dalam situasi ini saya
mengambil masa yang agak lama untuk memahami bahan yang didapati ini. Saya
juga membuat tandaan (highlight) fakta-fakta yang penting dalam bahan yang saya
dapati ini.

Melalui pembacaan, saya mengetahui bahawa A.A. Markov (1856-1922) ialah
seorang ahli matematik dari Rusia. Beliau merupakan murid Chebysev. Pada tahun
1906 beliau telah mengemukakan teori ketergantungan variabel dan proses yang
dikenal dengan proses markov. Model ini berhubungan dengan suatu rangkaian
proses dimana kejadian akibat suatu eksperimen hanya tergantung pada kejadian
yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian
sebelum-sebelumnya yang lain.
Markov Chain boleh diterapkan dalam perbagai bidang antara lain ekonomi, politik,
industri, pertanian dan lain-lain. Proses markov adalah proses statistik masa lalu
yang tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang
diketahui. Proses statistik ini merupakan aturan untuk menentukan fungsi X(t, )
untuk setiap . Jadi, proses statistik adalah sebahagian fungsi waktu yang
bergantung pada parameter atau secara reliven fungsi t dan . X(t) adalah proses
keadaan diskret. Bila tidak demikian X(t) adalah proses berterusan.
Analisa markov hampir sama dengan decision analysis, dimana analisa rantai
markov tidak memberikan keputusan cadangan. Ianya hanya informasi
kebarangkalian mengenai situasi keputusan yang dapat membantu membuat
keputusan. Dengan demikian, analisa rantai markov bukanlah teknik ramalan, tetapi
adalah teknik deskriptif yang mengahasilkan informasi ramalan dimasa depan. Untuk
mendapatkan analisa rantai markov ke dalam suatu situasi, ada beberapa syarat
yang perlu dipenuhi, seperti berikut:
1. Jumlah probabiliti transisi untuk suatu keadaan awal dari sistem sama dengan 1.
2. Probabiliti-probabiliti tersebut berlaku untuk semua partisipan dalam sistem.
3. Probabiliti transisi malar sepanjang waktu.
4. Keadaan merupakan keadaan yang independen sepanjang waktu.
Penerapan analisa markov terbatas kerana kesulitan mendapat masalah yang
memenuhi semua sifat yang diperlukan untuk analisa markov, terutama syarat
probabiliti transisi harus konstan sepanjang waktu (probabiliti transisi adalah
probabiliti yang terjadi dalam pergerakan perpindahan keadaan dalam sistem).
Konsep dasar Markov ialah apabila suatu kejadian tertentu dari suatu rangkaian
eksperimen tergantung dari beberapa kemungkinan kejadian, maka rangkaian
eksperimen tersebut disebut Proses Stokastik. Sebuah rantai Markov adalah suatu
urutan dari variable-variabel rawak X 1, X 2, X 3, ...... sifat Markov iaitu, mengingat
keadaan masa depan dan masa lalu keadaan yang bebas, dengan kata lain
nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. Markov
Chain adalah sebuah Proses Markov dengan penduduk yang diskret (boleh dikira)
yang berada pada suatu discrete state (position) dan dibenarkan untuk berubah
state pada time discrete.
Melalui pembacaan juga saya dapat mengenal pasti beberapa kegunaan algebra
linear dalam kehidupan seharian.

Anda mungkin juga menyukai