Rasa syukur yang tidak terhingga dirafakkan ke hadrat Allah kerana dengan keizinan-Nya dapatlah saya dan rakan-rakan mempelajari dan mendalami lagi ilmu berkaitan dengan Algebra Linear (MTE 3110). Melalui kursus ini juga saya dan rakan-rakan diterangkan dengan mendalam sistem persamaan dan ketaksamaan linear, penggunaan algebra matriks untuk menyelesaikan persamaan linear, mengenal pasti set vektor, menentukan sifat vektor menggunakan hasil darab skalar dan mengintegrasikan pengetahuan algebra matriks dan vektor dalam penggunaan seharian. Pada interaksi yang kedua saya dan rakan-rakan telah menerima tugasan daripada pensyarah. Terima kasih diucapkan kepada En. Mohamed Azli b Abu Samah kerana telah memberikan penerangan yang mendalam bagaimana menghasilkan tugasan yang baik. Pada mulanya tugasan ini saya rasa sukar untuk dilaksanakan kerana banyak perkara yang perlu dipelajari dan dilaksanakan. Namun dengan penerangan yang mendalam daripada pensyarah dan bantuan daripada rakan-rakan akhirnya tugasan ini dapat dilaksanakan dengan jayanya. Terima kasih diucapkan. Perkara pertama yang perlu dilakukan ialah mengumpul bahan maklumat dari pelbagai sumber tentang penggunaan algebra linear dalam kehidupan seharian. Bahan-bahan tersebut merangkumi bidang-bidang seperti Rantaian Markov dalam ekonomi, Rantaian Markov dalam biologi, Peruntukan sumber, Mengimbangkan persamaan kimia, Rangkaian elektrik dan Analisis rangkaian. Bahan-bahan ini juga sukar untuk didapati kerana kebanyakkan sumber bahan- bahan ini didapati dalam bahasa Inggeris dan Indonesia. Dalam situasi ini saya mengambil masa yang agak lama untuk memahami bahan yang didapati ini. Saya juga membuat tandaan (highlight) fakta-fakta yang penting dalam bahan yang saya dapati ini.
Melalui pembacaan, saya mengetahui bahawa A.A. Markov (1856-1922) ialah seorang ahli matematik dari Rusia. Beliau merupakan murid Chebysev. Pada tahun 1906 beliau telah mengemukakan teori ketergantungan variabel dan proses yang dikenal dengan proses markov. Model ini berhubungan dengan suatu rangkaian proses dimana kejadian akibat suatu eksperimen hanya tergantung pada kejadian yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian sebelum-sebelumnya yang lain. Markov Chain boleh diterapkan dalam perbagai bidang antara lain ekonomi, politik, industri, pertanian dan lain-lain. Proses markov adalah proses statistik masa lalu yang tidak mempunyai pengaruh pada masa yang akan datang bila masa sekarang diketahui. Proses statistik ini merupakan aturan untuk menentukan fungsi X(t, ) untuk setiap . Jadi, proses statistik adalah sebahagian fungsi waktu yang bergantung pada parameter atau secara reliven fungsi t dan . X(t) adalah proses keadaan diskret. Bila tidak demikian X(t) adalah proses berterusan. Analisa markov hampir sama dengan decision analysis, dimana analisa rantai markov tidak memberikan keputusan cadangan. Ianya hanya informasi kebarangkalian mengenai situasi keputusan yang dapat membantu membuat keputusan. Dengan demikian, analisa rantai markov bukanlah teknik ramalan, tetapi adalah teknik deskriptif yang mengahasilkan informasi ramalan dimasa depan. Untuk mendapatkan analisa rantai markov ke dalam suatu situasi, ada beberapa syarat yang perlu dipenuhi, seperti berikut: 1. Jumlah probabiliti transisi untuk suatu keadaan awal dari sistem sama dengan 1. 2. Probabiliti-probabiliti tersebut berlaku untuk semua partisipan dalam sistem. 3. Probabiliti transisi malar sepanjang waktu. 4. Keadaan merupakan keadaan yang independen sepanjang waktu. Penerapan analisa markov terbatas kerana kesulitan mendapat masalah yang memenuhi semua sifat yang diperlukan untuk analisa markov, terutama syarat probabiliti transisi harus konstan sepanjang waktu (probabiliti transisi adalah probabiliti yang terjadi dalam pergerakan perpindahan keadaan dalam sistem). Konsep dasar Markov ialah apabila suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian, maka rangkaian eksperimen tersebut disebut Proses Stokastik. Sebuah rantai Markov adalah suatu urutan dari variable-variabel rawak X 1, X 2, X 3, ...... sifat Markov iaitu, mengingat keadaan masa depan dan masa lalu keadaan yang bebas, dengan kata lain nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. Markov Chain adalah sebuah Proses Markov dengan penduduk yang diskret (boleh dikira) yang berada pada suatu discrete state (position) dan dibenarkan untuk berubah state pada time discrete. Melalui pembacaan juga saya dapat mengenal pasti beberapa kegunaan algebra linear dalam kehidupan seharian.