INFORMATION THEORY
A. Hamdani
Sekilas tentang Informasi
What is Information?
Informasi
RX
Dalam sistem komunikasi digital, karena efek
dari noise/derau, terjadi kesalahan.
Akibatnya, 1 dapat menjadi 0 dan 0
mungkin menjadi 1.
Pada diagram tersebut terdapat
dua macam jenis pengkodean
Source Encoder/Decoder
Channel Encoder/Decoder
Simbol-simbol kemudian dimodulasikan dan
dikirim melalui medium.
Pada sisi penerima, sinyal termodulasi di
demodulasi, dan dilakukan operasi kebalikan
dari Channel Encoding dan Source encoding
(channel decoding dan sumber decoding).
Maka informasi yang disajikan untuk Tujuan
(Information Sink). Setiap blok dijelaskan di
bawah ini.
Seperti yang diusulkan oleh Shannon, sistem
komunikasi terdiri dari Enkoder Sumber,
Enkoder Saluran encoder dan modulator
pada akhir transmisi, dan demodulator,
Dekoder Saluran dan Dekoder sumber pada
akhir penerima.
Information Source
Sumber informasi:
Sumber informasi menghasilkan simbol.
Jika sumber informasi, misalnya,
mikrofon, sinyal dalam bentuk analog.
Jika sumber adalah komputer, sinyal
dalam bentuk digital (1 set simbol).
Source Encoder
Source Encoder/Decoder
Mengkonversi sinyal yang diproduksi oleh sumber
menjadi aliran data.
Jika sinyal input berupa analog, maka dapat
dikonversi oleh ADC
Jika sinya input berupa aliran simbol (digital),
maka dapat dikonversikan menjadi alirat bit 1 dan
0 melalui mekanisme tertentu
Source Encoder
Menyerap informasi
Entropi Sumber Informasi
Bagaimana Mengukur Informasi?
Apakah informasi?
Bagaimana kita mengukur
informasi? Ini adalah masalah
mendasar yang dapat dijawab
oleh Shannon.
Kita dapat mengatakan bahwa kami
menerima beberapa informasi jika
ada "penurunan ketidakpastian."
Dengan kata lain factor
ketidakpastian (Uncertainty)
berkurang.
Misalkan sumber informasi yang
menghasilkan dua simbol A dan B.
sumber telah mengirim A, B, B, A,
dan sekarang kami menunggu
simbol berikutnya. Yang simbol itu
akan dihasilkannya?
Jika menghasilkan A, ketidakpastian yang ada
dalam masa tunggu (waiting period) hilang,
dan kami mengatakan bahwa "informasi"
yang dihasilkan.
Perhatikan bahwa kita menggunakan istilah
"informasi" dari sudut pandang teori
komunikasi; itu tidak ada yang harus dilakukan
dengan "kegunaan" informasi.
Entropy & Redundancy
H = log2N bits/simbol
Sebagai contoh, asumsikan bahwa Source
menghasilkan huruf(A sampai Z, sebanyak
27, sebagai simbol), dan semua simbol-
simbol ini akan diproduksi dengan
probabilitas yang sama. Dalam kasus seperti
itu, entropi adalah
H = log227
H = 4,75 bits/simbol
Sumber informasi tidak dapat
menghasilkan semua simbol dengan
probabilitas yang sama.
Misalnya, dalam bahasa Inggris huruf "E"
memiliki frekuensi tertinggi (dan
karenanya probabilitas tertinggi
terjadinya), dan huruf-huruf lainnya terjadi
dengan probabilitas yang berbeda.
Secara umum, jika sumber
menghasilkan simbol (i) dengan
probabilitas P (i), entropi sumber
diberikan oleh
H = - ∑ P(i) log2P(i) s
i
Jika teks besar dianalisis dan probabilitas dari
semua simbol (atau huruf) yang diperoleh
dan diganti dalam formula, maka entropi
adalah
H = 4.07 bits/symbol
Catatan Perhatikan kalimat berikut:
C = W LOG2 (1 + S/N)
Dengan
C : Kapasitas maksimum dalam bps
W : Bandwidth
S/N : Perbandingan daya sinyal dan noise
Jika H<=C maka akan ada suatu sistem koding dimana output dari
sumbernya dapat ditransmisikan melalui channel dengan tingkat
kegagalan yang sangat rendah. Jika H-C > C maka akan ada
kemungkinan untuk meng-encode pesan sehingga pesan yang
ambigu bernilai kurang dari H-C + e dimana e sangat kecil.