TEORI INFORMASI
Entropy &
Kode Huffman
Claude E Shannon
Teori Informasi
Teori informasi merupakan disiplin ilmu dalam bidang
matematika terapan yang berkaitan dengan
kuantisasi data sehingga data atau informasi dapat
disimpan dan dikirim melalui suatu kanal komunikasi.
Byte (B)
1 byte = 8 satuan bit
satuan informasi yang lebih besar dr bit
Diperkenalkan oleh Dr. Werner Buccholz 1956
Biasanya untuk satuan kapasitas penyimpanan data
Konversi
1 byte = 8 bit (1 bit = 1/8 byte)
Contoh
Paket layanan internet bandwidth 1 Mbps (1 mega bit per
second atau 1.024 kilo bit per second)
Untuk mengetahui berapa kecepatan download/transfer
maka dikonversi kedalam satuan byte.
1.024 kbps/8=128 KBps (kilo byte persecond)
Artinya, kecepatan transfer data adl 128 KB dalam satu
detik.
Misal file dgn kapasitas 460,8 MB (460.800 KB), dibutuhkan
waktu (460.800 KB/128 KB/s)=3.600 s (1 jam)
Teori Informasi
• Sumber informasi
• Kandungan informasi
• Entropy
i i
i 1 i 1
Contoh
Misalkan S adalah string “AABBCBDB”, dengan p(A)=2/8, p(B)=4/8,
p(C)=1/8 dan p(D)=1/8.
Tentukan Entropy untuk masing-masing sumber informasi!
Solusi:
n=4 (A, B, C dan D)
Entropy pesan
22 2 4 4 1 1 1 1 14
H S log 2 log 2 log 2 log 1,75 bit
8 8 8 8 8 8 8 8 8
2) H S 0 p 1, i dan p 0, j i
i j
3) H S log n p 1 , i 1, 2,..., n
2
i
n
Bukti: (1)
p 1
n n n
H S pi log pi H S log
pi
2
2
i
2
log pi
i 1 i 1 i 1 pi
1
0 pi 1 log pi 0
2
pi
n
n
H S 2 log pi i 2 log pi 2 log n
p pi
i 1
i 1
Bukti: (3)
pi
n
n
1
H S 2 log 2 log pi 2 log n dengan pi
pi pi
i 1
i 1 n
Contoh
Dalam Bahasa Inggris, dengan r=1,3 bit/huruf, R=4,7
bit/huruf, redundansi D = 4,7 -1,3 = 3,4
Artinya, setiap huruf dalam Bahasa Inggris membawa 3,4 bit
informasi redundan (mubazir).
Dalam pesan ASCII, dengan r=1,3 bit/huruf, R=8 bit/huruf,
redundansi D = 8 -1,3 = 6,7 bit/huruf.
Kriptanalis menggunakan redundansi alami dari bahasa
untuk mengurangi kemungkinan jumlah plainteks.
3. Memberi tanda bit “0” untuk peluang yang lebih kecil dan tanda bit “1”
untuk peluang yang lebih besar. (kiri 0 dan kanan 1/ kiri 1 kanan 0)