PENDAHULUAN
1. Latar Bealakang
Dalam bab ini kita berurusan dengan sumber informasi dan saluran
komunikasi. Bagian utama dari pengobatan ini dikhususkan untuk kasus diskrit.
Hanya pada akhir bab ini kami menyajikan deskripsi singkat sumber kontinyu dan
saluran, yang bertujuan untuk mendapatkan kapasitas kanal Gaussian bandlimited.
Bagian pertama dari bab mendefinisikan sumber stasioner diskrit dan
menunjukkan bagaimana kuantitas informasi yang dipancarkan dari sumber dapat
diukur. Secara umum, output sumber (pesan) terdiri dari urutan simbol yang
dipilih dari set terbatas, alfabet dari sumbernya. Distribusi probabilitas dikaitkan
dengan alfabet sumber, dan mekanisme probabilistik mengatur emisi simbol
berturut-turut dalam pesan. Umumnya, pesan yang berbeda menyampaikan
jumlah yang berbeda dari informasi; sehingga jumlah informasi rata-rata, atau
entropi, harus didefinisikan untuk sumbernya. Satuan ukuran untuk informasi
yang diambil untuk menjadi sedikit, yaitu, informasi yang diberikan oleh emisi
satu di antara dua simbol yang sama mungkin. Entropi sumber mewakili jumlah
rata-rata minimum simbol biner (digit) yang diperlukan untuk mewakili setiap
simbol dalam pesan.
1
melewati saluran. Hal ini menyebabkan definisi kapasitas saluran dan masalah
komputasi itu. Kedua topik ini dibahas dalam bab ini.
2
dan nada suaranya, dan ini menimbulkan kriteria penerimaan yang lebih ketat.
Oleh karena itu, seperti yang diilustrasikan dalam contoh-contoh ini, persyaratan
pengguna yang berbeda dapat menyebabkan kriteria penerimaan yang berbeda
dan, akibatnya, persyaratan bandwidth yang berbeda untuk transmisi ucapan.
Sebagaimana di jelaskan, masalah kebisingan di aluran komunikasi menciptakan
kebutuhan untuk spesifikasi sensitive pengguna criteria penerimaan dalam desain.
3
BAB II
PEMBAHASAN
4
wajar saja jika isi informasi dari simbol ith, dilambangkan dengan I (xi), menjadi
fungsi penurunan probabilitasnya.
I(xj) > I(xi), if pj <pi
dan bahwa konten informasi yang terkait dengan emisi dua simbol independen
menjadi jumlah dari dua informasi individu:
If P(xi, xj) = P(xi)P(xj) then I(xi, xj) = I(xi)I(xj)
Definisi konten informasi yang memuaskan keduanya (3.2) dan (3.3) adalah :
I(xi) = loga (1/pi)
Contoh 3.1
Alfabet sumber terdiri dari empat simbol yang mungkin dengan
probabilitas P1 = ½, P2 = ¼, P3 = P4 = 1/8 Untuk menghitung entropi dari alfabet
sumber, kami menerapkan definisi (3.5)
1 1 1
H(X) = log 2 log 4 + 8 log 8 = 1,75 bit/symbol
2 4 8
5
Jika alfabet sumber terdiri dari simbol yang kemungkinan sama M, kita
miliki.
M
1
H(X) = ∑ log M = log M bit/symbol
i=1 M
Ketika alfabet sumber terdiri dari dua simbol dengan probabilitas p dan
q = 1 - p entropi alfabet adalah :
1 1
H(X) = p log + (1- p) log ( ) = H(p)
p I −p
Pada Gambar. 3.3 fungsi H (p) diplot.
Dapat dilihat bahwa maksimum terjadi untuk p = 0,5. yaitu, ketika kedua
simbol tersebut memiliki kemungkinan yang sama besar. Hasil terakhir dari
Contoh 3.1, yaitu, maksimalisasi entropi sumber untuk simbol-simbol yang
kemungkinan sama, cukup umum, seperti yang akan dinyatakan dalam teorema
berikut.
Gambar 3.3: Plot fungsi entropi H (p) dari sumber biner dengan P (xi) =
p dan P (x2) = 1 - p.
Teorema 3.1
Entropi H (X) dari alfabet sumber dengan simbol M memenuhi
ketimpangan
H(X) ≤ log M
6
1n y ≤ y – 1
7
Di dalamnya, urutan biner 010010 dapat sesuai dengan salah satu dari
lima pesan x1x3x2x1, x1x3x1x3, x1x4x3, x2x1x1x3. atau x2x1x2x1- Kode ini
ambigu, atau tidak dapat diuraikan secara unik. Maka tampaknya wajar untuk
mengharuskan kode dapat diuraikan secara unik, yang berarti bahwa setiap urutan
terbatas dari angka biner sesuai dengan, paling banyak, satu pesan. Suatu kondisi
yang memastikan decipherability yang unik adalah mengharuskan tidak ada kata
kode menjadi awalan dari kata kode yang lebih panjang. Kode yang memenuhi
batasan ini disebut kode awalan. Kode yang dijelaskan dalam sekuel adalah jenis
ini. Representasi grafis yang sangat berguna dari kode yang memenuhi batasan
awalan adalah kode yang menghubungkan setiap kata kode dengan simpul
terminal dalam pohon biner, seperti yang ada pada Gambar 3.4.
Mulai dari akar pohon, dua cabang yang mengarah ke node orde pertama sesuai
dengan pilihan di antaranya
Gambar 3.4: Pohon biner yang terkait dengan kode sumber biner.
kata-kata. Dua cabang yang berasal dari masing-masing node orde pertama
berhubungan dengan digit kedua dari kata-kata kode, dan seterusnya. Karena kata-
kata kode hanya ditugaskan untuk node terminal, kata kode tidak bisa menjadi
awalan dari kata kode lain. Sebuah pohon dikatakan orde n jika berisi node hingga
urutan ke-n. Persyaratan yang diperlukan dan cukup untuk kode yang diberikan
untuk memenuhi batasan awalan diberikan dalam teorema berikut.
Teorema 3.2
Ketidaksetaraan kraft. Kondisi yang diperlukan dan cukup untuk
keberadaan kode awalan biner dengan panjang kata n1, n2, ……, nM adalah
sebagai berikut
8
M
-ni
∑❑ 2 ≤1
I=1
9
pohon kode, fraksi node dihilangkan oleh pilihan sebelumnya adalah ji = 12-ni,
Dari (3,11), fraksi ini selalu benar-benar kurang dari 1 untuk j <M, dan dengan
demikian selalu ada simpul yang tersedia untuk ditugaskan ke kata kode
berikutnya.
QED
Karena wc menggunakan kode biner, konten informasi maksimum dari
setiap digit dalam kata kode adalah 1 bit. Jadi konten informasi rata-rata dalam
setiap kata kode adalah, paling banyak, sama dengan n. Di sisi lain, untuk
menentukan simbol alfabet sumber secara unik, kita memerlukan jumlah rata-rata
informasi yang sama dengan bit H (X). Karenanya, secara intuitif kita dapat
menyimpulkan hal itu.
n ≥ H(X)
Membandingkan definisi (3.5) dan (3.10) dari H (X) dan n, dapat dilihat
bahwa kondisi (3.13) dapat dipenuhi dengan tanda sama dengan jika dan hanya
jika (bagian '' jika 'mudah, untuk bukti “hanya jika 'lihat Fano (1961)):
pi = 2-ni i = 1,2,……,M
Contoh 3.2
Berikut ini adalah contoh kode yang memuaskan (3.13) dengan tanda
sama dan mematuhi batasan awalan.
10
Menghitung nilai n yang didefinisikan dalam (3.10), seseorang
memperoleh.
n = H(X) =15/8
Secara umum, kondisi (2.14) dengan ni, bilangan bulat tidak puas, Jadi
kita tidak bisa berharap untuk mencapai batas bawah untuk n seperti pada contoh
sebelumnya. Namun, kode yang memenuhi batasan awalan dapat ditemukan yang
n mematuhi teorema berikut.
Teorema 3.3
Kode biner yang memenuhi batasan awalan dapat ditemukan untuk
setiap sumber alfa-taruhan entropi H (X) yang panjang kata kode rata-ratanya
memenuhi ketimpangan
H(X)≤n < H(X) + 1
11
3.2. Sumber diam diskrit
Pi
0.5
0.15
0.15
0.10
0.05
0.05
12
sebagai urutan biner yang ditemui ketika mulai dari akar pohon dan mencapai
simpul terminal yang terkait dengan simbol yang ada.
Contoh 3.3
Untuk kode yang ditunjukkan pada Gambar 3.5, gunakan pohon untuk
memecahkan kode penerimaan yang diterima 1100101100110. Mulai dari akar
pohon, kita mengikuti cabang di setiap simpul tengah sesuai dengan angka biner
dalam urutan yang diterima, sampai simpul terminal (dan karenanya simbol)
tercapai. Kemudian kita memulai kembali prosedurnya. Urutan yang
diterjemahkan adalah x4x1x3x2x4.
Pembaca diundang untuk mengulangi prosedur pendekodean Contoh
3.3, dengan asumsi bahwa kesalahan telah diperkenalkan oleh saluran pada posisi
pertama. Ini memungkinkan kita untuk memverifikasi efek bencana propagasi
kesalahan dalam kode-kode panjang variabel ini. Di sisi lain, tujuan dari
pengkodean sumber adalah pengurangan redundansi alfabet sumber, dan bukan
perlindungan terhadap kesalahan saluran. Ini adalah ruang lingkup pengkodean
saluran, seperti yang akan kita lihat di Bab 10-12.
13
Sejauh ini, kita telah melihat bagaimana kata kode dapat secara efisien
ditetapkan untuk setiap simbol z, dari sumber abjad X. Hasil utama diwakili oleh
Teorema 3.3. Bahkan, batas bawah Teorema dapat didekati sedekat yang
diinginkan jika kita diizinkan untuk menyandikan blok simbol bukan simbol
tunggal. Misalkan kita mengumpulkan urutan pengamatan independen X dan
menetapkan kata kode untuk kelompok simbol yang dihasilkan. Dengan kata lain,
kami membuat kode untuk alfabet baru Y = Xv yang mengandung simbol Mv,
dilambangkan yi. Probabilitas yi kemudian diberikan oleh produk probabilitas
yang sesuai dengan simbol v dari X yang menentukan yi, Dengan Teorema 3.3,
kita dapat membuat kode untuk Y yang panjang kode rata-rata kata n n memenuhi
Contoh 3.4
Dengan sumber abjad X = {x1.x2.x3}, dengan p1 = 0,5, P2 = 0,3, dan
P3 = 0,2, kami ingin membuat abjad baru Y = X2 = {y1, y2, ..., y9}, diperoleh
dengan mengelompokkan simbol xi dua demi dua.
14
y2 =x1x2 =0.25
y3 =x2x2 p(y2) = 0.15
y4 =x1x3 p(y3) =0.15
y5 =x3x1 p(y4) =0.10
y6 =x2x2 p(y5) =0.10
y7 =x3x2 p(y6) =0.09
y8 =x2x3 p(y7) =0.06
y9 =x3x3 p(y8) =0.06
p(y9) =0.04
Pembaca diundang untuk membuat kode Huffman untuk panjang blok v
= 1 dan v = 2 dan membandingkan jumlah rata-rata digit / simbol yang diperoleh
dalam kedua kasus, menggunakan definisi efisiensi kode sebelumnya. 3.2.3.
Entropi sumber stasioner Meskipun definisi kami tentang sumber stasioner diskrit
cukup umum, kami sejauh ini mempertimbangkan secara rinci hanya konten
informasi dan pengkodean alfabet sumber. Bahkan ketika menggambarkan
pencapaian blok encoding dari sumber, kami membuat asumsi independensi
antara simbol 3. Hasil dasar dari teori informasi membentuk setiap blok. Tentu
saja, ketika pesan yang dipancarkan oleh sumber secara aktual merupakan urutan
variabel acak independen, maka hasil yang diperoleh untuk alfabet sumber juga
berlaku untuk pesan sumber. Namun dalam praktiknya, ini jarang terjadi. Jadi kita
perlu memperluas definisi kita tentang konten informasi dari alfabet sumber ke
konten informasi dari sumber, yang akan melibatkan pertimbangan
ketergantungan statistik antara simbol-simbol dalam sebuah pesan. Mari kita
pertimbangkan pesan yang dipancarkan oleh sumber, seperti (xn) oon = 0, dan
mencoba untuk menghitung informasi rata-rata yang diperlukan untuk
menentukan setiap simbol xn dalam pesan. Isi informasi dari simbol XQ pertama,
tentu saja, entropi H (Xo) 1
M
H(Xo) = ∑ Pi log(l/pi)
i=1
i=1
Isi informasi dari simbol kedua Xi, setelah menetapkan x0 »> s entropi bersyarat
H (X1 X0) berdasarkan pada informasi bersyarat I (x | y) = log (l / P (x | y))
15
H(X1 X0) =∑∑p(x0,x1)I(x1 xo) = ∑∑ p(x0,x1)log (1/p(x1 x0)
XX00XX11
Secara umum, isi informasi dari simbol engan, diberikan simbol h
sebelumnya dalam pesan, diperoleh sebagai :
H(Xi Xi-1,……..,Xi-h)
=∑…∑ p(xi-h,….,xi). Log (1/P(xi xi-1,…,xi-h),1 ≤ h ≤ i
Dengan demikian tampaknya cukup intuitif untuk
mendefinisikan konten informasi dari sumber, atau entropinya
HQQ (X), sebagai konten informasi dari simbol apa pun yang
dihasilkan oleh sumber, mengingat bahwa kami telah mengamati
semua simbol sebelumnya. Diberikan sumber informasi stasioner
(£ n) oo = 0 entropi Hoo (X) kemudian didefinisikan sebagai :
HOO(X) = lim H(Xn | Xn-j,... ,Xo)
n—oo
Untuk mendapatkan wawasan yang lebih dalam tentang makna dan sifat
HQQ (X), kita harus membuktikan teorema berikut.
Teorema 3.4
Entropi bersyarat H (X1, X0) memenuhi ketidaksetaraan
16
QED
Hubungan (3,22) menjadi persamaan ketika £ 1 dan £ 0 adalah variabel
acak independen. Dalam hal ini, pada kenyataannya, P (x1 x0) = P (x1).
Perpanjangan teorema 3.4 dan eksploitasi stasioneritas urutan (£ n) oon = 0
memungkinkan seseorang untuk menulis.
H(Xn Xn-1,…..,X0) ≤ H(Xn Xn-1,…,X1) = H(Xn-1 Xn-2,…,X0) (3.23)
Jadi urutan H (Xn | Xn_lt ... ,, X0). n = 1,2, ..., tidak meningkat, dan
karena syarat-syarat urutannya tidak negatif, batas HQQ (X) ada. Terlebih lagi, ia
memenuhi ketidaksetaraan berikut:
0 ≤ Hoo(X) ≤ H(X (3.24)
17
Pembaca yang tertarik disebut Ash (1967, Bab 6) untuk penjelasan rinci
tentang subjek. Di sini, kita akan menggambarkan konsep dengan sebuah contoh.
Contoh 3.5
Biarkan informasi stasioner bersumber (£ n) oon = 0 dikarakterisasi
dengan properti P (xn xn-1,…, x0) = P (xn xn-1); yaitu, masing-masing simbol
dalam urutan hanya bergantung pada yang sebelumnya, kita asumsikan bahwa
alfabet X adalah formet oleh tiga simbol, katakan huruf A, B, dan C. probabilitas
P (xn-xn-1) diberikan sebagai mengikuti:
xn/xn-1 A B C
A 0.2 0.4 0.4
B 0.3 0.5 0.2
C 0.6 0.1 0.3
Sumber ini dapat diwakili dengan menggunakan grafik berarah dari
Gambar 3.6, di mana setiap negara mewakili simbol yang dipancarkan terakhir
dan transisi diidentifikasi oleh probabilitas mereka dan simbol yang dipancarkan
saat ini. Dapat diverifikasi bahwa sumber ini memenuhi sifat (i), (ii), dan (iii), dan
karenanya merupakan sumber Markov stasioner. Mari kita hitung sekarang
sumber entropi Hoo (X). Mendefinisikan entropi negara Sj sebagai
Mj
1
H(Sj) ≜ ∑ Pjk log ( )
k=1 pjk
di mana Mj mewakili jumlah simbol yang tersedia di negara Sj, dan menunjukkan
dengan {wi} i = 1 komponen vektor distribusi stasioner (2.49), teorema dasar
berikut dapat dibuktikan (lihat, misalnya. Ash, 1967, Bab 6).
18
Gambar 3.6: Representasi grafik sumber Markov stasioner dengan
alfabet X = {A, B, C}
Teorema 3.5
Entropi Hoo (X) dari sumber Markov stasioner diberikan oleh
q
Hoo(X) = ∑ wj H(Sj)
j=1
Contoh 3.6
Dengan mengacu pada sumber Markov pada Contoh 3.5, dengan
menghitung vektor distribusi sta- trol dan menerapkan (3,25) kita memperoleh
entropi HQO (X) = 1,441.
1
P ( x 0 , x 1 , … , xv−1)
19
H ( Xv)
v lim ¿ oo ¿ = Hoo(X)
→ v
Harga yang harus dibayar untuk peningkatan efisiensi ini terletak pada
kompleksitas encoder, yang ukuran alfabet inputnya meningkat secara
eksponensial dengan i /, dan dalam penundaan penguraian sandi. Faktanya,
sebelum mendapatkan simbol pertama di setiap blok, kita harus menunggu
decoding dari seluruh blok simbol pada output dari source decoder.
Mengalihkan perhatian kita ke kasus khusus sumber Markov, kita dapat
menerapkan prosedur Huffman untuk menyandikan simbol-simbol alfabet untuk
setiap negara Sj. Ini mungkin memerlukan penggunaan serangkaian kata kode
yang berbeda untuk setiap slate dari sumber. Kinerja prosedur pengkodean seperti
itu mudah diperoleh. Menggunakan Teorema 3.3 dan menunjukkan dengan n (Sj)
jumlah rata-rata digit / simbol alfabet yang digunakan dalam keadaan Sj, kita
memperoleh
H(Sj) ≤ n (Sj) ¿ H(Sj) +1
q
n = ∑ wjn(Sj)
j=1
Hoo(X) ≤ n ¿ Hoo(X) + 1
20
3.2. Sumber stasioner diskrit
Contoh 3.7
Mari kita gunakan prosedur Huffman yang bergantung pada keadaan
untuk menyandikan sumber Markov pada Contoh 3.5 dan menghitung
efisiensinya. Menggunakan prosedur pengkodean pohon untuk tiga simbol yang
dapat dipancarkan dari sumber dalam kondisi apa pun, kami memperoleh kode
berikut.
S1 S2 S3
A 11 10 0
B 10 0 11
C 0 11 10
Jumlah rata-rata digit / symbol
3
n = ∑ wjn(Sj) = 1.5054
j=1
21
umum dan komprehensif dari algoritma pengkodean sumber, ke buku oleh Bell et
al. (1990).
Seperti yang akan kita lihat nanti, penampilan waktu dalam paradigma
kita benar-benar terkait dengan bandwidth saluran yang akan digunakan untuk
menyampaikan informasi.
DAFTAR PUSTAKA
Sergio Benedetto, E. B. (2006). Information Technology Transmission,
Processing and Storage Sergio Benedetto, Ezio Biglieri - Principles of
Digital Transmission With Wireless Applications. New York: Springer.
22
23