KOMPRESI CITRA
1
Kompetensi
À Mampu menjelaskan dan menyebutkan proses-proses
pada kompresi citra
À Mampu menjelaskan kriteria dari kompresi citra yang
baik
À Mampu menyebutkan dan menjelaskan jenis-jenis
kompresi citra
À Mampu menjelaskan metode kompresi citra yang banyak
digunakan untuk meningkatkan kualitas hasil kompresi
citra
Topik
1. Dasar-dasar Kompresi
Citra Lecture
2. Model Kompresi citra
3. Teori Informasi
2
Copyright @ 2007 By Emy 5
À Data redundancy:
– adalah bagian data yang tidak mengandung informasi terkait
atau merupakan pengulangan dari informasi yang sudah
dinyatakan sebelumnya atau sudah diketahui
3
Contoh Aplikasi
4
Kriteria Mengukur Metode
Kompresi Citra
À Waktu kompresi dan waktu rekronstruksi yang
sebaiknya cepat.
À Kebutuhan memori
– Memori yang dibutuhkan untuk merepresentasikan citra
seharusnya berkurang secara berarti. Teknik kompresi dikatakan
baik apabila didapatkan rasio kompresi yang besar, karena
semakin besar rasio kompresi yang didapat berarti semakin kecil
ukuran hasil kompresi. Pada beberapa metode, ukuran memori
hasil kompresi bergantung pada citra itu sendiri. Citra yang
mengandung banyak elemen duplikasi (misalnya citra langit
cerah tanpa awan, citra lantai keramik) umumnya berhasil
dikompresikan dengan memori yang lebih sedikit dibandingkan
dengan mengkompresikan citra yang mengandung banyak objek
(misalnya citra pemandangan alam).
5
Kriteria Mengukur Metode
Kompresi Citra
À Format keluaran.
– Format citra hasl kompresi sebaiknya cocok
untuk pengiriman dan penyimpanan data.
Pembacaan citra bergantung pada bagaimana
citra tersebut direpresentasikan (atau
disimpan).
6
Konsep Data Redundancy
Data Redundancy
7
Coding redundancy (1)
8
Coding redundancy (3)
À Tingkat keabuan yang probabilitas terjadinya tinggi
diberi panjang kode yang pendek, dan bila sebaliknya
diberi kode yang panjang.
À Bila digunakan variable-length coding, panjang kode
rata-rata:
7
LAVE = ∑ L(rK ) p(rK ) = 2.7bits
K =0
À Bila digunakan fixed-length coding 3 bits, tingkat
redundancy-nya adalah:
RD = 1 – 1/CR = 1 – 1/(3/2.7) = 0.099 (sekitar 10%)
Histogram distribusi
tingkat keabuan sama
Δn = 1 untuk kedua citra.
9
Interpixel Redundancy (2)
A(Δn) 1 N −1−Δn
γ (Δn) =
A(0)
A(Δn) = ∑ f ( x , y ) f ( x , y + Δn )
N − Δn y =0
dimana N adalah jumlah piksel pada baris x dan Δn < N
Nilai γ tinggi (berkorelasi tinggi) pada Δn = 45 atau 90 (b)
dimana ada spasi garis vertikal. Juga piksel yang berdekatan
mempunyai korelasi tinggi, yaitu dengan Δn = 1 dimana nilai γ
adalah 0.9922 dan 0.9928 masing-masing untuk gambar (a) dan
(b).
Copyright @ 2007 By Emy 19
10
Interpixel Redundancy (4)
22 pairs of integers
Copyright @ 2007 By Emy 22
11
Psychovisual Redundancy (1)
À Mach Band:
– Suatu fenomena dimana intensitas keabuan yang
bervariasi dilihat sebagai intensitas konstan,
artinya: mata tidak mempunyai sensitivitas yang
sama terhadap semua informasi yang dianggap
penting dan tidak penting. Hal tersebut diatas
dapat dikatakan sebagai psychovisual
redundancy, yang bila dihilangkan tidak
mengganggu persepsi kwalitas citra.
Copyright @ 2007 By Emy 23
À Quantization:
– Eliminasi psychovisual redundancy mengakibatkan kerugian
informasi bersifat kwalitas. Teknik ini disebut quantization,
yaitu pemetaan dari daerah intensitas yang lebar menjadi daerah
intensitas terbatas (batas kemampuan visual manusia)
– Mata sangat sensitif terhadap informasi edge / garis batas /
patahan. Proses kwantisasi dapat disesuaikan untuk kepentingan
mempertahankan informasi edge seperti yang dilakukan pada
Improved Gray Scale (IGS) Quantization.
À Irreversible Operation:
– Quantization mengakibatkan hilangnya sebagian informasi
visual, dengan demikian teknik ini termasuk pada kategori lossy
data compression. Copyright @ 2007 By Emy 24
12
1000 1011
1100
1001 0111
Psychovisual Redundancy (3)
Contoh
13
Psychovisual Redundancy (4)
Root-Mean-Square Error:
M −1 N −1
1
E RM S = (
MN
∑ ∑
x=0 y=0
( f '( x , y ) − f ( x , y ) ) 2 ) 1 / 2
Mean-square Signal-to-Ratio:
M −1 N −1
∑ ∑ f '( x, y)
x =0 y =0
2
SNRMS = M −1 N −1
∑ ∑ ( f '( x, y) − f ( x, y))
x =0 y =0
2
14
Copyright @ 2007 By Emy 29
15
Source encoder & decoder
16
Source encoder & decoder
Teori Informasi
17
Teori Informasi (1)
À Informasi yang dikandung oleh suatu pesan dapat dinyatakan dengan suatu
model yang bersifat probabilistik dalam bentuk yang dapat diterima secara
intuisi.
À Suatu event (yaitu komponent yang membentuk data) terjadi dengan probabilitas
P(E) dan mengandung satuan informasiyang dapat dinyatakan dengan:
1
I ( E ) = log = − log P ( E )
P( E )
dengan I(E) disebut juga sebagai self-information of E.
À Contoh-1: Bila P(E)=1 maka I(E)=0, artinya tidak ada informasi yang dibawa
event E. Penjelasan secara intuitif: P(E)=1 berarti event E terjadi secara terus
menerus, sehingga tidak ada yang tidak diketahui mengenai E (no uncertainty).
Artinya event E sudah diketahui karena selalu terjadi sehingga tidak ada
informasi yang dibawa oleh event E.
Copyright @ 2007 By Emy 35
18
Average Self-information (1)
19
Using Information Theory (1)
À Average information content content (entropy) of each pixel in an image:
J
H ( z ) = −∑ P(a j ) log p (a j )
j =1
20
Using Information Theory (3)
À A difference array:
Gray Level Difference Count Probability
0 (column 2,3,7,8) 16 1/4
21 (column1) 4 1/8
74 (column 4,5,6) 12 3/8
À (the first-order estimate) of entropy per pixel = 1.41 bits and
total entropy of image = 4 * 8 * 1.41 bits = 46 bits.
21
Copyright @ 2007 By Emy 43
22