Oleh :
Julsam
Staf Pengajar Politeknik Negeri Padang
ABSTRACT
PENDAHULUAN
Citra (image) dapat mengalami sebelum konvolusi perlu dilakukan
gangguan derau (noise). Gangguan pada dengan cara mencedaskan komputer
citra ini dapat dilihat sebagai variasi seperti cerdasnya manusia dalam
intensitas pxel yang tidak berkorelasi mengamati citra. Pencerdasan ini
baik dengan pixel-pixel tetanggamya. dilakukan dengan teknik jaringan syaraf
Perbaikan citra dengan proses tiruan.
pelembutan citra yang salah satunya
dilakukan dengan menggunakan metode Perumusan Masalah
konvolusi (Mask) yaitu dengan operasi Pelembutan citra akan dilakukan
penapisan menggunakan penapis linier. dengan cara konvolusi (Mask) yang
Operasi penapisan menyebabkan efek dikembangkan dengan kemampuan
pemerataan deajat keabuan, sehingga kecedasan (kecerdasan buatan) dalam
citra yang diperoleh terlihat lebih kabur menentukan pxel yang perlu
kontrasnya yang dikenal sebagai efek dikonvolusi. Dari uraian yang diberikan
pengabuan (blurring).[Rinaldi Munir, pada latar belakang masalah diatas dapat
2004] Jika proses konvolusi hanya dirumuskan permasalahannya sebagai
diterapkan pada pxel yang berikut :
membutuhkan saja, maka efek blurring Bagaimana mengatasi efek blurring
dapat dihindarkan. yang terjadi pada proses konvolusi
Berdasarkan gambaran ini sebuah citra.
penulis mencoba melakukan Bagaimana merancang model
pengembangan dari metode konvolusi ini jaringan syaraf tiruan untuk
dengan melakukan pemeriksaan kondisi mendeteksi keberadaan derau
pxel tetangga dari suatu pxel yang akan Bagaimana menerapkan propagasi
dikonvolusi. Jika diperlukan konvolusi balik sebagai algoritma pembelajaran
barulah proses Masking dilakukan Bagaimana menerapkan jaringan
sehingga akan dihasilkan pelembutan syaraf tiruan untuk mendeteksi pixel
citra yang optimal. Pemeriksaan pxel yang perlu dikonvolusi.
Elektron: Vol.1 no. 2, Edisi: Desember 2009 73
ISSN : 2085-6989
Tujuan Penelitian
Mengembangkan algoritma
konvolusi dengan mengevaluasi
pxel yang ditinjau terhadap pxel
tetangga. b.
Membangun model jaringan syaraf
tiruan untuk mengoptimalkan operasi Citra digital yang berukuran M x N
pelembutan citra sering dinyatakan dengan matriks yang
Membangun sistem pelembutan citra berukuran M baris dan N kolom sebagai
yang menerapkan teknik jaringan berikut :
syaraf tiruan.
f (0, N 1)
Mengevaluasi kinerja pelembutan f (0,0)
f (1,0)
f (0,1) ...
f (1,1) ... f (1, N 1)
citra konvensional dengan bantuan f ( x, y ) =
: : : :
jaringan syaraf tiruan.
f (M 1,0) f (M 1,1) ... f (M 1, N 1) .....(1)
TINJAUAN PUSTAKA
Citra Digital Indeks baris (i) dan indeks kolom (j)
menyatakan suatu koordinat titik pada
Citra (image) adalah gambar citra sedangkan f(i,j) merupakan
pada bidang dwimatra (dua dimensi) intensitas (derajat keabuan) pada titik
[Rinaldi M, 2004]. Gambar 2.1.a adalah (i,j).
contoh dari sebuah citra yaitu citra kupu-
kupu. Intensitas cahaya (brightness) Operasi Penghilangan Derau
bernilai antara 0 sampai dengan tak (Pelembutan Citra)
berhingga. Citra digital adalah citra
kontiniu yang diubah ke dalam bentuk Derau pada citra merupakan pixel
diskrit baik koordinat maupun intensitas yang nilai derajat keabuannya
cahayanya. Untuk citra dengan 256 mempunyai variasi intensitas pxel yang
derajat bilangan bulat antara 0 .. 255. tidak berkorelasi baik dengan pixel-pixel
[Rafael CG et keabuan, nilai setiap tetanggamya. Hal ini dapat dilihat
elemen matriks adalah al, 2002] sebagai bercak-bercak pada citra. Contoh
citra yang mengandung derau dapat
dilihat pada gambar 1.b
Konvolusi
Konvolusi merupakan
penjumlahan dari perkalian setiap titik
pada kernel dengan setiap titik pada
fungsi masukan. Kernel dioperasikan
secara bergeser pada fungsi masukan
a. f(x). Jumlah perkalian setiap titik pada
kedua fungsi tersebut merupakan hasil
Gambar 1.a. Citra Kupu-Kupu konvolusi yang dinyatakan dengan h(x).
b. Citra dengan derau Ilustrasi konvolusi ditunjukkan pada
gambar 2.
P 1P 2P 3P 4P 5P 6P 7P 8P 9
ABCDEFGHI
f(i,j)
pixel dikonvolusi
kernel
f ( i , j ) = A p1 + B p2 + C p3 + D p4 + E p5 + F p6 + G p7 + H p8 + I p9
g ( x , y ) = f ( x , y ) h( x , y ) .. (3)
1 / 9 1/ 9 1 / 9
1 / 9 1/ 9 1 / 9
1 / 9 1/ 9 1 / 9
Sesudah penapisan
Output signals
tampak lebihkabur kontrasnya. Efek
pengaburan ini yang disebut efek
Input signals
blurring. Contoh citra yang kabur akibat
penapisan dapat dilihat pada gambar 3.
pemberat
x1 w
1
neuron
x2 w Keluaran
2
Fungsi Aktifasi
Yk
n
x w
Gambar 5. Model tiruan sebuah neuron [Mauridhi HP, 2002]
n
n
X = x w i i
Jenis fungsi aktifasi yang dijelaskan
i =1 (4) diatas adalah sign function. Keluaran
aktual dari neuron yang diaktifasi
Mengaktifkan jaringan saraf Fungsi aktifasi step dan juga sign disbut
tiruan berarti mengaktifkan seluruh juga hard limit function dan sering
neuron yang terdapat pada jaringan digunakan dalam pengambilan
tersebut. Ada beberapa fungsi lain yang keputusan neuron untuk klasifikasi dan
dapat dipakai sebagai pengaktif neuron, pengenalan pola. Kurva fungsi aktifasi
seperti fungsi unit step, impulse sigmoid step dan sign dibambarkan pada gambar
dan fungsi linier. 8.
Fungsi sigmoid terdiri dari dua
jenis, yaitu unipolar dan bipolar. Pernyataan matematis untuk fungsi Sign
Persamaan fungsi sigmoid unipolar telah dijelaskan pada bagian sebelumnya
adalah sedangan untuk fungsi aktifasi Step
adalah
1
y sigmoid = x
1+ e ......... (6)
1, jika X 0
Y step =
Kurva fungsi sigmoid unipolar ini 0, jika X < 0 ........... (8)
digambarkan pada gambar 6.
y Step function
1
Y
+1
0
0 x X
Gambar 6. Fungsi sigmoid unipolar -1
0 x
-1
M1
1 b1
M2 wi,j
1
2
M3 1
3
M4 wj,kk
b2
M5 4 2 bk
M6 5 2
6 b3 K
M7
3
M8 7
3
M9 8
20 38 42 48 33 41 66 45 41 58 0
21 42 48 65 41 66 66 41 58 0 0
22 21 23 50 72 255 60 244 255 51 1
23 23 50 65 255 60 62 255 51 42 0
24 50 65 45 60 62 55 51 42 49 0
25 65 45 33 62 55 45 42 49 52 0
26 45 33 41 55 45 41 49 52 0 0
27 33 41 66 45 41 58 52 0 47 0
28 41 66 66 41 58 0 0 47 49 0
29 72 255 60 244 255 51 255 202 255 1
30 255 60 62 255 51 42 202 255 42 0
31 60 62 55 51 42 49 255 42 45 0
32 62 55 45 42 49 52 42 45 45 0
33 55 45 41 49 52 0 45 45 53 0
34 45 41 58 52 0 47 45 53 50 1
35 41 58 0 0 47 49 53 50 33 0
36 244 255 51 255 202 255 255 162 44 0
37 255 51 42 202 255 42 162 44 54 1
38 51 42 49 255 42 45 44 54 43 0
39 42 49 52 42 45 45 54 43 41 0
40 49 52 0 45 45 53 43 41 72 0
41 52 0 47 45 53 50 41 72 255 0
42 0 47 49 53 50 33 72 255 255 0
43 255 162 44 151 53 37 255 48 35 0
44 162 44 54 53 37 255 48 35 49 0
45 44 54 43 37 255 56 35 49 81 1
46 54 43 41 255 56 255 49 81 75 0
47 43 41 72 56 255 56 81 75 56 1
48 41 72 255 255 56 55 75 56 48 0
49 72 255 255 56 55 48 56 48 57 0
50 58 0 167 75 196 255 129 255 255 0
51 0 167 255 196 255 245 255 255 255 0
52 45 44 129 60 255 168 66 77 115 1
53 44 129 255 255 168 255 77 115 151 0
54 129 255 255 168 255 184 115 151 117 0
55 255 56 66 73 0 84 58 71 103 1
56 98 108 114 110 255 115 114 115 114 1
57 112 114 115 114 0 116 115 115 115 1
58 255 111 115 110 0 112 255 255 112 1
59 104 102 103 255 101 0 97 97 98 0
60 102 103 108 101 0 0 97 98 99 1
61 103 108 109 0 0 108 98 99 101 1
62 108 109 109 0 108 255 99 101 105 0
Gambar 12. Performansi pelatihan untuk 5 dan 7 Neuron pada lapisan tersembunyi
Ketika disimulasikan dengan data simulasi dengan data yang sama dengan
masukan yang sama jaringan syaraf data pelatihan pada jaringan dengan 7
tiruan dapat mendeteksi masukan yang neuron pada lapisan tersembunyi kurang
diberikan dengan tepat. Terlihat seluruh memberikan hasil yang memuaskan.
hasil simulasi sesuai dengan target yang Karena dari 45 data simulasi 18 data
diharapkan. Akan tetapi ketika dilakukan tidak dapat dikenal dengan baik.
dengan beberapa data baru yang tidak Ketika disimulasi dengan 17 data
dilatih sebelumnya, tingkat keberhasilan baru, jaringan dengan 5 lapisan
mendeteksi masukan pada performansi tersembunyi memberikan hasil yang
MSE lebih baik dari SSE. Dari 17 data cukup baik, karena dari 14 dari 17 data
baru yang diberikan, pada MSE simulasi dapat dikenal. Jadi tingkat
menghasilkan kesesuaian 13 data keberhasilannya adalah 82,35%.
(76,47%) sedangkan SSE menghasilkan Sementara itu untuk jaringan dengan 7
kesuaian 9 data (52,94%). neuron pada lapisan hasilnya
Besarnya tingkat kegagalan ini menemukan kesesuai pada 9 data
lebih kepada faktor data pelatihan yang simulasi, jadi keberhasilannya adalah
relatif masih sedikit. Dalam pengujian 52,94%.
ini hanya menggunakan data sebanyak Berdasarkan uraian diatas maka
45 buah data. Namun melihat kepada dapat dilihat bahwa kekurangan masih
hasil yang diperoleh ini diyakini bahwa terlihat pada simulasi ini. Sekali lagi ini
jaringan syaraf buatan ini dapat kemungkinan besar adalah disebabkan
dimanfaatkan untuk mendeteksi. kurangnya data yang digunakan untuk
Disamping itu penetapan nilai pemberat melakukan pelatihan terhadap jaringan
yang secara otomatis oleh Matlab yang telah dibentuk. Sedangkan pola
kemungkinan juga bisa memberikan jaringan yang memberikan hasil yang
hasil yang berbeda. agak baik adalah jaringan dengan dengan
Pada pengujian selanjutnya, yaitu 3 neuron pada lapisan tersembunyi.
dengan 5 dan 7 neuron pada jaringan Faktor lainnya terjadinya perbedaan
tersembunyi memperlihatkan keduanya dalam penggunaan model lapisan
tidak menemukan goal pelatihan hingga tersembunyi ini tidak stabilnya nilai awal
akhir epoch (300 epoch), namun ketika (inisialisasi) yang diberikan pada seluruh
dilakukan simulasi dengan data yang pemberat, karena ditetapkan oleh
sama pada jaringan dengan 5 neuron Matlab. Hal ini sesuai dengan yang
pada lapisan tersembunyi, memberikan disebutkan Michael N (2002) bahwa
hasil yang cukup baik, dimana dari 45 nilai awal dari pemberat akan
data yang diuji kembali hanya 1 data memberikan hasil pelatihan yang
yang memberikan hasil yang tidak berbeda.
sesuai. Sementara itu ketika dilakukan
Tabel 3. Data Hasil Pelatihan dan Simulasi dengan data yang sama (3 neuron)
Output N1 Output N2 Sim N1 Sim N2 Err N1 Err N2
T
(MSE) (SSE) (MSE) (SSE) (MSE) (SSE)
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 0.0006 -0.0000 0.0006 -0.0000 -0.0006 0.0000
0 0.0003 -0.0000 0.0003 -0.0000 -0.0003 0.0000
0 0.0001 -0.0000 0.0001 -0.0000 -0.0001 0.0000
0 0.0023 -0.0000 0.0023 -0.0000 -0.0023 0.0000
0 0.0001 -0.0000 0.0001 -0.0000 -0.0001 0.0000
0 -0.0000 0.0002 -0.0000 0.0002 0.0000 -0.0002
1 0.9685 0.9964 0.9685 0.9964 0.0315 0.0036
1 0.9946 0.9964 0.9946 0.9964 0.0054 0.0036
0 0.0001 0.0001 0.0001 0.0001 -0.0001 -0.0001
Tabel 4.3. Hasil Pelatihan dan Simulasi.dengan 3, 5 dan 7 neuron pada lapisan
tersmbunyi dengan data baru.