Anda di halaman 1dari 15

ISSN : 2085-6989

PENDETEKSIAN DERAU CITRA SECARA OTOMATIS


MENGGUNAKAN TEKNIK JARINGAN SYARAF TIRUAN

Oleh :
Julsam
Staf Pengajar Politeknik Negeri Padang

ABSTRACT

This research is application of neural network technique to optimize convolution


operation using mask 3x3 to omit the image blurring effect. This neural network consists of
three layers. They are input layer (9 neuron inputs), output layer (1 output neuron) and
hidden layer. Each layer is applied to 3, 5 and 7 neuron using back propagation technique.
The result shows the using five neurons to hidden layer give the highest value of sound pixel
recognizing (76.47%)

Key Word : Image, convolution, neural network, back propagation

PENDAHULUAN
Citra (image) dapat mengalami sebelum konvolusi perlu dilakukan
gangguan derau (noise). Gangguan pada dengan cara mencedaskan komputer
citra ini dapat dilihat sebagai variasi seperti cerdasnya manusia dalam
intensitas pxel yang tidak berkorelasi mengamati citra. Pencerdasan ini
baik dengan pixel-pixel tetanggamya. dilakukan dengan teknik jaringan syaraf
Perbaikan citra dengan proses tiruan.
pelembutan citra yang salah satunya
dilakukan dengan menggunakan metode Perumusan Masalah
konvolusi (Mask) yaitu dengan operasi Pelembutan citra akan dilakukan
penapisan menggunakan penapis linier. dengan cara konvolusi (Mask) yang
Operasi penapisan menyebabkan efek dikembangkan dengan kemampuan
pemerataan deajat keabuan, sehingga kecedasan (kecerdasan buatan) dalam
citra yang diperoleh terlihat lebih kabur menentukan pxel yang perlu
kontrasnya yang dikenal sebagai efek dikonvolusi. Dari uraian yang diberikan
pengabuan (blurring).[Rinaldi Munir, pada latar belakang masalah diatas dapat
2004] Jika proses konvolusi hanya dirumuskan permasalahannya sebagai
diterapkan pada pxel yang berikut :
membutuhkan saja, maka efek blurring Bagaimana mengatasi efek blurring
dapat dihindarkan. yang terjadi pada proses konvolusi
Berdasarkan gambaran ini sebuah citra.
penulis mencoba melakukan Bagaimana merancang model
pengembangan dari metode konvolusi ini jaringan syaraf tiruan untuk
dengan melakukan pemeriksaan kondisi mendeteksi keberadaan derau
pxel tetangga dari suatu pxel yang akan Bagaimana menerapkan propagasi
dikonvolusi. Jika diperlukan konvolusi balik sebagai algoritma pembelajaran
barulah proses Masking dilakukan Bagaimana menerapkan jaringan
sehingga akan dihasilkan pelembutan syaraf tiruan untuk mendeteksi pixel
citra yang optimal. Pemeriksaan pxel yang perlu dikonvolusi.
Elektron: Vol.1 no. 2, Edisi: Desember 2009 73
ISSN : 2085-6989

Apakah dengan jaringan syaraf tiruan


ini derau pada citra dapat dideteksi
secara otomatis.

Tujuan Penelitian
Mengembangkan algoritma
konvolusi dengan mengevaluasi
pxel yang ditinjau terhadap pxel
tetangga. b.
Membangun model jaringan syaraf
tiruan untuk mengoptimalkan operasi Citra digital yang berukuran M x N
pelembutan citra sering dinyatakan dengan matriks yang
Membangun sistem pelembutan citra berukuran M baris dan N kolom sebagai
yang menerapkan teknik jaringan berikut :
syaraf tiruan.
f (0, N 1)
Mengevaluasi kinerja pelembutan f (0,0)
f (1,0)
f (0,1) ...
f (1,1) ... f (1, N 1)
citra konvensional dengan bantuan f ( x, y ) =
: : : :
jaringan syaraf tiruan.
f (M 1,0) f (M 1,1) ... f (M 1, N 1) .....(1)
TINJAUAN PUSTAKA
Citra Digital Indeks baris (i) dan indeks kolom (j)
menyatakan suatu koordinat titik pada
Citra (image) adalah gambar citra sedangkan f(i,j) merupakan
pada bidang dwimatra (dua dimensi) intensitas (derajat keabuan) pada titik
[Rinaldi M, 2004]. Gambar 2.1.a adalah (i,j).
contoh dari sebuah citra yaitu citra kupu-
kupu. Intensitas cahaya (brightness) Operasi Penghilangan Derau
bernilai antara 0 sampai dengan tak (Pelembutan Citra)
berhingga. Citra digital adalah citra
kontiniu yang diubah ke dalam bentuk Derau pada citra merupakan pixel
diskrit baik koordinat maupun intensitas yang nilai derajat keabuannya
cahayanya. Untuk citra dengan 256 mempunyai variasi intensitas pxel yang
derajat bilangan bulat antara 0 .. 255. tidak berkorelasi baik dengan pixel-pixel
[Rafael CG et keabuan, nilai setiap tetanggamya. Hal ini dapat dilihat
elemen matriks adalah al, 2002] sebagai bercak-bercak pada citra. Contoh
citra yang mengandung derau dapat
dilihat pada gambar 1.b

Konvolusi
Konvolusi merupakan
penjumlahan dari perkalian setiap titik
pada kernel dengan setiap titik pada
fungsi masukan. Kernel dioperasikan
secara bergeser pada fungsi masukan
a. f(x). Jumlah perkalian setiap titik pada
kedua fungsi tersebut merupakan hasil
Gambar 1.a. Citra Kupu-Kupu konvolusi yang dinyatakan dengan h(x).
b. Citra dengan derau Ilustrasi konvolusi ditunjukkan pada
gambar 2.

74 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

Operasi pelembutan citra


Operasi pelembutan citra pxel-pixel berukuran NxM pxel
dimaksudkan untuk menekan derau mempunyai hasil pelembutannya sebagai
(noise) yang terdapat pada citra. Operasi berikut :
pelembutan pada ranah spasial dilakukan
mengganti intensitas suatu pixel dengan 1 m 2 n2
rata-rata dari nilai pixel tersebut dan nilai g( x , y ) = f ( x + r , y + s)
d r = m1 s = n1
..(2)
tetangganya. Sebuah citra f(x,y)
di mana : d = jumlah pxel yang
terlibat dalam perhitungan rata-rata.

P 1P 2P 3P 4P 5P 6P 7P 8P 9

ABCDEFGHI
f(i,j)

pixel dikonvolusi

kernel

f ( i , j ) = A p1 + B p2 + C p3 + D p4 + E p5 + F p6 + G p7 + H p8 + I p9

Gambar 2. Ilustrasi proses konvolus

Operasi perata-rataan dapat dipandang


sebagai konvolusi antara citra f(x,y)
dengan penapis h(x,y) yang disebut
penapis rata-rata (mean filter) yang
dikenal sebagai Mask

g ( x , y ) = f ( x , y ) h( x , y ) .. (3)

Penapis h disebut penapis rata-rata


(mean filter) adalah merupakan matriks Sebelum penapisan
yang hasil penjumlahan komponen-
komponennya bernilai 1, seperti contoh
berikut untuk penapis 3x3.

1 / 9 1/ 9 1 / 9
1 / 9 1/ 9 1 / 9

1 / 9 1/ 9 1 / 9
Sesudah penapisan

Gambar 3. Hasil penapisan derau citra

Elektron: Vol.1 no. 2, Edisi: Desember 2009 75


ISSN : 2085-6989

Operasi penapisan (pelembutan) citra ini dan setiap hubungannya mempunyai


mempunyai efek pemerataan derajat nilai pemberat masing-masing
keabuan sehingg gambar yang diperoleh

Output signals
tampak lebihkabur kontrasnya. Efek
pengaburan ini yang disebut efek

Input signals
blurring. Contoh citra yang kabur akibat
penapisan dapat dilihat pada gambar 3.

Model Jaringan Syaraf Tiruan

Jaringan syaraf tiruan (JST) merupakan


model yang dikembangkan berdasarkan
prinsip struktur jaringan biologi syaraf Input layer Middle layer Output layer
manusia. Gambar 4. merupakan contoh
arsitektur hubungan jaringan syaraf Gambar 4. Contoh arsitektur jaringan
tiruan Setiap neuron saling terhubung syaraf tiruan [Mickael N, 2002]
nilai jaringan dilewatkan pada sebuah
Gambar 5. melukiskan sebuah fungsi aktivasi yang akan membatasinya
model komputasi neuron buatan yang pada nilai ambang (threshold). Nilai
sederhana (perceptron) yang mulanya yang dihasilkan oleh fungsi aktivasi
diperkenalkan oleh McCulloch. Untuk merupakan nilai neuron karena
membatasi nilai pada output neuron, merupakan keluaran suatu unit neuron.
masukan

pemberat
x1 w
1
neuron
x2 w Keluaran
2
Fungsi Aktifasi
Yk

n
x w
Gambar 5. Model tiruan sebuah neuron [Mauridhi HP, 2002]
n

Neuron menghitung jumlah + 1 jika X


perkalian sinyal masukan dengan Y sign =
1 jika X <
pemberatnya dan membandingkan
hasilnya dengan nilai threshold, . Jika
hasilnya lebih kecil dari nilai threshold dimana :
keluaran neuron adalah -1, sebaliknya X= jumlah perkalian masukan dan
jika hasilnya lebih besar atau sama pemberat ke neuron,
dengan threshold, neuron menjadi aktif xi = nilai masukan ke i,
dan keluaran neuron bernilai +1. Secara wi = nilai pemberat input ke i,
matematis digambarkan sebagai berikut : n = jumlah jumlah neuron masukan
[Michael N, 2002] Y = keluaran dari neuron

n
X = x w i i
Jenis fungsi aktifasi yang dijelaskan
i =1 (4) diatas adalah sign function. Keluaran
aktual dari neuron yang diaktifasi

76 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

dengan sign function dapat dinyatakan


sebagai :
n
Y = sign xi wi
i =1 .. (5)
Gambar 7. Fungsi sigmoid bipolar
Mengaktifkan Jaringan Saraf Tiruan

Mengaktifkan jaringan saraf Fungsi aktifasi step dan juga sign disbut
tiruan berarti mengaktifkan seluruh juga hard limit function dan sering
neuron yang terdapat pada jaringan digunakan dalam pengambilan
tersebut. Ada beberapa fungsi lain yang keputusan neuron untuk klasifikasi dan
dapat dipakai sebagai pengaktif neuron, pengenalan pola. Kurva fungsi aktifasi
seperti fungsi unit step, impulse sigmoid step dan sign dibambarkan pada gambar
dan fungsi linier. 8.
Fungsi sigmoid terdiri dari dua
jenis, yaitu unipolar dan bipolar. Pernyataan matematis untuk fungsi Sign
Persamaan fungsi sigmoid unipolar telah dijelaskan pada bagian sebelumnya
adalah sedangan untuk fungsi aktifasi Step
adalah
1
y sigmoid = x
1+ e ......... (6)
1, jika X 0
Y step =
Kurva fungsi sigmoid unipolar ini 0, jika X < 0 ........... (8)
digambarkan pada gambar 6.
y Step function
1
Y
+1

0
0 x X
Gambar 6. Fungsi sigmoid unipolar -1

Untuk fungsi sigmoid bipolar dinyatakan Sign function


sebagai : Y
+1
1 e f (x)
y = f (x)
0
1+ e ....... (7) X
-1
dan digambarkan sebagai berikut : Gambar 8. Fungsi aktifasi Step dan
Sign
y
1

0 x
-1

Elektron: Vol.1 no. 2, Edisi: Desember 2009 77


ISSN : 2085-6989

Selanjutnya fungsi aktifasi linier


digambarkan pada gambar 9, dengan HASIL DAN PEMBAHASAN
pernyataan matematisnya sebagai berikut
: Data penelitian diambilkan dari
contoh beberapa citra yang ada yang
mengandung derau seperti pada gambar.
Y linier = X .......... (9) Gambaran dari data pixel citra yang
mengandung derau ini dapat dilihat pada
Y tabel 1. yang diperoleh menggunakan
+ Matlab.
1 Citra yang dianalisa adalah citra
8 bit dengan 256 derajat keabuan. Warna
0 X derajat keabuan ini bernilai antara 0
(merupakan warna putih) hingga 255
yang merupakan warna hitam). Kalau
diperhatikan dari citra asal data diatas
-1
Gambar 9. Fungsi aktifasi Linier terlihat jelas bahwa warna derau itu
adalah putih (atau mendekati putih) dan
hitam (atau mendekati hitam).
METODE PENELITIAN Berdasarkan tabel 1 posisi derau ini jelas
Alat Bantu Penelitian terlihat dengan nilai 0 atau 255 karena
sangat kontras dengan nilai pixel
Untuk menerapkan algoritma tetangga sekelilingnya.
yang dikembangkan ini diperlukan Jaringan syaraf tiruan yang akan
sejumlah alat bantu berupa perangkat digunakan pada penelitian ini adalah
keras dan perangkat lunak. Perangkat mempunyai 9 masukan dan 1 keluaran.
keras yang dibutuhkan adalah 1 set Ke 9 masukan ini merupakan nilai dari
komputer Pentium IV dengan memori setiap matriks 3x3 yang diambil pada
sebesar 512 MB untuk memudahkan data asal pada tabel 4.1 di mana 1
eksekusi program. Di samping itu keluaran adalah untuk mendapatkan
diperlukan alat bantu berupa perangkat keputusan bagi pixel tengah dari matriks
lunak yaitu Matlab. tersebut, apakah perlu dikonvolusi atau
Matlab digunakan untuk tidak. Selanjutnya dilakukan penyusunan
melakukan pembentukan derau pada data masukan untuk jaringan syaraf
citra serta melakukan pembelajaran tiruan.
pembuktian akurasi keluaran jaringan Penyusunan data masukan untuk
syaraf tiruan. Selain itu Matlab juga jaringan syaraf tiruan ini dilakukan
digunakan untuk pembuktian algoritma dengan mengelompokkan data pada tabel
pejernihan citra yang disusun. 4.1 berdasarkan pola matriks 3x3 seperti
contoh berikut yang diambil pada baris
Metode Pengujian 4, 5 dan 6 , kolom 1, 2 dan 3 :
Contoh data matrik 3x3 sebagai
Seperti telah dijelaskan bahwa masukan ke jaringan syaraf tiruan:
penelitian ini bertujuan untuk
mengembangkan algoritma penjernihan
21 23 50
citra yang optimal dengan teknik
72 255 60
jaringan syaraf tiruan. Pengujian
244 255 51
dilakukan dengan mengoperasikan scrip
aplikasi yang dikembangkan dengan
bantuan Matlab

78 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

[ 21 23 50 72 255 60 244 255 51]

Data yang lainya diperoleh dengan


Berdasarkan matriks data tabel 1 membentuk matriks baru setelah
yang diperoleh ini disusun masukan bergeser satu sel kekanan dan seterusnya
untuk jaringan syaraf tiruan dengan hingga diperoleh sejumlah data. Seperti
susunan data baris pertama, kedua dan tabel 2.
ketiga disusun berjajar kekanan,
sehingga sel tengah dari matriks (2,2) Pembangunan Jaringan Syaraf
berada ditengah data. Kemudian melihat Tiruan
kepada pola matriks ini ditetapkan target
keluaran yang harus dicapai. Untuk Berdasarkan kasus yang akan
contoh ini nilai sel (2,2) adalah 255 diselesaikan ini dan penjelasn diatas,
berbeda kontras dengan nilai sel maka jaringan syaraf tiruan yang
sekelilingnya, sehingga merupakan derau dibangun cukuplah terdiri dari 3 lapisan,
dan perlu dikonvolusi. Oleh karena itu dimana lapisan masukan mempunyai 9
target untuk contoh ini adalah 1. neuron masukan, lapisan keluaran 1
Sebaliknya bila tidak perlu dikonvolusi, neuron keluaran, sedangkan untuk
target ditetapkan bernilai 0. Berdasarkan lapisan tersembunyi akan digunakan 3, 5
contoh di atas, data masukan untuk dan 7 neuron dalam pengujiannya.
jaringan syaraf tiruan disusun sebagai Gambaran jaringan syaraf tiruan ini
berikut : digambarkan pada gambar 10.

M1
1 b1
M2 wi,j
1
2
M3 1
3
M4 wj,kk
b2
M5 4 2 bk

M6 5 2

6 b3 K
M7

3
M8 7
3
M9 8

Lapisan masukan Lapisan tersembunyi Lapisan keluaran


(indeks i) (indeks j) (indeks k)

Gambar 10. Model Jaringan Syaraf Tiruan

Elektron: Vol.1 no. 2, Edisi: Desember 2009 79


ISSN : 2085-6989

Tabel 1. Sebahagian Matriks Citra Butterfly Mengandung Derau


1 2 3 4 5 6 7 8 9
1 36 23 70 170 142 53 33 255 60
2 27 38 32 35 43 42 36 42 70
3 26 0 0 37 39 38 42 48 65
4 21 23 50 65 45 33 41 66 66
5 72 255 60 62 55 45 41 58 0
6 244 255 51 42 49 52 0 47 49
7 255 202 255 42 45 45 53 50 33
8 255 162 44 54 43 41 72 255 255
9 151 53 37 255 56 255 56 55 48
10 255 48 35 49 81 75 56 48 57
11 24 35 0 45 60 70 64 44 69
12 29 30 57 60 48 47 52 255 111
13 0 35 49 59 58 0 167 255 198
14 32 33 47 48 75 196 255 245 161
15 45 34 45 44 129 255 255 255 108
16 45 45 60 255 168 255 184 110 0
17 255 56 66 77 115 151 117 113 116
18 73 0 84 95 98 108 114 115 0
19 58 71 103 105 110 255 115 118 116
20 89 92 101 112 114 115 114 118 118

Tabel 2. Model Data Pengujian


M1 M2 M3 M4 M5 M6 M7 M8 M9 T
1 36 23 70 27 38 32 26 0 0 0
2 23 70 170 38 32 35 0 0 37 0
3 70 170 142 32 35 43 0 37 39 0
4 170 142 53 35 43 42 37 39 38 0
5 142 53 33 43 42 36 39 38 42 0
6 53 33 255 42 36 42 38 42 48 0
7 33 255 60 36 42 70 42 48 65 0
8 27 38 32 26 0 0 21 23 50 1
9 38 32 35 0 0 37 23 50 65 1
10 32 35 43 0 37 39 50 65 45 0
11 35 43 42 37 39 38 65 45 33 0
12 43 42 36 39 38 42 45 33 41 0
13 42 36 42 38 42 48 33 41 66 0
14 36 42 70 42 48 65 41 66 66 0
15 26 0 0 21 23 50 72 255 60 0
16 0 0 37 23 50 65 255 60 62 0
17 0 37 39 50 65 45 60 62 55 0
18 37 39 38 65 45 33 62 55 45 0
19 39 38 42 45 33 41 55 45 41 0

80 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

20 38 42 48 33 41 66 45 41 58 0
21 42 48 65 41 66 66 41 58 0 0
22 21 23 50 72 255 60 244 255 51 1
23 23 50 65 255 60 62 255 51 42 0
24 50 65 45 60 62 55 51 42 49 0
25 65 45 33 62 55 45 42 49 52 0
26 45 33 41 55 45 41 49 52 0 0
27 33 41 66 45 41 58 52 0 47 0
28 41 66 66 41 58 0 0 47 49 0
29 72 255 60 244 255 51 255 202 255 1
30 255 60 62 255 51 42 202 255 42 0
31 60 62 55 51 42 49 255 42 45 0
32 62 55 45 42 49 52 42 45 45 0
33 55 45 41 49 52 0 45 45 53 0
34 45 41 58 52 0 47 45 53 50 1
35 41 58 0 0 47 49 53 50 33 0
36 244 255 51 255 202 255 255 162 44 0
37 255 51 42 202 255 42 162 44 54 1
38 51 42 49 255 42 45 44 54 43 0
39 42 49 52 42 45 45 54 43 41 0
40 49 52 0 45 45 53 43 41 72 0
41 52 0 47 45 53 50 41 72 255 0
42 0 47 49 53 50 33 72 255 255 0
43 255 162 44 151 53 37 255 48 35 0
44 162 44 54 53 37 255 48 35 49 0
45 44 54 43 37 255 56 35 49 81 1
46 54 43 41 255 56 255 49 81 75 0
47 43 41 72 56 255 56 81 75 56 1
48 41 72 255 255 56 55 75 56 48 0
49 72 255 255 56 55 48 56 48 57 0
50 58 0 167 75 196 255 129 255 255 0
51 0 167 255 196 255 245 255 255 255 0
52 45 44 129 60 255 168 66 77 115 1
53 44 129 255 255 168 255 77 115 151 0
54 129 255 255 168 255 184 115 151 117 0
55 255 56 66 73 0 84 58 71 103 1
56 98 108 114 110 255 115 114 115 114 1
57 112 114 115 114 0 116 115 115 115 1
58 255 111 115 110 0 112 255 255 112 1
59 104 102 103 255 101 0 97 97 98 0
60 102 103 108 101 0 0 97 98 99 1
61 103 108 109 0 0 108 98 99 101 1
62 108 109 109 0 108 255 99 101 105 0

Jaringan syaraf tiruan yang negggunakan cara yang sama dengan


digunakan ini dilatih menggunakan perceptron. Pada perceptron hanya ada
teknik propagasi balik (back satu pemberat untuk setiap masukan,
propagation). Pembelajaran pada akan tetapi pada lapisan majemuk ini
jaringan lapisan majemuk ini

Elektron: Vol.1 no. 2, Edisi: Desember 2009 81


ISSN : 2085-6989

setiap masukan mempunyai banyak Sinyal-sinyal masukan


pemberat. dilewatkan melalui fungsi aktifasi.
Pembelajaran ini berlangsung Fungsi aktifasi yang sering digunakan
dalam dua fase. Pertama pelatihan pola adalah fungsi aktifasi sigmoid. Rober C.
masukan diberikan ke lapisan masukan William (1995) menggunakan fungsi
jaringan. Jaringan akan meneruskan pola aktifasi sigmoid pada jaringan syaraf
masukan ini dari lapisan ke lapisan feedforward untuk menyelesaikan
hingga dihasilkan pola keluaran, dan regresi beberapa fungsi yang tidak
dikenal dengan Feedforward. Bila pola diketahui. Seperti telah dituliskan pada
keluaran berbeda dengan keluaran yang persamaan 2.4 fungsi aktifasi sigmoid
diharapkan, kesalahannya dihitung dan adalah :
dialirkan kearah balik (backward).
Pemberat yang telah diset dimodifikasi 1
selama kesalahan masih ada. Y sigmoid =
1 + e x

HASIL DAN PEMBAHASAN

a. Dengan fungsi performansi MSE b. Dengan fungsi performansi SSE

Gambar 11. Performansi pelatihan untuk 3 Neuron pada lapisan tersembunyi

a. Dengan 5 neuron pada lapisan b. Dengan 7 neuron pada lapisan


tersembunyi tersembunyi

Gambar 12. Performansi pelatihan untuk 5 dan 7 Neuron pada lapisan tersembunyi

Dari pelatihan dan simulasi yang pelatihan (MSE) memberikan


dilakukan terhadap jaringan syaraf tiruan menghasilkan yang lebih baik dan cepat.
dengan 3 neuron pada lapisan Dengan menetapkan epoch pelatihan
tersembunyi seperti terlihat pada kurva 300, pada epoch ke 132 iterasi telah
gambar 4.11 terlihat bahwa pelatihan selesai dilakukan dengan goal sebesar
yang dilakukan dengan performasi 0,0001.
82 | Elektron: Vol.1 no. 2, Edisi: Desember 2009
ISSN : 2085-6989

Ketika disimulasikan dengan data simulasi dengan data yang sama dengan
masukan yang sama jaringan syaraf data pelatihan pada jaringan dengan 7
tiruan dapat mendeteksi masukan yang neuron pada lapisan tersembunyi kurang
diberikan dengan tepat. Terlihat seluruh memberikan hasil yang memuaskan.
hasil simulasi sesuai dengan target yang Karena dari 45 data simulasi 18 data
diharapkan. Akan tetapi ketika dilakukan tidak dapat dikenal dengan baik.
dengan beberapa data baru yang tidak Ketika disimulasi dengan 17 data
dilatih sebelumnya, tingkat keberhasilan baru, jaringan dengan 5 lapisan
mendeteksi masukan pada performansi tersembunyi memberikan hasil yang
MSE lebih baik dari SSE. Dari 17 data cukup baik, karena dari 14 dari 17 data
baru yang diberikan, pada MSE simulasi dapat dikenal. Jadi tingkat
menghasilkan kesesuaian 13 data keberhasilannya adalah 82,35%.
(76,47%) sedangkan SSE menghasilkan Sementara itu untuk jaringan dengan 7
kesuaian 9 data (52,94%). neuron pada lapisan hasilnya
Besarnya tingkat kegagalan ini menemukan kesesuai pada 9 data
lebih kepada faktor data pelatihan yang simulasi, jadi keberhasilannya adalah
relatif masih sedikit. Dalam pengujian 52,94%.
ini hanya menggunakan data sebanyak Berdasarkan uraian diatas maka
45 buah data. Namun melihat kepada dapat dilihat bahwa kekurangan masih
hasil yang diperoleh ini diyakini bahwa terlihat pada simulasi ini. Sekali lagi ini
jaringan syaraf buatan ini dapat kemungkinan besar adalah disebabkan
dimanfaatkan untuk mendeteksi. kurangnya data yang digunakan untuk
Disamping itu penetapan nilai pemberat melakukan pelatihan terhadap jaringan
yang secara otomatis oleh Matlab yang telah dibentuk. Sedangkan pola
kemungkinan juga bisa memberikan jaringan yang memberikan hasil yang
hasil yang berbeda. agak baik adalah jaringan dengan dengan
Pada pengujian selanjutnya, yaitu 3 neuron pada lapisan tersembunyi.
dengan 5 dan 7 neuron pada jaringan Faktor lainnya terjadinya perbedaan
tersembunyi memperlihatkan keduanya dalam penggunaan model lapisan
tidak menemukan goal pelatihan hingga tersembunyi ini tidak stabilnya nilai awal
akhir epoch (300 epoch), namun ketika (inisialisasi) yang diberikan pada seluruh
dilakukan simulasi dengan data yang pemberat, karena ditetapkan oleh
sama pada jaringan dengan 5 neuron Matlab. Hal ini sesuai dengan yang
pada lapisan tersembunyi, memberikan disebutkan Michael N (2002) bahwa
hasil yang cukup baik, dimana dari 45 nilai awal dari pemberat akan
data yang diuji kembali hanya 1 data memberikan hasil pelatihan yang
yang memberikan hasil yang tidak berbeda.
sesuai. Sementara itu ketika dilakukan

Tabel 3. Data Hasil Pelatihan dan Simulasi dengan data yang sama (3 neuron)
Output N1 Output N2 Sim N1 Sim N2 Err N1 Err N2
T
(MSE) (SSE) (MSE) (SSE) (MSE) (SSE)
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 0.0006 -0.0000 0.0006 -0.0000 -0.0006 0.0000
0 0.0003 -0.0000 0.0003 -0.0000 -0.0003 0.0000
0 0.0001 -0.0000 0.0001 -0.0000 -0.0001 0.0000
0 0.0023 -0.0000 0.0023 -0.0000 -0.0023 0.0000
0 0.0001 -0.0000 0.0001 -0.0000 -0.0001 0.0000
0 -0.0000 0.0002 -0.0000 0.0002 0.0000 -0.0002
1 0.9685 0.9964 0.9685 0.9964 0.0315 0.0036
1 0.9946 0.9964 0.9946 0.9964 0.0054 0.0036
0 0.0001 0.0001 0.0001 0.0001 -0.0001 -0.0001

Elektron: Vol.1 no. 2, Edisi: Desember 2009 83


ISSN : 2085-6989

0 -0.0000 0.0000 -0.0000 0.0000 0.0000 -0.0000


0 0.0001 -0.0001 0.0001 -0.0001 -0.0001 0.0001
0 -0.0000 -0.0004 -0.0000 -0.0004 0.0000 0.0004
0 -0.0032 -0.0000 -0.0032 -0.0000 0.0032 0.0000
0 -0.0016 0.0003 -0.0016 0.0003 0.0016 -0.0003
0 -0.0000 -0.0001 -0.0000 -0.0001 0.0000 0.0001
0 0.0005 0.0000 0.0005 0.0000 -0.0005 -0.0000
0 -0.0029 0.0000 -0.0029 0.0000 0.0029 -0.0000
0 0.0017 0.0004 0.0017 0.0004 -0.0017 -0.0004
0 -0.0003 -0.0002 -0.0003 -0.0002 0.0003 0.0002
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
1 0.9779 0.9969 0.9779 0.9969 0.0221 0.0031
0 -0.0000 0.0040 -0.0000 0.0040 0.0000 -0.0040
0 -0.0000 0.0002 -0.0000 0.0002 0.0000 -0.0002
0 0.0000 -0.0001 0.0000 -0.0001 -0.0000 0.0001
0 -0.0000 0.0000 -0.0000 0.0000 0.0000 -0.0000
0 0.0000 -0.0000 0.0000 -0.0000 -0.0000 0.0000
0 -0.0000 0.0000 -0.0000 0.0000 0.0000 -0.0000
1 0.9778 0.9969 0.9778 0.9969 0.0222 0.0032
0 0.0141 -0.0000 0.0141 -0.0000 -0.0141 0.0000
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 0.0041 0.0004 0.0041 0.0004 -0.0041 -0.0004
1 0.9687 0.9964 0.9687 0.9964 0.0313 0.0036
0 0.0014 0.0003 0.0014 0.0003 -0.0014 -0.0003
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
1 0.9777 0.9969 0.9777 0.9969 0.0223 0.0031
0 -0.0031 0.0017 -0.0031 0.0017 0.0031 -0.0017
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 -0.0006 0.0001 -0.0006 0.0001 0.0006 -0.0001
0 -0.0016 0.0006 -0.0016 0.0006 0.0016 -0.0006
0 -0.0016 0.0001 -0.0016 0.0001 0.0016 -0.0001
0 -0.0000 -0.0000 -0.0000 -0.0000 0.0000 0.0000
0 -0.0016 -0.0000 -0.0016 -0.0000 0.0016 0.0000
1 0.9775 0.9969 0.9775 0.9969 0.0225 0.0031

Tabel 4. Hasil Pelatihan dan Simulasi.dengan 5 dan 7 neuron pada lapisan


tersmbunyi dengan data yang sama.
T Output N5 Output N7 Sim N5 Sim N7 Err N5 Err N7
0 -0.0655 0.1111 0.0389 0.1111 0.0655 -0.1111
0 0.0000 0.1111 0.0389 0.1111 -0.0000 -0.1111
0 0.0002 0.1111 0.1798 0.1111 -0.0002 -0.1111
0 0.0212 -1.0000 0.0014 -1.0000 -0.0212 1.0000
0 0.1176 -1.0000 -0.0000 -1.0000 -0.1176 1.0000
0 0.0005 0.1111 0.0389 0.1111 -0.0005 -0.1111
0 0.0024 1.0000 0.1798 1.0000 -0.0024 -1.0000
1 1.0000 0.1111 0.6491 0.1111 0.0000 0.8889
1 0.1201 1.0000 0.5185 1.0000 0.8799 0
0 -0.0051 1.0000 -0.0177 1.0000 0.0051 -1.0000
0 -0.0205 1.0000 -0.0009 1.0000 0.0205 -1.0000
0 0.0090 1.0000 -0.0176 1.0000 -0.0090 -1.0000
0 0.1051 1.0000 -0.0177 1.0000 -0.1051 -1.0000
0 0.1304 1.0000 -0.0177 1.0000 -0.1304 -1.0000
0 0.0000 1.0000 0.5185 1.0000 -0.0000 -1.0000
0 0.0047 1.0000 -0.0000 1.0000 -0.0047 -1.0000
0 -0.0063 1.0000 -0.0177 1.0000 0.0063 -1.0000
0 0.0976 1.0000 0.0064 1.0000 -0.0976 -1.0000
0 0.0848 1.0000 -0.0165 1.0000 -0.0848 -1.0000

84 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

0 0.0809 -0.0000 -0.0177 -0.0000 -0.0809 0.0000


0 -0.0008 -0.0000 -0.0177 -0.0000 0.0008 0.0000
1 0.9220 1.0000 1.0000 1.0000 0.0781 0
0 0.1299 0.1111 0.1798 0.1111 -0.1299 -0.1111
0 0.0067 0.0000 0.0001 0.0000 -0.0067 -0.0000
0 0.1016 0.2500 -0.0177 0.2500 -0.1016 -0.2500
0 0.0543 1.0000 -0.0174 1.0000 -0.0543 -1.0000
0 -0.0146 0.1111 0.0389 0.1111 0.0146 -0.1111
0 0.1006 1.0000 -0.0003 1.0000 -0.1006 -1.0000
1 1.0000 1.0000 0.1798 1.0000 0.0000 0
0 0.1377 1.0000 0.5185 1.0000 -0.1377 -1.0000
0 -0.0116 0.1111 0.1798 0.1111 0.0116 -0.1111
0 0.0705 -0.0000 -0.0177 -0.0000 -0.0705 0.0000
0 0.0797 1.0000 -0.0113 1.0000 -0.0797 -1.0000
1 0.1344 1.0000 0.6490 1.0000 0.8656 0
0 0.0041 0.2500 -0.0177 0.2500 -0.0041 -0.2500
0 -0.0100 -0.0000 -0.0008 -0.0000 0.0100 0.0000
1 1.0000 1.0000 1.0000 1.0000 0.0000 0.0000
0 0.1376 1.0000 0.1798 1.0000 -0.1376 -1.0000
0 0.0528 1.0000 0.0012 1.0000 -0.0528 -1.0000
0 -0.0818 0.2500 -0.0177 0.2500 0.0818 -0.2500
0 0.1376 1.0000 -0.0177 1.0000 -0.1376 -1.0000
0 0.1377 1.0000 0.0000 1.0000 -0.1377 -1.0000
0 -0.0046 0.1111 0.1798 0.1111 0.0046 -0.1111
0 0.1357 -0.0000 -0.1593 -0.0000 -0.1357 0.0000
1 0.9766 0.2500 1.0000 0.2500 0.0234 0.7500

Tabel 4.3. Hasil Pelatihan dan Simulasi.dengan 3, 5 dan 7 neuron pada lapisan
tersmbunyi dengan data baru.

Sim N3 Hsl N3 Sim N3 Hsl N3 Hasil Hasil


T Sim N5 Sim N7
MSE MSE SSE SSE N5 N7
0 0.8364 TS -0.2713 S -0.0749 S -0.0000 S
1 0.0014 TS -0.2776 TS 1.0000 S 0.2500 TS
0 0.0013 S -0.4039 S 0.1798 S 0.1111 S
0 -0.0000 S 0.6605 TS 0.1798 S 0.1111 S
0 -0.6958 S 0.9398 TS -0.0177 S 0.2500 S
0 -0.0000 S 0.8925 TS -0.0177 S 1.0000 TS
1 -0.0169 TS 0.6748 S -0.1593 TS 0.2500 TS
0 -0.9922 S 0.6661 TS 0.1798 S 0.1111 S
0 -0.0000 S 0.7057 TS 0.1798 S 1.0000 TS
1 0.9996 S 0.2223 TS 0.4065 TS 0.1111 TS
1 -0.0000 TS 0.5535 S -0.0177 TS 0.2500 TS
1 0.9688 S 0.7734 S 0.6491 S 1.0000 S
1 0.9688 S 0.8741 S 0.5185 S 1.0000 S
0 -0.9956 S -0.7680 S 0.1798 S 1.0000 TS
1 0.9688 S 0.6551 S 0.6491 S 0.1111 TS
1 0.9688 S 0.8763 S 0.5185 S 1.0000 S
0 -0.0000 S 0.8009 TS -0.1593 S -0.0000 S
S =13 S=9 S = 14 S=9
76,47% 52,94% 82,35% 52,94%

Keterangan : S = Sesuai TS = Tidak Sesuai

KESIMPULAN Berdasarkan hasil analisa dalam


penelitian ini dapat diambil kesimpulan
sebagai berikut :
Elektron: Vol.1 no. 2, Edisi: Desember 2009 85
ISSN : 2085-6989

Pixel derau pada citra yang akan Arief Hemawan, 2006,


dikonvolusi secara sederhana Jaringan
dapat dievaluasi. Dalam Saraf Tiruan, Teori dan
penelitian ini ketia digunakan Aplikasi, Penerbit Andi,
metode seleksi kondisi, Yogyakarta.
memberikan hasil penetapan
hanya pada derau dengan ukuran John O. Moody, Panos J. Antsaklis,
1 pixel, sehingga hasilnya belum The Dependence Identification
optimal. Neural Network Construction
Penggunaan jaringan syaraf Algorithm, IEEE Transactions
tiruan pada penelitian ini hanya on Neural Network Vol.7 No.1,
untuk mendeteksi kemungkinan January 1996
dikenal atau tidaknya pixel derau. Jong Jek Siang, 2005, Jaringan
Dari hasil pengujian dengan SyarafTiruan Pemrogramannya
jaringan syaraf tiruan, Menggunakan Matlab, Penerbit
keberhasilannya mencapai Andi, Yogyakarta,
82,35%.
Di antara pola jaringan yang Lee K. Jones, Constructive
digunakan, jaringan dengan 3 Approximations for Neural
lapisan tersembunyi memberikan Netwok by Sigmoidal Function,
hasil 76,47%, sedangkan Proceeding of The IEEE Vol.
pengujian dengan 5 lapisan 78 No.10, Oktober 1990
tersembunyi memberikan hasil
sangat baik, 82,35% dan Mauridhi Hery Purnomo, 2002,
pengujian dengan 7 laspisan Dasar Algoritma Cedas, PENS
tersembunyi memberikan hasil ITS, Surabaya.
52,94%
Michael Negnevitsky, 2002,
Saran Artificial Intelligence, A Guide
to Intelligent Systems, Addison
Penyempurnaan dari penelitian Wesley.
ini diharapkan dapat dilanjutkan
kearah pemanfaat hasil Rafael C. Gonzales, Richard E.
pendeteksian derau dengan Woods, 2002, Digital Image
jaringan syaraf tiruan untuk Processing, Second Edition,
penjernihan citra. Prentice Hall Inc, New Jersey
Untuk memberikan hasil yang
lebih baik pembentukan, Rinaldi Munir, 2004, Pengolahan
pelatihan dan simulasi dapat Citra Digital dengan
dilakukan dengan menggunakan Pendekatan Algoritma, Penerbit
skrip program Matlab atau Informatika, Bandung.
bahasa pemrograman lainnya.
Robert C. Williamson, Uwe Helmke,
Penggunaan sampel dan jumlah
Existence and Uniqueness
data untuk pelatihan sebaiknya
Results for Neural Network
dalam jumlah yang cukup besar
Application, IEEE Transactions
on Neual Netwoks Vol. 6 No.1,
January 1995
DAFTAR PUSTAKA
Sri Kusumadewi, 2004, Membangun

86 | Elektron: Vol.1 no. 2, Edisi: Desember 2009


ISSN : 2085-6989

Jaringan Syaraf Tiruan


Menggunakan MATLAB &
EXCELL LINK, Penerbit Graha
Ilmu, Yogyakarta.

Elektron: Vol.1 no. 2, Edisi: Desember 2009 87

Anda mungkin juga menyukai