Anda di halaman 1dari 21

# UJI COBA PROGRAM MATLAB UNTUK APLIKASI JARINGAN SYARAF TIRUAN BACK PROPAGASI, GENETIK ALGORITMA DAN SOM

## Siti Julaiha / 0906597420

Pasca Sarjana Teknologi Biomedis
A supervised backpropagation neural (BPN) network for the determination of blood glucose in diabetic patients. Non- invasive measurement of blood glucose concentration based on reflected laser beam from the index finger has been reported in this paper. This method depends on Helium-Neon (He-Ne) gas laser operating at 632.8 nm wave length. During measurement the index finger is placed in the laser beam transceiver unit, the reflected optical signal is converted into its corresponding electrical signal and
Desember 2010

Universitas Indonesia

## JARINGAN SYARAF TIRUAN BACK PROPAGATION

Pemilihan Data Set adalah : Building Dataset:
Filename: building_dataset Predict the energy usage of a house, based on time of day and various weather variables. An estimator can be found by Fitting the inputs and targets The data set consists of 4209 samples. "buildingInputs" is an 14x4208 matrix, whose rows are: 1-10: Coded day of the week, time of day 11: Temperature 12: Humidity 13: Solar strength 14: Wind "buildingTargets" is a 3x4208 matrix of energy usage. Select Data Inputs 'buildingInputs' is a 14x4208 matrix, representing 4208 samples of 14 elements. Targets 'buildingTargets' is a 3x4208 matrix, representing 4208 samples of 3 elements. Validation and Test Data Training 70% = 2946 Samples Validation 15% = 631 Samples Testing 15% = 631 Samples

Tampilan Arsitektur JAringan Syaraf Tiruan Back Propagasi sebagai berikut : Pada Tahap Pembelajaran MATLAB menampilkan informasi sebagai berikut:

Grafik Fungsi Fit tidak dapat ditampilkan karena memiliki banyak dimensi (Kiri) Sedangkan Performasi validasi yang terbaik ditampikan pada posisi epoch tertentu. Grafik fungsi Gradient, Mu dan Validasi ditampilkan sebagai berikut

Melakukan training dengan parameter standar (20 hidden layer dan validation+testing masingmasing 15%), kemudian dilakukan retrain. Hasil data Evaluasi ditampilkan dalam bentuk tabel dan grafik berikut ini.

## TABEL PROSES PEMBELAJARAN KEMBALI/RETRAIN

INISIASI RETRAIN KE-1 RETRAIN KE-2 RETRAIN KE-3 RETRAIN KE-4 RETRAIN KE-5 RETRAIN KE-6

Training Sample Test Sample Validation Sample Hidden Layer Epoch Time Performance Gradient Mu Validation Checks Best Validation Performance At Epoch

## 60% 20% 20% 20 30 2:12 0.00195 0.0015037 0.001 6 0.0022514 24

Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion Graph Plot Regresion

1.94944 2.25138 2.60895 8.95489 8.92785 8.66460 0.93621 0.92923 0.91145 0.92999 2.14182 0.889384 0.92999

20 20 40 37 2:17 1:54 0.00209 0.00202 0.00162 0.00162 0.001 0.001 6 6 0.0023045 0.0022528 34 31 Training Network MSE 2.04062 2.08627 2.0336 2.31347 2.30449 2.2528 2.47234 2.3201 2.28487 REGRESION 8.9789 8.98478 8.98551 8.73455 8.8322 8.77698 8.689776 8.92845 8.90749 REGRESION ON GRAPH 0.93256 0.93162 0.93385 0.92177 0.92344 0.92705 0.92418 0.92589 0.92494 0.92864 0.92881 0.93068 TEST NETWORK 2.1816 2.1769 2.12160 0.886779 0.894039 0.892827 0.92864 0.92881 0.93068

## 20 43 1:59 0.00198 0.000186 0.001 6 0.0024506 34

1.82381 2.27158 2.29615 9.16458 8.8967 8.81149 0.94134 0.92356 0.92461 0.93453 2.00792 0.903949 0.93453

1.90512 2.50014 2.26024 9.09426 8.862889 8.85566 0.9392 0.91479 0.9242 0.93157 2.09584 0.895409 0.93157

1.98101 2.45061 2.52013 8.9554 8.80604 8.73526 0.92281 0.91701 0.9286 0.93157 2.18285 0.888017 0.9286

## 3 2.8 2.6 2.4 2.2 2 1.8

IN IA I IS S R T A K - E R IN E2R T AN E3R T A K - E R INK - E R IN E6 E R IN E1R T A K - E R I K - E R IN E4R T A E5R T A K -

## 9.6 9.4 9.2 9 8.8 8.6

IN IAS R T AIN R T AIN R T AIN R T AIN R T AIN R T AIN IS I ER ER ER ER ER ER K -1 E K -2 E K -3 E K -4 E K -5 E K -6 E RT AININ R G
2.5 2 1.5 1 0.5 0

## MET ANN S RIIG

0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91 0.905 0.9

MEV LD TO S AI AI N

MET S S ET

RVALIDAT N IO
T ha P ujia a p eng n

RT S ET

## 1 0.98 0.96 0.94 0.92 0.9 0.88 0.86

IN IA I IS S

R T A K - R T A K - R T AN E3 R T A K - R T A K - R T AN E6 E R IN E1 E R IN E2 E R I K - E R IN E4 E R IN E5 E R I K RG A TT A IN R F R IN G RG A TT S RF E T RG A TV L A IO R F A ID T N AL L

INS S R T AN R T AN R T AN R T AN R T AN R T AN I IA I E R I E R I E R I E R I E R I E R I K -1 E K -2 E K -3 E K -4 E K -5 E K -6 E

ME S

R RF G AT

Berdasarkan kesimpulan keseluruhan hasil visualisasi data melalui grafik, untuk evaluasi Training kembali (RETRAIN) dari training kembali pertama hingga training kembali ke-6. Performansi Neural Network Back Propagansi menampilkan hasil terbaik pada Training Kembali ke -4 dengan Nilai Tertinggi untuk Regresi pada Masing Masing Tahap Training, Test dan Validasi, begitupula dengan Mean Square Error pada keseluruh tahapan neural network. Dengan adanya peningkatan pada Kriteria performansi ini dapat disimpulkan pembelajaran kembali dapat digunakan hingga tahap tertentu dari suatu sistem neural network. Namun perlu dipertimbangakan waktu yang diperlukan untuk proses iterasi tersebut. Dari tabel terlihat retrain ke-4 menunjukkan waktu terlama untuk proses pembelajarannya.

Mengubah jumlah hidden layer dan mencatat data validation+testing serta membandingkan dengan hasil yang menggunakan parameter standar hidden layer 20. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.:

## TABEL PROSES KOMBINASI LAPISAN TERSEMBUNYI

Pada Training Sample 70%, Test Sample 15% dan Validation Sample 15%, dan Retraining ke-4
H.LAYER 17 H.LAYER 18 H.LAYER 20 H.LAYER 25 H.LAYER 29 H.LAYER 31 H.LAYER 35

## 77 3:29 0.00205 2.10-e05 0.001 6 0.0023569 71

Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion GraphPlot Regresion 2.7 2.5 2.3 2.1 1.9 1.7 1.5

2.22963 2.58986 2.23414 8.78368 8.62376 8.77517 0.92615 0.9215 0.92487 0.92515 2.28432 0.875725 0.92515

36 39 2:09 2:45 0.00205 0.00192 0.00122 0.0000868 0.001 0.001 6 6 0.0019696 0.0021054 30 33 Training Network MSE 2.04674 2.05253 1.91745 2.35689 1.96958 2.10537 2.12766 2.1363 1.99433 REGRESION 8.93932 9.00336 9.06653 8.89714 9.00212 9.01201 8.98813 8.95020 8.95206 REGRESION ON GRAPH 0.93323 0.93339 0.93695 0.92308 0.93506 0.93193 0.93013 0.92935 0.9372 0.93122 0.93302 0.93623 TEST NETWORK 2.10539 2.05265 2.28135 0.893972 0.899479 0.903991 0.93122 0.9302 0.93623
9.4 9.3 9.2 9.1 9 8.9 8.8 8.7 8.6

## 45 5:04 0.00161 0.00106 0.001 6 0.0022626 39

1.80763 1.98216 2.27048 9.177729 9.04535 8.83472 0.9407 0.93543 0.92888 0.93805 1.90321 0.910622 0.93805

1.78554 2.20488 2.13111 9.1431 8.88268 8.91805 0.94209 0.92837 0.92931 0.93815 1.90024 0.90724 0.93815

1.6137 2.262588 2.09133 9.27237 8.877619 8.94094 0.94772 0.92582 0.93194 0.94209 1.78265 0.914878 0.94209

H A E 1 .L Y R1 . A E 2 .L Y R2 .L Y R2 .L Y R3 .L Y R3 .L Y R 7H A E 8H Y R 0H A E 5H A E 9H A E 1H A E 5 L MET A IN S R IN G 0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91 MEV L A IO S A ID T N MET S S ET

## HAE 1 HAE 1 HAE 2 HAE 2 H AE 2 HAE 3 H AE 3 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5

RT AN G RI I N

RV LD TO AI AI N
T ha Peng n a p ujia

RT S ET

## 2.4 2.2 2 1.8 1.6 1.4 1.2 1 0.8 0.6 H A E 1 H A E 1 H A E 2 H A E 2 H A E 2 H A E 3 H A E 3 0.4 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5 RG A TT A IN R F R IN G RG A TT S RF E T RG A TV L A IO R F A ID T N AL L

0 6 .9 0 1 .9 0 6 .8
ME S R R RF G AT

## HAE 1 HAE 1 HAE 2 HAE 2 HAE 2 HAE 3 HAE 3 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5

Dari grafik data terlihat dengan meningkatnya lapisan tersembunyi yang ditambahkan dari 17 lapisan hingga 35 lapisan , kecenderungan semakin meningkatnya juga performansi neural network, dari nilai MSE yang semakin menurun dan nilai Regresi yang semakin meningkat, walaupun ada sedikit spike (ketidaklinieran) pada beberapa layer . Dan Juga perlu dipertimbangkan

peningkatan waktu iterasi yang menyebabkan terlalu lamanya proses pengolahan data ini. Sehingga dapat disimpulkan meningkatnya lapisan tersembunyi meningkatkan performansi Kesalahan MSE dan kelinieran R, namun perlunya mempertimbangkan waktu pemrosesan karena meningkatnya layar tersembunyi meningkatkan juga waktu proses pembelajaran. Mengubah kombinasi data sampel, training-test dan validasi serta membandingkan dengan hasil yang menggunakan parameter standar yaitu 70%-15%-15%. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.:

## TABEL PROSES KOMBINASI TRAINING-TEST-VALIDATION SAMPLE PADA HIDDEN LAYER 20

Training Sample Test Sample Validation Sample Epoch Time Performance Gradient Mu Validation Checks Best Validation At Epoch 50% 25% 25% 25 1:03 0.00196 0.000929 0.001 6 0.00092925 25 60% 20% 20% 35 1:46 0.00188 0.000214 0.001 6 0.0023938 29 65% 20% 15% 43 2:06 0.00215 0.00100 0.00100 6 0.0023879 37 70% 15% 15% 36 2:09 0.00205 0.00122 0.001 6 0.0019696 30 80% 10% 10% 47 2:57 0.00205 0.0000365 90% 5% 5% 68 4:31 0.00189 0.000504

0.0024673 41

0.0018872 062

Training Network

MSE
Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion GraphPlot Regresion 1.96462 2.39600 2.49869 8.99714 8.81271 8.67510 0.93456 0.92512 0.9173 0.92782 2.20598 0.886741 0.92782 1.87736 2.39380 2.38895 9.07348 8.72533 8.70330 0.93925 0.91965 0.92215 0.932 2.08306 0.893198 0.932 2.15156 2.38789 2.27772 2.05253 1.96958 2.1363 9.00336 9.00212 8.95020 0.93339 0.93506 0.92935 0.93302 2.05265 0.899479 0.9302 2.05351 2.45729 2.32684 8.97664 8.70529 8.76487 0.93287 0.91724 0.92617 0.93065 2.12225 0.892917 0.93065 1.88907 1.88717 2.36848 9.12997 8.97815 8.65730 0.93877 0.93425 0.92198 0.93772 1.91290 0.909726 0.93772

REGRESION
8.91920 8.81281 8.82768 0.92994 0.92239 0.924 0.9276 2.21224 0.888435 0.9276

REGRESION ON GRAPH

TEST NETWORK

## 2.7 2.5 2.3 2.1 1.9 1.7 1.5 5% 0 6% 0

MET A IN S R IN G 0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91

## 9.2 9.1 9 8.9 8.8 8.7 8.6

6% 5

7% 0
MEV L A IO S A ID T N

8% 0
MET S S ET

9% 0

5% 0

6% 0

6% 5

7% 0

8% 0

9% 0

RT AN G RI I N

RV LD TO AI AI N

RT S ET
1 0.98 0.96 0.94 0.92 0.9 0.88 0.86

Tah P g jian ap en u
2

1.5

0.5

5% 0

6% 0

6% 5

7% 0

8% 0

9% 0

RG A TT A IN R F R IN G RG A TT S RF E T

RG A TV L A IO R F A ID T N AL L

5% 0

6% 0

6% 5 ME S

7% 0 R

8% 0 R RF G AT

9% 0

Dari grafik data terlihat bahwa pada training sample 70% menunjukkan puncak/klimaks performansi dari jaringan saraf back propagasi baik dari tahap pengujian dan tahap validasi, dengan nilai error terkecil dan juga nilai Regresi keliniearan tertinggi, namun pada tahap pembelajaran, kombinasi sample 60% juga menunjukkan performansi lebih baik. Sehingga perlu dipertimbangkan kombinasi antara 60% dan 70% untuk training sample ini.

## JARINGAN SYARAF TIRUAN GENETIK ALGORITMA

Membandingkan hasil nilai Filter atau penyaringan antara program dengan filter standar yang bernilai 0 dengan parameter nilai lain yaitu 1 dan 2. Sedangkan parameter lainnya adalah tetap sesuai standar. Parameter yang diubah: filter_flag pada main.m, nilai yg mungkin adalah 0, 1, dan 2

## KOMBINASI NILAI FILTER/PENYARINGAN GENETIK ALGORITMA

FILTER FLAG = 0 = Standar FILTER FLAG = 1

JARINGAN

SYARAF

FILTER FLAG = 2

Filter flag merupakan perintah dalam penggunaan filter atau penyaringan terhadap noise atau gangguan. Dari syntax diketahui Median filter digunakan bila filter flag adalah 1 dan Wiener filter digunakan bila filter flag bernilai 2.
% median filter if(filter_flag == 1) I = medfilt2(I); % wiener filter elseif(filter_flag == 2) I = wiener2(I); End

Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah paramater jumlah iterasi yang harus dilakukan oleh program dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax count yaitu pada count 4, 5 dan 7 dibandingkan sedangkan nilai parameter lain sesuai dengan syntax standar pada count 6. Nilai 6 pada count < 6 yang ada di ga_enh.m, adalah integer positif menentukan jumlah iterasi yang harus dilakukan oleh program.

## KOMBINASI ITERASI PADA JARINGAN SYARAF GENETIK ALGORITMA KOMBINASI ITERASI/COUNT

COUNT 4 COUNT 5 COUNT 6 = Standar COUNT 7

Hasil dari perbedaan jumlah iterasi yang dilakukan oleh program Matlab ini menunjukkan semakin meningkatnya nilai iterasi meningkatkan juga nilai kontras karakter alfabet pada dokumen berkarakter alphabet mesin tik (no.1) maupun pada dokumen berkarakter tulisan tangan (no.2 dan 3), terutama terlihat pada iterasi rendah yaitu Count 4 dengan dokumen

berkarakter tulisan tangan no.3 . Skala nilai keabuan alphabet ditingkatkan sehingga performansi alphabet karakter tulisan tangan sedikit meningkat. Skala keabuaan pada latar belakang dokumen 1 berkarakter mesin tik dan dokumen tulisan tangan juga menjadi lebih homogen seiring dengan meningkatnya nilai iterasi, namun terlihat perbedaan pada dokumen dengan iterasi standar (count 6) dibandingkan nilai iterasi lainnya, dimana terlihat perbedaan skala keabuaan pada iterasi standar menghasilkan kejelasan pencahayaan pada latar belakang. Namun meningkatnya tingkat iterasi juga perlu menyembabkann faktor lamanya pemrosesan pada program Matlab, menjadikan tidak efisien dalam waktu pemrosesan. Sehingga perlu menjadi pertimbangan dalam penentuan nilai iterasi yang besar terhadap waktu proses.

KOMBINASI NILAI PROBABILITAS CROSS OVER PADA JARINGAN SYARAF GENETIK ALGORITMA
PC = 0.1 PC = 0.5 PC = 0.6 PC = 0.8 = standar PC = 1

Hasil dari perbedaan nilai parameter probabilitas yang terjadi pada rekombinasi parent (cross section ) menunjukkan hasil peningkatan kejelasan karakter alphabet maupun kontras pada dokumen berkarakter mesin tik maupun tulisan tangan, seiring dengan meningkatnya nilai probabilitas cross over. Pada dokumen berkarakter tulisan mesin tik terlihat nilai standar yang ditetapkan pada Probabilitas cross over 0.8 memberikan hasil yang terbaik pada penampakan karakter alphabet

maupun latar belakang dokumen yang jelas, demikian juga pada dokumen berkarakter tulisan tangan baik pada dokumen 2 maupun dokumen 3. Terlihat penghapusan latar belakang dokumen menjadi lebih homogen dengan penambahan skala abu yang menjadikan latar belakang pada dokumen no. 3. Selain itu juga terlihat kontras alphabet pada dokumen yang lebih jelas dibandingkan dengan probabilitas cross over yang lain. Skala probabilitas dengan penampilan terburuk terlihat pada skala pc = 0.6 dimana terjadi pengkaburan skala abu baik pada latar belakang maupun karakter tulisan, menjadikan tulisan terlihat kabur dan tidak homogen serta banyaknya gangguan yang tidak dihilangkan.

## KOMBINASI NILAI PROBABILITAS MUTASI PADA JARINGAN SYARAF GENETIK ALGORITMA

PM = 0.1 = Standar PM = 0.5 PM = 0.6 PM = 1

Hasil yang diperoleh pada kombinasi nilai probabilitas mutasi pada citra memperlihatkan, pada dokumen berkarakteristik tulisan tangan maupun ketik, probabilitas mutasi standar 0.1 memperlihatkan hasil yang terbaik dibandingkan probabilitas mutasi lainnya, ini terlihat dari penghilangan gangguan pada latar belakang yang memperlihatkan kehalusan nilai skala keabuan pada latar belakang, tanpa menyebabkan pengaburan karakter alphabet pada dokumen. Memperjelas konstas alphabet pada dokumen tulisan tanpa pengurangan skala keabuan pada latar belakang yang tidak

homogeny dan tanpa memgaburkan karakter alphabet atau tulisannya. Probabilatas mutasi standar 0.1 memperlihatkan hasil yang lebih baik pada variasi karakteristik ketiga dokumen ini. Dari keseluruhan percobaan mengkombinasikan parameter parameter yang berpengaruh pada hasil citra dokumen kuno dengan menggunakan metode jaringan syaraf tiruan Genetik Algoritma dapat disimpulkan parameter probabilitas standar yang telah diberikan pada pemograman Jaringan Syaraf buatan Genetik Algoritma ini adalah parameter yang optimum untuk mendapatkan hasil pencitraan dokumen kuno dengan karakteristik mesin tik dan tulisan tangan, yaitu pada probabilitas cross over = pc = 0.8, probabilitas mutasi = pm = 0.1 , Jumlah iterasi = count = 6, dan Penggunaan filter atau penyaringan standar dengan nilai filter flag = 0.

## JARINGAN SYARAF TIRUAN SELF-ORGANIZING MAPS

Simulasi Jaringan Syaraf tiruan Self Organizing Maps/SOM memperlihatkan proses visuali SOM untuk klaster atau klasifikasi data. Proses dimulai dengan pemetaan sejumlah data pembelajaran dari vector yang sejenis. Pemetaan data menunjukkan hubungan antara vector data dengan proses iniliasi pemetaan dilakukan secara random dari bentuk peta yang tidak beraturan dan panduan training data, hingga menghasilkan peta proses pembelajaran yang selanjutnya menghasilkan peta keluaran yang telah teratur. Proses pembelajaran sendiri adalah proses kompetisi dari vector prototype yang sejenis menjadi vector data yang dimodifikasi sehingga menjadi lebih serupa dengannya. Peta mempelajari posisi pada data yang tidak teratur dan pada proses pembelajaran selanjutnya, bukan hanya vector prototype yang sejenis, namun juga vector tetangga yang ada pada peta bergerak menuju data vector training dan mengatur dirinya sendiri sehingga menghasilkan pola peta yang teratur dan terbagi dalam klaster sesuai dengan karakteristiknya. Bentuk 3 Dimensi memberi kemudahan dalam mealokasi keseluruhan data dalam suatu ruangan. Penggambaran Tiga dimensi memberikan hasil visualisasi yang lebih memperlihatkan daerah daerah klaster sesuai klasifikasinya.

==================================================================================================== =================================================

### Dapatkan aplikasi gratis kami

Hak cipta © 2021 Scribd Inc.