Anda di halaman 1dari 21

UJI COBA PROGRAM MATLAB UNTUK APLIKASI JARINGAN SYARAF TIRUAN BACK PROPAGASI, GENETIK ALGORITMA DAN SOM

Tugas Kuliah JARINGAN SYARAF TIRUAN

Prof Dr. Ir. Aniati Murni

Siti Julaiha / 0906597420


Pasca Sarjana Teknologi Biomedis
A supervised backpropagation neural (BPN) network for the determination of blood glucose in diabetic patients. Non- invasive measurement of blood glucose concentration based on reflected laser beam from the index finger has been reported in this paper. This method depends on Helium-Neon (He-Ne) gas laser operating at 632.8 nm wave length. During measurement the index finger is placed in the laser beam transceiver unit, the reflected optical signal is converted into its corresponding electrical signal and
Desember 2010

Universitas Indonesia

JARINGAN SYARAF TIRUAN BACK PROPAGATION


Pemilihan Data Set adalah : Building Dataset:
Filename: building_dataset Predict the energy usage of a house, based on time of day and various weather variables. An estimator can be found by Fitting the inputs and targets The data set consists of 4209 samples. "buildingInputs" is an 14x4208 matrix, whose rows are: 1-10: Coded day of the week, time of day 11: Temperature 12: Humidity 13: Solar strength 14: Wind "buildingTargets" is a 3x4208 matrix of energy usage. Select Data Inputs 'buildingInputs' is a 14x4208 matrix, representing 4208 samples of 14 elements. Targets 'buildingTargets' is a 3x4208 matrix, representing 4208 samples of 3 elements. Validation and Test Data Training 70% = 2946 Samples Validation 15% = 631 Samples Testing 15% = 631 Samples

Tampilan Arsitektur JAringan Syaraf Tiruan Back Propagasi sebagai berikut : Pada Tahap Pembelajaran MATLAB menampilkan informasi sebagai berikut:

Grafik Fungsi Fit tidak dapat ditampilkan karena memiliki banyak dimensi (Kiri) Sedangkan Performasi validasi yang terbaik ditampikan pada posisi epoch tertentu. Grafik fungsi Gradient, Mu dan Validasi ditampilkan sebagai berikut

Hasil pada Tahap Pembelajaran adalah sebagai berikut

Hasil pada Tahap Pengujian adalah sebagai berikut

Melakukan training dengan parameter standar (20 hidden layer dan validation+testing masingmasing 15%), kemudian dilakukan retrain. Hasil data Evaluasi ditampilkan dalam bentuk tabel dan grafik berikut ini.

TABEL PROSES PEMBELAJARAN KEMBALI/RETRAIN


INISIASI RETRAIN KE-1 RETRAIN KE-2 RETRAIN KE-3 RETRAIN KE-4 RETRAIN KE-5 RETRAIN KE-6

Training Sample Test Sample Validation Sample Hidden Layer Epoch Time Performance Gradient Mu Validation Checks Best Validation Performance At Epoch

60% 20% 20% 20 30 2:12 0.00195 0.0015037 0.001 6 0.0022514 24

Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion Graph Plot Regresion

1.94944 2.25138 2.60895 8.95489 8.92785 8.66460 0.93621 0.92923 0.91145 0.92999 2.14182 0.889384 0.92999

20 20 40 37 2:17 1:54 0.00209 0.00202 0.00162 0.00162 0.001 0.001 6 6 0.0023045 0.0022528 34 31 Training Network MSE 2.04062 2.08627 2.0336 2.31347 2.30449 2.2528 2.47234 2.3201 2.28487 REGRESION 8.9789 8.98478 8.98551 8.73455 8.8322 8.77698 8.689776 8.92845 8.90749 REGRESION ON GRAPH 0.93256 0.93162 0.93385 0.92177 0.92344 0.92705 0.92418 0.92589 0.92494 0.92864 0.92881 0.93068 TEST NETWORK 2.1816 2.1769 2.12160 0.886779 0.894039 0.892827 0.92864 0.92881 0.93068

20 40 1:55 0.00204 0.00157 0.001 6 0.0023135 34

20 79 3:33 0.00182 0.000143 0.001 6 0.0022715 73

20 58 3:23 0.00191 0.0000271 0.001 6 0.0025001 52

20 43 1:59 0.00198 0.000186 0.001 6 0.0024506 34

1.82381 2.27158 2.29615 9.16458 8.8967 8.81149 0.94134 0.92356 0.92461 0.93453 2.00792 0.903949 0.93453

1.90512 2.50014 2.26024 9.09426 8.862889 8.85566 0.9392 0.91479 0.9242 0.93157 2.09584 0.895409 0.93157

1.98101 2.45061 2.52013 8.9554 8.80604 8.73526 0.92281 0.91701 0.9286 0.93157 2.18285 0.888017 0.9286

3 2.8 2.6 2.4 2.2 2 1.8


IN IA I IS S R T A K - E R IN E2R T AN E3R T A K - E R INK - E R IN E6 E R IN E1R T A K - E R I K - E R IN E4R T A E5R T A K -

9.6 9.4 9.2 9 8.8 8.6


IN IAS R T AIN R T AIN R T AIN R T AIN R T AIN R T AIN IS I ER ER ER ER ER ER K -1 E K -2 E K -3 E K -4 E K -5 E K -6 E RT AININ R G
2.5 2 1.5 1 0.5 0

MET ANN S RIIG


0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91 0.905 0.9

MEV LD TO S AI AI N

MET S S ET

RVALIDAT N IO
T ha P ujia a p eng n

RT S ET

1 0.98 0.96 0.94 0.92 0.9 0.88 0.86

IN IA I IS S

R T A K - R T A K - R T AN E3 R T A K - R T A K - R T AN E6 E R IN E1 E R IN E2 E R I K - E R IN E4 E R IN E5 E R I K RG A TT A IN R F R IN G RG A TT S RF E T RG A TV L A IO R F A ID T N AL L

INS S R T AN R T AN R T AN R T AN R T AN R T AN I IA I E R I E R I E R I E R I E R I E R I K -1 E K -2 E K -3 E K -4 E K -5 E K -6 E

ME S

R RF G AT

Berdasarkan kesimpulan keseluruhan hasil visualisasi data melalui grafik, untuk evaluasi Training kembali (RETRAIN) dari training kembali pertama hingga training kembali ke-6. Performansi Neural Network Back Propagansi menampilkan hasil terbaik pada Training Kembali ke -4 dengan Nilai Tertinggi untuk Regresi pada Masing Masing Tahap Training, Test dan Validasi, begitupula dengan Mean Square Error pada keseluruh tahapan neural network. Dengan adanya peningkatan pada Kriteria performansi ini dapat disimpulkan pembelajaran kembali dapat digunakan hingga tahap tertentu dari suatu sistem neural network. Namun perlu dipertimbangakan waktu yang diperlukan untuk proses iterasi tersebut. Dari tabel terlihat retrain ke-4 menunjukkan waktu terlama untuk proses pembelajarannya.

Mengubah jumlah hidden layer dan mencatat data validation+testing serta membandingkan dengan hasil yang menggunakan parameter standar hidden layer 20. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.:

TABEL PROSES KOMBINASI LAPISAN TERSEMBUNYI


Pada Training Sample 70%, Test Sample 15% dan Validation Sample 15%, dan Retraining ke-4
H.LAYER 17 H.LAYER 18 H.LAYER 20 H.LAYER 25 H.LAYER 29 H.LAYER 31 H.LAYER 35

Epoch Time Performance Gradient Mu Validation Checks Best Validation At Epoch

27 2:42 0.00223 0.0017 0.001 6 0.0025899 21

77 3:29 0.00205 2.10-e05 0.001 6 0.0023569 71

Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion GraphPlot Regresion 2.7 2.5 2.3 2.1 1.9 1.7 1.5

2.22963 2.58986 2.23414 8.78368 8.62376 8.77517 0.92615 0.9215 0.92487 0.92515 2.28432 0.875725 0.92515

36 39 2:09 2:45 0.00205 0.00192 0.00122 0.0000868 0.001 0.001 6 6 0.0019696 0.0021054 30 33 Training Network MSE 2.04674 2.05253 1.91745 2.35689 1.96958 2.10537 2.12766 2.1363 1.99433 REGRESION 8.93932 9.00336 9.06653 8.89714 9.00212 9.01201 8.98813 8.95020 8.95206 REGRESION ON GRAPH 0.93323 0.93339 0.93695 0.92308 0.93506 0.93193 0.93013 0.92935 0.9372 0.93122 0.93302 0.93623 TEST NETWORK 2.10539 2.05265 2.28135 0.893972 0.899479 0.903991 0.93122 0.9302 0.93623
9.4 9.3 9.2 9.1 9 8.9 8.8 8.7 8.6

49 4:31 0.00181 0.00167 0.001 6 0.0019822 43

47 4:30 0.00179 0.0004097 0.001 6 0.0022049 47

45 5:04 0.00161 0.00106 0.001 6 0.0022626 39

1.80763 1.98216 2.27048 9.177729 9.04535 8.83472 0.9407 0.93543 0.92888 0.93805 1.90321 0.910622 0.93805

1.78554 2.20488 2.13111 9.1431 8.88268 8.91805 0.94209 0.92837 0.92931 0.93815 1.90024 0.90724 0.93815

1.6137 2.262588 2.09133 9.27237 8.877619 8.94094 0.94772 0.92582 0.93194 0.94209 1.78265 0.914878 0.94209

H A E 1 .L Y R1 . A E 2 .L Y R2 .L Y R2 .L Y R3 .L Y R3 .L Y R 7H A E 8H Y R 0H A E 5H A E 9H A E 1H A E 5 L MET A IN S R IN G 0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91 MEV L A IO S A ID T N MET S S ET

HAE 1 HAE 1 HAE 2 HAE 2 H AE 2 HAE 3 H AE 3 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5

RT AN G RI I N

RV LD TO AI AI N
T ha Peng n a p ujia

RT S ET

2.4 2.2 2 1.8 1.6 1.4 1.2 1 0.8 0.6 H A E 1 H A E 1 H A E 2 H A E 2 H A E 2 H A E 3 H A E 3 0.4 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5 RG A TT A IN R F R IN G RG A TT S RF E T RG A TV L A IO R F A ID T N AL L

0 6 .9 0 1 .9 0 6 .8
ME S R R RF G AT

HAE 1 HAE 1 HAE 2 HAE 2 HAE 2 HAE 3 HAE 3 .L Y R 7 .L Y R 8 .L Y R 0 .L Y R 5 .L Y R 9 .L Y R 1 .L Y R 5

Dari grafik data terlihat dengan meningkatnya lapisan tersembunyi yang ditambahkan dari 17 lapisan hingga 35 lapisan , kecenderungan semakin meningkatnya juga performansi neural network, dari nilai MSE yang semakin menurun dan nilai Regresi yang semakin meningkat, walaupun ada sedikit spike (ketidaklinieran) pada beberapa layer . Dan Juga perlu dipertimbangkan

peningkatan waktu iterasi yang menyebabkan terlalu lamanya proses pengolahan data ini. Sehingga dapat disimpulkan meningkatnya lapisan tersembunyi meningkatkan performansi Kesalahan MSE dan kelinieran R, namun perlunya mempertimbangkan waktu pemrosesan karena meningkatnya layar tersembunyi meningkatkan juga waktu proses pembelajaran. Mengubah kombinasi data sampel, training-test dan validasi serta membandingkan dengan hasil yang menggunakan parameter standar yaitu 70%-15%-15%. Hasil data dalam bentuk tabel dan grafik ditampilkan sbb.:

TABEL PROSES KOMBINASI TRAINING-TEST-VALIDATION SAMPLE PADA HIDDEN LAYER 20


Training Sample Test Sample Validation Sample Epoch Time Performance Gradient Mu Validation Checks Best Validation At Epoch 50% 25% 25% 25 1:03 0.00196 0.000929 0.001 6 0.00092925 25 60% 20% 20% 35 1:46 0.00188 0.000214 0.001 6 0.0023938 29 65% 20% 15% 43 2:06 0.00215 0.00100 0.00100 6 0.0023879 37 70% 15% 15% 36 2:09 0.00205 0.00122 0.001 6 0.0019696 30 80% 10% 10% 47 2:57 0.00205 0.0000365 90% 5% 5% 68 4:31 0.00189 0.000504

0.0024673 41

0.0018872 062

Training Network

MSE
Training (x e-03) Validation(x e-03) Testing (x-e-03) Training (e-01) Validation (e-01) Testing (e-01) Training Validation Testing All MSE (e-03) Regresion GraphPlot Regresion 1.96462 2.39600 2.49869 8.99714 8.81271 8.67510 0.93456 0.92512 0.9173 0.92782 2.20598 0.886741 0.92782 1.87736 2.39380 2.38895 9.07348 8.72533 8.70330 0.93925 0.91965 0.92215 0.932 2.08306 0.893198 0.932 2.15156 2.38789 2.27772 2.05253 1.96958 2.1363 9.00336 9.00212 8.95020 0.93339 0.93506 0.92935 0.93302 2.05265 0.899479 0.9302 2.05351 2.45729 2.32684 8.97664 8.70529 8.76487 0.93287 0.91724 0.92617 0.93065 2.12225 0.892917 0.93065 1.88907 1.88717 2.36848 9.12997 8.97815 8.65730 0.93877 0.93425 0.92198 0.93772 1.91290 0.909726 0.93772

REGRESION
8.91920 8.81281 8.82768 0.92994 0.92239 0.924 0.9276 2.21224 0.888435 0.9276

REGRESION ON GRAPH

TEST NETWORK

2.7 2.5 2.3 2.1 1.9 1.7 1.5 5% 0 6% 0


MET A IN S R IN G 0.95 0.945 0.94 0.935 0.93 0.925 0.92 0.915 0.91

9.2 9.1 9 8.9 8.8 8.7 8.6

6% 5

7% 0
MEV L A IO S A ID T N

8% 0
MET S S ET

9% 0

5% 0

6% 0

6% 5

7% 0

8% 0

9% 0

RT AN G RI I N

RV LD TO AI AI N

RT S ET
1 0.98 0.96 0.94 0.92 0.9 0.88 0.86

Tah P g jian ap en u
2

1.5

0.5

5% 0

6% 0

6% 5

7% 0

8% 0

9% 0

RG A TT A IN R F R IN G RG A TT S RF E T

RG A TV L A IO R F A ID T N AL L

5% 0

6% 0

6% 5 ME S

7% 0 R

8% 0 R RF G AT

9% 0

Dari grafik data terlihat bahwa pada training sample 70% menunjukkan puncak/klimaks performansi dari jaringan saraf back propagasi baik dari tahap pengujian dan tahap validasi, dengan nilai error terkecil dan juga nilai Regresi keliniearan tertinggi, namun pada tahap pembelajaran, kombinasi sample 60% juga menunjukkan performansi lebih baik. Sehingga perlu dipertimbangkan kombinasi antara 60% dan 70% untuk training sample ini.

JARINGAN SYARAF TIRUAN GENETIK ALGORITMA

Membandingkan hasil nilai Filter atau penyaringan antara program dengan filter standar yang bernilai 0 dengan parameter nilai lain yaitu 1 dan 2. Sedangkan parameter lainnya adalah tetap sesuai standar. Parameter yang diubah: filter_flag pada main.m, nilai yg mungkin adalah 0, 1, dan 2

KOMBINASI NILAI FILTER/PENYARINGAN GENETIK ALGORITMA


FILTER FLAG = 0 = Standar FILTER FLAG = 1

JARINGAN

SYARAF

FILTER FLAG = 2

Filter flag merupakan perintah dalam penggunaan filter atau penyaringan terhadap noise atau gangguan. Dari syntax diketahui Median filter digunakan bila filter flag adalah 1 dan Wiener filter digunakan bila filter flag bernilai 2.
% median filter if(filter_flag == 1) I = medfilt2(I); % wiener filter elseif(filter_flag == 2) I = wiener2(I); End

Hasil dari perbedaan nilai Filter ini menunjukkan terjadinya perbedaan nilai skala keabuan. Pada penggunaan filter median (filter flag =1 ) terlihat pada dokumen dengan tipe karakter yang berasal dari mesin ketik, adanya perubahan pada nilai brightess atau pencahayaan yang menjadi lebih terang, namun juga terlihat pengaburan pada karakter karakter alfabetnya sehingga tulisan menjadi sulit terbaca. Nilai skala keabuan yang dihasilkan tidak menjadikannya lebih baik dari penggunaan filter flag=0. Sedangkan pada dokumen dengan tipe karakter yang berasal dari tulisan tangan kuno penggunaan filter median ini juga mengubah skala kekaburan (pengaburan) karakter alphabet sehingga tulisan juga menjadi kabur dan sulit terbaca dibandingkan pada penggunaan filter standar (filter flag = 0). Peningkatan skala keabuaan dan pencahayaan/brightess pada latar belakang juga menjadikan ketidakseragam skala keabuaan pada latar belakang terutama pada dokumen berkarakter tulisan tangan. Penggunaan Filter Median tidak lebih baik dari dari filter standar. Hasil dari penggunaan filter Wiener (Filter flag =2 ) juga menunjukkan pengaburan karakter alfabet pada dokumen berkarakter mesin tik, tidak terlalu berpengaruh dalam kontras karakter alfabet pada dokumen bertulisan tangan (dokumen no. 2), namun sangat mengaburkan pada dokumen bertulisan tangan no.3 dibandingkan filter standar. Skala keabuaan latar belakang juga menunjukkan ketidak seragaman terutama pada dokumer berkarakter tulisan tangan no.3. Filter wiener ini tidak dapat memberikan keseragaman hasil pada jenis karakter yang berbeda. Filter Wiener lebih baik digunakan dibandingkan filter median, namun tidak menjadikan pilihan dibandingkan penggunaan filter standar.

Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah paramater jumlah iterasi yang harus dilakukan oleh program dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax count yaitu pada count 4, 5 dan 7 dibandingkan sedangkan nilai parameter lain sesuai dengan syntax standar pada count 6. Nilai 6 pada count < 6 yang ada di ga_enh.m, adalah integer positif menentukan jumlah iterasi yang harus dilakukan oleh program.

KOMBINASI ITERASI PADA JARINGAN SYARAF GENETIK ALGORITMA KOMBINASI ITERASI/COUNT


COUNT 4 COUNT 5 COUNT 6 = Standar COUNT 7

Hasil dari perbedaan jumlah iterasi yang dilakukan oleh program Matlab ini menunjukkan semakin meningkatnya nilai iterasi meningkatkan juga nilai kontras karakter alfabet pada dokumen berkarakter alphabet mesin tik (no.1) maupun pada dokumen berkarakter tulisan tangan (no.2 dan 3), terutama terlihat pada iterasi rendah yaitu Count 4 dengan dokumen

berkarakter tulisan tangan no.3 . Skala nilai keabuan alphabet ditingkatkan sehingga performansi alphabet karakter tulisan tangan sedikit meningkat. Skala keabuaan pada latar belakang dokumen 1 berkarakter mesin tik dan dokumen tulisan tangan juga menjadi lebih homogen seiring dengan meningkatnya nilai iterasi, namun terlihat perbedaan pada dokumen dengan iterasi standar (count 6) dibandingkan nilai iterasi lainnya, dimana terlihat perbedaan skala keabuaan pada iterasi standar menghasilkan kejelasan pencahayaan pada latar belakang. Namun meningkatnya tingkat iterasi juga perlu menyembabkann faktor lamanya pemrosesan pada program Matlab, menjadikan tidak efisien dalam waktu pemrosesan. Sehingga perlu menjadi pertimbangan dalam penentuan nilai iterasi yang besar terhadap waktu proses.

Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah parameter probabilitas terjadi crossover atau rekombinasi pada parent dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax pc yaitu pada perintah nilai 0.8 pada pc = floor(0.8 * n/2) yang ada di ga_enh.m, nilai yg mungkin adalah 0 sampai 1 dan perubahan dilakukan pada nilai probabilitas cross over 0.1 , 0.5 dan maksimal 1, sedangkan nilain parameter lainnya adalah tetap sesuai dengan parameter standar pada pc =0.8.

KOMBINASI NILAI PROBABILITAS CROSS OVER PADA JARINGAN SYARAF GENETIK ALGORITMA
PC = 0.1 PC = 0.5 PC = 0.6 PC = 0.8 = standar PC = 1

Hasil dari perbedaan nilai parameter probabilitas yang terjadi pada rekombinasi parent (cross section ) menunjukkan hasil peningkatan kejelasan karakter alphabet maupun kontras pada dokumen berkarakter mesin tik maupun tulisan tangan, seiring dengan meningkatnya nilai probabilitas cross over. Pada dokumen berkarakter tulisan mesin tik terlihat nilai standar yang ditetapkan pada Probabilitas cross over 0.8 memberikan hasil yang terbaik pada penampakan karakter alphabet

maupun latar belakang dokumen yang jelas, demikian juga pada dokumen berkarakter tulisan tangan baik pada dokumen 2 maupun dokumen 3. Terlihat penghapusan latar belakang dokumen menjadi lebih homogen dengan penambahan skala abu yang menjadikan latar belakang pada dokumen no. 3. Selain itu juga terlihat kontras alphabet pada dokumen yang lebih jelas dibandingkan dengan probabilitas cross over yang lain. Skala probabilitas dengan penampilan terburuk terlihat pada skala pc = 0.6 dimana terjadi pengkaburan skala abu baik pada latar belakang maupun karakter tulisan, menjadikan tulisan terlihat kabur dan tidak homogen serta banyaknya gangguan yang tidak dihilangkan.

Menjalankan program dengan parameter standar yang sudah diset pada kode program, dan mengubah parameter probabilitas terjadinya mutasi pada indivu dan membandingkan hasilnya. Parameter yang diubah adalah nilai pada perintah syntax pm yaitu pada perintah nilai 0.1 pada pada pm = floor(0.1 * n), ga_enh.m, nilai yg mungkin adalah 0 sampai 1 yang menentukan probabilitas terjadinya mutasi. Perubahan dilakukan pada nilai probabilitas mutasi 0.5 , 0.6 dan 1. Sedangkan parameter lainnya tidak berubah sesuai dengan parameter standar pada PM = 0.1.

KOMBINASI NILAI PROBABILITAS MUTASI PADA JARINGAN SYARAF GENETIK ALGORITMA


PM = 0.1 = Standar PM = 0.5 PM = 0.6 PM = 1

Hasil yang diperoleh pada kombinasi nilai probabilitas mutasi pada citra memperlihatkan, pada dokumen berkarakteristik tulisan tangan maupun ketik, probabilitas mutasi standar 0.1 memperlihatkan hasil yang terbaik dibandingkan probabilitas mutasi lainnya, ini terlihat dari penghilangan gangguan pada latar belakang yang memperlihatkan kehalusan nilai skala keabuan pada latar belakang, tanpa menyebabkan pengaburan karakter alphabet pada dokumen. Memperjelas konstas alphabet pada dokumen tulisan tanpa pengurangan skala keabuan pada latar belakang yang tidak

homogeny dan tanpa memgaburkan karakter alphabet atau tulisannya. Probabilatas mutasi standar 0.1 memperlihatkan hasil yang lebih baik pada variasi karakteristik ketiga dokumen ini. Dari keseluruhan percobaan mengkombinasikan parameter parameter yang berpengaruh pada hasil citra dokumen kuno dengan menggunakan metode jaringan syaraf tiruan Genetik Algoritma dapat disimpulkan parameter probabilitas standar yang telah diberikan pada pemograman Jaringan Syaraf buatan Genetik Algoritma ini adalah parameter yang optimum untuk mendapatkan hasil pencitraan dokumen kuno dengan karakteristik mesin tik dan tulisan tangan, yaitu pada probabilitas cross over = pc = 0.8, probabilitas mutasi = pm = 0.1 , Jumlah iterasi = count = 6, dan Penggunaan filter atau penyaringan standar dengan nilai filter flag = 0.

JARINGAN SYARAF TIRUAN SELF-ORGANIZING MAPS


Simulasi Jaringan Syaraf tiruan Self Organizing Maps/SOM memperlihatkan proses visuali SOM untuk klaster atau klasifikasi data. Proses dimulai dengan pemetaan sejumlah data pembelajaran dari vector yang sejenis. Pemetaan data menunjukkan hubungan antara vector data dengan proses iniliasi pemetaan dilakukan secara random dari bentuk peta yang tidak beraturan dan panduan training data, hingga menghasilkan peta proses pembelajaran yang selanjutnya menghasilkan peta keluaran yang telah teratur. Proses pembelajaran sendiri adalah proses kompetisi dari vector prototype yang sejenis menjadi vector data yang dimodifikasi sehingga menjadi lebih serupa dengannya. Peta mempelajari posisi pada data yang tidak teratur dan pada proses pembelajaran selanjutnya, bukan hanya vector prototype yang sejenis, namun juga vector tetangga yang ada pada peta bergerak menuju data vector training dan mengatur dirinya sendiri sehingga menghasilkan pola peta yang teratur dan terbagi dalam klaster sesuai dengan karakteristiknya. Bentuk 3 Dimensi memberi kemudahan dalam mealokasi keseluruhan data dalam suatu ruangan. Penggambaran Tiga dimensi memberikan hasil visualisasi yang lebih memperlihatkan daerah daerah klaster sesuai klasifikasinya.

==================================================================================================== =================================================

Anda mungkin juga menyukai