Anda di halaman 1dari 20

MENENTUKAN KUALITAS ANGGUR DENGAN METODE RADIAL BASIC

FUNCTION (RBF) MENGGUNAKAN NEUROPH STUDIO 2.9


Ernes Josias Blegur
1114201017
Jurusan Fisika, Fakultas MIPA Institut Teknologi Sepuluh Nopember
Abstrak. Telah dilakukan percobaan
variasi Hidden Layer dalam pengenalan
pola reptil dengan neuroph studio 2.9.
dalam percobaan ini, dilakukan dengan 6
tahap yaitu dengan variasi Hidden Layer
5, 10, 15, dan 20 hasil percobaan
menunjukan bahwa jumlah Hidden
Layer sangat mempengaruhi respon dari
sistem. Semakin banyak Hidden Layer
yang digunakan maka Respon Sistem
akan semakin baik dan sebaliknya.
Begitu juga variasi Hidden Layer juga
mempengaruhi tingkat error dari sistem.
Semakain banyak Hidden Layer yang
digunakan maka semakin mengurangi
error dari sistem. Namun jika Hidden
Layer yang digunakan berlebihan maka
Error Sistem akan semakin besar pula.

1. Perbandingan Jaringan Syaraf Tiruan


dengan Konvensional

I.

dapat melakukan sesuatu dimana pengguna


belum
mengatahui
bagaimana
melakukannya.

PENDAHULUAN

Jaringan Syaraf Tiruan adalah paradigma


pemrosesan
suatu
informasi
yang
terinspirasi oleh sistim sel syaraf biologi,
sama seperti otak yang memproses suatu
informasi. Elemen mendasar dari paradigma
tersebut adalah struktur yang baru dari
sistim pemrosesan informasi.
Jaringan
Syaraf Tiruan, seperti manusia, belajar dari
suatu contoh. Jaringan Syaraf Tiruan
dibentuk untuk memecahkan suatu masalah
tertentu seperti pengenalan pola atau
klasifikasi karena proses pembelajaran.
Jaringan Syaraf Tiruan berkembang secara
pesat pada beberapa tahun terakhir. Jaringan
Syaraf Tiruan telah dikembangkan sebelum
adanya suatu komputer konvensional yang
canggih dan terus berkembang walaupun
pernah mengalami masa vakum selama
beberapa tahun.

Jaringan Syaraf Tiruan memiliki endekatan


yang berbeda untuk memecahkan masalah
bila dibandingkan dengan sebuah komputer
konvensional.
Umumnya komputer
konvensional menggunakan pendekatan
algoritma
(komputer
konvensional
menjalankan sekumpulan perintah untuk
memecahkan masalah). Jika suatu perintah
tidak diketahui oleh komputer konvensional
maka komputer konvensional tidak dapat
memecahkan masalah yang ada. Sangat
penting
mengetahui
bagaimana
memecahkan suatu masalah pada komputer
konvensional
dimana
komputer
konvensional akan sangat bermanfaat jika

Gambar 1. Sebuah Sel Saraf Sederhana


Jaringan Syaraf Tiruan dan suatu algoritma
komputer konvensional tidak saling bersaing
namun saling melengkapi satu sama lain.
Pada suatu kegiatan yang besar, sistim yang
diperlukan
biasanya
menggunakan
kombinasi antara keduanya (biasanya
sebuah komputer konvensional digunakan

untuk mengontrol Jaringan Syaraf Tiruan


untuk
menghasilkan
efisiensi
yang
maksimal. Jaringan Syaraf Tiruan tidak
memberikan suatu keajiban tetapi jika
digunakan secara tepat akan menghasilkan
sasuatu hasil yang luar biasa.
2. Model Dasar Jaringan Syaraf Tiruan
Mengadopsi esensi dasar dari system syaraf
biologi, syaraf tiruan digambarkan sebagai
berikut : Menerima input atau masukan baik
dari data yang dimasukkan ataudari output
sel syaraf pada jaringan syaraf. Setiap input
datang melalui suatu koneksiatau hubungan
yang mempunyai sebuah bobot (weight).
etiap sel syaraf mempunyai sebuah nilai
ambang. Jumlah bobot dari input dan
dikurangi dengan nilai ambang kemudian
akan mendapatkan suatu aktivasi dari sel
syaraf (post synaptic potential, PSP, dari sel
syaraf). Signal aktivasi kemudian menjadi
fungsi aktivasi / fungsi transfer untuk
menghasilkan output dari sel syaraf.
Jika tahapan fungsi aktivasi digunakan (
output sel syaraf = 0 jika input <0 dan 1 jika
input >= 0) maka tindakan sel syaraf sama
dengan sel syaraf biologi yang dijelaskan
diatas (pengurangan nilai ambang dari
jumlah bobot dan membandingkan dengan 0
adalah sama dengan membandingkan jumlah
bobot dengan nilai ambang). Biasanya
tahapan fungsi jarang digunakan dalan
Jaringan Syaraf Tiruan. Fungsi aktivasi (f(.))
dapat dilihat pada Gambar 2.

Gambar 2. Fungsi Aktifasi


Bagaimana sel syaraf saling berhubungan?
Jika suatu jaringan ingin digunakan untuk

berbagai keperluan maka harus memiliki


input (akan membawa nilai dari suatu
variabel dari luar) dan output (dari prediksi
atau signal kontrol). Input dan output sesuai
dengan sensor dan syaraf motorik seperti
signal datang dari mata kemudian diteruskan
ke tangan, Dalam hal ini terdapat sel syaraf
atau neuron pada lapisan tersembunyi
berperan pada jaringan ini. Input, lapisan
tersembunyi dan output sel syaraf
diperlukan untuk saling terhubung satu sama
lain. Berdasarkan dari arsitektur (pola
koneksi), Jaringan Syaraf Tiruan dapat
dibagi kedalam dua katagori :
a. Struktur feedforward
Sebuah jaringan yang sederhana mempunyai
struktur feedforward dimana signal bergerak
dari input kemudian melewati lapisan
tersembunyi dan akhirnya mencapai unit
output (mempunyai struktur perilaku yang
stabil).
Tipe jaringan feedforward mempunyai sel
syaraf yang tersusun dari beberapa lapisan.
Lapisan input bukan merupakan sel syaraf.
Lapisan ini hanya member pelayanan
dengan mengenalkan suatu nilai dari suatu
variabel. Lapisan tersembunyi danlapisan
output sel syaraf terhubung satu sama lain
dengan lapisan sebelumnya. Kemungkinan
yang timbul adalah adanya hubungan
dengan beberapa unit dari lapisan
sebelumnya atau
terhubung semuanya
(lebih baik).

Gambar 3. Jaringan Saraf Tiruan


Feedforward

Yang termasuk dalam struktur feedforward


yaitu Single-layer perceptron, Multilayer
perceptron, Radial-basis function networks,
Higher-order networks dan Polynomial
learning networks
b. Struktur recurrent (feedback)
Jika suatu jaringan berulang (mempunyai
koneksi kembali dari output ke input) akan
menimbulkan ketidakstabilan dan akan
menghasilkan dinamika yang sangat
kompleks. Jaringan yang berulang sangat
menarik untuk diteliti dalam Jaringan Syaraf
Tiruan, namun sejauh ini structure
feedforward
sangat
berguna
untuk
memecahkan masalah. Yang termasuk
dalam stuktur recurrent (feedback) yaitu
Competitive networks, Self-organizing maps,
Hopfield networks dan Adaptive-resonanse
theory models

Ketika semua unit pada Jaringan Syaraf


telah dijalankan maka aksi dari lapisan
output merupakan output dari seluruh
jaringan syaraf.
3. Lapisan pada Jaringan Syaraf Tiruan
Jaringan Syaraf Tiruan biasanya mempunyai
3 group atau lapisan yaitu unit-unit : lapisan
input yang terhubung dengan lapisan
tersembunyi yang selanjutnya terhubung
dengan lapisan output.
a. Aktifitas
unit-unit
lapisan
input
menunjukkan informasi dasar yang
kemudian digunakan dalam Jaringan
Syaraf Tiruan.
b. Aktifitas
setiap
unit-unit
lapisan
tersembunyi ditentukan oleh aktifitas dari
unit-unit input dan bobot dari koneksi
antara unit-unit input dan unit-unit
lapisan tersembunyi
c. Karakteristik dari unit-unit output
tergantung dari aktifitas unit-unit lapisan
tersembunyi dan bobot antara unit-unit
lapisan tersembunyi dan unit-unit output.
4. Perceptron

Gambar 4. Jaringan Saraf Tiruan Feedback


Ketika sebuah Jaringan Syaraf digunakan.
Input dari nilai suatu variable ditempatkan
dalam suatu input unit dan kemudian unit
lapisan tersembunyi dan lapisan output
menjalankannya. Setiap lapisan tersebut
menghitung
nilai
aktivasi
dengan
mengambil jumlah bobot output dari setiap
unit dari lapisan sebelumnya dan kemudian
dikurangi dengan nilai ambang.
Nilai
aktifasi kemudian melalui fungsi aktifasi
untuk menghasilakan output dari sel syaraf.

Perceptron termasuk kedalam salah satu


bentuk Jaringan Syaraf Tiruan yang
sederhana. Perceptron biasanya digunakan
untuk mengklasifikasikan suatu tipe pola
tertentu yang sering dikenal dengan istilah
pemisahan secara linear. Pada dasarnya
perceptron pada Jaringan Syaraf dengan satu
lapisan memiliki bobot yang bisa diatur dan
suatu nilai ambang.
Algoritma yang
digunakan oleh aturan perceptron ini akan
mengatur parameter-parameter bebasnya
melalui proses pembelajaran.
Fungsi
aktivasi dibuat sedemikian rupa sehingga
terjadi pembatasan antara daerah positif dan
daerah negatif. Perceptron dapat dilihat di
gambar 5.

Gambar 5. Bentuk Percepton


5. Radial Basic Function
Model
jaringan
ini
neuron-neuron
keluarannya adalah hasil kombinasi linear
fungsi basis neuron-neuron pada hidden
layer. Sebagai fungsi basis yang umum
digunakan adalah Gaussian pada Hiden
layer RBF, sedangakan jaringan MLP
menggunakan
fungsi
sigmoid.pada
prinsipnya RBF addalah emulasi sifat
jaringan biologi yang umumnya neuron
yang paling aktif adalah neuron yang paling
sensitive menerima rangsangan sinyal
masukan.sehingga orientasi sensitivitas
respo tersebut hanaya terhadap beberapa
daerah dalam wilayah masukan. JST dengan
hidden layer tunggal pada dasranya lapisan
tersebut berisi neuron-neuron yang sensitive
atau aktif secara local. Sedangakan
keluaranya terdiri dari unit-unit linear.
Pada unit-unit hidden layer respon unit
bersifat local dan berkurang sebagai fungsi
jarak masukan dari pusat unit penerima
rangsangan
6. Proses Pembelajaran
Umumnya, jika menggunakan Jaringan
Syaraf Tiruan, hubungan antara input dan
output harus diketahui secara pasti dan jika
hubungan tersebut telah diketahui maka
dapat dibuat suatu model. Hal lain yang
penting adalah proses belajar hubungan
input/output
dilakukan
dengan
pembelajaran. Ada dua tipe pembelajaran
yang dikenal yaitu : pembelajaran terawasi
dan pembelajaran tak terawasi.

Pada pembelajaran terawasi, metode ini


digunakan jika output yang diharapkan telah
diketahui
sebelumnya.
Biasanya
pembelajaran
dilakukan
dengan
menggunakan data yang telah ada. Pada
contoh diatas misalnya data pasar saham
yang ada pada DOW, NASDAQ atau
FTSE, data yang ada sebelumnya mengenai
aplikasi kredit yang berhasil termasuk daftar
pertanyaan atau posisi sebuah robot dan
reaksi yang benar.
Pada metode pembelajaran yang tidak
terawasi, tidak memerlukan target output.
Pada metode ini tidak dapat ditentukan hasil
seperti apa yang diharapkan selama proses
pembelajaran. Selama proses pembelajaran,
nilai bobot disusun dalam suatu range
tertentu tergantung pada nilai input yang
diberikan. Tujuan pembelajaran ini adalah
mengelompokkan unit-unit yang hampir
sama
dalam
suatu
area
tertentu.
Pembelajaran seperti ini biasanya sangat
cocok untuk pengelompokkan (klasifikasi)
pola.
7. Fungsi Transfer
Karakter dari Jaringan Syaraf Tiruan
tergantung atas bobot dan fungsi inputoutput
(fungsi transfer) yang mempunyai ciri
tertentu untuk setiap unit. Fungsi ini terdiri
dari 3 katagori yaitu :
Untuk linear units, Aktifitas output adalah
sebanding dengan jumlah bobot output.
Untuk threshold units, Output diatur satu
dari dua tingkatan tergantung dari apakah
jumlah input adalah lebih besar atau lebih
kecil dari nilai ambang.
Untuk sigmoid units, Output terus menerus
berubah-ubah tetapi tidak berbentuk linear.
Unit ini mengandung kesamaan yang lebih
besar
dari
sel
syaraf
sebenarnya
dibandingkan dengan linear dan threshold
unit,
namun
ketiganya
harus
dipertimbangkan dengan perkiraan kasar.

Untuk membuat Jaringan Syaraf Tiruan


untuk melakukan beberapa kerja khusus.
Harus
dipilih
bagaimana
unit-unit
dihubungkan antara satu dengan yang lain
dan harus mengatur bobot dari hubungan
tersebut secara tepat. Hubungan tersebut
menentukan apakah mungkin suatu unit
mempengaruhi unit yang lain.
Bobot
menentukan kekuatan dari pengaruh
tersebut.
Dapat dilakukan pembelajaran terhadap 3
lapisan pada Jaringan Syaraf Tiruan untuk
melakukan
kerja
khusus
dengan
menggunakan prosedure dibawah ini :
a. Memperkenalkan Jaringan Syaraf Tiruan
dengan contoh pembelajaran yang terdiri
dari sebuah pola dari aktifitas untuk unitunit input bersama dengan pola yang
diharapkan dari aktifitas untuk unit-unit
output.
b. Menentukan seberapa dekat output
sebenarnya dari Jaringan Syaraf Tiruan
sesuai dengan output yang diharapkan.
c. Mengubah bobot setiap hubungan agar
Jaringan Syaraf Tiruan menghasilkan
suatu perkiraan yang lebih baik dari
output yang diharapkan.
Ilustrasi dari prosedure pembelajaran diatas
dapat dilihat dibawah ini :
Diasumsikan bahwa suatu Jaringan Syaraf
Tiruan dapat mengenali digit dari tulisan
tangan.
Dapat digunakan suatu array
dengan 256 sensor, setiap sensor merekam
ada tidaknya tinta pada suatu digit. Jaringan
Syaraf Tiruan memerlukan 256 unit-unit
input (satu untuk setiap sensor), 10 unit-unit
output (satu untuk setiap digit) dan sebuah
nomor dari unit-unit tersembunyi.
Untuk setiap digit yang direkam oleh sensor,
Jaringan Syaraf Tiruan akan menghasilkan
aktifitas yang tinggi pada unit output yang
cocok dan aktifitas yang rendah pada unitunit output yang lain.
Untuk pembelajaran Jaringan Syaraf Tiruan,
ditampilkan sebuah gambar dari sebuah digit
dan membandingkan aktifitas sebenarnya

dari 10 unit-unit output dengan aktifitas


yang diharapkan. Kemudian menghitung
error, dimana ditentukan sebagai persegi
yang berbeda antara aktifitas sebenarnya dan
aktifitas yang diharapkan. Selanjutnya
mengubah bobot setiap hubungan untuk
mengurangi error.
Hal ini dilakukan
berulang-ulang dengan banyak gambar yang
berbeda.
Untuk mengimplementasikan prosedure ini
diperlukan perhitungan error derivative
untuk bobot (EW) supaya perubahan bobot
oleh sebuah jumlah yang sesuai pada nilai
dimana error berubah karena bobot diubah.
Suatu cara untuk menghitung EW adalah
mengubah bobot sedikit dan meneliti
bagaimana error dapat berubah. Namun
metode ini kurang efisien karena
membutuhkan gangguan yang berbeda untuk
setiap dari sekian banyak bobot.
Cara lain yang sering digunakan untuk
menghitung
EW
adalah
dengan
menggunakan algoritma back-propagation.
Saat ini merupakan metode yang penting
untuk pembelajaran Jaringan Syaraf Tiruan.
Metode ini dikembangkan secara mandiri
oleh 2 tim yaitu Fogelman-Soulie, Gallinari
dan Le Cun dari Prancis dan Rumelhart,
Hinton dan Williams dari Amerika.
8. Faktor Keberhasilan Jaringan Syaraf
Tiruan
Jaringan
Syaraf
Tiruan
mengalami
booming dan diminati beberapa tahun
terakhir ini, dan sangat sukses digunakan
untuk memecahkan berbagai masaalah
dalam berbagai disiplin ilmu seperti : bidang
finansial, kedokteran, teknik, geologi dan
fisika. Lebih jauh lagi, bahwa sesuatu
masaalah dengan menggunakan Jaringan
Syaraf
Tiruan
dapat
diprediksi,
dikelompokkan dan dikontrol.
Ada beberapa faktor yang mendukung
keberhasilan tersebut antara lain :
Handal. Jaringan Syaraf Tiruan adalah
teknik pemodelan yang sangat memuaskan

yang dapat membuat model suatu fungsi


yang sangat kompleks. Khususnya Jaringan
Syaraf Tiruan nonlinear. Sejak beberapa
tahun, model linear umumnya digunakan
dimana model linear dikenal dengan strategi
optimasi.
Jaringan Syaraf Tiruan juga
menggunakan model nonlinear dengan
berbagai variabel.

Berikut adalah
ekperimen ini:

diagram

alir

dalam

Mudah digunakan. Jaringan Syaraf Tiruan


dipelajari dengan contoh. Pengguna Jaringan
Syaraf Tiruan mengumpulkan data dan
melakukan pembelajaran algoritma untuk
mempelajari secara otomatis struktur data,
sehingga pengguna tidak memerlukan
pengetahuan khusus mengenai bagaimana
memilih
dan
mempersiapkan
data,
bagaimana memilih Jaringan Syaraf Tiruan
yang tepat, bagaimana membaca hasil,
tingkatan pengetahuan yang diperlukan
untuk keberhasilan Menggunakan Jaringan
Syaraf Tiruan tidak lebih dari pemecahan
masalah yang menggunakan metode statistik
nonlinear yang telah dikenal.
9. Aplikasi Jaringan Syaraf Tiruan
Jaringan
Syaraf
Tiruan
mampu
menggambarkan setiap situasi adanya
sebuah hubungan antara variabel predictor
(independents,
inputs)
dan
variabel
predicted (dependents, outputs), ketika
hubungan tersebut sangat kompleks dan
tidak mudah untuk menjelaskan kedalam
istilah yang umum dari correlations atau
differences between groups.
II. METODE PERCOBAAN
Eksperimen
ini
dilakukan
dengan
menggunakan pola atau gambar yang sama
yaitu pola atau gambar reptile dengan pola
pengganggunya berupa pola warna, dengan
4 tahap dengan variasi Hidden Layer yang
berbeda
yaitu
pengambilan
data
menggunakan Hidden Layer 5, 10, 15, dan
20 sehingga hasilnya dapat dibandingkan.

Gambar 6. Diagram Alir Eksperimen


III.

HASIL DAN PEMBAHASAN

Berdasarkan hasil ekperimen diperoleh data


hubungan antara variasi jumlah Hidden
Layer, Respon Sistem serta dan Error
Sistem.
Hidden
Respon Sistem
Error Sistem
Layer
5
920 iterasi
0,254173
10
420 iterasi
0,245572
15
280 iterasi
0,243321
20
275 iterasi
0,247071
25
0,264414
Tabel 1. Hubungan antara Variasi Hidden
Layer, Respon Sistem dan Error Sistem
Dapat dilihat jaringan saraf tiruan pada
ekperimen dengan 10 Hidden Layer

Gambar 6. Jaringan pada eksperimen dengan


10 Hidden Layer

Gambar 8. Respon Sistem pada eksperimen


dengan 10 Hidden Layer

Berdasarkan tabel 1 maka dapat dianalisis


bahwa jumlah Hidden Layer mempengaruhi
Respon
Sistem,
keduanya
memiliki
hubungan linearitas atau berbanding lurus,
dimana jika input Hidden Layer semakin
banyak maka akan mempercepat Respon
Sistem dalam menganalisis pola yang
diinputkan.
Dari grafik juga dapat dilihat perbandingan
Respon Sistem berdasarkan jumlah inputan
Hidden Layer

Gambar 9. Respon Sistem pada eksperimen


dengan 20 Hidden Layer
Demikian juga dari table 1 dapat dianalisis
bahwa jumlah Hidden Layer, berbanding
terbalik dengan error sisitem dimana jika
input Hidden Layer semakin banyak maka
tinggkat Error Sistem dalam menganalisis
pola atau gambar semakin kecil namun jika
terlalu banyak atau input Hidden Layer yang
berlebihan maka Error Sistem akan semakin
meningkat.
IV.

Gambar 7. Respon Sistem pada eksperimen


dengan 5 Hidden Layer

KESIMPULAN

Bedasarkan
hasil
disimpulkan bahwa:

eksperimen

dapat

1. Variasi Hidden Layer berpengaruh


terhadap Respon Sistem, dimana semakin

banyak input Hidden Layer maka Respon


Sistem
semakin
cepat
dalam
menganalisis pola da sebaliknya semakin
sedikit input Hidden Layer maka Respon
Sistem akan semakin lama.
2. Variasi Hidden Layer berpengaruh
terhadap Error Sistem dimana semakin
banyak input Hidden Layer maka error
system semakin semakin kecil dalam
menganalisis pola da sebaliknya semakin
sedikit input Hidden Layer maka Error
Sistem akan semakin besar. Namun jika
input Hidden Layer berlebihan maka
Error Sistem akan semakin besar pula.

LAMPIRAN
1. POLA INPUTAN

2. HASIL PERCOBAAN
A. PERCOBAAN 1 (REPTIL 5)

B. PERCOBAAN 2 (REPTIL 10)

C. PERCOBAAN 3 (REPTIL15)

D. PERCOBAAN 4 (REPTIL20)

E. PERCOBAAN 5 (REPTIL25)

F. DATA NILAI OUTPUT TIAP GAMBAR DENGAN VARIASI LAYER


N
O

1
REPT
046 :
0.0063
REPT
045 :
0.028
REPT
044 :
0.0011
REPT
043 :
0.0044
REPT
049 :
0.0026
REPT
048 :
0.0808
REPT
047 :
0.0004
REPT

2
REPT
046 :
0.2808
REPT
045 : 0
REPT
044 :
0.0451
REPT
043 :
0.0019
REPT
049 :
0.3035
REPT
048 :
0.0327
REPT
047 :
0.0095
REPT
042 :

3
REPT
046 :
0.0075
REPT
045 :
0.0221
REPT
044 :
0.0742
REPT
043 :
0.0198
REPT
049 :
0.0069
REPT
048 :
0.0001
REPT
047 :
0.4917
REPT

PERCOBAAN REPTIL 5
4
5
6
7
REPT REPT REPT REPT
046 : 046 : 046 : 046 :
0.0089 0.0526 0.0001 0.2808
REPT REPT REPT REPT
045 : 045 : 045 : 045 : 0
0.0201 0.0074 0.9386 REPT
REPT REPT REPT 044 :
044 : 0 044 : 044 : 0.0451
REPT 0.8924 0.0021 REPT
043 : REPT REPT 043 :
0.8511 043 : 043 : 0.0019
REPT 0.0003 0.0406 REPT
049 : REPT REPT 049 :
0.007
049 : 049 : 0 0.3035
REPT 0.0365 REPT REPT
048 : REPT 048 : 048 :
0.0882 048 : 0.0003 0.0327
REPT 0.0038 REPT REPT
047 : REPT 047 : 047 :
0.0316 047 : 0.0325 0.0095
REPT 0.0758 REPT REPT
042 : REPT 042 : 042 :

8
REPT
046 :
0.0075
REPT
045 :
0.022
REPT
044 :
0.0737
REPT
043 :
0.0198
REPT
049 :
0.0069
REPT
048 :
0.0001
REPT
047 :
0.491
REPT

9
REPT
046 :
0.0632
REPT
045 :
0.0069
REPT
044 :
0.0038
REPT
043 :
0.0969
REPT
049 :
0.0377
REPT
048 :
0.8183
REPT
047 :
0.0028
REPT

10
REPT
046 :
0.2808
REPT
045 : 0
REPT
044 :
0.0451
REPT
043 :
0.0019
REPT
049 :
0.3035
REPT
048 :
0.0327
REPT
047 :
0.0095
REPT
042 :

042 :
0.0001
REPT
041 :
0.0037
REPT
040 :
0.8801

1
REPT
046 :
0.0224
REPT
045 :
0.0942
REPT
044 :
0.0159
REPT
043 :
0.0525
REPT
049 :
0.0043
REPT
048 :
0.0705
REPT
047 :
0.0008
REPT
042 :
0.0123
REPT
041 :
0.002
REPT
040 :
0.8851

0.0052
REPT
041 :
0.3231
REPT
040 :
0.0021

2
REPT
046 :
0.0201
REPT
045 :
0.0015
REPT
044 :
0.0107
REPT
043 :
0.0407
REPT
049 :
0.0607
REPT
048 :
0.0005
REPT
047 :
0.004
REPT
042 :
0.0006
REPT
041 :
0.9058
REPT
040 :
0.0016

042 :
0.7147
REPT
041 :
0.0074
REPT
040 : 0

0.0232
REPT
041 :
0.0078
REPT
040 :
0.0052

042 :
0.1278
REPT
041 :
0.0431
REPT
040 :
0.0003

0.0589
REPT
041 :
0.0001
REPT
040 :
0.0481

0.0052
REPT
041 :
0.3231
REPT
040 :
0.0021

042 :
0.7138
REPT
041 :
0.0074
REPT
040 : 0

042 :
0.0014
REPT
041 :
0.0463
REPT
040 :
0.0963

0.0052
REPT
041 :
0.3231
REPT
040 :
0.0021

3
REPT
046 :
0.0125
REPT
045 :
0.0172
REPT
044 :
0.0449
REPT
043 :
0.0025
REPT
049 :
0.028
REPT
048 :
0.0081
REPT
047 :
0.0459
REPT
042 :
0.9072
REPT
041 :
0.0002
REPT
040 :
0.0083

PERCOBAAN REPTIL 10
4
5
6
7
REPT REPT REPT REPT
046 : 046 : 046 : 046 :
0.0422 0.0047 0.0002 0.8749
REPT REPT REPT REPT
045 : 045 : 045 : 045 :
0.0083 0.0016 0.8588 0.0001
REPT REPT REPT REPT
044 : 044 : 044 : 044 :
0.005
0.9105 0.0028 0.0086
REPT REPT REPT REPT
043 : 043 : 043 : 043 :
0.8345 0.0016 0.0078 0.0443
REPT REPT REPT REPT
049 : 049 : 049 : 049 :
0.0004 0.0154 0.0001 0.0252
REPT REPT REPT REPT
048 : 048 : 048 : 048 :
0.0013 0.0001 0.0025 0.0612
REPT REPT REPT REPT
047 : 047 : 047 : 047 :
0.1382 0.0694 0.0495 0.0064
REPT REPT REPT REPT
042 : 042 : 042 : 042 :
0.0049 0.0208 0.0521 0.004
REPT REPT REPT REPT
041 : 041 : 041 : 041 :
0.0325 0.0042 0.0021 0.0114
REPT REPT REPT REPT
040 : 040 : 040 : 040 :
0.0169 0.0072 0.0371 0.0318

8
REPT
046 :
0.0098
REPT
045 :
0.0476
REPT
044 :
0.0311
REPT
043 :
0.1117
REPT
049 :
0.0001
REPT
048 :
0.0002
REPT
047 :
0.8101
REPT
042 :
0.0296
REPT
041 :
0.0051
REPT
040 :
0.0018

9
REPT
046 :
0.0544
REPT
045 :
0.0007
REPT
044 :
0.0002
REPT
043 :
0.0026
REPT
049 :
0.023
REPT
048 :
0.8663
REPT
047 : 0
REPT
042 :
0.0055
REPT
041 :
0.0002
REPT
040 :
0.0573

10
REPT
046 :
0.0376
REPT
045 :
0.0001
REPT
044 :
0.019
REPT
043 :
0.0014
REPT
049 :
0.8965
REPT
048 :
0.0369
REPT
047 :
0.0001
REPT
042 :
0.0325
REPT
041 :
0.063
REPT
040 :
0.0025

PERCOBAAN REPTIL 15
1
2
3
4
5
6
7
8
9
10
REPT REPT REPT REPT REPT REPT REPT REPT REPT REPT
046 : 046 : 046 : 046 : 046 : 046 : 046 : 046 : 046 : 046 :

0.0224
REPT
045 :
0.0942
REPT
044 :
0.0159
REPT
043 :
0.0525
REPT
049 :
0.0043
REPT
048 :
0.0705
REPT
047 :
0.0008
REPT
042 :
0.0123
REPT
041 :
0.002
REPT
040 :
0.8851

0.0201
REPT
045 :
0.0015
REPT
044 :
0.0107
REPT
043 :
0.0407
REPT
049 :
0.0607
REPT
048 :
0.0005
REPT
047 :
0.004
REPT
042 :
0.0006
REPT
041 :
0.9058
REPT
040 :
0.0016

0.0125
REPT
045 :
0.0172
REPT
044 :
0.0449
REPT
043 :
0.0025
REPT
049 :
0.028
REPT
048 :
0.0081
REPT
047 :
0.0459
REPT
042 :
0.9072
REPT
041 :
0.0002
REPT
040 :
0.0083

0.0422
REPT
045 :
0.0083
REPT
044 :
0.005
REPT
043 :
0.8345
REPT
049 :
0.0004
REPT
048 :
0.0013
REPT
047 :
0.1382
REPT
042 :
0.0049
REPT
041 :
0.0325
REPT
040 :
0.0169

0.0047
REPT
045 :
0.0016
REPT
044 :
0.9105
REPT
043 :
0.0016
REPT
049 :
0.0154
REPT
048 :
0.0001
REPT
047 :
0.0694
REPT
042 :
0.0208
REPT
041 :
0.0042
REPT
040 :
0.0072

0.0002
REPT
045 :
0.8588
REPT
044 :
0.0028
REPT
043 :
0.0078
REPT
049 :
0.0001
REPT
048 :
0.0025
REPT
047 :
0.0495
REPT
042 :
0.0521
REPT
041 :
0.0021
REPT
040 :
0.0371

0.8749
REPT
045 :
0.0001
REPT
044 :
0.0086
REPT
043 :
0.0443
REPT
049 :
0.0252
REPT
048 :
0.0612
REPT
047 :
0.0064
REPT
042 :
0.004
REPT
041 :
0.0114
REPT
040 :
0.0318

0.0098
REPT
045 :
0.0476
REPT
044 :
0.0311
REPT
043 :
0.1117
REPT
049 :
0.0001
REPT
048 :
0.0002
REPT
047 :
0.8101
REPT
042 :
0.0296
REPT
041 :
0.0051
REPT
040 :
0.0018

0.0544
REPT
045 :
0.0007
REPT
044 :
0.0002
REPT
043 :
0.0026
REPT
049 :
0.023
REPT
048 :
0.8663
REPT
047 : 0
REPT
042 :
0.0055
REPT
041 :
0.0002
REPT
040 :
0.0573

0.0376
REPT
045 :
0.0001
REPT
044 :
0.019
REPT
043 :
0.0014
REPT
049 :
0.8965
REPT
048 :
0.0369
REPT
047 :
0.0001
REPT
042 :
0.0325
REPT
041 :
0.063
REPT
040 :
0.0025

1
REPT
046 :
0.011
REPT
045 :
0.0501
REPT
044 :
0.0006
REPT
043 :
0.0375
REPT
049 :
0.0035

2
REPT
046 :
0.0026
REPT
045 :
0.0005
REPT
044 :
0.0187
REPT
043 :
0.0357
REPT
049 :
0.057

3
REPT
046 :
0.0274
REPT
045 :
0.012
REPT
044 :
0.0107
REPT
043 :
0.0395
REPT
049 :
0.005

PERCOBAAN REPTIL 20
4
5
6
7
REPT REPT REPT REPT
046 : 046 : 046 : 046 :
0.0478 0.0001 0.0002 0.8487
REPT REPT REPT REPT
045 : 045 : 045 : 045 :
0.0229 0.03
0.8949 0.0005
REPT REPT REPT REPT
044 : 044 : 044 : 044 :
0.0019 0.9251 0.0264 0.0009
REPT REPT REPT REPT
043 : 043 : 043 : 043 :
0.8649 0.0003 0.0205 0.0595
REPT REPT REPT REPT
049 : 049 : 049 : 049 :
0.0014 0.0289 0.0002 0.0717

8
REPT
046 :
0.0528
REPT
045 :
0.0054
REPT
044 :
0.0158
REPT
043 :
0.0164
REPT
049 :
0.0185

9
REPT
046 :
0.043
REPT
045 :
0.0111
REPT
044 :
0.0007
REPT
043 :
0.0052
REPT
049 :
0.0248

10
REPT
046 :
0.0383
REPT
045 :
0.0001
REPT
044 :
0.0097
REPT
043 :
0.0007
REPT
049 :
0.8585

REPT
048 :
0.0918
REPT
047 :
0.0003
REPT
042 :
0.0059
REPT
041 :
0.0009
REPT
040 :
0.8553

REPT
048 :
0.0105
REPT
047 :
0.0336
REPT
042 :
0.0003
REPT
041 :
0.8885
REPT
040 :
0.0003

REPT
048 :
0.0003
REPT
047 :
0.0538
REPT
042 :
0.852
REPT
041 :
0.0005
REPT
040 :
0.0149

REPT
048 :
0.003
REPT
047 :
0.0193
REPT
042 :
0.0846
REPT
041 :
0.0316
REPT
040 :
0.0685

REPT
048 :
0.0019
REPT
047 :
0.015
REPT
042 :
0.0377
REPT
041 :
0.0219
REPT
040 :
0.0004

REPT
048 :
0.0065
REPT
047 :
0.0055
REPT
042 :
0.0339
REPT
041 :
0.0006
REPT
040 :
0.0624

REPT
048 :
0.0103
REPT
047 :
0.047
REPT
042 :
0.0336
REPT
041 :
0.0044
REPT
040 :
0.0318

REPT
048 :
0.0174
REPT
047 :
0.8641
REPT
042 :
0.0775
REPT
041 :
0.034
REPT
040 :
0.0002

REPT
048 :
0.8566
REPT
047 :
0.0209
REPT
042 :
0.0001
REPT
041 :
0.0208
REPT
040 :
0.0844

REPT
048 :
0.0501
REPT
047 :
0.0146
REPT
042 :
0.0021
REPT
041 :
0.0164
REPT
040 :
0.0039

PERCOBAAN REPTIL 25
4
5
6
7

10

PERCOBAAN REPTIL 30
4
5
6
7

10

5
1

Anda mungkin juga menyukai