Anda di halaman 1dari 64

JARINGAN SYARAF TIRUAN (ARTIFICIAL NEURAL NETWORKS)

Handout Mata Kuliah Kecerdasan Buatan Lanjut (Fajar Astuti H, S.Kom.,M.Kom.)

A lik i ANN Aplikasi


Business applications

predict movement of stocks marketing k i signature analysis l ( (implemented l d in chip) Pen PC, PC writing -> ASCII Speech and vision recognition systems Process control
2

Other applications


3 June 2013

Bi l i l N Biological Neural lN Network t k

3 June 2013

Di Dimana Knowledge K l d di disimpan i


Aktifitas elektrokimia Sesuai batas ambang Dendrites S Soma Axon

K
Synaptic Junction
3 June 2013

Knowledge disimpan disini (Synaptic Knowledge Weights)

x1

Model Neuron Tiruan (perseptron tunggal)


w1 w2 w3 w4 w5

x2 x3 x4 x5
3 June 2013

jumlah

(jml)

x = (jml) (.) = fungsi aktivasi

jml = nwn xn j

J i Jaringan S Syaraf f Ti Tiruan


Model M d l emulasi l i yang didasarkan did k pada d otak k manusia.


Biologis Soma D d i Dendrites Axon Synapsis Kecepatan Rendah Banyak Neuron (109) Tiruan Node I Input Output Bobot Kecepatan Tinggi Beberapa Neuron (ratusan)
6

3 June 2013

K Komponen J i Jaringan S Syaraf f Tiruan Ti


Processing Elements l ( (PEs) ) neuron tiruan yang bisa menerima input memproses input dan input, mengirim sinyal output.

Input dapat berupa data-data data data atau output dari PE lain. Output p dapat p berupa p hasil akhir atau input bagi PE lain.

3 June 2013

K Komponen J i Jaringan S Syaraf f Ti Tiruan


Jaringan. J i Ti Tiap-tiap ti JST adalah d l h kumpulan k l neuron yang dikelompokkan pada suatu layer (lapisan). Umumnya: input layer, intermediate (hidden) layer dan output layer. Struktur Jaringan. Neuron Neuron-neuron neuron dapat dihubungkan secara konvensional, yaitu tiap-tiap PE melakukan komputasi secara seri; atau dapat dihubungkan secara paralel, yaitu PE dapat bekerja bersamasama dalam suatu waktu (seperti otak).

3 June 2013

C Cara k j Neuron kerja N


Model adalah perangkat dari koneksi antar simpul dan rusuk-rusuk yang terboboti. Simpul output menjumlahkan setiap nilai inputnya menurut bobot dari tiap rusuknya

Perceptron Model

Bandingkan simpul output dengan beberapa nilai ambang (threshold) t

Y = I ( wi X i t ) or
i

Y = sign( wi X i t )
i
9

3 June 2013

C Cara k j Neuron kerja N


Neuron menghitung jumlah bobot dari setiap sinyal input dan membandingkan hasilnya dengan nilai threshold, . Jika input bersih kurang dari th threshold, h ld output t t neuron adalah d l h -1 1. Tetapi, T t i jika jik input bersih lebih besar dari atau sama dengan threshold, neuron diaktifkan dan outputnya dit t k ditetapkan +1 (McCulloch (M C ll h and d Pitts, Pitt 1943). 1943)
n

X = xi wi
i =1

+ 1 Y = 1
3 June 2013

jika X jika X

Fungsi g aktivasi ini disebut Fungsi g Tanda (Sign Function). Sehingga output aktual dari neuron dapat ditunjukkan dengan:

n Y = sign xi wi i =1

10

Fungsi pengaktif

Fungsi Step Fungsi Sign Fungsi Sigmoid Fungsi Linear

step

1, if X 0 = 0 , if X < 0
+ 1, if X 0 = 1, if X < 0
sigmoid

sign

1 = 1 + e x

Y linear = X

3 June 2013

11

Fungsi pengaktif

3 June 2013

12

F Fungsi i pengaktif ktif


Selain Fungsi Tanda Tanda, terdapat beberapa fungsi lain yang praktis untuk digunakan oleh neuron, yaitu:

Fungsi aktivasi Step dan Sign disebut juga hard limit function, sering digunakan oleh neuron untuk tugas-tugas pengambilan keputusan (decisionmaking) dalam pengklasifikasian dan pengenalan pola.

Step Function Linear Function Sigmoid Function

3 June 2013

13

F Fungsi i pengaktif ktif


Fungsi F i Sigmoid Si id mentransformasi f i input, i yang bisa memiliki nilai di antara positif dan negatif g tak terhingga, gg , menjadi j nilai yang dapat dinalar diantara 0 dan 1. Biasanya untuk jaringan backpropagation. Fungsi Aktivasi Linear menyediakan output yang setara dengan input neuron yang diberikan bobot. Biasanya digunakan untuk aproksimasi linear.

3 June 2013

14

Pemrosesan Informasi dalam Jaringan


Input. Tiap input berkorespondensi dengan satu Input atribut. Nilai dari atribut harus berupa angka. Perlu preprocessing untuk memproses nilai bukan angka menjadi angka. O t t O Output. Output t t jaringan j i adalah d l h solusi l i bagi b i suatu t masalah. Bobot. Bobot mengekspresikan nilai relatif dari data p , kekuatan/ / kepentingan p g suatu data atau input, hubungan transfer data dari layer ke layer. Bobot adalah penghubung antar neuron. Bobot adalah memori jangka panjang dalam JST. Suatu JST j melalui p pengaturan g ulang g terhadap p bobot. belajar Bobot diatur untuk menyesuaikan input dan output dengan lingkungan di luar JST.

3 June 2013

15

Pemrosesan Informasi dalam Jaringan


Fungsi Penjumlahan. Menghasilkan jumlah bobot untuk semua elemen input yang masuk dalam PE. PE MulaMula mula mengalikan tiap-tiap nilai input (xi) dengan bobotnya (wi) dan kemudian menjumlahnya menjadi Y.

3 June 2013

16

Pemrosesan Informasi dalam Jaringan


Formula Fungsi Penjumlahan untuk n input pada satu PE: Y = n X W


i = 1 i i

3 June 2013

17

Pemrosesan Informasi dalam Jaringan


Formula F l Fungsi F i Penjumlahan untuk beberapa neuron (PE):


n y j = X W ji i i =1

3 June 2013

18

Pemrosesan Informasi dalam Jaringan


Fungsi F i Transformasi. T f i Fungsi F i penjumlahan j l h menghitung stimulasi internal, atau tingkat aktivasi dari neuron. Pada level ini neuron mungkin menghasilkan atau tidak menghasilkan output. Hubungan antara internal aktivasi dan output bisa berbentuk linear, atau non linear. Fungsi transfer non linear yang terkenal adalah sigmoid f function ti (L (Logical i lA Activation ti ti Function). F ti )

3 June 2013

19

C t h JST Contoh
X1
1 1 1 1 0 0 0 0

X2
0 0 1 1 0 1 1 0

X3
0 1 0 1 1 0 1 0

Y
0 1 1 1 0 0 1 0

Output Y = 1 jika sedikitnya dua dari tiga input sama dengan 1.

3 June 2013

20

C t h JST Contoh
X1
1 1 1 1 0 0 0 0

X2
0 0 1 1 0 1 1 0

X3
0 1 0 1 1 0 1 0

Y
0 1 1 1 0 0 1 0

Y = I ( 0 .3 X 1 + 0 .3 X 2 + 0 .3 X 3 0 .4 > 0 ) 1 where I ( z ) = 0
3 June 2013

if z is true otherwise
21

Contoh Perhitungan Fungsi Penjumlahan


1 W = -0.3 x t = 0.0

W = 0.5

W = -0.4 y

x 0 0 1 1

y 0 1 0 1

I Penjumlahan Output 1 (0*0.5) + (0*-0.4) + (1*-0.3) = -0.3 0 1 ( (0*0.5) ) + (1*-0.4) ( )+( (1*-0.3) ) = -0.7 0 1 (1*0.5) + (0*-0.4) + (1*-0.3) = 0.2 1 1 (1*0.5) + (1*-0.4) + (1*-0.3) = -0.2 0
22

3 June 2013

M b Membangun JST
1.

2.

3.

Menentukan M k j jumlah l h neuron yang akan k digunakan dan cara neuron disusun untuk membentuk JST ( (arsitektur JST). ) Menentukan algoritma pembelajaraan yang digunakan. Melatih JST dengan menginisialisasi bobot awal dan mengupdate bobot dari sampel p pelatihan.

3 June 2013

23

Perceptron

Perceptron (Rosenblatt, 1958): JST training yang sederhana dipakaikan prosedur algoritma training yang pertama kali. Terdiri dari neuron tunggal dengan bobot synaptic yang diatur dan hard limiter. Operasinya didasarkan pada model neuron McCulloch dan Pitts. Jumlah input yang telah diboboti dipakaikan kepada hard limiter: menghasilkan output +1 jika input positif dan -1 jika negatif mengklasifikasikan output ke dalam dua area A1 dan A2. A2 Ruang berdimensi n dibagi oleh hyperplane menjadi dua area keputusan menggunakan fungsi Linearly p Separable: n xi wi = 0
i =1

3 June 2013

24

Cara Perceptron Belajar

3 June 2013

Membuat pengaturan yang kecil pada bobot mengurangi perbedaan di antara output aktual dan output yang dikehendaki. Bobot awal adalah random, biasanya dalam interval [-0.5 0.5] Bobot diupdate p untuk mendapatkan p output p y yang g konsisten dalam sampel training. e(p) = Yd(p) Y(p) , p = iterasi ke- 1, 2, 3, ... Y(p) = output aktual Yd(p) = output yang dikehendaki 25 e(p) = error

C Cara P Perceptron t B l j ( Belajar (contd) td)


Jika e(p) positif, positif output Y(p) dinaikkan Jika e(p) negatif, output Y(p) diturunkan Jika xi(p) positif, kenaikan wi(p) akan menaikkan ikk output t t Y(p) Y( ) Jika xi(p) negatif, kenaikan wi(p) akan menurunkan output Y(p) Perceptron Learning Rule (Rosenblatt, 1960): wi(p+1) = wi(p) + x xi(p) x e(p) = learning rate (konstanta positif yang sangat kecil)

3 June 2013

26

Al it Algoritma P b l j Pembelajaran P Percepton t


S Step 1 Inisialisasi 1: I i i li i

Menset bobot w1, w2, ..., wn dan threshold dari bilangan random dalam interval [-0.5 0.5] Mengaktifkan perceptron dengan memakaikan input x1(p), x2(p), ..., xn(p) dan output yang dikehendaki Yd (p). Hitunglah output aktual pada iterasi ke ke-p = 1
n Y ( p ) = step xi ( p ) wi ( p ) i =1

Step 2: Aktivasi


3 June 2013

n adalah jumlah input perceptron dan step adalah fungsi aktivasi

27

Al it Algoritma P Pembelajaran b l j P Percepton t


S Step 3 Training 3: T i i B b Bobot

Mengupdate bobot perceptron wi(p+1) = wi(p) + wi(p)

wi(p) adalah pengkoreksian bobot pada iterasi p, yang dihitung dengan: wi(p) = x xi(p) x e(p) Naikkan iterasi p dengan 1, kembalilah ke p 2 dan ulangi g p proses sampai p konvergen. g Step
28

Step 4: Iterasi

3 June 2013

M l tih Perceptron: Melatih P t O Operasi i AND


Variabel Input x1 0 0 1 1 x2 0 1 0 1 AND x1 x2 0 0 0 1

3 June 2013

29

Contoh proses pembelajaran dengan threshold =0,2 dan learning rate =0,1
Epoch x1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 0 0 1 1 inputs x2 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 0 1 outputyang diinginkan Yd 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 0 0 0 1 bobotawal w1 0,3 0,3 0,3 0,2 0,3 0,3 0,3 , 0,2 0,2 0,2 0,2 0,1 0,2 0,2 0,2 0,1 0,1 0,1 0,1 0,1 w2 0,1 0,1 0,1 0,1 0 0 0 0 0 0 0 0 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 outputriil y=sum(x1*w1+x2*w2) t>0>1selain>0 0 0 1 0 0 0 1 1 0 0 1 0 0 0 1 1 0 0 0 1 error e=ydy 0 0 1 1 0 0 1 0 0 0 1 1 0 0 1 0 0 0 0 0 bobot akhir w1 0,3 0,3 0,2 0,3 0,3 0,3 0,2 , 0,2 0,2 0,2 0,1 0,2 0,2 0,2 0,1 0,1 0,1 0,1 0,1 0,1 w2 0,1 0,1 0,1 0 0 0 0 0 0 0 0 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 0,1 30

5 3 June 2013

Perceptron juga P j bisa bi dil dilatih ih untuk k mempelajari operasi OR, tetapi tidak untuk operasi XOR.

3 June 2013

31

Perceptron bi P bisa merepresentasikan ik suatu fungsi yang hanya terdiri dari garis yang memisahkan area bagi g titik-titik hitam ( (1) ) dengan titik-titik putih (0) linearly separable. So tidak masalah fungsi aktivasi yang So, digunakan, hard ataupun soft limiter, Perceptron hanya dapat mengklasifikasikan pola-pola linearly separable (Shynk, 1990; Shynk and Bershad, 1992).

3 June 2013

32

M ltil Multilayer N Neural lN Network t k


Mengatasi M t i keterbatasan k t b t Perceptron. P t Multilayer perceptron feedforward neural network dengan satu atau lebih hidden layer. Biasanya satu input layer, satu hidden layer dan satu output layer. Sinyal input dirambatkan (propagated) ke arah depan (forward direction) layer demi layer. layer Setiap layer tambahan menaikkan beban perhitungan secara eksponensial.
33

3 June 2013

JST dengan d S Satu t Hidden Hidd L Layer

3 June 2013

34

M ltil Multilayer N Neural lN Network t k


Fungsi Layer:

Input: menerima sinyal input dari dunia luar, luar mendistribusikannya ke semua neuron yang ada di hidden layer. Output: menerima sinyal output dari hidden layer dan menetapkan pola output bagi keseluruhan jaringan. jaringan Hidden: mendeteksi fitur input (bobot). Hidden bermaksud menyembunyikan menyembunyikan output yang dikehendakinya.
35

3 June 2013

M ltil Multilayer N Neural lN Network t k


Metode M t d Back-propagation B k ti adalah d l h algoritma l it pembelajaran yang biasa digunakan untuk Multilayer Neural Network (Bryson and Ho, 1969). 1969) Cara belajarnya sama dengan Perceptron. y pada: p Perceptron p hanya y memiliki Bedanya satu bobot untuk setiap input dan hanya satu output. Sementara Multilayer memiliki banyak y bobot yang y g memiliki kontribusi terhadap lebih dari satu output. Multilayer menggunakan fungsi aktivasi Sigmoid.

3 June 2013

36

M t d Back-Propagation Metode B kP ti

Fase dalam F d l Back B k Propagation: P i Pertama: pola input training dihadirkan bagi layer input. input Jaringan merambatkan input dari satu layer ke layer lainnya sampai pola output dihasilkan oleh layer output. output Kedua: Jika pola ini berbeda dengan p y yang g dikehendaki, , error dihitung g output dan dirambatkan ke arah belakang (backwards) dari layer output kembali ke layer input input. Bobot kemudian diupdate. diupdate
37

3 June 2013

Algoritma Training Back-Propagation


S Step 1: Inisialisasi I i i li i

Menset semua bobot dan level threshold dari bilangan g random y yang g terdistribusi secara seragam dalam interval kecil (Haykin, 1994):
2.4 2.4 F + F i i
Fi adalah jumlah total input dari neuron i.

Step 2: Aktivasi

Mengaktifkan jaringan syaraf back-propagation dengan memakaikan input x1(p), x2(p), ..., xn(p) dan output yang dikehendaki yd.1(p), (p) yd.2(p), ..., yd.n(p).
38

3 June 2013

Algoritma Training Back-Propagation


(a) Hitunglah output aktual dari neuron di layer hidden: hidden

n y i ( p) = sigmoid xi ( p) wij ( p) i i =1
n adalah jumlah neuron input j pada hidden layer, y , sigmoid g adalah fungsi g aktivasi. (b) Hitunglah output aktual dari neuron di layer output:

m y k ( p) = sigmoid x jk ( p) w jk ( p) k j =1

3 June 2013

m adalah jumlah neuron input k pada output layer.

39

Algoritma Training Back-Propagation


S Step 3: Training T i i B b Bobot


Mengupdate bobot dari error yang dirambatkan ke arah belakang g( (backwards) ) bersesuaian dengan neuron output. (a) Hitunglah gradien error dari neuron di layer output:

k ( p ) = y k ( p) [1 y k ( p)] ek ( p )
e k ( p ) = y d .k ( p ) y k ( p )

Hitunglah pengkoreksian bobot:

w jk ( p ) = y j ( p ) k ( p )
3 June 2013 40

Algoritma Training Back-Propagation


M Mengupdate d t bobot b b t dari d i neuron output: t t

w jk ( p + 1) = w jk ( p ) + w jk ( p )
(b) Hitunglah gradien error dari neuron di layer hidden:

j ( p ) = y j ( p ) [1 y j ( p )] k ( p ) w jk ( p )
l k =1

Hitunglah pengkoreksian bobot:

wij ( p ) = xi ( p ) j ( p )
3 June 2013 41

Algoritma Training Back-Propagation


M Mengupdate d t bobot b b t dari d i neuron hidden: hidd

wij ( p + 1) = wij ( p ) + wij ( p )

Step 4: Iterasi

Naikkan iterasi p dengan 1, kembali ke Step 2 dan ulangi proses sampai kriteria error yang terpilih adalah dipenuhi. dipenuhi

3 June 2013

42

Melatih Back-Propagation NN

Jumlah error kuadrat (Sum Of Squared Error) digunakan sebagai indikator penampilan jaringan.

Dimana i = [1 .. jumlah record dalam satu epoch]

SSE = (ei)2

Algoritma training Back Back-Propagation Propagation akan berusaha meminimalkan kriteria tersebut. Ketika nilai dari jumlah tersebut dalam suatu epoch adalah cukup kecil, jaringan dianggap telah konvergen.

3 June 2013

43

O Operasi i XOR
Variabel Input x1 0 0 1 1 x2 0 1 0 1 XOR x1 x2 0 1 1 0

3 June 2013

44

XOR Net N t
= -1 x1 0 1 w13 w14 5 w23 x2 2 w24 = -1 4 w45 = -1 y 3

w35

3 June 2013

45

C t h Perhitungan Contoh P hit 1 iterasi it i


Diketahui :

x1=0, x2 = 0 = 0,1 01 Threshold neuron 3 = 3 = -1 Threshold neuron 4 = 4 = -1 Th Threshold h ld neuron 5 = 5 = -1 1 Hidden Neuron 3 : w13 = 0,1; 0 1; w23 = 0,3 03 Hidden Neuron 4 : w14 = -0,1; w24 = 0,5 Output Neuron 5 : w35 = -0.9; w45 = 0,1

Initial weight untuk ketiga neuron :


3 June 2013

46

C t h Perhitungan Contoh P hit 1 iterasi it i


Aktifasi :

Hidden Neuron 3 : x3=x1*w13+x2*w23-3= 0*0,1+0*0,3-(-1) = 1 Hidd Hidden Neuron N 4 : x4=x1*w14+x2*w244 1* 14 2* 24 4= 4 0*0* 0,1+0*0,5-(-1) = 1 Output aktual : Hidden Neuron 3 : y3=1/(1+exp(-1))=0,73 Hidden Neuron 4 : y4=1/(1+exp(-1))=0,73 Output p aktual output p neuron 5: X5= y3*w35+y4*w45-5= 0,73*0,9+0,73*0,1-(-1) = 0,42 Y5 = 1/(1+exp(0 1/(1+exp(0,42)) 42)) = 0.6 06
47

3 June 2013

C t h Perhitungan Contoh P hit 1 iterasi it i


Training Bobot Output Layer


Gradien Error di output neuron 5 E5 = yd5 y5 = 0 0,6 = -0,6 5 = y5*(1-y5)*e5 = 0,6*(1-0,6)*(-0,6) = 0,144 Pengoreksi bobot neuron 5 : w35 = * y3 * 5 = 0,1 * 0,73 * (-0,144)= -0,011 w45 = * y y4 * 5 = 0,1 , * 0,73 , * (-0,144)= ( , ) -0,011 Update bobot neuron 5 : w35 w35 = w35 + w35 = -0 0,9 90 0.035 035 = -0 0,911 911 w45 = w45 + w45 = 0,10.035 = 0,089
48

3 June 2013

C t h Perhitungan Contoh P hit 1 iterasi it i


Training Bobot Hidden Layer


Hidden Neuron 3

G di Gradien E Error di hidden hidd neuron 3


3 = y3*(1-y3)*(5*w35) = 0,73*(1-0,73)* (-0,144*-0,911) = 0,026 w13= * x1 * 3 = 0,1 * 0 * (0,026)= 0 w23 = * x2 * 3 = 0,1 , * 0 * (0,026)= ( , ) 0 w13 = w13 + w13 = 0,1 + 0 = 0,1 w23 = w23 + w23 = 0,3+ w23 0 3+ 0 = 0,3 03
49

Pengoreksi bobot neuron 3 :


Update bobot neuron 3 :


3 June 2013

C t h Perhitungan Contoh P hit 1 iterasi it i


Hidd Hidden N Neuron 4


Gradien Error di hidden neuron 4


4 = y4*(1-y4)*( y4 (1 y4) (5 5*w45) w45) = 0,73*(1-0,73)* 0,73 (1 0,73) (-0,144*0,089) = -0,01 w14= * x1 * 4 = 0,1 0 1 * 0 * (-0,01)= (-0 01)= 0 w24 = * x2 * 4 = 0,1 * 0 * (-0,01)= 0 w14 = w14 + w14 = -0,1 + 0 = -0,1 w24 = w24 + w24 = 0,5+ 0 = 0,5

Pengoreksi bobot neuron 4 :


Update bobot neuron 4 :


3 June 2013

50

Contoh perhitungan SSE pada h il akhir hasil khi pembelajaran b l j multilayer ltil
inputs x1 0 0 1 1 x2 0 1 0 1 output yang outputriil diinginkan g Yd y 0 1 1 0 0,0155 0,9849 0,9849 0,0175 error e=ydy 0,0155 0,0151 0,0151 0,0175 0 00100252 0,00100252 SumOf Square Error SSE

3 June 2013

51

3 June 2013

52

K l Kelemahan h Back-Propagation B kP ti

Walaupun W l digunakan di k l luas, pembelajaran b l j Back-Propagation tidak lepas dari kekurangan: g Tidak berfungsi untuk di lingkungan biologis (nyata). Neuron biologis tidak menerapkan backwards. backwards Perhitungannya yang rumit sehingga g menjadi j lambat. training Algoritma Back-Propagagation yang murni jarang digunakan dalam aplikasi praktikal.
53

3 June 2013

Contoh kasus 1: Penentuan untuk membedakan buah apel dan pisang


Panjang panjang panjang pendek Lebar sedang pendek pendek Nama buah Pisang Pisang Apel

K t Keterangan

Apel 0, 0 Pisang 1 pendek 0, sedang 1, panjang 2

Kalau ada buah yang y g panjangnya sedang, dan lebarnya sedang sedang, maka termasuk buah apakah itu

Contoh kasus 1: Penentuan untuk membedakan buah apel dan pisang


Panjang 2 2 0 Lebar 1 0 0 Nama buah 1 1 0

Si l network Simple t k

X1 1 X1=1

w1=0 w1 0.7 7 y=step(0.7+01) 0 1)=0

t >= 1 w2=0

X2=1

L Langkah-langkah k hl k h Penyelesaian P l i

Lakukan pembelajaran untuk mendapatkan w1 dan w2 Gunakan k w1 dan d w2 untuk k mendapatkan output dari permasalahan yang ditanyakan

3 June 2013

59

Contoh kasus 2:
Penentuan untuk menentukan seseorang itu mempunyai hipertensi atau tidak

Umur muda muda paruh baya paruh baya tua

Kegemukan gemuk sangat gemuk gemuk terlalu gemuk terlalu gemuk

Hipertensi Tidak Tidak Tidak Ya Ya

K t Keterangan
Tidak hipertensi 0, Hipertensi 1 muda 0, paruh baya 1, tua 2 gemuk 0, sangat gemuk 1, terlalu gemuk 2

Kalau ada seseorang yang berumur tua yang sangat gemuk maka apakah ia gemuk, kemungkinan mempunyai hi t hipertensi i atau t tid tidak? k?

Contoh kasus 2:
Penentuan untuk menentukan seseorang itu mempunyai hipertensi atau tidak

Umur 0 0 1 1 2

Kegemukan 0 1 0 2 2

Hipertensi 0 0 0 1 1

Si l network Simple t k

X1 2 X1=2

w1=0 w1 0.8 8

t>2 w2=0.7

Y=step(1.6+0.7-2)=1

X2=1