CART SVR
Association Rule K-Nearest Neighbor
Bayes
DATA Preprocessing Data
Clustering
MINING K-Means
K-Medoids
C45
Support Vector Machine
⋮ 𝑧1 ⋮ 𝑦𝑙 𝑧1 , 𝑧2 , … , 𝑧𝑝 = 𝑓2 𝑤𝑙𝑖 × 𝑧𝑖
𝑙=1
𝑥𝑗 ⋮ 𝑦𝑙 Sehingga persamaan NN menjadi:
𝑞 𝑝
⋮ 𝑦𝑙 𝑥1 , 𝑥2 , … , 𝑥𝑚 = 𝑓2 𝑤𝑙𝑖 × 𝑓1 𝑣𝑗𝑖 × 𝑥𝑗 +𝜀
𝑧𝑝 ⋮ 𝑙=1 𝑖=1
𝑥𝑚 𝑣𝑚𝑝 𝑤𝑝𝑞 𝑦𝑞 • Multilayer feed-forward networks, given enough hidden units and
enough training samples, can closely approximate any function
(Han dkk, 2012)
S1-Statistika Data Mining @2021 Page 8
Dasar Jaringan Syaraf Tiruan
1. Banyak Lapisan/ Arsitektur JST
3. Jaringan recurrent: terdapat neuron pd lapis
output yg memberikan sinyal pd unit input
⋮
𝑥𝑛
S1-Statistika Data Mining @2021 Page 30
Teorema Konvergensi Pembelajaran Perceptron
Aturan pembelajaran perceptron adalah sebagai berikut
• Diberikan satu set terbatas vektor pelatihan input 𝑃 yaitu 𝒙 𝑝 dan masing-masing
terkait dengan nilai target 𝑦(𝑝), dimana 𝑝 = 1,2, … , 𝑃.
+1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 ≥ 𝜃
• Dan nilai prediksi dari target adalah 𝑦ො 𝑝 = ൝
−1, 𝑗𝑖𝑘𝑎 σ𝑛𝑖=0 𝑥𝑖 𝑤𝑖 < 𝜃
• Bobot diupdate dengan mengikuti: jika 𝑦 ≠ 𝑦ො maka 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎 +
𝛼𝑦𝑥𝑖 else 𝑤𝑖 𝑏𝑎𝑟𝑢 = 𝑤𝑖 𝑙𝑎𝑚𝑎
Teorema konvergen aturan pembelajaran perceptron adalah:
• Jika ada vektor bobot 𝑤 sedemikian sehingga 𝑦ො 𝑝 = 𝑦 𝑝 untuk semua 𝑝, maka
untuk setiap vektor awal 𝑤, aturan pembelajaran perceptron akan konvergen ke
vektor bobot (tidak harus unik dan tidak harus 𝑤) yang memberikan respons yang
benar untuk semua pola pelatihan, dan itu akan dilakukan dalam jumlah langkah
yang terbatas
𝑦ො = 0, 𝑗𝑖𝑘𝑎 − 𝜃 ≤ 𝑥𝑖 𝑤𝑖 ≤ 𝜃
𝑖=0
𝑛