Anda di halaman 1dari 3

TP : Rseaux de neurones

2014/2015

TP1 : Perceptron

1/ Simuler la fonction ET avec les paramtres du Perceptron suivants :

poids fixes : w1 = 0.2, w2 = 0.1;


seuil b = -0.2;
sans apprentissage.

La fonction (ET) doit vrifier les exemples de comportement donns sur la table suivante :
e1
1
-1
-1
1

e2
1
1
-1
-1

d
1
-1
-1
-1

net = newp([-2 2;-2 2],1,'hardlims');cration de rseau


net.IW{1,1} = [0.2 0.1]; les poids initiaux
net.b{1} = -0.2; le seuil initial
P=[1 -1 -1 1;1 1 -1 -1]; les entres
T=[ 1 -1 -1 -1];les sorties
% Y = net(P)
simulation = sim(net,P);

Cours

On commence par mettre les ides au clair.


1. Le perceptron est un algorithme d'apprentissage supervise de fonction
linaire.
-> Supervise car on entrane l'algorithme grce a une base de connaissance,
couple entre/sortie dsire
2. Dans ta consigne tu as:
- La fonction apprendre: ET.
- La base d'apprentissage (couple entre/sortie dsire) -> la table de vrit.
- Des conditions initiales pour dmarrer l'apprentissage.
3. Comment est definie ton perceptron:
Tu as deux entrees, et une sortie.
Ces deux entrees doivent etre agrger afin de donner la sortie. Cette
agrgation se fait grace a une somme pondr: x_1*w_1+x_2*w_2 + ... +
x_n*w_n=y
4. Comment apprendre:
Par essaie erreur.

Page 1

TP : Rseaux de neurones
2014/2015
On peut commencer par des poids aleatoire, en gros j'essaie un truc au
hasard et je me corrigerais, ou alors on peut initialiser les poids par des
valeurs determinees, comme ces ton cas.
a. Dans un cas comme dans l'autre on commence avec les poids
initialises, et un couple de donne (pris au hasard ou squentiellement).
x_1*w_1+x_2*w_2=Pred

b. On compare ensuite le resultat obtenu avec la sortie desiree, ce qui nous donne l'erreur:
E=sd-Pred

c. Si l'erreur est differente de zeros, alors on corrige les poids:


d. Si le critere d'arret n'est pas satisfait
- Erreur en dessous d'un seuil
- Stabilisation de l'erreur
- Nombre d'iteration max
- ...
On prend un nouveau couple et on retourne a a.
Sinon on s'arrete.
5.

A quoi sert eps? C'est le taux d'apprentissage. Il evite de modifier de faon trop rapide
les poids ce qui peut provoquer une divergence de l'erreur, ou une oscillation de l'erreur.

2/ Raliser l'apprentissage avec la mme base d'apprentissage, n'oublie pas de modifier le seuil.
Les conditions initiales sont choisies alatoirement :
a. Dans une premire tape, refaire pas pas l'exemple suivant : w1 = -0.2, w2 = +0.1, b =
= +0.1 (Conditions initiales).
b. Puis faites varier .
0,

3/ Effectue l'apprentissage de la fonction XOR donne par la table suivante :


e1
1
-1
-1
1

e2
1
1
-1
-1

d
1
-1
1
-1

4/ Proposez une solution pour raliser XOR avec 3 perceptrons en utilisant le fait qu'elle peut
s'crire comme :

e1.e2 e1.e2

Page 2

TP : Rseaux de neurones
2014/2015

5/ Raliser les fonctions ET et OU avec un rseau compos de :

2 entres
2 neurones
4 poids

Page 3

Anda mungkin juga menyukai