MET305
COMMANDE PAR
RESEAUX DE NEURONES ARTIFICIELS (RNA)
A NAIT SEGHIR
2015-2016
ET305-M2EI
Le neurone biologique
Llment de base du systme nerveux est le neurone. Le cerveau humain contient environ 1011
neurones, avec 103 104 dendrites par neurone. Le neurone est une cellule compose du soma (corps
cellulaire) qui contient le noyau, les dendrites
autour du soma et laxone qui est un prolongement
Soma
de grande taille au bout duquel se trouve une
arborisation qui entre en contact avec les dendrites
des autres neurones via les synapses (Figure V.1).
Les dendrites sont si nombreuses que lon parle de
chevelure ou darborisation dendritique. Cest par
Axone
les dendrites que linformation est achemine de
lextrieur vers le soma (corps du neurone). Elle est
Dendrites
traite alors par le corps cellulaire. Si le potentiel
Figure V.1: Neurone biologique
daction dpasse un certain seuil, le corps cellulaire rpond par un stimulus. Le signal transmis par le
neurone chemine ensuite le long de laxone (unique) pour tre transmis aux autres neurones [REN95].
La communication entre laxone du neurone affrent et les dendrites du neurone effrent nest pas
directe et seffectue par des synapses. Une synapse reliant deux neurones peut tre de nature
excitatrice ou inhibitrice. Dans le premier cas, le neurone metteur aura tendance activer le neurone
rcepteur, et dans lautre cas le neurone metteur aura tendance inhiber lactivit du neurone
rcepteur. Chaque synapse est en outre caractrise par lefficacit avec laquelle elle assure la
connexion [PER03].
Le Neurone Formel
C'est partir de l'hypothse que le comportement intelligent merge de la structure et du
comportement des lments de base du cerveau, que les rseaux de neurones artificiels se sont
dvelopps. La structure d'un neurone artificiel est montre dans la figure V.2. Chaque neurone
artificiel est une unit fonctionnelle. Il reoit un nombre variable d'entres en provenance de
neurones amont. A chacune de ces entres est associ un poids , reprsentatif de la force de la
connexion. Chaque unit fonctionnelle est dote d'une sortie unique, qui se ramifie ensuite pour
alimenter un nombre variable de neurones aval [DAV90].
A.NAIT SEGHIR | Commande par rseaux de neurones
page 1
ET305-M2EI
Le neurone formel est une fonction algbrique non linaire et borne, dont la valeur dpend des
paramtres poids . Les variables de cette fonction sont les entres du neurone, et la valeur de la
fonction est la sortie. Un neurone est donc un oprateur mathmatique, dont la valeur numrique est
calcule par des oprations mathmatiques.
1
2
Poids
i1
Somme
pondre
i2
Fonction de
combinaison
in
ai
Fonction
dActivation
Sortie yi
Seuil
un poids positif indique un effet excitateur du neurone metteur (j) vers le neurone rcepteur (i).
i : est le seuil du neurone i qui reprsente la limite partir de laquelle le neurone sactivera.
La fonction combinaison renvoie le produit scalaire entre le vecteur des entres et le vecteur des
poids synaptiques. Autrement dit, elle calcule la somme pondre des entres selon
lexpression suivante:
ai j 1, n ij . j
(V.1)
A partir de cette valeur, une fonction de transfert (ou fonction dactivation, ou encore fonction de
seuillage) calcule la valeur de l'tat du neurone. Cette valeur sera transmise aux neurones aval.
yi (ai i )
A.NAIT SEGHIR | Commande par rseaux de neurones
(V.2)
page 2
ET305-M2EI
Les neurones les plus frquemment utiliss sont ceux pour lesquels la fonction est une fonction non
linaire (gnralement une tangente hyperbolique) d'une combinaison linaire des entres.
Modle mathmatique tendu
Le modle peut tre modifi en introduisant une valeur de biais i la place de la valeur de seuil:
0= +1 et i0 = i.
Lquation mathmatique qui dcrit ce modle est donne par:
avec:
yi (ai )
(V.3)
ai j 0, n ij . j
(V.4)
i0
i1
i2
i0 = i (Seuil)
Somme
pondre
entres
in
ai
Fonction
dActivation
Sortie yi
Fonction de
combinaison
Poids
1 : ai i
yi (ai )
0 : ai i
A.NAIT SEGHIR | Commande par rseaux de neurones
(V.5)
page 3
ET305-M2EI
Fonction linaire par partie : La fonction linaire est une fonction simple. La sortie effective
du neurone est directement lie son entre selon la relation y = (a). Cette fonction peut
aussi tre borne.
1 : si ai i
yi (ai ) 1 : si ai i
(a ) : sinon
i
(V.6)
Fonction sigmode : Cette fonction n'est pas polynomiale et est indfiniment continment
drivable. Cest une proprit simple qui permet d'acclrer le calcul de la drive, ce qui
rduit le temps calcul ncessaire l'apprentissage d'un rseau de neurones. Elle est dfinie
par la relation mathmatique suivante :
1
1 e a
(V.7)
Fonction gaussienne : Cette fonction dactivation nest pas monotone croissante, elle est dun
caractre local qui la rend trs puissante en approximation de fonction et en classification.
y = (a)
y = (a)
y = (a)
+1
+1
a
a
-1
(a): Fonction identit
y = (a)
y = (a)
+1
y = (a)
+1
+1
a
a
(d): Fonction gaussienne
a
(e): Fonction sigmode
-1
(f): Fonction tangente
hyperbolique
Le perceptron
Le perceptron est gnralement constitu dune seule couche, de plusieurs neurones dont les
fonctions dactivations sont toutes des fonctions de seuil. Ce type de rseau est utilis seulement dans
les problmes linairement sparables. On distingue aussi dautres types de rseaux de neurones qui
lui sont similaires, mais dont lutilit est diffrente [DRE98]:
- Ladaline (Adaptative Linear Neuron Networks).
- Le madaline (Many Adaptative Linear Neuron Networks).
A.NAIT SEGHIR | Commande par rseaux de neurones
page 4
ET305-M2EI
Couche
dentre
Couche
de sortie
Couche cache
Figure V.5: Structure dun rseau multicouche (feedforward)
page 5
ET305-M2EI
Cette structure est appele Perceptron multicouche (PMC). Ces rseaux sont des systmes statiques. Si
les entres sont indpendantes du temps, les sorties le sont aussi. Ils sont utiliss principalement pour
les approximations de fonction non linaire, la classification ou la modlisation de processus statiques
non linaires.
Le Rseau multicouche connexions locales est un cas de la structure multicouche, mais qui conserve
une certaine topologie. Chaque neurone entretien des relations avec un nombre rduit et localis de
neurones de la couche avale (figure V.6). Les connexions sont donc moins nombreuses que dans le cas
d'un rseau multicouche classique [REN95].
Figue V.6 : Rseau multicouche connexions Figure V.7 : Rseau connexions rcurrentes
locales
(ou feedback)
Rseau connexions rcurrentes : Les connexions rcurrentes ramnent l'information en
arrire par rapport au sens de propagation dfini dans un
rseau multicouche. Ces connexions sont le plus souvent
locales (figure V.7) [PER03].
Rseau connexions complexe : Cest la structure
d'interconnexion la plus gnrale ou chaque neurone est
connect tous les neurones du rseau (figure V.8).
Figure V.8 : Rseau connexion complexe
page 6
ET305-M2EI
La structure des rseaux gnralement utiliss pour la commande est celle qui est mise sous la forme
canonique. Elle donne par la figure V.9.
Sorties
linstant k
Etats
linstant k+1
Entres
linstant k
Etats
linstant k
page 7
ET305-M2EI
Lapprentissage supervis
Ces algorithmes utilisent une base de donnes compose dun ensemble de paires entre-sortie.
Lapprentissage dans ce cas, consiste calculer les coefficients de telle manire que les sorties du
rseau de neurones soient, pour les exemples utiliss lors de l'apprentissage, aussi proches que
possibles des sorties "dsires", qui peuvent tre la valeur de la fonction approche ou de la sortie du
processus modliser, ou encore la sortie souhaite du processus commander.
L'apprentissage des rseaux de neurones boucls (pour raliser des modles dynamiques) est
semblable celui des rseaux non boucls.
wij yi yi j
(V.8)
(V.9)
Le paramtre est appel taux dapprentissage, il dtermine la dynamique suivant laquelle les
modifications vont avoir lieu et j reprsente lentre.
La rgle de Widrow-Hoff
En 1960 Widrow et Hoff ont propos, contrairement au modle de Rosenblatt o les neurones ont des
fonctions dactivation seuils, un modle de perceptron avec neurones linaires (fonction dactivation
linaire). L'avantage dutiliser des units linaires est que ces dernires permettent de calculer une
fonction qui value lerreur que commet le rseau. Cette erreur peut tre calcule en fonction des
page 8
ET305-M2EI
rponses dsires et des rponses obtenues par le rseau. Elle est donc fonction des poids du rseau
[PER03]:
1
yi yi
2 i
1 *
yi wij j
2 i
j
(V.10)
Lobjectif de lapprentissage est de modifier les valeurs des poids du rseau de faon minimiser cette
erreur et effectuer une descente du gradient. Lalgorithme de descente du gradient consiste
changer chaque poids wij dune quantit wij proportionnelle au gradient de lerreur:
wij
E
yi yi j
wij
i
(V.11)
Lexpression (V.11) est la mme que celle trouve lors de l'apprentissage par la rgle de Hebb base
de la fonction seuil (V.9).
Mthode de la rtropropagation du gradient (backpropagation)
Un des dsavantages du perceptron est quil minimise une erreur en tout ou rien cause de sa
fonction dactivation seuil. De ce fait, lalgorithme est trs peu robuste. La rgle dapprentissage de
Widrow-Hoff ne fonctionne plus en tout ou rien mais minimise une fonction derreur quadratique,
donc plus robuste. Malheureusement, cette rgle ne peut sappliquer que sur des rseaux une seule
couche de poids adaptatifs. Cest donc en tendant la rgle de Widrow-Hoff que lalgorithme
dapprentissage de rtropropagation du gradient de lerreur a t dvelopp [DAV90].
Lalgorithme dapprentissage de la rtropropagation du gradient derreur est gnralis ensuite par
lquipe de Rummelhart en 1986. Cet algorithme fournit une faon de modifier les poids des
connexions de toutes les couches dun Perceptron Multi Couches.
La figure V.10, reprsente un rseau deux couches, dans lequel:
1
v1
y1
y2
yi
j
wkj
vk
wik
page 9
ET305-M2EI
vk f (ak ) f wkj j
j
(V.12)
yi f ai f wik vk
k
(V.13)
Ep
2
1
yi yi
2 i
(V.14)
E Ep
Et
(V.15)
E p
E
w
p w
(V.16)
Cas des connexions de la couche de sortie (wik): Pour le cas des neurones de sortie, la relation
(V.16) est fonction du paramtre wik qui influe uniquement sur la sortie du neurone dindice i.
La drive peut tre dcompose de cette relation par :
E p
wik
E p yi ai
yi yi* f ai vk
yi ai wik
(V.20)
(V.21)
wik f ai yi* yi vk
p
2.
Cas des connexions de la couche cache (wkj) : Si le neurone appartient la couche cache, la
relation (V.16) est en fonction du paramtre wkj qui influe non seulement sur la sortie du
neurone k de la couche cache, mais aussi sur tous les neurones i de la couche de sortie (en
aval) qui lui sont connects. Nous obtenons alors lquation suivante :
E p
wkj
E p vk ak E p
f ak j
vk ak wkj vk
(V.17)
E p
vk
E p yi
E y a
P i i yi yi* f ai wik
yi vk
k yi ai vk
k
(V.18)
page 10
ET305-M2EI
(V.19)
Minimum
Local
Minimum global
Figure V.11: Mthode de la rtropropagation du gradient
Lalgorithme de rtropropagation du gradient de lerreur a permis de dpasser les limites du
perceptron simple. Il est capable de rsoudre un grand nombre de problmes de classification et de
reconnaissance des formes. Cet algorithme souffre nanmoins de nombreux dfauts, parmi lesquels
[DAV90] :
une limitation du temps de calcul (lapprentissage est trs long),
une grande sensibilit aux conditions initiales, c'est--dire la manire dont sont initialiss
les poids des connexions,
de nombreux problmes dus la gomtrie de la fonction derreur (minimums locaux).
le problme de dimensionnement du rseau dont la structure est fix a priori. La structure
est dfinie par le nombre de couches caches, le nombre de neurones par couches et la
topologie des connexions. Un mauvais choix de structure peut dgrader considrablement les
performances du rseau.
Mthode de backpropagation avec momentum
Depuis lapparition de lalgorithme de backpropagation, quelques variantes, visant amliorer les
performances de cet algorithme, ont t mises en uvre. Parmi ces variantes, celle qui introduit un
terme momentum dans la rgle dapprentissage pour amliorer la vitesse de convergence. Il sagit en
fait dutiliser le gradient prcdent pour donner une inertie lalgorithme. Cette technique est utilise
aussi pour viter que la descente de gradient ne se bloque dans un minimum local (Figure V.11)
[FRE92].
La rgle dapprentissage devient:
wt
E
t w(t 1)
w
page 11
ET305-M2EI
wt 1 wt d t
Avec :
d t
E t
t 1 d t 1
wt
w t w t 1 H 1 t J t
La direction de la descente est :
d t H 1 t J t
H : matrice drive seconde de J par rapport w (Hessien)
page 12
ET305-M2EI
w t w t 1 H t t I J t
1
page 13
ET305-M2EI
Commander un processus, cest dterminer laction lui appliquer, pour lui assurer un comportement
donn, en dpit de perturbations. Cette action est dlivre par un organe ou une loi de commande, qui
peut tre ralis par un rseau de neurones.
Il existe plusieurs architectures diffrentes pour la commande de processus par rseau de neuronal
[REN95].
Systme de commande par simple bouclage
La majeure partie des systmes de commande neuronaux pour lasservissement de poursuite
appartient la catgorie des systmes dits par simple bouclage, dont le schma est reprsent sur la
figure V.12. Dans ces systmes, le signal de rtroaction est la sortie du processus. Les coefficients du
correcteur sont mis jour priodiquement si la commande est adaptative; dans le cas contraire, ses
coefficients sont fixes une fois l'apprentissage termin [PER03].
Perturbations
ns
Organe de Commande
ns
u
Correcteur
Processus
Organe de Commande
+-
Correcteur
yp
Processus
Modele
interne
- +
page 14