Anda di halaman 1dari 252

First Prev Next Last Go Back Full Screen Close Quit

N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD

ELISATION ET IDENTIFICATION
pour Syst
`
emes Lin

eaires Invariants dans le Temps LIT


par N.K. MSirdi, chercheur au LSIS
http ://nkms.free.fr/
le 30 Avril 2004
Identication des param`etres de Mod`eles de Representation
A
v
e
c
u
n
b
o
n
m
o
d
`e
l
e
t
o
u
t
t
o
u
r
n
e
b
i
e
n
I . M o d ` e l e R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I. Mod`ele R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
`e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
I
.
M
o
d
` e
l
e
R
Cette presentation realise une synth`ese des exposes sur les methodes didentication
parametrique de N. K. MSirdi du LRV et de Mohammed MSaad du GREYC
1
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
IDENTIFICATION, ESTIMATION ET FILTRAGE ADAPTATIF
Plan du cours : Partie 1
Mod`eles, Predicteurs ajustables et Algorithmes dadaptation
Introduction et Preliminaires sur la modelisation
Les mod`eles pour lidentication de syst`emes discrets
Les structures de Mod`eles ` a identier ou identiables
Une classe de predicteurs usuels pour lidentication des syst`emes
Les dierentes Lois dAdaptation Parametrique
Les algorithmes dadaptation parametrique
Identication pour syst`emes LIT continu et discrets
Methode dEstimation optimale
Le probl`eme des perturbations et lidentication predictive
Prediction, ltrage et adaptation : le ltre de Kalman
Approche experimentale de modelisation de syst`emes
Conclusion sur la recherche de mod`eles explicatifs
2
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE DE SIGNAUX ET SYST


`
EMES
3
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Introduction
1
Dans la commande de syst`emes lineaires, la modelisation est une etape tr`es impor-
tante. Pour bien commander un syst`eme, il faut en connatre un bon mod`ele.
Exemple : pour la conduite dune voiture, meilleure est la connaissance de son
comportement dynamique ou de son mod`ele mieux on pourra la matriser `a grande
vitesse et donc etre performant.
Le mod`ele dynamique est acquis par apprentissage ou par identication apr`es
connaissance de la structure de ce mod`ele.
Etape pour le developpement dune application en automatique :
1 Modelisation,
2 Identication
3 Analyse du comportement
4 Synth`ese dun estimateur, ou observateur ou correcteur, ...
5 Mise en oeuvre de lestimateur, mobservateur, la commande ...
6 Analyse et etude du syst`eme boucle
7 Verication des performances et eventuellement retour ` a letape
2, 3 ou 4.
Letape de modelisation devient cruciale lorsque les exigences sont sev`eres.
1. Rien nest plus pratique quune bonne theorie. K. Levin
4
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE : Les signaux


5
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE : Les signaux


6
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE ARMAX
7
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE : Mod`ele ARMAX


8
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE DE PROCESSUS
9
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE : P oles Zeros


10
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FACTORISATION SPECTRALE
11
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Introduction : Modelisation de Signaux et Syst`emes
Les methodes classiques danalyse spectrale non parametrique, fournissent une
estimation de la densite spectrale ` a partir dune serie temporelle dobservation
(realisation) du signal. Pour cette estimation, le processus est suppose stationnaire
et seul un nombre ni dechantillons sont utilises, la resolution en frequence depend
par consequent de la longueur de la duree dobservation du signal. Lorsque les
caracteristiques du processus varient dans le temps, les resultats, fournis par ces
methodes, ne permettent pas de distinguer les variations. Ceci, nous am`ene ` a
postuler des mod`eles parametriques pour representer ces processus. Le nombre de
param`etres est en general ni et les series temporelles dobservation serviront pour
lestimation des coecients de ces mod`eles. La connaissance dun mod`ele estime
apte `a representer le processus considere, permettra de realiser le traitement desire
ou letude des caracteristiques de ce dernier.
Ainsi, en utilisant la reponse impulsionnelle, un syst`eme G dont lentree est u
k
et la sortie x
k
peut etre represente par le mod`ele suivant :
x
k
= q
d
G(q
1
)u
k
avec
G(q
1
) = g
0
+ g
1
q
1
+ ... + g
m
q
m
+ ...
(1)
si q
1
est loperateur retard et d le retard ` a la reponse du syst`eme.
12
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Introduction : Modelisation de Signaux et Syst`emes
En general G(q
1
) est mise sous forme de fraction rationnelle de Polynomes
en q
1
. De meme un signal y
k
peut etre considere comme la sortie dun ltre
generateur excite par un bruit blanc e
k
:
y
k
= e
k
+ (h
1
q
1
+ ... + h
m
q
m
+ ...)e
k
= H(q
1
)e
k
(2)
Considerons maintenant le cas general dun syst`eme en environnement stochas-
tique. Soit u
k
le signal dentree de G, un ltre causal ou un syst`eme de retard d et
soit y
k
le signal recu apr`es perturbation par lenvironnement. Ce processus peut
etre represente par le mod`ele suivant :
y
k
= q
d
.G(q
1
)u
k
+ H(q
1
)e
k
(3)
Lequation (4) represente un tr`es grand choix de structures de mod`eles. Ce
choix est determine en xant les structures des fonctions de transfert H et G. La
structure la plus generale est la suivante :
A(q
1
)y
k
= q
d
B(q
1
)
F(q
1
)
u
k
+
C(q
1
)
D(q
1
)
e
k
13
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Introduction : Modelisation de Signaux et Syst`emes
Suivant le choix des polynomes A, B, C, D, et F plusieurs structures sont
obtenues.
Pour la modelisation dun signal ou dun syst`eme, nous devons donc choisir une
classe de mod`eles aptes `a representer le processus. Ce choix peut etre guide par
les connaissances a priori. Par consequent, letape de validation de mod`eles apr`es
leur identication est dune importance cruciale, dans les cas o` u lon ne dispose
pas de connaissance a priori permettant le choix de la structure du mod`ele apte
` a representer correctement le processus.
Quelques structures de mod`eles de processus ( transf / bruit)
1) y
k
= q
d
B(q
1
)u
k
+ e
k
RIF
2) A(q
1
)y
k
= q
d
B(q
1
)u
k
+ e
k
ARX
3) A(q
1
)y
k
= C(q
1
)e
k
ARMA
4) A(q
1
)y
k
= q
d
B(q
1
)u
k
+ C(q
1
)e
k
ARX MA ou AR MAX
5) A(q
1
)y
k
= q
d
B(q
1
)u
k
+
1
D(q
1
)
e
k
ARX AR
6) A(q
1
)y
k
= q
d
B(q
1
)u
k
+
C(q
1
)
D(q
1
)
e
k
ARX ARMA
7) y
k
= q
d
B(q
1
)
F(q
1
)
u
k
+ e
k
OE
8) y
k
= q
d
B(q
1
)
F(q
1
)
u
k
+
C(q
1
)
D(q
1
)
e
k
AR
14
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION DETAT
15
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FORMES CANONIQUES DE REPRESENTATION
16
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FORME CANONIQUE OBSERVABLE
17
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVABILIT

E COMMANDABILIT

E
18
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMMANDABILIT

E
19
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
QUELQUES REFERENCES
L. LJUNG. Recursive Identication Theory for the Users Prentice Hall, New
Jersey : 1987
G.C. GOODWIN and K.S. SIN, Adaptive Filtering Prediction and Control,
Prentice Hall, New Jersey : 1984
L. JUNG and J. SODERSTROM, System Identication 1983, MIT Press, Cam-
brige
N.K. MSIRDI, I.D. LANDAU et M. MSAAD (1986) Techniques de Modelisa-
tion Recursive pour lanalyse spectrale parametrique adaptative. Traitement du
signal V 3, N 4-5 ; 1986, pp. 183-204.
N.K. MSIRDI,(1988). Modelisation Parametrique Adaptative et Application ` a
lanalyse spectrale. Th`ese de doctorat detat ` a lINPG et lUSMG. Laboratoire
dAutomatique de Grenoble ; le 9 septembre 1988.
20
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELES pour LIDENTIFICATION DE SYST
`
EMES
Notion de Mod`eles et de predicteurs : Les Predicteurs usuels
La Prediction optimale : une approche uniee
Le comportement entree-sortie, pour des syst`emes discrets, peut etre decrit par :
y(t) = y
p
(t) + v(t) avec y
p
(t) = G(q
1
)u(t) =
_

k=d+1
g(kT)q
k
_
u(t) et
v(t) = H(q
1
)(t) =
_
1 +

k=1
h(kT)q
k
_
(t)
G(q
1
)
H(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

G(z
1
), H(z
1
) et
1
H(z
1
)
sont des transferts asymptotiquement stables.
o` u g(kT) et h(kT) sont les elements des reponses impulsionnelles des mod`eles de
transfert du syst`eme et du bruit.
21
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELES pour lIDENTIFICATION
une parametrisation usuelle ; UNE STRUCTURE G

EN

ERALE DE MOD
`
ELES
y(t) = G(q
1
)u(t) + H(q
1
)(t) avec
G(q
1
) =

k=d+1
g(kT)q
k
= q
d1
B(q
1
)
A(q
1
)F(q
1
)
et H(q
1
) = 1 +

k=1
h(kT)q
k
=
C(q
1
)
A(q
1
)D(q
1
)
soit A(q
1
)y(t) =
B(q
1
)
F(q
1
)
u(t d 1) +
C(q
1
)
D(q
1
)
(t)
q
d1
B(q
1
)
A(q
1
)F(q
1
)
C(q
1
)
A(q
1
)D(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

Si lon denit les operateurs polyn omiaux A(q


1
), B(q
1
), C(q
1
), D(q
1
) et
F(q
1
) comme suit
22
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
une parametrisation usuelle ; UNE STRUCTURE G

EN

ERALE DE MOD
`
ELES
A(q
1
) = 1 + a
1
q
1
+ a
2
q
2
+ . . . + a
na
q
na
B(q
1
) = b
o
+ b
1
q
1
+ b
2
q
2
+ . . . + b
nb
q
nb
C(q
1
) = 1 + c
1
q
1
+ c
2
q
2
+ . . . + c
nc
q
nc
D(q
1
) = 1 + d
1
q
1
+ d
2
q
2
+ . . . + d
nd
q
nd
F(q
1
) = 1 + f
1
q
1
+ f
2
q
2
+ . . . + f
nf
q
nf
alors le mod`ele general peut etre deni `a partir des param`etres

T
= [a
1
. . . a
na
b
o
. . . b
nb
c
1
. . . c
nc
d
1
. . . d
nd
f
1
. . . f
nf
]
POLYNOMES UTILISES MODELES
B FIR
AB ARX
AC ARMA
ABC ARMAX
ABD ARARX
ABCD ARARMAX
BF OE
BFCD BJ
23
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
LE MOD
`
ELE RIF ET SON PR

EDICTEUR OPTIMAL
Le predicteur optimal (au sens de lerreur quadratique minimale) `a un pas de la
sortie du syst`eme est caracterisee par une erreur de prediction de moyenne nulle
et de variance minimale.
y(t) = B(q
1
)u(t d 1) + (t) c y(t + 1/t) = 0
et c
_
( y(t + 1/t))
2
_
est minimale
avec y(t + 1/t) = y(t + 1) y(t + 1/t)
Comme G(q
1
)u(t) est compl`etement deterministe,
on aura y(t + 1/t) = G(q
1
)u(t + 1) + v(t + 1/t)
q
d1
B(q
1
)
`
_
-
- -
u(t) y
p
(t) y(t)

?
(t)
Le predicteur optimal associe est donne par y(t/t 1) = B(q
1
)u(t d 1)
et peut se mettre sous la forme y(t/t 1) = (t d 1)
T

avec
T
= [b
o
. . . . . . b
nb
] et (t d 1)
T
= [u(t d 1) . . . u(t d 1 nb)]
On parle, dans ce cas, de predicteur serie
24
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE DE PR

EDICTION RIF
Cas General :
v(t + 1/t) =
_
H(q
1
) 1
_
(t + 1) =
_

k=1
h(kT)q
k
_
(t + 1)
Donc le predicteur optimal est donne par :
y(t + 1/t) = G(q
1
)u(t + 1) +
_
H(q
1
) 1
_
(t + 1)
Il conduit bien `a une erreur de prediction de moyenne nulle et de variance mi-
nimale, soit
y(t + 1/t) = y(t + 1) y(t + 1/t) = (t + 1)
et c y(t + 1/t) = 0 et c
_
y(t + 1/t)
2
_
= c
_
((t + 1))
2
)
_
Dans ce cas, cest un predicteur Serie - Parall`ele
25
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
LA PR

EDICTION ARMAX
26
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION PARAM

ETRIQUE et LA PR

EDICTION ARMAX
27
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
EQUATION DU PR

EDICTEUR OPTIMAL 1/3


Le predicteur optimal `a un pas (au sens de lerreur quadratique minimale) peut
donc se recrire comme il suit
y(t/t 1) = G(q
1
)u(t) +
_
H(q
1
) 1
_
_
1
H(q
1
)
v(t)
_
y(t/t 1) = G(q
1
)u(t) +
_
1
1
H(q
1
)
_
_
y(t) G(q
1
)u(t)
_
y(t/t 1) =
1
H(q
1
)
_
G(q
1
)u(t)
_
+
_
1
1
H(q
1
)
_
y(t)
H(q
1
) y(t/t 1) = G(q
1
)u(t) +
_
H(q
1
) 1
_
y(t)
Le predicteur optimal associe `a la structure generale des mod`eles didentica-
tion, soit
A(q
1
)y(t) =
B(q
1
)
F(q
1
)
u(t d 1) +
C(q
1
)
D(q
1
)
(t)
est donne par y(t/t 1) =
D(q
1
)B(q
1
)
C(q
1
)F(q
1
)
u(t d 1) +
_
1
D(q
1
)A(q
1
)
C(q
1
)
_
y(t) soit
C(q
1
)F(q
1
) y(t/t 1) = D(q
1
)B(q
1
)u(t d 1) +
+ F(q
1
)
_
C(q
1
) D(q
1
)A(q
1
)
_
y(t)
28
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
On parle, dans ce cas, de predicteur Serie - Parall`ele
29
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V

EQUATION DU PR

EDICTEUR OPTIMAL 2/3


Introduisons les variables (t) et (t) denies par
(t) =
B(q
1
)
F(q
1
)
u(t d 1) (t) = A(q
1
)y(t) (t)
le predicteur optimal et lerreur de prediction peuvent alors se mettre sous les
formes
C(q
1
) y(t/t 1) =
_
C(q
1
) D(q
1
)A(q
1
)
_
y(t) + D(q
1
)(t)
y(t/t 1) = y(t) y(t/t 1) =
D(q
1
)
C(q
1
)
(t)
Le predicteur optimal C(q
1
) y(t/t1) =
_
C(q
1
) D(q
1
)A(q
1
)
_
y(t)+D(q
1
)(t)
peut secrire comme suit
y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) + y(t) D(q
1
)
_
A(q
1
)y(t) (t)
_
+
_
A(q
1
)y(t) (t)
_

_
A(q
1
)y(t) (t)
_
ou y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
(t) +
_
1 A(q
1
)
_
y(t) +
(t)
30
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V

EQUATION DU PR

EDICTEUR OPTIMAL 3/3


On aura alors
y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
(t)
+
_
1 A(q
1
)
_
y(t) + (t)
F(q
1
)(t) + B(q
1
)u(t d 1)
soit y(t/t 1) =
_
1 A(q
1
)
_
y(t) + B(q
1
)u(t d 1)
+
_
1 F(q
1
)
_
(t) +
_
C(q
1
) 1
_
y(t/t 1)
+
_
1 D(q
1
)
_
(t)
UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION
Le predicteur optimal peut se mettre sous la forme
y(t/t 1) =
_
1 A(q
1
)
_
y(t) + B(q
1
)u(t d 1)
+
_
1 F(q
1
)
_
(t) +
_
C(q
1
) 1
_
y(t/t 1)
+
_
1 D(q
1
)
_
(t)
que lon peut recrire comme suit y(t/t 1) = (t 1)
T

avec
T
= [a
i
b
i
f
i
c
i
d
i
]
(t 1)
T
= [y(t i) u(t d 1 i) (t i) y(t i) (t i)]
31
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION
CAS DUN MOD
`
ELE ARX
A(q
1
)y(t) = B(q
1
)u(t d 1) + (t)
Le predicteur optimal associe est donne par
y(t/t 1) =
_
1 A(q
1
)
_
y(t) + B(q
1
)u(t d 1)
et peut se recrire sous la forme y(t/t 1) = (t 1)
T
avec

T
= [a
i
b
i
] (t 1)
T
= [y(t i) u(t d 1 i)]
q
d1
B(q
1
)
A(q
1
)
1
A(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION
32
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CAS DUN MOD
`
ELE ARMAX
A(q
1
)y(t) = B(q
1
)u(t d 1) + C(q
1
)(t)
Le predicteur optimal associe est donne par
y(t/t 1) =
B(q
1
)
C(q
1
)
u(t d 1) +
_
1
A(q
1
)
C(q
1
)
_
y(t)
soit
C(q
1
) y(t/t 1) = B(q
1
)u(t d 1) +
_
C(q
1
) A(q
1
)
_
y(t)
ou dune mani`ere equivalente
y(t/t 1) = B(q
1
)u(t d 1) +
_
1 A(q
1
)
_
y(t) +
_
C(q
1
) 1
_
y(t/t 1)
On peut donc recrire le predicteur optimal associe `a un mod`ele ARMAX
y(t/t 1) = B(q
1
)u(t d 1) +
_
1 A(q
1
)
_
y(t) +
_
C(q
1
) 1
_
y(t/t 1)
sous la forme y(t/t 1) = (t 1)
T
avec

T
= [a
i
b
i
c
i
]
(t 1)
T
= [y(t i) u(t d 1 i) y(t i)]
le predicteur optimal associe `a un mod`ele ARMAX
nest pas lineaire par rapport aux param`etres du mod`ele
q
d1
B(q
1
)
A(q
1
)
C(q
1
)
A(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

33
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
LA PR

EDICTION ` a d PAS
34
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PR

EDICTION - ESTIMATION `a travers un REGULATEUR


35
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION
CAS DUN MOD
`
ELE ARARX
A(q
1
)y(t) = B(q
1
)u(t d 1) +
1
D(q
1
)
(t)
Le predicteur optimal associe est donne par
y(t/t 1) = D(q
1
)B(q
1
)u(t d 1) + (1 D(q
1
A(q
1
))y(t)
Introduisons la variables w(t) denie par
w(t) = A(q
1
)y(t) B(q
1
)u(t d 1)
Le predicteur optimal peut alors se mettre sous la forme
y(t/t 1) =
_
1 A(q
1
)
_
y(t) + B(q
1
)u(t d 1) +
_
1 D(q
1
)
_
w(t)
On peut recrire le predicteur comme suit
y(t/t 1) = (t 1)
T
avec
T
= [a
i
b
i
d
i
]
(t 1)
T
= [y(t i) u(t d 1 i) w(t i)]
le predicteur optimal associe `a un mod`ele ARARX
nest pas lineaire par rapport aux param`etres du mod`ele
36
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
q
d1
B(q
1
)
A(q
1
)
1
A(q
1
)D(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

37
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION : CAS DUN MOD


`
ELE
ARARMAX
A(q
1
)y(t) = B(q
1
)u(t d 1) +
C(q
1
)
D(q
1
)
(t)
Le predicteur optimal associe est donne par
y(t/t 1) =
D(q
1
)B(q
1
)
C(q
1
)
u(t d 1) +
_
1
D(q
1
)A(q
1
)
C(q
1
)
_
y(t)
Introduisons la variable w(t) denie par w(t) = A(q
1
)y(t) B(q
1
)u(t d1)
Le predicteur optimal et lerreur de prediction peuvent alors se mettre sous les
formes
C(q
1
) y(t/t 1) = D(q
1
)B(q
1
)u(t d 1) +
_
C(q
1
) D(q
1
)A(q
1
)
_
y(t)
y(t/t 1) = y(t) y(t/t 1) =
D(q
1
)
C(q
1
)
w(t)
do` u y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) + y(t) D(q
1
)w(t)
On aura alors y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
w(t)
+ y(t) w(t) + A(q
1
)y(t) A(q
1
)y(t)
38
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE PARAM

ETR

E : CAS DUN MOD


`
ELE ARARMAX
soit y(t/t1) =
_
C(q
1
) 1
_
y(t/t1)+
_
1 D(q
1
)
_
w(t)+
_
1 A(q
1
)
_
y(t)+
A(q
1
)y(t) w(t)
y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
w(t) +
_
1 A(q
1
)
_
y(t) +
B(q
1
)u(t d 1)
y(t/t 1) =
_
1 A(q
1
)
_
y(t) + B(q
1
)u(t d 1) +
_
1 D(q
1
)
_
w(t) +
_
C(q
1
) 1
_
y(t/t 1)
que lon peut recrire comme suit
y(t/t 1) = (t 1)
T
avec
T
= [a
i
b
i
c
i
d
i
] (t 1)
T
=
[y(t i) u(t d 1 i) y(t i) w(t i)]
le predicteur optimal associe `a un mod`ele ARARMAX
nest pas lineaire par rapport aux param`etres du mod`ele
q
d1
B(q
1
)
A(q
1
)
C(q
1
)
A(q
1
)D(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

39
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION
CAS DUN MOD
`
ELE dErreur de Sortie (OE : Output Error)
y(t) =
B(q
1
)
F(q
1
)
u(t d 1) + (t)
Le predicteur optimal est donne par
y(t/t 1) =
B(q
1
)
F(q
1
)
u(t d 1)
F(q
1
) y(t/t 1) = B(q
1
)u(t d 1)
ou dune mani`ere equivalente
y(t/t 1) = (t 1)
T
avec
T
= [f
i
b
i
] (t 1)
T
= [ y(t i/t i
1) u(t d 1 i)]
Avec ce predicteur on cherche `a realiser une decorrelation de la prediction et la
perturbation
Dans ce cas, cest un predicteur Parall`ele
q
d1
B(q
1
)
F(q
1
) `
_
- - -
u(t) y
p
(t) y(t)

(t)
?
40
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN MOD
`
ELE PARAM

ETR

E POUR LIDENTIFICATION : CAS DU


MOD
`
ELE de Box and Jenkins (BJ)
y(t) =
B(q
1
)
F(q
1
)
u(t d 1) +
C(q
1
)
D(q
1
)
(t)
Le predicteur optimal associe est donne par
y(t/t 1) =
D(q
1
)B(q
1
)
C(q
1
)F(q
1
)
u(t d 1) +
_
C(q
1
)D(q
1
)
C(q
1
)
_
y(t)
Introduisons la variable (t) et (t) denies par
(t) =
B(q
1
)
F(q
1
)
u(t d 1) et (t) = y(t) (t d 1)
Lerreur de prediction et le predicteur optimal peuvent alors se mettre sous les
formes
y(t/t 1) = y(t) y(t/t 1) =
D(q
1
)
C(q
1
)
(t)
C(q
1
) y(t/t 1) =
_
C(q
1
) D(q
1
)
_
y(t) + D(q
1
)(t)
41
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CAS DU MOD
`
ELE de Box and Jenkins (BJ)
On aura donc : y(t/t1) =
_
C(q
1
) 1
_
y(t/t1)+
_
1 D(q
1
)
_
(t)+ y(t)(t)
y(t/t 1) =
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
(t) +(t) F(q
1
)(t) +
B(q
1
)u(t d 1)
Le predicteur optimal peut alors se mettre sous la forme
y(t/t 1) =
_
1 F(q
1
)
_
(t) + B(q
1
)u(t d 1) +
_
C(q
1
) 1
_
y(t/t 1) +
_
1 D(q
1
)
_
(t)
que lon peut recrire comme suit
y(t/t 1) = (t 1)
T
avec
T
= [f
i
b
i
c
i
d
i
]
(t 1)
T
= [(t i) u(t d 1 i) y(t i) (t i)]
les predicteurs optimaux associes aux mod`ele OE et BJ
ne sont pas lineaire par rapport aux param`etres du mod`ele
q
d1
B(q
1
)
F(q
1
)
C(q
1
)
D(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

42
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Toujours les meme objectifs
43
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Applications : commande adaptative, Filtrage Adaptatif
44
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Applications : Compression, Surveillance, Poursuite
45
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Applications : Analyse Spectrale Adaptatives
46
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Applications : Poursuite de frequences
47
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REJET DE PERTURBATIONS
48
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
D

ECONVOLUTION ADAPTATIVE
49
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Applications : Syst`emes avec modes de resonance, Compensation de Vibrations
ADAPTATION PARAM

ETRIQUE : Les AAP


50
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Plan du cours Partie 2
Preliminaires mathematiques utiles
But et Motivations
Formulation du probl`eme dadaptation Parametrique
Estimateur au sens des moindres carres
Version recursive pour lestimation en temps reel
Capacite dadaptation parametrique
Eets des perturbations
Conclusion sur les AAP
2
2. Si ton go ut est subtil, apprends `a go uter leau et `a distinguer les sources. Lanza Del Vasto
51
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
1. Introduction
1.1. QUELQUES PR

ELIMINAIRES
1.1.1. Matrices denies positives
A > 0 X
T
AX > 0 X 1
n
0
A 0 X
T
AX 0 X 1
n
et
_
X
T
_
A + A
T
_
X = 2X
T
AX
X
T
_
A A
T
_
X = 0
A = A
T
A > 0 A est inversible
A > 0 les valeurs propres de A sont positives
1.1.2. Propriete usuelle dune base de 1
n
Soit une base B = V
1
, V
2
, . . . , V
n
de lespace vectoriel R
n
, alors on a
V
i
V
T
i
0 est une matrice de rang 1 et

i=n
i=1
V
i
V
T
i
> 0 est une matrice de rang n
52
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
1.2. Operations sur les matrices
1.2.1. Inverse dune matrice P
Pour une matrice carree (nxn) de rang plein, il existe une matrice et une
seule notee A
1
telle que :
A.A
1
= A
1
A = I
n
(la matrice identite de dimension n.
A
1
= Adj(A)/DetA o` u Adj(A) est la matrice des cofacteurs transposee.
(AB)
1
= B
1
A
1
Pour une matrice rectangulaire (mxn) ou une matrice singuli`ere, on peut
denir une inverse generalisee (pseudo inverse) notee A
+
, de dimension (nxm).
A peut etre denie ` a laide des relations AA
+
A = A ou A
+
AA
+
= A
+
. La
pseudo inverse unique de A verie les proprietes :
(A
+
A)
T
= A
+
A
(A
+
A)
T
= AA
+
Exercice : Trouver x R
n
tel que |A x y|
N
2
= min|Ax y|
N
2
et x est de
norme N
2
minimale.
A
+
correspond `a la solution x = A
+
y. Cette solution est unique et est xee par
le choix des deux normes.
Considerons A (mxn) comme la matrice dune transformation de R
n
vers R
n
,
53
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
etant donnees deux normes N
1
denie sur R
n
et N
2
denie sur R
m
.
Linverse generalisee A
+
, correspond ` a la solution du probl`eme suivant :
| x|
N
2
|x|
N
2
x : Ax y = 0 (4)
1.2.2. Proprietes 1 : Matrice symetrique, antisymetrique, denie positive
M est symetrique si M
T
= M , ou m
ij
= m
ji
, i, j [1, n].
(A + A
T
) est symetrique quelque soit A car (A + A
T
) = (A + A
T
)
T
.
M est antisymetrique si M = M
T
, ou m
ij
= m
ji
et m = 0 i, j [1, n].
M = (A A
T
) est antisymetrique quelque soit Acar(A A
T
) = (A
T
A).
Toute matrice carree peut secrire sous forme de la somme dune matrice syme-
trique et dune matrice antisymetrique.
On peut ecrire : 2A = (A + A
T
) + (A A
T
).
Dautre part on a la propriete que x
T
Mx = x
T
M
T
x = 0x, pour une matrice
antisymetrique. Cette derni`ere constitue une condition necessaire et susante
pour que M soit antisymetrique.
54
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
P est dite denie positive (DP) si x
T
Mx>0x ,= 0, avec x un vecteur (nx1).
On notera cette matrice P > 0 et A > B signie (A B) > 0.
Une matrice carree P est dite semi denie positive si x
T
Mx 0x ,= 0.
Les valeurs propres dune matrice denie positive sont toutes positives.
Une matrice P > 0 est toujours inversible et P
1
> 0.
Langle entre le vecteur x et leur vecteur image Mx est inferieur ` a 90
o
.
P > 0 alors tous ses elements diagonaux sont positifs.
P > 0 alors P admet une racine carree telle que S
T
S=P.
P > 0 alors tous les determinants mineurs principaux de P sont positifs.
P > 0 := S
T
PS 0S de dimension (mxn).
P > 0 :=
min
(P).I < P <
max
(P).I ou bien
min
(P) |x|
2
< xPx <

max
(P) |x|
2
x.
55
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
P > 0 := P peut toujours se decomposer sous la forme P = U
T
U avec U
une matrice orthogonale formee par les vecteurs propres telle que U
T
U = I et
une matrice diagonale contenant les valeurs propres de P.
1.2.3. Lemme dinversion :
Soient A, B, C et D des matrices dont les dimensions sont telles que le produit
BCD et la somme A+BCD existent. Supposons que A et C sont reguli`eres, alors
lidentite usuelle
[A + BCD]
1
= A
1
A
1
B
_
DA
1
B + C
1

1
DA
1
est toujours veriee.
L.I.M. Soient A, B, C des matrices de dimensions appropriees, si A=A
T
et
C=C
T
, A et C sont non singuli`eres, alors on a legalite :
[A + BCB
T
]
1
= A
1
A
1
B[C
1
+ B
T
A
1
B]
1
B
T
A
1
(5)
Demonstration du LIM
Il sut de multiplier membre ` a membre par A + BCB
T
.
56
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
1.2.4. Inversion matricielle recursive
[Gain MCR] : Soit F
1
k
= F
1
k1
+
k

T
k
=
k

i=1

T
i
=
k1

i=1

T
i
+
k

T
k
alors, ` a laide de ce lemme montrer que F
k
= F
k1

F
k1

T
k
F
k1
(1+
T
k
F
k1

k
)
Ce lemme permet de calculer de mani`ere recursive linverse de lestimation de
la matrice de covariance discr`ete F
k
.
Son equivalent pour le cas continu senonce comme il suit. Soit
d
dt
(F
1
) =
1

(
T
)
or comme
d
dt
(FF
1
) =
d
dt
(F).F
1
+ F.
d
dt
(F
1
) =
d
dt
(I
n
) = 0
on a
d
dt
(F) = F.
d
dt
(F
1
).F d
/
o` u :
d
dt
(F) =
1

F
T
.F
1.2.5. Quelques Exemples
Discretiser ce dernier resultat en approximant le derivee par la methode des
rectangle pour une periode dechantillonnage Te = 1s.
Comparer les deux resultats
d
dt
(F)
(F
k
F
k1
)
T
=
1

F
k1

T
k
F
k1
et F
k
=
F
k1

F
k1

T
k
F
k1
57
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
1.2.6. Application du LIM
Exemple : Si u et v sont des vecteurs colonne on a : [A + uv
T
]
1
= A
1

A
1
u[1 + v
T
A
1
u] v
T
A
1
Exemple : On peut montrer que : I+C(pIA)
1
B
1
= IC(pIA+BC)
1
B
_
A 0
C B
_
1
=
_
A
1
0
B
1
CA
1
B
1
_
(6)
_
A D
0 B
_
1
=
_
A
1
B
1
DA
1
0 B
1
_
(7)
_
A D
C B
_
1
=
_
B
1
+ E
1
F
1
ED
1

1
F
1
_
(8)
avec = B CA
1
D, E = A
1
D, F = CA
1
1.2.7. Polynome caracteristique, ploynome minimal, Theor`eme de Cayley Hamilton
Soit A une matrice nxn, le polyn ome caracteristique de A est : P() = det(I
A) = (
1
)(
2
)...(
n
)
Lequation caracteristique de A est : P() = 0. Les racines
i
du polyn ome
caracteristique de A, sont les valeurs propres
i
(A), i = 1...n de la matrice A.
58
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Le Theor`eme de Cayley Hamilton assure que la matrice verie son equation
caracteristique P(A) = 0.
On appelle polynome minimal de A le polynome monic Q() de plus faible
degre en tel que Q(A) = 0.
Le polynome minimal de A divise son polynome caracteristique et toute valeur
propre de A est une racine du polynome minimal.
Exercice : Montrer, pour une matrice diagonale = diag(
i
) de dimension n,
que P() = 0, si P() est son polynome caracteristique. En deduire que pour
toute matrice de la forme A = TT
1
on a egalement P(A) = 0. Donner leur
polynome minimal, envisager le cas de valeurs propres mutiples avec une matrice
de la forme de Jordan.
1.3. Quelques Exercices
Exercice1 : Montrer pour une matrice diagonale = diag(
i
) de dimension n
que P() = 0, si P() est son polynome caracteristique. En deduire que pour
toute matrice de la forme A = T
T
T on a egalement P(A) = 0.
Exercice2 : Donner le polynome minimal de A = T
T
T, envisager le cas de
valeurs propres multiples.
Exercice : Montrer la derni`ere propriete SDP en utilisant les proprietes :
59
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
x
T
Px = x
T
U
T
Ux = z
T
z avec z = Ux

min
(P).I < <
max
(P).I et z
T
z = x
60
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
1.3.1. Quelques proprietes
Fonctions de Caratheodory : Soit TR non vide et XR
n
, considerons les
fonctions f(t,x) :TxXR
p
. La fonction f(t,x) est de caratheodory si et seulement
si :
i)t T, f(t, .) est continue,
ii)x X, f(., x) est mesurable au sens de Lebesgue,
iii)C TxX, C sous espace compact, il existe une fonction M
C
(t) integrable
au sens de Lebesgue telle que(t, x) C on ait : |f(t, x)| < M
C
(t)
La fonction f(t, x) est dite fortement de caratheodory si et seulement si elle ve-
rie les conditions ci dessus et de plus on peut remplacer M
C
(t) par une constante
M
C
.
Fonctions de classe K : Fonction de classe K : Une fonction f : R
+
R
+
est dite de classe K si et seulement si elle est continue et verie les proprietes :
i)r
1
, r
2
R, r
1
< r
2
:= f(r
1
) < f(r
2
)
ii)f(0) = 0, r > 0 := f(r) > 0
Fonction de classe KR : Une fonction f : R
+
R
+
est dite de classe KR si
et seulement si elle appartient ` a la classe K et de plus r lim f(r) = .
Lemme de Bellman Gronwall : Soit c0 et r(t) et k(t) deux fonctions conti-
nues ` a valeurs non negatives. Si nous avons : r(t) c +
_
t
0
k()r()d t[0,T].
61
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Alors r(t) c.
_
exp
_
_
t
0
k()d
__
t[0,T].
Demonstration : posons s(t) = c +
_
t
0
k()r()d t [0, T]. alors r(t)
s(t) nous donne :
.
s(t) = k(t)r(t) k(t)s(t)t [0, T]
.
s(t) k(t)s(t) 0 t [0, T]
[
.
s(t) k(t)s(t)]exp
_
t
0
k()d 0 t [0, T]
d
dt
_
s(t)[exp
_
t
0
k()d]
_
0 t [0, T]
s(t)[exp
_
t
0
k()d] s(0) = c t [0, T]
r(t) s(t) c.exp
_
t
0
k()d t [0, T]
Notons que si c=0 alors on obtient r(t)=0 t[0,T], car r(t) est `a valeurs non
negatives.
1.3.2. Theor`eme du point xe : Theor`eme de contraction globale
Soit (X, |.| ) un espace de Banach et soit T : XX un operateur pour lequel
il existe une constante < 1 xe
telle que : |T(x) T(y)| . |x y| x, yX, > 0 Alors
i ) x*X unique tel que T(x*) = x*
ii)xX, la sequence (x
n
) n=1,.., denie dans X par : x
n+1
=T(x
n
) et x
0
= x,
converge vers x.
62
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
De plus on a : |x x
n
|

n
1
|x
1
x
0
| =

n
1
|T(x
0
) x
0
|
Ce theor`eme peut etre utilise pour montrer la stabilite dun syst`eme ou la
convergence dune solution.
1.3.3. Optimisation lineaire
f : X 1
n
f(X) = AX +B 1
n


X
(f(X)) = A
T
h : X 1
n
h(X) = (AX + B)
T
W (AX + B) 1
+


X
(h(X)) =
_

X
(AX + B)
_
W (AX + B)


X
(h(X)) = 2 A
T
W (AX + B)

X
(h(X)) = 2 A
T
W (AX + B) = 0 A
T
WA X = A
T
WB
A
T
WA > 0 = arg (min
X
h(X)) =
_
A
T
WA
_
1
A
T
WB
63
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V


2
X
2
(h(X)) =

X
_
2 A
T
W (AX + B)
_
= 2 A
T
WA > 0
64
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
2. MOTIVATIONS : Les Algorithmes dAdaptation Parametrique (AAP)
2.1. Motivations
Proposer un algorithme dadaptation parametrique de structure generale pour
lidentication en temps reel des syst`emes dynamiques dont le comportement
entre-sortie peut etre approche par un mod`ele lineaire.
Presenter les resultats de stabilite et de convergence associes pour mettre en
evidence les aspects pratiques de lidentication en temps reel.
Classe des syst`emes ` a identier
3
Un probl`eme didentication
Identication en temps reel
Crit`ere didentication
Condition dexcitation persistante
Predicteurs adaptatifs
2.2. Applications usuelles :
- Filtrage adaptatif,
- Prediction adaptative, Prevision
3. un probl`eme dingenieur bien formule est un probl`eme presque resolu. M. MSaad
65
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
- commande auto-ajustable ou adaptative.
IDENTIFICATION
DES
SYST
`
EMES
SYST
`
EME
A
IDENTIFIER
- -
-
?
entree sortie
mod`ele
66
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
3. FORMULATION DU PROBL
`
EME
3.1. PROBL
`
EME DE LIDENTIFICATION PARAMETRIQUE
3.1.1. CLASSE DES SYST
`
EMES A IDENTIFIER
Mod` ele :
_
A(q
1
)y(t) = B(q
1
)u(t d 1) avec
A(q
1
) = 1 + a
1
q
1
+ . . . + a
na
q
na
B(q
1
) = b
o
+ b
1
q
1
+ . . . + b
nb
q
nb
Param etrisation lin eaire en
Mod` ele :
_
(t) = (t 1) avec (0) =
y(t) = (t 1)
T

avec =
_
a
i
b
i
_
et (t 1) =
_
y(t i)
u(t d 1 i)
_
3.1.2. METHODE DIDENTIFICATION PARAMETRIQUE
P1 On cherche le param`etres dun mod`ele

(t) qui realiseraient les deux pro-


prietes suivantes
reproduire le comportement entree-sortie du syst`eme : lim
t
_
y(t) (t 1)
T

(t)
_
=
0
P2. converger vers les vrais param`etres, soit lim
t

(t) =
Pour cela on aura besoin de denir un crit`ere.
67
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
3.1.3. IDENTIFICATION EN TEMPS REEL et VARIATIONS LENTES
Lidentication en temps reel est realisee par des algorithmes dadaptation re-
cursifs dont la structure generale est

(t) = f
_

(t 1), (t), T(t)


_
(t) = h
_
(t 1),

(t 1), T(t)
_
o` u f(., ., .) et h(., ., .) sont des fonctions qui dependent de la methode didenti-
cation adoptee et T(t) designe lensemble des donnees dentree-sortie disponibles
` a linstant dechantillonnage t.
68
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATEUR DES PARAMETRES : Methode hors ligne (non re-
cursive)
Le syst`eme y(t) = (t 1)
T

La prediction de la sortie (si



est lestimation des parm`etres sur un horizon
jusqua t) y(t) = (t 1)
T

lerreur de prediction donne lerreur dequation : y(t) = y(t) y(t) = (t


1)
T
_

_
= (t 1)
T

PR

EDICTEURS ADAPTATIFS
Predicteur adaptatif a priori (`a chaque instant (t 1) son vecteur param`etre
estime (

(t 1))) : y
o
(t) = (t 1)
T

(t 1)
Erreur de prediction a priori est donnee par
o
(t) = y(t) y
o
(t) = (t
1)
T

(t 1)
Predicteur adaptatif a posteriori (` a linstant t on a le vecteur param`etre es-
time

(t)) y(t) = (t 1)
T

(t)
Erreur de prediction a posteriori est donnee par : (t) = y(t) y(t) = (t
1)
T

(t)
69
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Les param`etres

(t) qui minimisent le crit`ere quadratique J(

(t)) =
1
t

t
=1
_
y() ( 1)
T

(t)
_
2
sont donnes par la condition doptimalite

(t)
_
J(

(t))
_
= 0 = 2
1
t
t

=1
( 1)
_
y() ( 1)
T

(t)
_
= 0
_
1
t
t

=1
( 1)( 1)
T
_

(t) =
1
t
t

=1
y()( 1)
Et si la matrice
_
1
t

t
=1
( 1)( 1)
T
_
est inversible, on aura

(t) =
_
t

=1
( 1)( 1)
T
_
1
_
t

=1
y()( 1)
_
70
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DES MOINDRES CARRES SIMPLES MCS


Les donnees sont utilisee dun seul bloc. Pour la methode non recursive, le
poids associe aux mesure est le meme `a tout instant. Le crit`ere ` a optimiser pour
lestimation est ici celui des Moindres Carres (MC) non ponderes :
J(

(k)) =
1
k
k

i=1
_
y(i)

(k)
T
(i 1)
_
2
Les param`etres sont supposes constants et les donnees contenir assez dinforma-
71
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
tions sur tous les param`etres.
Cette methode peut etre mise sous forme recursive. On obtiendrait la methode
des Moindres Carres Recursifs (MCR)
72
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ALGORITHME DADAPTATION PARAM

ETRIQUE AAP
On peut mettre lalgorithme destimation sous forme recursive. On realise un
syst`eme dynamique boucle qui doit verier les proprietes P1 et P2.
On obtient le predicteur adaptatif represente ci dessous.
73
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
74
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DES MOINDRES CARRES RECURSIFS MCR


On peut mettre lalgorithme destimation sous forme recursive en utilisant le
Lemme dInversion Matricielle (LIM)
75
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
76
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DES MOINDRES CARRES RECURSIFS MCR : Proprietes


Nous allons considerer maintenant la Methode des Moindres Carres Ponderes,
77
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
en ajoutant une ponderation sur les donnees dentree sortie. La ponderation doit
privilegier les donnees recentes pour ameliorer la capacite de suivi deventuelles
variations des param`etres.
78
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATEUR DES MOINDRES CARRES PONDERES
On notera le syst`eme sous forme de representation detat
_
(t) = (t 1)
y(t) = (t 1)
T
(t)
et (0) =
Les param`etres

(t) qui minimisent le crit`ere quadratique J(

(t)) =
1
t

t
=1
(t, )
_
y() ( 1)
T

(t)
_
2
avec (t, ) = (t)(t 1, ) pour [1, t 1]. sont donnes par la condition
doptimalite

(t)
_
J(

(t))
_
= 0 = 2
1
t
t

=1
(t, )( 1)
_
y() ( 1)
T

(t)
_
= 0
_
1
t
t

=1
(t, )( 1)( 1)
T
_

(t) =
1
t
t

=1
(t, )y()( 1)
qui peut se mettre, si lhorizon destimation est t = T, sous la forme
T

=1
(t, )(
1)y() =

T
=1
(t, )( 1)( 1)
T

ceci fait apparatre clairement que les param`etres du syst`eme peuvent etre re-
trouves si la propriete suivante est satisfaite :
CONDITION DEXCITATION PERSISTANTE :

Etant donne un ho-
rizon T, pour tout instant t, il existe deux nombres reels strictement positifs et
79
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
nis
min
et
max
tels que

min
I
np

t+T

=t
()()
T

max
I
np
Et si la condition dexcitation persistante est veriee, on aura

(t) =
_
t

=1
(t, )( 1)( 1)
T
_
1
_
t

=1
(t, )y()( 1)
_
Cette propriete peut etre satisfaite par un choix judicieux de la sequence den-
tree u(t), par exemple on peut prendre une SBPA.
80
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DESTIMATION PARAM

ETRIQUE MCP RECURSIVE


Remarque : Une inversion matricielle ` a chaque instant dechantillonnage peut
induire un probl`eme de robustesse numerique.
(t) =
_
T

=1
(t, )( 1)( 1)
T
_
1
T

=1
(t, )( 1)y()
Mise en oeuvre recursive : lestimateur des moindres carres ponderes peut se
recrire sous la forme
_
t

=1
(t, )( 1)( 1)
T
_

(t) =
_
t

=1
(t, )y()( 1)
_
ou dune mani`ere equivalente F(t)
1

(t) =

t
=1
(t, )y()( 1)
F(t)
1
=
t

=1
(t, )( 1)( 1)
T
Cette forme permet de mettre en evidence que la mise ` a jour de F(t)
1
peut
81
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
etre obtenue dune mani`ere recursive :
F(t)
1
=
t

=1
(t, )( 1)( 1)
T
=
t1

=1
(t, )( 1)( 1)
T
+ (t, t)(t 1)(t 1)
T
=
t1

=1
(t)(t 1, )( 1)( 1)
T
+ (t, t)(t 1)(t 1)
T
soit F(t)
1
= (t)F(t 1)
1
+ (t)(t 1)(t 1)
T
Remarque : Lestimateur des moindres carres verie
c( 1) v() = 0
1
t
t

t=1
( 1) v() = 0 avec v() = y() ( 1)
T

(t)
82
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE RECURSIVE DESTIMATION PARAM

ETRIQUE
CRIT
`
ERE DIDENTIFICATION Pour les Moindres Carres Ponderes : La pro-
priete P1 peut etre realisee au sens des moindres carres par un estimateur

(t)
qui minimise le crit`ere quadratique avec ponderation :
J(

(t)) =
1
t
t

=1
(t, )
_
y() ( 1)
T

(t)
_
2
avec (t, ) = (t)(t
1, ) pour [1, t 1]
83
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
84
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Prols DOubli M.C. Ponderes
LA FONCTION DE POND

ERATION :
(t, ) = (t)(t 1, ) pour [1, t 1]
avec 0 < (t) 1 et 0 < (t, t) < 2
(t, ) =
_

t
j=+1
(j)
_
() avec () = (, )
avec 0 < (t) 1 et 0 < (t) < 2
ALGORITHME
DADAPTATION
PARAM

ETRIQUE
SYST
`
EME
- -
-
?
u(t) y(t)

(t)
85
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
86
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE TEMPS REEL DESTIMATION PARAM

ETRIQUE : MCP

(t) = F(t)
_
t1

=1
(t, )y()( 1) + (t, t)y(t)(t 1)
_
=
= F(t)
_
(t)
t1

=1
(t 1, )y()( 1) + (t)y(t)(t 1)
_

(t) = F(t)
_
(t)F(t 1)
1

(t 1) + (t)y(t)(t 1)
_
= F(t)
_
_
F(t)
1
(t)(t 1)(t 1)
T
_

(t 1)
_
+ F(t) [(t)y(t)(t 1)]

(t) =

(t 1) + (t)F(t)(t 1)
_
y(t) (t 1)
T

(t 1)
_
On a

(t) =

(t 1) + (t)F(t)(t 1)
_
y(t) (t 1)
T

(t 1)
_
F(t)
1
= (t)F(t 1)
1
+ (t)(t 1)(t 1)
T
Inversion de la matrice F(t)
1
: pour eviter deectuer linversion matricielle,
on peut utiliser le lemme dinversion matricielle :
LIM : Soient A, B, C et D des matrices dont les dimensions sont telles que le
produit BCD et la somme A+BCD existent. Supposons que A et C sont reguli`eres,
87
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
alors lidentite usuelle
[A + BCD]
1
= A
1
A
1
B
_
DA
1
B + C
1

1
DA
1
est toujours veriee.
Si on applique ce le LIM `a lequation de mise `a jour de F(t 1)
1
= (t)F(t
1)
1
+ (t)(t 1)(t 1)
T
avec A = (t)F(t 1)
1
B = (t 1) D =
(t 1)
T
et C = (t) on aura la forme recursive :
F(t) =
1
(t)
_
F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)
_
qui permet entre autre de recrire (t)F(t)(t 1) comme suit
(t)F(t)(t 1) =
F(t 1)(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)
88
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ALGORITHME TEMPS REEL DADAPTATION PARAM

ETRIQUE 1

o
(t) = y(t) (t 1)
T

(t 1)

(t) =

(t 1) +
F(t 1)(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)

o
(t)
F(t) =
1
(t)
_
F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)
_
R0 Le processus didentication est ane au fur et ` a mesure que de nouvelles
informations sont acquises.
(t) = y(t) (t 1)
T

(t 1) (t 1)
T

(t 1)
=
o
(t) (t 1)
T
_

(t)

(t 1)
_
=
o
(t)
(t 1)
T
F(t 1)(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)

o
(t)
On aura donc :
89
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V (t) =
(t)
(t)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)

o
(t)
[ (t) [ [
o
(t) [ pour tout t
R1. Lalgorithme dadaptation parametrique peut etre considere comme un
predicteur adaptatif `a un pas dont lobjectif consiste `a annuler asymptotique-
ment lerreur de prediction : lim
t

o
(t) = 0
ou comme un estimateur de param`etres puisque la sequence des mesures
(t) satisfait la condition dexcitation persistant : lim
t

(t) =
Dans les deux cas, le gain dadaptation (t) permet daner le processus de
prediction ou destimation et dannuler asymptotiquement lerreur de predic-
tion a posteriori, independamment de la nature des signaux dentree-sortie :
lim
t
(t) = 0
90
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ALGORITHME TEMPS REEL DADAPTATION
PARAM

ETRIQUE 2
R2 On peut recrire lestimateur des moindres carres sous la forme suivante qui
montre que linitialisation de lAAP peut se faire comme suit :

(0) = 0 et F(0)
1
=
0.

(t) = F(t)
_
t1

=1
(t )F(0)
1

(0) +
t

=1
(t, )y()( 1)
_
F(t)
1
=
t1

=1
(t )F(0)
1
+
t

=1
(t, )( 1)(t 1)
T
Pour realiser la seconde condition, il sut de choisir F(0) = f
o
I
np
o` u f
o
est grand
par rapport ` a la norme du vecteur de mesure, e.g. : f
o
= max
t
|(t 1)| 10
np
On notera que linitialisation de lalgorithme dadaptation parametrique peut etre
91
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
faite `a partir dune identication prealable sur un horizon T
o
comme suit

(t
o
) = F(t
o
)
_
t
o

=1
(t
o
, )y()( 1)
_
F(t
o
) =
_
t
o

=1
(t
o
, )( 1)(t 1)
T
_
1
R3. Le crit`ere que lon minimise avec la version recursive des moindres carres
est donne par
J
vr
(

(t)) = J(

(t)) +
_
t1

=1
(t )
_

(0)
T
(F(0))
1

(0)
qui motive la seconde procedure dinitialisation donnee.
R4. Lalgorithme dadaptation parametrique peut se recrire sous la forme

(t) =

(t 1) + (t 1)
o
(t)
(t 1) =
F(t 1)(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)
Cette forme permet de mettre en evidence les proprietes suivantes
P1. (
o
(t) 0) = (

(t)

(t 1) 0)
P2. ((t) 0) = (

(t)

(t 1) 0)
92
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
R5. Lerreur parametrique est donnee par lequation
_
I
np
+
(t)
(t)
F(t 1)(t 1)(t 1)
T
q
1
_

(t) = 0
Elle est asymptotiquement nulle si la condition dexcitation persistante est
veriee, soit

min
I
np

t+T

=t
()()
T

max
I
np
__
I
np
+ F(t 1)(t 1)
T
_
I
np
q
1

1
-

(t)
-

(0)(t)
93
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Poursuite de Param`etres Variant dans le temps
94
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Convergence et Consistence de lAlgorithme des MCR Ponderes
Propriete 1. La fonction de co ut des moindres carres ponderes peut se mettre
sous la forme quadratique :
J(

(t)) =

(t)
T
_
1
t
t

=1
(t, )( 1)( 1)
T
_

(t)
Ceci permet de denir une fonction de Lyapunov, equivalente ` a une distance
entre lerreur parmetrique

(t) =

(t) et lorigine. Ce qui prouve la conver-


gence si lexcitation est persistente.
V (

(t)) =

(t)
T
_
t

=1
(t, )( 1)( 1)
T
_

(t)
Propriete 2. Lestimateur des moindres carres est consistant, soit

(t) = (t) =
pour tout t T o` u T est un horizon de temps donne. Le syst`eme peut en ef-
fet se mettre sous la forme suivante qui fait apparatre clairement la propriete
de consistance

(T) = ,
1
T
T

=1
(t, )( 1)y() =
1
T
T

=1
(t, )( 1)( 1)
T

95
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
=
_
T

=1
(t, )( 1)( 1)
T
_
1
T

=1
(t, )( 1)y()
96
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRIETES : ALGORITHME DES MOINDRES CARRES R

ECURSIFS
97
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Algorithme de Base MCR
Exercice : Programmer lalgorithme ci dessous et le tester avec un signal sinu-
soidal bruite. Essaayer dierentes puissances de bruit et dierent facteurs doubli.
98
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
99
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CAPACIT

E DADAPTATION /1
Lobjectif didentication considere consiste ` a minimiser le crit`ere quadratique
J(

(t)) =
1
t
t

=1
(t, )
_
y() ( 1)
T

(t)
_
2
+

(0)
T
(F(0))
1

(0)
avec (t, ) =
_
t

j=+1
(j)
_
()
Lintroduction de la fonction de ponderation est particuli`erement motivee par des
considerations de robustesse vis ` a vis de variations eventuelles des param`etres du
syst`eme ` a identier, en loccurrence les variations lentes en moyenne.
En eet, si la fonction de ponderation nest pas consideree, on retrouve la me-
thode des moindres carres simples qui consiste `a minimiser le crit`ere quadratique
J(

(t)) =
1
t
t

=1
_
y() ( 1)
T

(t)
_
2
+

(0)
T
(F(0))
1

(0)
Dans
J(

(t)) =
1
t
t

=1
_
y() ( 1)
T

(t)
_
2
+

(0)
T
(F(0))
1

(0)
100
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
toutes les donnees dentree-sortie sont prises en consideration de la meme ma-
ni`ere. Lalgorithme dadaptation parametrique associe est

(t) =

(t 1) + (t 1)
o
(t)
(t) =
F(t)(t)
1 + (t)
T
F(t)(t)
F(t) = F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
1 + (t 1)
T
F(t 1)(t 1)
101
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CAPACIT

E DADAPTATION /2
On montre que lestimateur des moindres carres simples admet les proprietes
usuelles suivantes.
P1. La sequence

(t) est bornee.


P2. Le gain dadaptation (t) est asymptotiquement nul.
P3. Lerreur de prediction a posteriori (t) est asymptotiquement nulle.
P4. Les variations des param`etres estimes

(t)

(t 1) sont asymptoti-
quement nulles.
P5. Il existe un vecteur V (t) tel que =

(t) + F(t)V (t) pour tout t
La methode des moindres carres simples ne peut pas etre utilisee pour les sys-
t`emes dont les param`etres varient dans le temps car le gain dadaptation sous-
jacent est asymptotiquement nul. Cette propriete peut etre apprehendee ` a partir
de lequation aux dierences
F(t)
1
= F(t 1)
1
+ (t 1)(t 1)
T
102
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
qui montre clairement que F(t) est asymptotiquement nulle si (t)(t)
T
nest
pas nulle en moyenne. En eet on a
(t) verie la condition dexcitation persistante

(t)(t)
T
nest pas nulle en moyenne

lim
t
_
F(t)
1
_
= lim
t
F(t) = 0
103
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
GAIN DADAPTATION
(t 1) =
F(t 1)(t 1)
1 + (t 1)
T
F(t 1)(t 1)
Lintroduction de la fonction de ponderation permet de modier lequation aux
dierences du gain dadaptation comme suit
F(t)
1
= (t)F(t 1)
1
+ (t)(t 1)(t 1)
T
On assure ainsi la bornitude de F(t)
1
pour eviter que le gain dadapta-
tion (t) devienne asymptotiquement nulle pourvu que (t) et (t) soient
bornees, lentement variables dans le temps et telles que
0 < (t) 1 et 0 (t) < 2
Par ailleurs, on montre que la convergence de lalgorithme dadaptation para-
metrique est exponentielle si et seulement si 0 < (t) < 1
La convergence de la methode des moindres carres simples ne peut etre alors ex-
ponentielle. Pour pallier ce probl`eme, on peut utiliser une fonction de ponderation
denie par
(t) = (t 1) + (1 ) et (t) = 1
(, (0)) [0.5, 0.98] [0.5, 0.98]
104
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Notons que le facteur doubli (t) converge exponentiellement vers un, ce qui
conduit ` a un algorithme des moindres carres simples. Ce type de facteur doubli
permet toutefois de remedier au probl`eme des mauvaises conditions initiales.
105
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
GAIN DADAPTATION POND

ER

E /2
Les algorithmes dadaptation parametrique qui sont generalement utilisees cor-
respondent `a des fonctions de ponderation particuli`eres. On distingue
La methode des moindres carres avec facteur doubli xe que lon peut obtenir
comme suit
(t) = et (t) = 1 avec 0 < < 1
Cette appellation est particuli`erement justiee par le fait que les donnees les
plus recentes ont beaucoup plus dimportance que les anciennes donnees dans
le processus destimation. On notera que la sequence F(t) peut devenir ex-
ponentiellement croissante dans le cas o` u la condition dexcitation persistante
nest pas satisfaite ; soit (t)(t)
T
est nulle en moyenne.
La methode des moindres carres avec trace constante peut sobtenir avec la
fonction de ponderation
(t) = (t) tel que trace (F(t)) = trace (F(t 1))
(t) = 1
(t 1)
T
F(t 1)F(t 1)(t 1)
(1 + (t 1)
T
F(t 1)(t 1))trace (F(t 1))
Ce type dalgorithme permet dassurer que la matrice de gain dadaptation
soit bornee superieurement independamment de la nature des informations
106
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
traitees. En eet, le facteur doubli (t) devient identiquement egal `a un
dans le cas o` u la condition dexcitation persistante nest pas satisfaite.
La methode du gradient normalise peut etre obtenue `a partir de lalgorithme
dadaptation parametrique

(t) =

(t 1) +
F(t 1)(t 1)
1 + (t 1)
T
F(t 1)(t 1)

o
(t)

o
(t) = y(t) (t 1)
T

(t 1)
F(t) =
1
(t)
_
F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
(t)
(t)
+ (t 1)
T
F(t 1)(t 1)
_
avec une fonction doubli donnee par (t) = 1 et (t) = 0
107
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
GAIN DADAPTATION POND

ER

E /3
La methode du gradient normalise minimise le crit`ere quadratique suivant
J(

(t)) =
_
y(t)

(t)
T
(t 1)
_
2
+
_

(t)

(t 1)
_
T
F(0)
1
_

(t)

(t 1)
_
o` u F(0) = F est une matrice symetrique denie positive. Lalgorithme dadap-
tation parametrique correspondant est donne par

(t) =

(t 1) +
F(t 1)
1 + (t 1)
T
F(t 1)

o
(t)

o
(t) = y(t) (t 1)
T
(t 1)
Elle est particuli`erement utilisee par la communaute du traitement du signal. Il
faut remarquer quelle converge relativement lentement par rapport aux methodes
des moindres carres mais elle est relativement robuste par rapport aux eventuelles
variations des param`etres. Une bonne initialisation de cette methode peut etre
faite `a partir de la methode des moindres carres avec un facteur doubli variable
qui tend exponentiellement vers un, soit
(t) = (t 1) + (1 ) et (t) = 1 avec (, (0)) [0.5, 0.98] [0.5, 0.98]
REMARQUE
Le gain dadaptation de la methode des moindres carres simples peut etre re-
108
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
initialisee dune mani`ere appropriee pour eviter quil devienne nul, `a des instants
t
i
designe linstant de reinitialisation et F(t
i
) est la matrice de reinitialisation
associee. e.g.
F(t) =
_
F(t
i
) si t = t
i
F(t 1)
F(t1)(t1)(t1)
T
F(t1)
1+(t1)
T
F(t1)(t1)
ailleurs
Cette approche requiert de bonnes connaissances a priori pour elaborer une
procedure de supervision adequate de lalgorithme dadaptation parametrique. La
culture disponible sur la detection des ruptures des mod`eles peut etre utilisee a
bon escient.
109
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
EFFETS DES PERTURBATIONS
Considerons les syst`eme decrits par y(t) = (t 1)
T
+ v(t) alors on aura
1
T
T

=1
(T, )( 1)y() =
1
T
T

=1
(T, )( 1)( 1)
T
+
1
T
T

=1
(T, )( 1)v()
soit

(T) = + (T)
(T) =
_
T

=1
(T, )( 1)( 1)
T
_
1
T

=1
(T, )( 1)v()
Le passage ` a la limite donne
lim
T

(T) = +
_
c
_
()()
T
__
1
c ( 1)v()
avec
c X() = lim
T
1
T
T

=1
(T, )X()
EFFETS DES PERTURBATIONS /2
110
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
On notera que la consistance de lestimateur des moindres carres est preservee
si
_
c
_
()()
T
__
1
= 0
ou c ( 1)v() = 0
La condition :
_
c
_
()()
T
__
1
= 0 requiert un gain dadaptation parame-
trique asymptotiquement nul comme celui des moindres carres simples.
La condition : c ( 1)v() = 0 necessite que les perturbations v(t)
soient independantes des donnees dentree-sortie (t) et de moyenne nulle.
Une telle condition peut etre realisee par un traitement adequat des donnees.
111
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
TRAITEMENT DES DONN

EES
Le traitement des donnees est generalement eectue par un ltrage des signaux
dentree-sortie. En eet, on peut recrire le syst`eme ` a identier comme suit
(t) = (t 1) avec (0) =
y
f
(t) =
f
(t 1)
T
(t) + v
f
(t)
avec F
d
(q
1
)x
f
(t) = F
n
(q
1
)x(t)
Le ltre F(z
1
) =
F
n
(z
1
)
F
d
(z
1
)
devrait realiser
la condition : c
f
( 1)v
f
() = 0
ALGORITHME
DADAPTATION
PARAMETRIQUE
SYSTEME
- -
-
?
u(t) y(t)

(t)
TRAITEMENT
DES
DONNEES
-
REMARQUE
Le traitement des donnees ne peut pas resoudre le probl`eme de consistence de
lestimateur dans le cas general.
Dautres methodes didentication sont requises pour ce faire. On distingue
Les methodes de variables instrumentales
Les methodes derreur de sortie
112
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Les methodes des moindres carres etendus
113
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Exemple dapplication /1
114
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Exemple dapplication /2
115
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Rejet de Perturbations
116
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
QUALIT

ES DUN ESTIMATEURS
117
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONCLUSION
Un algorithme dadaptation parametrique general ` a partir des moindres carres
ponderes
Filtrage adaptatif.
Prediction adaptative.
Analyse spectrale adaptative.
Commande adaptative.
Capacite de poursuite des param`etres variants dans le temps.
La stabilite et la convergence ont ete etudiees par
Lapproche de Lyapunov
Lapproche de Popov : Tout ce qui marche est passif.
De nombreuses applications industrielles.
4. Exemples et Exercices
Exercice 1 Considerons un syst`eme dynamique echantillonne (discret) deni par
lequation de reccurence qui suit :
118
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
y
n
+a
1
y
n1
+a
1
y
n2
+....+a
N1
y
nN+1
+a
N
y
nN
= b
0
e
n1
+b
1
e
n1
+b
2
e
n1
+...+b
M
e
nM
qui peut secrire sous forme condensee :
y
n
=
N

i=1
a
i
y
ni
+
M

i=0
b
i
e
ni
1- Montrer que lequation precedente peut se mettre sous forme matricielle en
considerant le vecteur de param`etres : P = [a
1
a
2
a
3
....a
N
b
0
b
1
....b
M
]
T
2- Si on prend en compte K mesures de y
i
et en creant un vecteur Y =
[y
n
y
n+1
....y
n+K
]
T
montrer que les K mesures font apparatre une equation de
la forme :
Y = RP
3- Quelle condition faut-il respecter pour obtenir une solution
4- On cherche une estimation de P nptee

P qui minimise lexpression : |Y RP|
2
,
determiner la solution au sens des moindres carres qui lui correspond.
Solution 1 1- Formons le vecteur r
n
= [y
n1
y
n2
....y
nN+1
y
nN
, e
n1
...e
nM
]
- R est formee de K lignes du type r
n
; K N + M
|Y RP|
2
= (Y RP)
T
(Y RP) = Y
T
Y Y
T
RP P
T
R
T
Y +P
T
R
T
RP
119
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Derivons cette expression par rapport `a P :
|Y RP|
2
P
= 0 R
T
Y Y
T
R +
2R
T
RP = 2R
T
Y + 2R
T
RP = 0
La valeur de

P qui annule cette derivee est la valeur recherchee soit : R
T
R

P =
R
T
Y soit encore

P = [R
T
R]
1
R
T
Y
Exercice 2 Calcul de la moyenne et la variance de la solution matricielle aux
Moindres Carres.
Rappelons que la solution de la minimisation de lequation |Y RP|
2
au sens
des MC est

P = [R
T
R]
1
R
T
Y .
Quand on eectue une mesure de la sortie du syst`eme, on peut considerer que
celle-ci est entachee dune erreur due au bruit, lequation secrit alors : Y = RP+e
.
1- Calculer la moyenne de lerreur destimation :

P = P

P
2- A quelles conditions cette moyenne sera nulle
3- Calculer la variance de cette erreur destimation, la variance du bruit secri-
vant
2
I
Solution 2 1- La moyenne de lerreur destimation secrit : E[

P] = E[P

P] =
E
_
P [R
T
R] 1[R
T
Y ]

avec Y = RP + , il vient : E[

P] = E
_
P [R
T
R]
1
[R
T
[RP + ]

soit :
P E[R
T
R]
1
R
T
RP + [R
T
R]
1
[R
T
] qui secrit E[R
T
R]
1
[R
T
]
120
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
2- Conditions : a. R est decorrele de lerreur alors [R
T
R]
1
R
T
E []
b. Si la moyenne de lerreur est nulle alors lerreur destimation est nulle.
Solution 3 3- Variance :

P = P

P =

P = E[R
T
R]
1
[R
T
], la variance
secrit E[

P

P
T
] = E[[R
T
R]
1
R
T

T
R[R
T
R]
1
] = [R
T
R]
1
R
T
E[
T
]R[R
T
R]
1
si
la variance du bruit secrit
2
I alors E[

P

P
T
] =
2
[R
T
R]
1
R
T
R[R
T
R]
1
=
2[R
T
R]
1
Exercice 3 Mise en evidence du biais des MC dans lidentication des param`etres
dun syst`eme dynamique.
On fait lhypoth`ese que la sortie du syst`eme dynamique est entachee dun bruit
additif blanc de moyenne nulle et de covariance temporelle
2

k
. On ecrit lentree
du syst`eme u
k
, la sortie du syst`eme v
k
, le bruit d
k
et la sortie mesuree y
k
. Le
syst`eme est du premier ordre est secrit v
k+1
= av
k
+ bu
k+1
.
1- Donner lexpression de y
k
en fonction de la sortie du syst`eme et du bruit
2- Eliminer de la relation precedente, la grandeur v
k
3- Dans lexpression precedente, comment sexprime lerreur
4- Calculer la covariance temporelle de lerreur apparaissant dans 2 sous lhy-
poth`ese que le bruit en sortie est blanc.
5- Conclure sur la qualite des MC dans lidentication des param`etres du sys-
t`eme
121
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Solution 4 1- le bruit etant additif : y
k
= v
k
+ d
k
2-y
k
= [av
k1
+ bu
k
] + d
k
= [a(y
k1
d
k1
) + bu
k
] + d
k
soit yk = ay
k1
+
bu
k
+ [ad
k1
+ d
k
]
3- Lerreur est devenue e
k
= [ad
k1
+ d
k
]
4- La covariance temporelle secrit E[e
k
e
k+m
] = E[(ad
k1
+ d
k
)(ad
k+m1
+
d
k+m
)] en developpant lexpression il vient : a
2
E[d
k1
d
k+m1
] + aE[d
k1
d
k+m
] +
aE[d
k
d
k+m1
]+E[d
k
d
k+m
] soit encore a
2
E[d
k1
d
k+m1
]+aE[d
k1
d
k+m
]+aE[d
k
d
k+m1
]+
E[d
k
d
k+m
]
En introduisant la covariance temporelle du bruit il vient : a
2

m
+ as2!m
1 + a
2

m+1
+
2

m
On en deduit quil existe 3 raies : lune `a 0, la seconde `a k = 1 et la 3

`a
k = 1. On conclut que lerreur intervenant dans lequation de mesure, nest pas
blanc.
122
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
QUALIT

ES DUN ESTIMATEUR /1
123
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
QUALIT

ES DUN ESTIMATEUR /2
124
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V

ETAPES DE MOD

ELISATION PARAMETRIQUE
125
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CHANGEMENT DESTIMATEUR
126
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RECHERCHE DUN ESTIMATEUR SANS BIAIS
127
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DE LERREUR DE SORTIE MES


128
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DE LA VARIABLE INSTRUMENTALE MVI


129
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DE LA VARIABLE INSTRUMENTALE MVI


130
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DE LERREUR D

EQUATION MEE
131
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CRIT
`
ERES DE CHOIX DE LORDRE
132
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DE VALIDATION DE MODEL

ES
133
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Depuis 1990, le meme but ? ! !
134
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMMANDE DE ROBOTS RIGIDES RAPIDES
135
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD

ELISATION PARAM

ETRIQUE
136
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD

ELISATION PARAM

ETRIQUE
137
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
IDENTIFICATION DES PARAM
`
ETRES DUN ROBOT
138
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
IDENTIFICATION EN BOUCLE FERM

EE
139
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROBL
`
EME DE LA DISCR

ETISATION
140
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
DISCR

ETISATION : Operateur Delta


141
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD

ELISATION PARAM

ETRIQUE CONTINUE
142
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE CONTINUE et ESTIMATION PARAM

ETRIQUE
143
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE CONTINUE et ESTIMATION PARAM

ETRIQUE RECURSIVE
144
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE CONTINUE et ESTIMATION PARAM

ETRIQUE RECURSIVE
145
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELE CONTINUE et ESTIMATION PARAM

ETRIQUE RECURSIVE
146
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRI

ET

ES DE CONVERGENCE
147
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
DYNAMIQUES NEGLIG

EES
148
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONDITION DEXCITATION
149
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Manipulateur ` a 2 DDL
150
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMMANDE ADAPTATIVE
151
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRI

ET

ES DES ROBOTS RIGIDES


152
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMMANDE DYNAMIQUE INVERSE ADAPTATIVE
153
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMMANDE DYNAMIQUE INVERSE ADAPTATIVE
154
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRIETES
155
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONVERGENCE
156
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
IDENTIFICATION DES SYST
`
EMES
Les Methodes destimation et leurs proprietes
Plan du cours Partie 3
Biais de lestimateur des moindres carres
Mod`eles didentication
Prediction optimale : une approche uniee
Predicteurs usuels
Methode derreur de sortie
Variables instrumentales
Methode des moindres carres etendus
Filtrage et identication des syst`emes
Conclusion
Exemple
157
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATEUR DES MOINDRES CARRES /1
Considerons le syst`eme : A(q
1
)y(t) = B(q
1
)u(t d 1) + v(t)
que lon peut recrire sous la forme regressive : y(t) = (t 1)
T
+ v(t)
et supposons que lentree u(t) est choisie de mani`ere ` a satisfaire la condition
dexcitation persistante :
CEP. La matrice
1
t
t

t=1
(t 1)(t 1)
T
est reguli`ere
Lestimateur des moindres carres minimise le crit`ere quadratique
J(

(t)) =
1
t

t
=1
(y() ( 1)
T

(t))
2
Il est donc donne par

(t) = arg min

(t)
J(

(t)) =
_
1
t

t
=1
( 1)( 1)
T

1
1
t

t
=1
( 1)y()
158
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATEUR DES MOINDRES CARRES /2
Par ailleurs, le syst`eme y() = ( 1)
T
+ v()
peut se recrire ( 1)y() = ( 1)( 1)
T
+ ( 1)v()
soit
1
t

t
=1
( 1)y() =
1
t

t
=1
( 1)( 1)
T
+
1
t

t
=1
( 1)v()
Lestimateur des moindres carres verie la propriete
_
1
t
t

=1
( 1)( 1)
T
_
1
1
t
t

=1
( 1)y()
=
+
_
1
t
t

=1
( 1)( 1)
T
_
1
1
t
t

=1
( 1)v()
soit

(t) = +
_
1
t

t
=1
( 1)( 1)
T

1
1
t

t
=1
( 1)v()
ou par passage ` a la limite lim
t

(t) = +
_
c( 1)( 1)
T

1
c(
1)v()
159
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATEUR DES MOINDRES CARRES /3
lim
t

(t) = +
_
c( 1)( 1)
T

1
c( 1)v()
o` u E designe lesperance mathematique dans un contexte stochastique ou tout
simplement
cx() = lim
t
1
t
t

t=1
x()
conformement ` a la loi des grands nombres, soit
c( 1)( 1)
T
= lim
t
1
t
t

t=1
( 1)( 1)
T
et
c( 1)v() = lim
t
1
t
t

=1
( 1)v()
160
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRI

ET

ES
P1. Si v(t) est une sequence de variables aleatoires independantes de moyenne
nulle et de variances nies, alors lestimateur des moindres carres nest pas
biaise. En eet, on a c( 1)v(t) = c( 1)cv() = 0
P2. Lestimateur des moindres carres verie
1
t

t
t=1
(1) v() = 0 avec v() =
y() ( 1)
T

(t) soit c( 1) v() = 0
P3. Si lon adopte un mod`ele FIR, alors on a y(t) = (t 1)
T
+ v(t)
avec (t 1)
T
= [u(t d 1) . . . . . . u(t d 1 nb)]
et
T
= [b
o
. . . . . . . . . . . . . . . . . . . . . b
nb
]

reponse impulsionnelle du syst`eme


Si u(t) et v(t) sont independantes et Ev(t) = 0, alors lestimateur des
moindres carres correspondant nest pas biaise. En eet, on a
c(t 1)v(t) = c(t 1)cv(t) = 0
161
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATION CONSISTANTE
On dispose dun ensemble de methodes didentication qui permettent de four-
nir des estimateurs consistants, soit
Prob
_
lim
t

(t) =
_
= 1
On distingue
Des methodes basees sur la decorrelation asymptotique entre lerreur de pre-
diction et le vecteur dobservation : les methodes derreur de sortie ou celles
des variables instrumentales.
Des methodes basees sur le blanchissement asymptotique de lerreur de pre-
diction : la methode des moindres carres etendus.
162
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
IDENTIFICATION DES SYST
`
EMES
G(q
1
)
H(q
1
)

_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

163
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOD
`
ELES DIDENTIFICATION
La theorie de lidentication des syst`emes est dediee aux syst`emes dont le com-
portement dentree-sortie est decrit par
y(t) = y
p
(t) + v(t)
avec
y
p
(t) = G(q
1
)u(t) =
_

k=d+1
g(kT)q
k
_
u(t)
et
v(t) = H(q
1
)(t) =
_
1 +

k=1
h(kT)q
k
_
(t)
G(z
1
), H(z
1
) et
1
H(z
1
)
sont des fonctions de transfert asymptotiquement stables
164
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PR

EDICTEUR OPTIMAL
Le predicteur optimal `a un pas est donne par
y(t/t 1) = G(q
1
)u(t) +
_
H(q
1
) 1
_
_
1
H(q
1
)
v(t)
_
y(t/t 1) = G(q
1
)u(t) +
_
1
1
H(q
1
)
_
_
y(t) G(q
1
)u(t)
_
y(t/t 1) =
1
H(q
1
)
_
G(q
1
)u(t)
_
+
_
1
1
H(q
1
)
_
y(t)
H(q
1
) y(t/t 1) = G(q
1
)u(t) +
_
H(q
1
) 1
_
y(t)
Lerreur de prediction correspondante est
y(t/t 1) = y(t) y(t/t 1) = (t)
Ce predicteur est optimal dans la mesure o` u lerreur de prediction correspondante est bien de
moyenne nulle et de variance minimale
165
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PARAM

ETRISATION ADOPTEE
q
d1
B

(q
1
)
A

(q
1
)F

(q
1
)
C

(q
1
)
A

(q
1
)D

(q
1
)

_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

166
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PARAM

ETRISATION ADOPTEE
y(t) = G

(q
1
)u(t) + H

(q
1
)(t)
avec
G

(q
1
) =
q
d1
B

(q
1
)
A

(q
1
)F

(q
1
)
et H

(q
1
) =
C

(q
1
)
A

(q
1
)D

(q
1
)

T
= [a
1
. . . a
na
b
o
. . . b
nb
c
1
. . . c
nc
d
1
. . . d
nd
f
1
. . . f
nf
]

(q
1
) = 1 + a
1
q
1
+ a
2
q
2
+ . . . + a
na
q
na
B

(q
1
) = b
o
+ b
1
q
1
+ b
2
q
2
+ . . . + b
nb
q
nb
C

(q
1
) = 1 + c
1
q
1
+ c
2
q
2
+ . . . + c
nc
q
nc
D

(q
1
) = 1 + d
1
q
1
+ d
2
q
2
+ . . . + d
nd
q
nd
F

(q
1
) = 1 + f
1
q
1
+ f
2
q
2
+ . . . + f
nf
q
nf
167
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PR

EDICTEUR OPTIMAL /1
Le predicteur optimal associe ` a la structure generale est :
A

(q
1
)y(t) =
B

(q
1
)
F

(q
1
)
u(t d 1) +
C

(q
1
)
D

(q
1
)
(t)
est donne par
y(t/t 1) =
D

(q
1
)B

(q
1
)
C

(q
1
)F

(q
1
)
u(t d 1) +
_
1
D

(q
1
)A

(q
1
)
C

(q
1
)
_
y(t) soit
C

(q
1
) y(t/) = D

(q
1
)
B

(q
1
)
F

(q
1
)
u(t d 1) +
_
C

(q
1
) D

(q
1
)A

(q
1
)
_
y(t)
Introduisons les variables (t/) et (t/) denies par
(t/) =
B

(q
1
)
F

(q
1
)
u(t d 1) et (t/) = A

(q
1
)y(t) (t/)
le predicteur optimal et lerreur de prediction peuvent alors se mettre sous les
formes
C

(q
1
) y(t/) =
_
C

(q
1
) D

(q
1
)A

(q
1
)
_
y(t) + D

(q
1
)(t/)
y(t/) = y(t) y(t/) =
D

(q
1
)
C

(q
1
)
(t/)
168
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PR

EDICTEUR OPTIMAL /2
Le predicteur optimal C

(q
1
) y(t/) =
_
C

(q
1
) D

(q
1
)A

(q
1
)
_
y(t)+D

(q
1
)(t/)
peut secrire comme suit
y(t/) =
_
C

(q
1
) 1
_
y(t/) + y(t) D

(q
1
)
_
A

(q
1
)y(t) (t/)
_
+
_
A

(q
1
)y(t) (t/)
_

_
A

(q
1
)y(t) (t/)
_
ou y(t/) =
_
C

(q
1
) 1
_
y(t/) +
_
1 D

(q
1
)
_
(t/) +
_
1 A

(q
1
)
_
y(t) +
(t/)
y(t/) =
_
C

(q
1
) 1
_
y(t/)+
_
1 D

(q
1
)
_
(t/)+
_
1 A

(q
1
)
_
y(t)+(t/)
y(t/) =
_
C

(q
1
) 1
_
y(t/) +
_
1 D

(q
1
)
_
(t/)
+
_
1 A

(q
1
)
_
y(t) + (t/)
F(q
1
)(t/) + B

(q
1
)u(t d 1)
169
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN MOD
`
ELE DIDENTIFICATION
Le predicteur optimal peut alors se mettre sous la forme
y(t/) =
_
1 A

(q
1
)
_
y(t) + B

(q
1
)u(t d 1)
+
_
1 F

(q
1
)
_
(t/) +
_
C

(q
1
) 1
_
y(t/)
+
_
1 D

(q
1
)
_
(t/)
que lon peut recrire comme suit y(t/) = (t 1/)
T

avec
T
= [a
i
b
i
f
i
c
i
d
i
](t 1/)
T
= [y(t i) u(t d 1
i) (t i/) y(t i/) (t i/)]
STRUCTURE GENERALE DE MODELES
POLYNOMES UTILISES MODELES
B FIR
AB ARX
AC ARMA
ABC ARMAX
ABD ARARX
ABCD ARARMAX
BF OE
BFCD BJ
170
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PR

EDICTEURS AJUSTABLES
Predicteur ajustable ` a priori y
o
(t/t 1) = (t 1)
T

(t 1)
Erreur de prediction a priori
o
(t) = y(t) y
o
(t/t 1)
Predicteur ajustable a posteriori y(t/t 1) = (t 1)
T

(t)
Erreur de prediction a posteriori (t) = y(t) y(t/t 1)

(t) =
_

_
a
i
(t)

b
i
(t)

f
i
(t)
c
i
(t)

d
i
(t)
_

_
et (t 1) =
_

_
y(t i)
u(t d 1 i)
(t i)
(t i)
(t i)
_

_
(t) = (t/

(t)) =
nf

i=1

f
i
(t) (t i) +
nb

i=o

b
i
(t)u(t d 1 i)
(t) = (t/

(t)) = y(t) +
na

i=1
a
i
(t)y(t i) (t)
171
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROBL
`
EME DIDENTIFICATION
On cherche une sequence de param`etres

(t)
t1
+ qui realiserait les deux pro-
prietes :
P1. Reproduire asymptotiquement le comportement entree-sortie : c (t) =
0 et c
_
((t) (t))
2
_
= 0
P2. Convergence quasi certaine : Proba
_
lim
t

(t) =
_
= 1
La propriete P1 peut etre realisee au sens des moindres carres par un estimateur

(t) qui minimise le crit`ere quadratique J(

(t)) =
1
t

t
=o
_
y
f
(t) y
f
(t/

(t))
_
2
avec T(q
1
)y
f
(t) = y(t) et T(q
1
) y
f
(t/

(t)) = y(t/

(t))
Quant `a la propriete P2, elle requiert au moins une condition dexcitation persis-
tante, soit

Etant donne un horizon T, pour tout instant t, il existe deux nombres reels stric-
tement positifs et nis
min
et
max
tels que

min
I
np

t+T

=t

f
(/)
f
(/)
T

max
I
np
172
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATION DES PARAM
`
ETRES
Le comportement dentree-sortie du syst`eme est decrit par y(t) = y(t/) +
(t) avec y(t/) = (t 1/)
T

Lestimation des param`etres est faite `a partir du comportement dentree-sortie


du syst`eme
y(t) = y(t/

(t)) + (t) avec y(t/

(t)) = (t 1)
T

(t)
(t 1) est considere comme une mesure de (t 1)
ALGORITHME DESTIMATION

(t) =

(t 1) +
F(t 1)
f
(t 1)
1 +
f
(t 1)
T
F(t 1)
f
(t 1)

o
(t)

o
(t) =
of
(t) +
_
T(q
1
) 1
_

f
(t)
F(t) = F(t 1)
F(t 1)
f
(t 1)
f
(t 1)
T
F(t 1)
1 +
f
(t 1)
T
F(t 1)
f
(t 1)
T(q
1
)
f
(t)=(t)

of
(t) = y
f
(t)
f
(t 1)
T

(t 1)

f
(t) = y
f
(t)
f
(t 1)
T

(t)
173
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DERREUR DE SORTIE /1


Elle a ete developpee ` a avec les syst`emes adaptatifs avec mod`ele de reference,
ont ete introduits par Ioan Dore Landau.
La passivite est une approche structuree pour lanalyse de la stabilite des sys-
t`emes proposee par Vladimir Popov de cette grande Ecole dAutomatique Rou-
maine.
La methode derreur de sortie a ete developpee pour les syst`emes dont le com-
portement entree-sortie est decrit par
F

(q
1
)y(t) = B

(q
1
)u(t d 1) + F

(q
1
)(t)
et que lon peut representer comme suit
q
d1
B(q
1
)
F(q
1
) `
_
- - -
u(t) y
p
(t) y(t)

(t)
?
174
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
M

ETHODE DERREUR DE SORTIE /2


Le predicteur optimal est donne par F

(q
1
) y(t/) = B

(q
1
)u(t d 1)
ou dune mani`ere equivalente y(t/) = (t 1/)
T
avec = [f
i
b
i
]
T
(t 1/) = [ y(t i/) u(t d 1 i)]
T
On peut ainsi denir les predicteurs ajustables et les erreurs de prediction as-
sociees, en loccurrence
Le predicteur ajustable `a priori y
o
(t/t 1) = (t 1)
T

(t 1)
Le predicteur ajustable `a posteriori y(t/t 1) = (t 1)
T

(t)
Lerreur de prediction ` a priori
o
(t) = y(t) y
o
(t/t 1)
Lerreur de prediction ` a posteriori (t) = y(t) y(t/t 1)
o` u le vecteur dobservation (t 1) est deni comme suit
(t 1)
T
= [ y(t i/t i 1) u(t d 1 i)]
175
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Algorithme dAdaptation Parametrique : AAP
Lestimation des param`etres par la methode derreur de sortie est :

(t) =

(t 1) +
F(t 1)(t 1)
1 + (t 1)
T
F(t 1)(t 1)

o
(t)

o
(t) =
o
(t) +
_
T(q
1
) 1
_
(t)
F(t) = F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
1 + (t 1)
T
F(t 1)(t 1)
RESULTAT FONDAMENTAL DES MES
On montre que si F

(z
1
) = 0 [ z [< 1 et E(t/)(t/)
T
existe et est denie positive
et
T(z
1
)
F

(z
1
)

1
2
est strictement positive reelle
alors
E((t 1)
T
(t) = 0
et Proba
_
lim
t

(t) =
_
= 1
176
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES
Le syst`eme est asymptotiquement stable
(t/) verie la condition dexcitation persistante
Re
_
T(e
jT
)
F

(e
jT
)

1
2
_
0 [0,
N
]
T(z
1
) = 0 [z[ < 1
(t) =
1
1 + (t 1)
T
F(t 1)(t 1)

o
(t)
177
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN FILTRAGE ADEQUAT
Notons que
T(z
1
) = F

(z
1
)
T(z
1
)
F

(z
1
)

1
2
est strictement positive reelle
On peut donc assurer la condition de positivite requise en prenant pour T(q
1
)
une bonne estimee de F

(q
1
). Pour ce faire, on peut eectuer une identication
iterative ` a partir de la methode derreur de sortie avec un ltrage des donnees
realise comme suit
T
k
(q
1
) =

F
k1
(q
1
) avec T
o
(q
1
) =

A
mc
(q
1
)
o` u F
k
(q
1
) et

F
k1
(q
1
) designent respectivement le ltre des donnees `a literation
k et lestimee du polyn ome F(q
1
) `a literation k 1. Le syst`eme est initialise
avec une methode des moindres carres etendu sans ltrage de donnees.
178
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
VARIABLES INSTRUMENTALES
Considerons le syst`eme y(t) = (t 1)
T
+ v(t)
Lestimateur des moindres carres verie
1
t

t
=1
( 1)
_
y() ( 1)
T

(t)
_
=
0
ou dune mani`ere equivalente E( 1) v() = 0 avec v() = y() y(/

(t))
Lestimateur est consistant si E()()
T
est reguli`ere et E( 1)v() = 0
La premi`ere condition est connue sous lappellation dexcitation persistante et
peut etre realisee par un choix adequat de la sequence dentree, en loccurrence
une brave sequence binaire pseudo-aleatoire.
La seconde condition est beaucoup plus une exception quune r`egle dans la
pratique. Elle necessite generalement un ltrage adequat. Le concept de variable
instrumentale est base sur le fait quun estimateur satisfaisant
1
t
t

=1
( 1)
_
y() ( 1)
T

(t)
_
= 0
ou en passant ` a la limite E( 1) v() = 0 avec v() = y() y(/

(t))
serait consistant si les conditions suivantes sont vraies E()()
T
est regu-
li`ere et ( 1)v() = 0
179
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
La condition dexcitation persistante
La condition dexcitation persistante E()()
T
reguli`ere, necessite que
() et () soient susamment correlees, alors que la condition de consis-
tance de lestimation requiert que ( 1) et v() soient independantes.
E( 1)v() = 0
EXEMPLES USUELS DE VIs
On distingue deux methodes usuelles pour generer des variables instrumentales
La variable instrumentale ` a observations retardees obtenue comme suit
(t 1)
T
= [y(t i r) u(t d 1 i)]
o` u r > max(na, nb + d + 1) designe le retard dobservation.
La variable instrumentale avec mod`ele auxiliaire
(t 1)
T
= [ y(t i/t i 1) u(t d 1 i)]
o` u y(t) denote la sortie du mod`ele auxiliaire.
y(t) = (t 1)
T

(t)
180
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Algorithme dadaptation parametrique
Une version recursive de la methode de la variable instrumentale est donnee par

(t) =

(t 1) +
F(t 1)(t 1)
1 + (t 1)
T
F(t 1)(t 1)

o
(t)

o
(t) = y(t) (t 1)
T

(t 1)
F(t) = F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
1 + (t 1)
T
F(t 1)(t 1)
RESULTAT FONDAMENTAL DES VIs
On montre que si E(t)(t)
T
est reguli`ere et E(t 1)v(t) = 0 alors
E(t 1)(t) = 0 avec (t) = y(t) (t 1)
T

(t)
et
Proba
_
lim
t

(t) =
_
= 1
181
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOINDRES CARRES ETENDUS /1
Cette methode a ete developpee pour les syst`emes ARMAX
q
d1
B(q
1
)
A(q
1
)
C(q
1
)
A(q
1
)
`
_
- - -
?
?
(t)
u(t) y
p
(t)
v(t)
y(t)

On a
A

(q
1
)y(t) = B

(q
1
)u(t d 1) + C

(q
1
)(t)
182
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOINDRES CARRES ETENDUS /2
Le predicteur optimal associe est donne par
y(t/) =
B

(q
1
)
C

(q
1
)
u(t d 1) +
_
1
A

(q
1
)
C

(q
1
)
_
y(t) soit
C

(q
1
) y(t/) = B(q
1
)u(t d 1) +
_
C

(q
1
) A

(q
1
)
_
y(t)
ou dune mani`ere equivalente
y(t/) = B

(q
1
)u(t d 1) +
_
1 A

(q
1
)
_
y(t)
+
_
C

(q
1
) 1
_
y(t/)
183
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOINDRES CARRES ETENDUS /3 Le predicteur optimal
y(t/) = B

(q
1
)u(t d 1) +
_
1 A

(q
1
)
_
y(t)
+
_
C

(q
1
) 1
_
y(t/)
peut alors se mettre sous la forme
y(t/) = (t 1/)
T

avec

T
= [a
i
b
i
c
i
]
(t 1/)
T
= [y(t i) u(t d 1 i) y(t i/)]
qui permet de denir les predicteurs ajustables et les erreurs de prediction asso-
ciees.
184
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOINDRES CARRES ETENDUS /4
Le predicteur ajustable `a priori
y
o
(t/t 1) = (t 1)
T

(t 1)
Le predicteur ajustable `a posteriori
y(t/t 1) = (t 1)
T

(t)
Lerreur de prediction ` a priori

o
(t) = y(t) y
o
(t/t 1)
Lerreur de prediction ` a posteriori
(t) = y(t) y(t/t 1)
o` u le vecteur dobservation (t 1) est deni comme suit
(t 1)
T
= [y(t i) u(t d 1 i) (t i)]
185
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Algorithme dadaptation parametrique
Lestimation aux moindres carres etendus est realisee comme suit

(t) =

(t 1) +
F(t 1)(t 1)
1 + (t 1)
T
F(t 1)(t 1)

o
(t)

o
(t) = y(t) (t 1)
T

(t 1)
F(t) = F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)
1 + (t 1)
T
F(t 1)(t 1)
RESULTAT FONDAMENTAL DES MCE
On montre que si A

(z
1
) = 0 [z[ < 1
E(t/)(t/)
T
existe et est denie positive
1
C

(z
1
)

1
2
est strictement positive reelle
alors E((t 1)
T

(t))
2
= 0
E((t) (t))
2
= 0 et Proba
_
lim
t

(t) =
_
= 1
186
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES
Le syst`eme est asymptotiquement stable
(t/) verie la condition dexcitation persistante
Re
_
1
C

(e
jT
)

1
2
_
0 [0,
N
]
C

(z
1
) = 0 [z[ < 1
Le gain dadaptation parametrique est decroissant
(t) =
1
1 + (t 1)
T
F(t 1)(t 1)

o
(t)
187
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES
On peut proceder `a un ltrage approprie pour relacher la condition de positivite
requise, soit
1
C

(z
1
)

1
2
est strictement positive reelle
Lalgorithme dadaptation parametrique correspondant est donne par

(t) =

(t 1) +
F(t 1)
f
(t 1)
1 +
f
(t 1)
T
F(t 1)
f
(t 1)

o
(t)

o
(t) =
of
(t) + (T(q
1
) 1)
f
(t)
F(t) = F(t 1)
F(t 1)
f
(t 1)
f
(t 1)
T
F(t 1)
1 +
f
(t 1)
T
F(t 1)
f
(t 1)
avec
T(q
1
)
f
(t) = (t)

of
(t) = y
f
(t)
f
(t 1)
T

(t 1) et
f
(t) = y
f
(t)
f
(t 1)
T

(t)
188
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES
On montre que si
A

(z
1
) = 0 [z[ < 1
et
E
f
(t/)
f
(t/)
T
existe et est denie positive
et
T(z
1
)
C

(z
1
)

1
2
est strictement positive reelle
alors
E((t 1)
T

(t))
2
= 0
et
E((t) (t))
2
= 0
et
Proba
_
lim
t

(t) =
_
= 1
189
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
UN FILTRAGE AD

EQUAT
Notons que
T(z
1
) = C

(z
1
)
T(z
1
)
C

(z
1
)

1
2
est strictement propre reelle
On peut donc rel acher la condition de positivite requise en prenant pour T(q
1
)
une bonne estimee de C

(q
1
). Pour ce faire, on peut eectuer une identication
iterative ` a partir de la methode des moindres carres etendus avec un ltrage des
donnees realise comme suit
T
k
(q
1
) =

C
k1
(q
1
) avec T
o
(q
1
) = 1
o` u T
k
(q
1
) et

C
k1
(q
1
) designent respectivement le ltre des donnees ` a literation
k et lestimee du polyn ome C

(q
1
) `a literation k 1. Le syst`eme est initialise
aux moindres carres etendu sans ltrage de donnees puisque T
o
(q
1
) = 1.
190
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONCLUSION
Lestimation aux moindres carres est generalement biaisee
Une classe de predicteurs usuels pour lidentication des syst`emes
La methode derreur de sortie : une passivite engagee
Les variables instrumentales : un concept relativement simple
Les moindres carres etendus avec un ltrage adequat
Exemple
191
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATION OPTIMALE
PR

EDICTEUR ET FILTRE DE KALMAN


Plan du cours Partie 4
Introduction
Motivations
Rappels
Formulation du probl`eme
Predicteur de Kalman
Filtre de Kalman
Comportement asymptotique
Proprietes remarquables
Adaptation parametrique
Conclusion
192
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
MOTIVATIONS
Une pierre angulaire de la theorie des signaux et syst`emes
prediction, ltrage et adaptation parametrique
Des outils puissants
analyse, synth`ese et mise en uvre
Des methodologies speciques
automatique et traitement du signal
De nombreuses applications industrielles reussies
s urete de fonctionnement
emplacement de capteurs
controle non destructif
193
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RAPPEL
Representation detat et stabilite
Observabilite et detectabilite
Observabilite
Observation asymptotique
Detectabilite
Valeur moyenne dune forme quadratique
Technique du complement dun carre parfait
194
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REPRESENTATION D

ETAT et STABILIT

E
oLJT
_
x(t + 1) = Fx(t) + Gu(t) avec x(0) = x
o
y(t) = Hx(t)

Y (z) = H(z)GU(z) avec (z) = (zI


n
F)
1
oLJT est asymptotiquement stable si et seulement si
det (zI
n
F) = 0 = [ z [< 1 1(A) T
s
195
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVABILITE et DETECTABILITE
Deux questions sont fondamentales pour la reconstruction de letat dun syst`eme
Q1. Peut-on determiner letat dun syst`eme `a partir de la connaissance de son
comportement dentree-sortie sur un intervalle de temps ni ?
= Le concept dobservabilite des syst`emes
Q2. Peut-on concevoir un syst`eme dynamique qui permet de reconstruire asymp-
totiquement letat dun syst`eme `a partir de son comportement dentree-sortie ?
= Le concept de detectabilite des syst`emes
196
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVABILITE
Un syst`eme est observable si pour tout instant initial t
o
et pour tout instant
nal t
f
> t
o
, il est possible de determiner letat initial x(t
o
) du syst`eme ` a partir
de la connaissance de son comportement dentree-sortie sur lintervalle [t
o
, t
f
], soit
u(t)
t[t
o
,t
f
]
et y(t)
t[t
o
,t
f
]

x(t
o
)
Les proprietes dobservabilite dun syst`eme sont donnees par le resultat suivant
197
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVABILITE
Considerons une realisation (F, G, H), les propositions suivantes sont equiva-
lentes
PR1 La paire (H, F) est observable.
PR2 La matrice dobservabilite
O(H, F) =
_

_
H
HF
.
.
.
HF
n1
_

_
est de rang plein.
PR3 Le grammien dobservabilite deni par
(
o
(k) =
n1

i=o
(F
T
)
i
H
T
HF
i
est une matrice denie strictement positive.
198
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVATION ASYMPTOTIQUE
oLJT
_
x(t + 1) = Fx(t) + Gu(t) avec x(0) = x
o
y(t) = Hx(t)

OBo/
_
x(t + 1) = F x(t) + Gu(t) + M (y(t) y(t))
y(t) = H x(t)
199
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVATION DE L

ETAT
G
`
_
z
1
F
H
- - -
6

x(t)
M
`
_
?

6
?
-

SY SY EME
- -
u(t) y(t)
y(t)
200
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVATION MODALE
x(t) = x(t) x(t)
et
y(t) = y(t) y(t)

cOBo
_
x(t + 1) = (F MH) x(t)
y(t) = H x(t)
201
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
OBSERVATION MODALE
(H , F) est observable

M 1
np
/ det (zI
n
F + MH) =
n

i=1
(z p
oi
)

p
o1
, . . . , p
on
T
sp
sont les p oles desires de lobservateur

T
sp
est une partie du disque unite
caracterisee par un amortissement minimal
et deux constantes de temps minimale et maximale
202
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
DETECTABILITE
Pour toute realisation detat (F, G, H) dordre ni n telle que rang(O(H, F)) =
r < n, on peut toujours eectuer un changement de base
z(t) = Tz(t) avec T =
_
T
o
T
o

qui permet de recrire le syst`eme sous la forme


oLJT
_
z(t + 1) =

Fz(t) +

Gu(t) avec z(t
o
) = T
1
x(t
o
)
y(t) =

Hz(t)
avec

F =
_
F
o
0
F
o o
F
o
_
,

G =
_
G
o
G
o
_
et

H =
_
H
o
0

telle que la paire (H


o
, F
o
) est observable.
203
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
DETECTABILITE
Denition
La paire (H, F) est detectable si et seulement si tous ses modes non observables
sont asymptotiquement stables, soit
det (zI
r
F
o
) = 0 = [ z [ < 1

Resultat
La paire (H, F) est detectable si et seulement si la synth`ese dun observateur est
possible, soit M 1
np
/ det (zI
n
F + MH) = 0 = [ z [ < 1
204
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
VALEUR MOYENNE DUNE FORME QUADRATIQUE
Soit x une variable gaussienne aleatoire de moyenne m
x
et de covariance C
xx
et
P une matrice symetrique denie positive. On a
c
_
x
T
Px
_
= trace (PC
xx
) +c
_
m
T
x
Pm
x
_
205
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
TECHNIQUE DU COMPLEMENT DU CARRE PARFAIT
La fonction quadratique denie par
J(x, u) =
_
x
T
u
T

_
W
x
W
xu
W
T
xu
W
u
_ _
x
u
_
peut se recrire sous la forme
J(x, u) = x
T
_
W
x
K
T
W
u
K
_
x + (u + Kx)
T
W
u
(u + Kx)
avec
W
u
K = W
T
xu
Il est clair que cette fonction est minimisee pour u = Kx et que le minimum
correspondant est donne par
J(x, u) = x
T
_
W
x
K
T
W
u
K
_
x 0
206
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FORMULATION DU PROBLEME
oLJT
_
x(t + 1) = Fx(t) + Gu(t) + w(t)
y(t) = Hx(t) + v(t)

H
z
1 _
+
?
w(t)
G
F
6
- -

- _
+
?
v(t)
- -
y(t)
-
x(t) u(t)
207
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FORMULATION DU PROBLEME
(F, G, H) est une realisation detat du syst`eme que lon peut obtenir en resol-
vant le probl`eme de realisation sous-jacent
Y (z) = H(z)G U(z) + H(z) W(z) + V (z) avec (z) = (zI
n
F)
1
w(t) 1
n
et v(t) 1
p
sont respectivement des bruits blancs tels que
c
__
w(t)
v(t)
_
_
w(t )
T
v(t )
T

_
=
_
Q
o
W
o
W
T
o
R
o
_
()
et x(t
o
) est une variable aleatoire independante des perturbations detat telle que
c x(t
o
) = x
o
et c
_
(x(t
o
) x
o
) (x(t
o
) x
o
)
T
_
=
o
208
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
LE PROBLEME DESTIMATION OPTIMALE
oLJT
_
x(t + 1) = Fx(t) + Gu(t) + w(t)
y(t) = Hx(t) + v(t)

coT /
_
x(t + 1) = F x(t) + Gu(t) + M (y(t) y(t))
y(t) = H x(t)

? M 1
np
/ c x(t) = 0 et (t) = c x(t) x(t)
T
est minimale
x(t) = x(t) x(t)
209
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ESTIMATION
SYSTEME
ESTIMATEUR
- -
-
?
u(t)
y(t)
x(t)
? ?
v(t) w(t)
210
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMPORTEMENT DUN ESTIMATEUR
oLJT
_
x(t + 1) = Fx(t) + Gu(t) + w(t)
y(t) = Hx(t) + v(t)
et
coT /
_
x(t + 1) = F x(t) + Gu(t) + M (y(t) y(t))
y(t) = H x(t)

x(t + 1) = (F MH) x(t) + w(t) Mv(t)


211
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMPORTEMENT DUN ESTIMATEUR
La consistance de lestimateur est une consequence directe de sa structure
puisque lerreur destimation peut se mettre sous la forme
c x(t + 1) = (F MH) c x(t)
qui fait apparatre clairement quelle est nulle en moyenne si et seulement si les-
timateur est asymptotiquement stable, soit
c x(t) est asymptotiquement nulle 1 (F MH) T
s
212
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PREDICTEUR DE KALMAN
oLJT
_
x(t + 1) = Fx(t) + Gu(t) + w(t)
y(t) = Hx(t) + v(t)

T/
_
x(t + 1/t) = F x(t/t 1) + Gu(t) + M
p
(t) (y(t) y(t/t 1))
y(t/t 1) = H x(t/t 1)

? M
p
(t) / (t/t 1) = c
_
x(t/t 1) x(t/t 1)
T
_
est minimale
213
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RESULTAT FONDAMENTAL I
T/
_
_
_
x(t + 1/t) = F x(t/t 1) + Gu(t) + M
p
(t) (y(t) y(t/t 1))
y(t/t 1) = H x(t/t 1)

M
p
(t) =
_
F(t/t 1)H
T
+ W
o
_ _
R
o
+ H(t/t 1)H
T
_
1
(t + 1/t) = F(t/t 1)F
T
+ Q
o

_
F(t/t 1)H
T
+ W
o
_
...
...
_
R
o
+ H(t/t 1)H
T
_
1
_
H(t/t 1)F
T
+ W
T
o
_
214
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve
Ler-
reur de prediction est donnee par
x(t + 1/t) = (F M
p
(t)H) x(t/t 1) + w(t) M
p
(t)v(t)
=
_
I
n
M
p
(t)
_
__
F
H
_
x(t/t 1) +
_
w(t)
v(t)
__

x(t) = x
o
= c x(t/t 1) = 0
et
(T/ est asymptotiquement stable) = c x(t/t 1) = 0
La matrice de variance de lerreur de prediction peut se recrire
(t + 1/t) = c
_
x(t + 1/t) x(t + 1/t)
T
_
=
_
I
n
M
p
(t)
_
J(t/t 1)
_
I
n
M
p
(t)
_
T
215
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
avec
J(t/t 1) =
_
F
H
_
(t/t 1)
_
F
H
_
T
+
_
Q
o
W
o
W
T
o
R
o
_
=
_
F(t/t 1)F
T
+ Q
o
F(t/t 1)H
T
+ W
o
H(t/t 1)F
T
+ W
T
o
H(t/t 1)H
T
+ R
o
_
Il apparat clairement que (t+1/t) est denie positive pourvu que (t/t1) soit
denie positive et que lequation ci-dessous est semblable ` a la fonction quadratique
qui apparat dans le lemme du complement du carre parfait.
216
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /1
R1. Si w(t) et v(t) sont des sequences gaussiennes, alors le predicteur de
Kalman fournit une estimee ` a variance minimale de letat qui nest autre que
la moyenne conditionnelle de letat `a partir des donnees dentree-sortie pas-
sees, soit
x(t/t 1) = c x(t)/T(t 1)
Par ailleurs, si lon pose
(t) = y(t) H x(t/t 1)
on aura
c (t)/T(t 1) = 0
et
y(t) = H x(t/t 1) + (t) = c y(t)/T(t 1) + (t)
217
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /2
y(t) = H x(t/t 1) + (t)
(t) est dite sequence dinnovation

/J
_
_
_
x(t + 1/t) = F x(t/t 1) + Gu(t) + M
p
(t)(t)
y(t) = H x(t/t 1) + (t)

mod`ele dinnovation
218
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /3
Par ailleurs, on peut exprimer la sequence dinnovation en fonction du com-
portement dentree-sortie du syst`eme
TB
_
_
_
x(t + 1/t) = (F M
p
(t)H) x(t/t 1) + Gu(t) + M
p
(t)y(t)
(t) = y(t) H x(t/t 1)

ltre blanchisseur
219
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /4
R2. Si w(t) et v(t) ne sont pas des sequences gaussiennes, le predicteur
de Kalman realise une estimation lineaire `a variance minimale de letat du
syst`eme caracterisee par
c x(t)/T(t 1) = 0
c x(t/t 1)y(t i)/T(t 1) = 0 pour tout i [1, t]
et
c
_
x(t) x
T
(t)/T(t 1)
_

f
o` u
f
designe la variance de lerreur destimation obtenu par un estimateur
de lensemble des estimateurs lineaires de letat du syst`eme.
220
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /5
R6. Le probl`eme destimation optimale peut etre etudie sans perte de genera-
lite en supposant que les sequences w(t) et v(t) sont independantes, soit
W
o
= 0. En eet, lequation detat du syst`eme peut toujours se recrire comme
suit
x(t + 1) = Fx(t) + Gu(t) + w(t) W
o
R
1
o
(y(t) y(t))
= Fx(t) + Gu(t) + w(t)
W
o
R
1
o
(Hx(t) + v(t) y(t))
=
_
F W
o
R
1
o
H
_
x(t) + Gu(t)
+ W
o
R
1
o
y(t) +
_
w(t) W
o
R
1
o
v(t)
_
221
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUES /6
Le syst`eme peut alors se mettre sous la forme
oLJT
_
_
_
x(t + 1) = F
s
x(t) + G
u
u(t) + G
y
y(t) + w
s
(t)
y(t) = Hx(t) + v(t)
avec
F
s
= F W
o
R
1
o
H, G
u
= G, G
y
= W
o
R
1
o
w
s
(t) = w(t) W
o
R
1
o
v(t)

c
__
w
s
(t)
v(t)
_
_
w
T
s
(t ) v
T
(t )

_
=
_
Q
so
0
0 R
o
_
()

Q
so
= Q
o
W
o
R
1
o
W
o
222
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
FILTRE DE KALMAN
oLJT
_
_
_
x(t + 1) = Fx(t) + Gu(t) + w(t)
y(t) = Hx(t) + v(t)

T/
_
_
_
x(t/t) = x(t/t 1) + M
f
(t) (y(t) H x(t/t 1))
y(t/t) = H x(t/t)

? M
f
(t) / (t/t) = c
_
x(t/t) x(t/t)
T
_
est minimale
223
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RESULTAT FONDAMENTAL II
La
relation de passage du ltre au predicteur donnee par lequation
1TTT
_
_
_
x(t + 1/t) = F x(t/t) + Gu(t) + w(t/t)
w(t/t) = M
w
(t) (y(t) H x(t/t 1))
permet de trouver aisement la relation entre les gains du predicteur et du ltre
M
p
(t) = FM
f
(t) + M
w
(t)
avec
M
f
(t) = (t/t 1)H
T
_
R
o
+ H(t/t 1)H
T
_
1
M
w
(t) = W
o
_
R
o
+ H(t/t 1)H
T
_
1
224
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
COMPORTEMENT ASYMPTOTIQUE
Pre-
dicteur de Kalman
T/
_
_
_
x(t + 1/t) = F x(t/t 1) + Gu(t) + M
p
(t) (y(t) y(t/t 1))
y(t/t 1) = H x(t/t 1)

M
p
(t) = F(t/t 1)H
T
_
R
o
+ H(t/t 1)H
T
_
1
(t + 1/t) = F(t/t 1)F
T
+ Q
o
F(t/t 1)H
T
..
...
_
R
o
+ H(t/t 1)H
T
_
1
H(t/t 1)F
T
225
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Filtre de Kalman
T/
_

_
x(t + 1/t + 1) = (I
n
M
f
(t + 1)H) F x(t/t)
+ (I
n
M
f
(t + 1)H) Gu(t)
+ M
f
(t + 1)y(t + 1)
y(t/t) = H x(t/t)

M
f
(t) = (t/t 1)H
T
_
R
o
+ H(t/t 1)H
T
_
1
(t + 1/t + 1) = F(t/t)F
T
+ Q
o

_
F(t/t)F
T
+ Q
o
_
H
T
..
..
_
R
o
+ H
_
F(t/t)F
T
+ Q
o
_
H
T

1
..
.. H
_
F(t/t)F
T
+ Q
o
_
226
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RESULTAT FONDAMENTAL III
Sup-
posons que (H, F) est detectable et (F,

Q
o
) stabilisable. Alors le comportement
asymptotique du predicteur et du ltre de Kalman est donne par les equations
x(t + 1/t) = F x(t/t 1) + Gu(t) + M
p
(y(t) H x(t/t 1))
x(t + 1/t + 1) = (I
n
M
f
H) F x(t/t) + (I
n
M
f
H) Gu(t) + M
f
y(t + 1)
avec
M
p
= FH
T
_
R
o
+ HH
T

1
= FM
f
= FF
T
+ Q
o
FH
T
_
R
o
+ HH
T

1
HF
T
Ces estimateurs sont asymptotiquement stables et ont la meme dynamique, soit
1 (F M
p
H) = 1 ((I
n
M
f
H) F) T
s
227
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve du RESULTAT FONDAMENTAL III /1
une consequence directe du resultat fondamental suivant
Supposons que (H, F) est detectable et (F,

Q
o
) stabilisable, alors lequation
algebrique de Riccati
= FF
T
FH
T
_
R
o
+ HH
T
_
1
HF
T
+ Q
o
admet une solution symetrique et denie non-negative unique qui verie la
propriete de stabilite suivante
1 (F MH) T
s
avec M = FH
T
_
R
o
+ HH
T
_
1
Si en plus la paire (F,

Q
o
) est commandable, alors la solution est denie
positive.
228
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve du RESULTAT FONDAMENTAL III /2
En eet, supposons que la sequence matricielle (t/t 1) converge vers une
matrice , alors est une solution de lequation algebrique de Riccati
= FF
T
FH
T
_
R
o
+ HH
T
_
1
HF
T
+ Q
o
La sequence de gain de prediction (respectivement de ltrage) converge alors vers
le gain de prediction M
p
(respectivement le gain de ltrage M
f
), soit
M
p
= FH
T
_
R
o
+ HH
T
_
1
= FM
f

lim
t
M
p
(t) = M
p
et lim
t
M
f
(t) = M
f
La solution est stabilisante puisque (H, F) est detectable et (F,

Q
o
) stabili-
sable comme lindique le resultat ci-dessus.
229
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve du RESULTAT FONDAMENTAL III /3
Les erreurs de prediction et de ltrage sont respectivement donnees par
c x(t + 1/t) = (F M
p
H) c x(t/t 1)
et
c x(t + 1/t + 1) = (I
n
M
f
H) F c x(t/t)
Le polyn ome caracteristique du ltre peut se recrire comme suit
P
f
(z) = det (zI
n
(I
n
M
f
H) F) = det (zI
n
F (I
n
M
f
H))
= det (zI
n
F + FM
f
H) = det (zI
n
F + M
p
H) = P
p
(z)
On aura donc
1 (F M
p
H) = 1 ((I
n
M
f
H) F)
ce qui prouve que le predicteur et le ltre ont la meme dynamique
230
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Predicteur de Kalman
_
H(z) M
p
G
+
- -
?
_ - -
6
+
-
y(t/t 1) y(t)
?
u(t)
1

231
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Filtre de Kalman

(z)
H F
M
f
- - - - - -
6
G
?
1
+ + y(t)
u(t)
-

y(t/t 1)

+
-
?
x(t/t)
?
232
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRIETES REMARQUABLES
Les
matrices de transfert obtenues en ouvrant les boucle en sortie sont donnees par
(
oo
(z) = H(z)M
p
= H(z)FM
f
avec (z) = (zI
n
F)
1
H(z)M
p
_ - -
1

6

233
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
PROPRIETES
Les
fonctions de sensibilite et de sensibilite complementaire qui y sont associees sont
alors respectivement donnees par
o
o
(z) = (I
p
+(
oo
(z))
1
et T
o
(z) = (
oo
(z) (I
p
+(
oo
(z))
1

Y (z) = o
o
(z)V
y
(z) T
o
(z)N
y
(z)
H(z)M
p
_ _ - - -
1
6
?

-
x(t) y(t) v
y
(t)

y
(t)

234
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RESULTAT FONDAMENTAL IV
Po-
sons
/
oo
(z) = H (zI
n
F)
1
_
Q
o
T
A(z) = det (zI
n
F) et P
o
(z) = det (zI
n
F + M
p
H)
=

min
(R
o
)

max
(R
o
+ HH
T
)
1
Alors les estimateurs de Kalman poss`edent les proprietes suivantes
P1. Legalite de dierence de retour
(I
p
+(
oo
(z))
_
R
o
+ HH
T
_ _
I
p
+(
oo
(z
1
)
_
T
=
R
o
+/
oo
(z)/
oo
(z
1
)
T
est toujours veriee pour tout z (.
235
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
RESULTAT FONDAMENTAL IV
P2. Les poles des estimateurs peuvent etre determines `a partir de lequation de
factorisation spectrale suivante
P
o
(z
1
)P
o
(z)
A(z
1
)A(z)
=
det
_
R
o
+/
oo
(z)/
oo
(z
1
)
T
_
det (R
o
+ HH
T
)
P3. La fonction de sensibilite des estimateurs verie linegalite de dierence de
retour

max
(o
o
(z))
1

pour tout z (
01
P4. La matrice de transfert en boucle ouverte est inversement asymptotique-
ment stable, soit
det ((
oo
(z)) = 0 = z T
s
236
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve /1
Preuve de P1. Notons dabord que
FF
T
=
(zI
n
F)
_
z
1
I
n
F
T
_
+ F
_
z
1
I
n
F
T
_
+ (zI
n
F) F
T
Et compte tenu de lequation algebrique de Riccati
= FF
T
+ Q
o
FH
T
_
R
o
+ HH
T

1
HF
T
on a
FF
T
= FH
T
_
R
o
+ HH
T

1
HF
T
+ Q
o
et donc
Q
o
= (zI
n
F)
_
z
1
I
n
F
T
_
+ F
_
z
1
I
n
F
T
_
+(zI
n
F) F
T
+ FH
T
_
R
o
+ HH
T

1
HF
T
237
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve /2
En premultipliant par H (zI
n
F)
1
et en postmultipliant par
_
z
1
I
n
F
_
T
H
T
on obtient
H (zI
n
F)
1
Q
o
_
z
1
I
n
F
_
T
H
T
=
HH
T
+ H (zI
n
F)
1
FH
T
+ HF
T
_
z
1
I
n
F
_
T
H
T
+ H (zI
n
F)
1
FH
T
_
R
o
+ HH
T

1
HF
T
_
z
1
I
n
F
_
T
H
T
Et si lon utilise le fait que M
p
_
R
o
+ HH
T

= FH
T
, on obtient
H (zI
n
F)
1
Q
o
_
z
1
I
n
F
_
T
H
T
=
HH
T
+ H (zI
n
F)
1
M
p
_
R
o
+ HH
T

+
_
R
o
+ HH
T

M
T
p
_
z
1
I
n
F
_
T
H
T
+ H(zI
n
F)
1
M
p
[R
o
+ HH
T
](M
p
)
T
(z
1
I
n
F
T
)
1
H
T
238
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve /3
soit
R
o
+ H (zI
n
F)
1
Q
o
_
z
1
I
n
F
_
T
H
T
=
_
I
p
+ H (zI
n
F)
1
M
p
_
_
R
o
+ HH
T

_
I
p
+ H (zI
n
F)
1
M
p
_
T
Preuve de P2. On a
det (I
p
+(
oo
(z)) = det
_
I
p
+ H (zI
n
F)
1
M
p
_
= det
_
I
n
+ (zI
n
F)
1
M
p
H
_
= det
_
(zI
n
F)
1
_
det (zI
n
F + M
p
H)
=
P
o
(z)
A(z)
En utilisant legalite de dierence de retour, on obtient
det (I
p
+(
oo
(z)) det
_
R
o
+ HH
T
_
det
_
I
p
+(
oo
(z
1
)
_
=
det
_
R
o
+/
oo
(z)/
oo
(z
1
)
T
_
239
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve /4
On peut ainsi determiner les p oles des estimateurs optimaux sans connatre la
solution de lequation algebrique de Riccati.
Preuve de P3. Comme legalite de dierence est veriee pour tout z (, on
a
_
I
p
+(
oo
(e
jT
e
)
_ _
R
o
+ HH
T
_ _
I
p
+(
oo
(e
jT
e
)
_
T
=
R
o
+/
oo
(e
jT
e
)/
oo
(e
jT
e
)
T
Et puisque R
o
est une matrice denie positive et que /
oo
(e
jT
e
)/
oo
(e
jT
e
)
T
est
un spectre et donc une forme hermitienne, on obtient linegalite de dierence de
retour sur le cercle unite
_
I
p
+(
oo
(e
jT
e
)
_ _
R
o
+ HH
T
_ _
I
p
+(
oo
(e
jT
e
)
_
T
R
o
240
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
Preuve /5
Par ailleurs, comme lARE admet une solution symetrique denie non negative
et que
max
_
R
o
+ HH
T
_

max
_
R
o
+ HH
T
_
, on aura

max
_
R
o
+ HH
T
_

min
_
I
p
+(
oo
(e
jT
e
)
_

min
(R
o
)
T
Et compte tenu de la denition de la fonction de sensibilite o
o
(z) = (I
p
+(
oo
(z))
1
,
on obtient

max
(o
o
(z))

max
_
R
o
+ HH
T
_

min
(R
o
)
1 pour tout z (
01
La preuve de P4 est essentiellement basee sur des resultats fondamentaux de lana-
lyse complexe.
241
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R1
R1. La propriete P2 permet de deduire le comportement asymptotique des
p oles des estimateurs lorsque les matrices de variance des perturbations detat
et de sortie sont susamment petites, soit
P
o
(z)P
o
(z
1
) B
oo
(z)B
oo
(z
1
) lorsque R
o
0
et
P
o
(z)P
o
(z
1
) A(z)A(z
1
) lorsque Q
o
0
avec
det (/
oo
(z)) = det
_
H (zI
n
F)
1
_
Q
o
T
_
=
B
oo
(z)
A(z)

Q
o
= GG
T
= /
oo
(z) = H (zI
n
F)
1
G = ((z)
242
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R2
R2. La propriete P4 conf`ere aux estimateurs de Kalman une robustesse re-
marquable : les erreurs de modelisation et les perturbations que lon peut
ramener dune mani`ere ou dune autre en sortie sont relativement attenuees
en basse frequences. Dans le cas des syst`emes monovariables consideres, une
telle propriete devient
[ 1 +(
oo
(e
jT
e
) [ pour tout
_

T
e
, +

T
e
_
Le lieu de Nyquist du gain en boucle ouverte se trouve ainsi `a lexterieur
dun cercle de centre le point critique (1, 0j) et de rayon . Les marges de
module, de gain et de phase qui en resultent sont respectivement donnees par
M = , G
_
1
1 +
,
1
1
_
et 2 arcsin
_

2
_
243
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R3
R3. En supposant que les conditions initiales sont nulles, on peut recrire le
predicteur et le ltre comme suit

Y
p
(z) = F
pu
(z)U(z) + F
pu
(z)Y (z) avec
F
pu
(z) =
HAdj (zI
n
F + M
p
H) G
P
o
(z)
F
py
(z) =
HAdj (zI
n
F + M
p
H) M
p
P
o
(z)
et

Y
f
(z) = F
fu
(z)U(z) + F
fu
(z)Y (z)
avec
F
fu
(z) =
HAdj (zI
n
F M
f
HF) (I
n
M
f
H) G
P
o
(z)
F
fy
(z) =
z HAdj (zI
n
F M
f
HF) M
f
P
o
(z)
244
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R4
R4. Lerreur de prediction de la sortie est donnee par
y(t/t 1) = H x(t/t 1) + v(t)
avec
x(t + 1/t) = (F M
p
H) x(t/t 1) + w(t) M
p
v(t)
En supposant que les conditions initiales sont nulles et en utilisant le lemmme
dinversion, on aura

Y (z) = o
o
(z)V (z) + H (zI
n
F + M
p
H)
1
W(z)
Conformement ` a la propriete de robustesse du predicteur, les eets les plus
nefastes des perturbations detat et des bruits de mesure sur la prediction de
la sortie correspondent `a une amplication dun facteur
245
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R5
La
synth`ese du predicteur et du ltre de Kalman aurait pu etre eectuee directement
pour les syst`emes variants dans le temps, soit
oL1T
_
x(t + 1) = F(t)x(t) + G(t)u(t) + w(t)
y(t) = H(t)x(t) + v(t)
pourvu que
(H(t), F(t)) est uniformement detectable
(F(t),

Q
o
) est uniformement stabilisable
246
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
REMARQUE R6
Le syst`eme oL1T est uniformement observables sil existe un instant t
f
et des
constantes positives
o
,
1
,
o
et
1
tels que le gramien dobservabilite du syst`eme
deni par
(
o
(t
o
, t
f
) =
t
f

t=t
o
+1
(t, t
o
+ 1)
T
H(t)
T
H(t)(t, t
o
+ 1)
avec
(t, t
o
) =
_
F(t 1)F(t 2) . . . F(t
o
) pour t > t
o
I
n
pour t = t
o
verie les propriete suivantes
(
o
(t
f
t, t
1
) > 0 t
f

o
I
n
((
o
(t
f
t, t
1
))
1

1
I
n
t
f

o
I
n
(t
f
, t
f
t) ((
o
(t
f
t, t
f
))
1
(t
f
, t
f
t)
T

o
I
n
t
f
247
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ADAPTATION PARAMETRIQUE
Consi-
derons le syst`eme
A(q
1
)y(t) = B(q
1
)u(t d 1) + v(t)

_
(t + 1) = (t) avec
o
=
y(t) = (t 1)
T
+ v(t) + v(t)
Si u(t) est choisie de mani`ere ` a satisfaire la condition dexcitation persistante
La matrice
1
t
t

t=1
(t 1)(t 1)
T
est reguli`ere
alors le syst`eme est uniformement observable.
248
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ADAPTATION PARAMETRIQUE /1
Le predicteur de Kalman correspondant est obtenu en prenant
F(t) = I
n
, G(t) = 0, H(t) = (t 1)
T
, R
o
=
o
et Q
o
= 0
soit les equations

(t) =

(t 1) +
F(t 1)(t 1)

o
+ (t 1)
T
F(t 1)(t 1)

o
(t)

o
(t) = y(t) (t 1)
T

(t 1)
F(t) = F(t 1)
F(t 1)(t 1)(t 1)
T
F(t 1)

o
+ (t 1)
T
F(t 1)(t 1)
qui ne sont autre que les equations de lalgorithme dadaptation parametrique aux
moindres carres
249
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
ADAPTATION PARAMETRIQUE /1
On notera que le predicteur de Kalman permet deectuer une adaptation pa-
rametrique dans le cas des syst`emes lineaires variant dans le temps que lon peut
representer comme suit
oLT1T
_
(t + 1) = F(t)(t) + G(t)

+ w(t)
y(t) = H(t)(t) + v(t)

(t + 1) =

(t) + G(t)

+ H(t)
T
(t)(t)
(t) =
_
R
o
+ H(t)(t)H(t)
T

1
_
y(t) H(t)

(t)
_
(t + 1) = F(t)(t)F(t)
T
F(t)(t)H(t)
T
_
R
o
+ H(t)(t)H(t)
T

1
H(t)(t)F(t)
T
+ Q
o
250
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONCLUSION
Le probl`eme destimation optimale

_
x(t + 1) = F(t)x(t) + G(t)u(t) + w(t)
y(t) = H(t)x(t) + v(t)
a ete etudie ` a la lumi`ere de la culture Kalmanienne
Predicteur et Filtre de Kalman
Versions stationnaires des estimateurs de Kalman
Proprietes des estimateurs de Kalman
Remarques pertinentes
Estimation et adaptation parametrique aux moindres carres
251
First Prev Next Last Go Back Full Screen Close Quit
N.K.MSirdi

C
o
u
r
s
:

C
o
u
r
s
d

i
d
e
n
t
i

c
a
t
i
o
n
p
a
r
a
m
e
t
r
i
q
u
e

S
A
S
V
CONCLUSION
Une classe de predicteurs usuels pour lidentication des syst`emes
Une methode didentication pour chaque predicteur sous la benediction du
principe dequivalence certaine
Des resultats fondamentaux pour certaines methodes
4
4. Si ton go ut est subtil, apprends `a go uter leau et `a distinguer les sources. Lanza Del Vasto
252

Anda mungkin juga menyukai