Mmoire
Prsent en vue de lobtention du diplme de MAGISTER
ROLE JOUE PAR LA CONVEXITE DANS LA
CONVERGENCE DE LA METHODE BFGS
Option
Fonctions Spsiales et
Optimisation
Prsent par : DEGAICHIA HAKIMA
Encadr par : PROF . BENZINE RACHID
Rle jou par la convexit dans la convergence de la mthode de BFGS
Introduction
3
Introduction
6
Introduction
Chapitre I
Optimisation sans contraintes (notions de base)
Chapitre II
Mthodes Quasi -Newtoniennes
Conclusion Gnrale
8
Rle jou par la convexit dans la convergence de la mthode de BFGS
I. Optimisation sans
contraintes (notions de base)
9
Objectif
Outils Thoriques
Conditions
doptimalit
Convergence des
algorithmes
Recherches linaires
inexactes
10
Optimisation sans contraintes
Problme gnrique :
(1)
x
12
I.1 Conditions dOptimalit
Le problme rsoudre :
x
Conditions ncessaires du 1er ordre
( * ) =
0
Si est convexe, cest une cond.suffi. 1 ordre
er
globale
13
Conditions dOptimalit
Conditions ncessaires du 2me ordre
( x* ) = 0
2( x* ) est semi-dfn.pos
Conditions suffisantes du 2me ordre
( x* ) = 0
2( x* ) est dfn.pos
14
Conditions dOptimalit
Remarques
Dans le cas o f est convexe, alors
tout minimum local est aussi
globale
Convergence globale
dun algorithme
x converge
La suite { k} vers x*
O
x* satisfait la condition ncessaire doptimalit
16
Convergence des algorithmes
Remarque
18
I.3 Recherches linaires inexactes
d
:
Dfinition
>0
]0,[;
d : Direction ( x + d )
<( x )
de descente
:
Proposition Rgulire (diff.)
d : Direction de
T( x )d < 0
descente en x
19
Recherches linaires inexactes
recherche linaire veut dire
c..dlaralisait
Faire
(xk +un
dterminer kdpas (
k) xlong
le k ) + dune direction de
k
k
descente d k, autrement dit rsoudre le problme
o k <0 Car on peut tomber sur un
unidimensionnel point stationnaire au lieu
k k
dun minimum.
Objectifs atteindre
Dfinition
[ g ,d ] intervalle de scurit
R.L.Inexactes
Assure une
Deux techniques souvent utilises :suffisante
dcroissance RL d'Armijo
et RL de Wolfe. de f
RL d'Armijo (1966)
La condition dArmijo:
(xk + kdk ) (xk ) +t
(xk ) dk
0< <1
22
Recherches linaires inexactes
dk
23
Rle jou par la convexit dans la convergence de la mthode de BFGS
24
Objectif
26
Formules de mise jour de
lapproximation du Hessien
Le principe de la mise jour consiste une itration:
xk +1= xk + kdk
O Mk+1= Mk+ k
dk = Mk -1gk
Avec
k : symtrique assurant de Q-N
Mk+1 : def.pos., sous lhypothse que
Mk est def.pos.
27
Formules de mise jour de lapproximation du Hessien
THORME
La mthode de SR1
f : quadratique
converge au plus de
H( f ) : df.pos.
(n+1) itration et
s1,, sn : vects.indps.
(Mn+1) -1 =H
28
Formules de mise jour de lapproximation du Hessien
Proprits de SR1
Cette mthode prsente lavantage, que le point xk+1 na
pas besoin dtre choisi comme le minimum exact.
Mme si f est quadratique, et mme si son Hessien est
df.Pos., mais la matrice Mk nest pas forcment df. pos.
Le dnominateur (sk- Mkyk) T yk peut devenir nul
ou trs petit, ce qui rendre le procd instable c..d, la
mthode nest pas bien dfinie.
la mthode de SR1 est souvent utilises lorsquil nest pas
possible ou quil nest pas ncessaire que Mk soit dfinie
positive.
29
Formules de mise jour de lapproximation du Hessien
sksk T MkykTykMk
DFP Mk+1= Mk +
skTyk ykTMkyk
THORME
Proprits de DFP
Pour des fonctions quadratiques (avec une recherche
linaire
une exacte)
mthode :
de directions conjugues converge de faon
finie
en au plus n tapes
Lalgorithme dansdans
converge le cas
auo f est
plus quadratique
n tapes avec
dans
Mn+1 = . H-1.
Elles engendrent des directions conjugues.
Pour les fonctions quelconques :
la matrice Mk reste df.pos, ce qui est ncessaire pour
que la direction soit une direction de descente.
ykykT BkskTskBk
BFGS Bk+1= Bk +
ykTsk skTBksk
[
Mk+1= Mk + 1 +
yk Mk ykT
skTyk
]
s k sk T
skTyk
skykTMk+Mk yk skT
skTyk
32
Formules de mise jour de lapproximation du Hessien
Proprits de BFGS
Dans le cas quadratique la mthode de BFGS
possde les mmes proprits que DFP.
Dans le cas non quadratique, il faut procder des
rinitialisations priodiques pour assurer la convergence
globale.
Les directions s1, s2,...,sn engendres par la formule de
BFGS sont conjugues.
La supriorit de la mthode de BFGS sur la mthode de
DFP est que la mthode de BFGS soit beaucoup
mois sensible que DFP.
33
Rle jou par la convexit dans la convergence de la mthode de BFGS
34
Objectif
rle jou par la convexit dans la
convergence de la mthode
BFGS.Convergence de la mthode
BFGS dans le cas convexe.
Convergence de la mthode
BFGS dans le cas non
convexe.
35
Convergence de la mthode BFGS dans le cas convexe et non convexe
Hypothse 3.1
c, C deux constantes positives tels que :
c z 2 z T H(x ) z C z 2 Z , x D
Consquences
D est convexe, ferm et born et que f est convexe
dans D; alors il existe un seul minimum x*dans D.
y 2
C (cette condition assure la dfinie
yk sk
T
37
Convergence de la mthode BFGS dans cas le cas convexe
Thorme 3.1
38
Convergence de la mthode BFGS dans cas le cas convexe et non convexe
Mk+1=
Mk , Sinon
Remarque
les matrices Mk sont sym. et d.p pour tout k; c..d la
suite }(xk ){ est une suite dcroissante nimporte
quelle la recherche linaire utilis de Wolfe ou
dArmijo. 40
Convergence de la mthode BFGS dans cas le cas non convexe
Hypothse 3.2
Thorme 3.2
On suppose vraie lhypotse 3.2 et }xk { est une suite
gnr par la mise jour de CBFGS avec R.L.
dAmijo, alors lim inf g k 0.
k
41
Convergence de la mthode BFGS dans cas le cas non convexe
Thorme 3.3
On suppose vraie lhypotse 3.2 et }xk { est une suite
gnr par la mise jour de CBFGS avec R.L. de
Wolfe, alors lim inf g k 0
k
Remarque
42
Convergence de la mthode BFGS dans cas le cas non
convexe
Lemme 3.1
43
Convergence de la mthode BFGS dans cas le cas non
convexe
Consquences
La condition de CBFGS ykTsk
y 2 g k2
44
Convergence de la mthode BFGS dans cas le cas convexe
Bibliographie
[1] Michel Minoux (1983), "Programmation Mathmatique, Thorie et
Algorithmes, (tome 1 , Dunod).
[2] Jorge Nocedal et Stephen J.Wright "Numerical Optimization with
85 illustrations" (1999 springer-verlag New York, Inc).
[3] J. C. Gilbert (2007), "Elments d.Optimisation Diffrentiable : Thorie et
Algorithmes", (Notes de cours, cole Nationale Suprieure de Techniques
Avances, Paris).
[4] Andreas Antoniou et Wu-Sheng Lu "PRACTICAL OPTIMIZATION Algorithms
and Engineering Applications" (2007 Springer Science+Business Media, LLC).
[5] G.Allaire "Louvrage complet est disponible auprs des Editions de
LEcole Polytechnique" paris, le 4 Janvier 2005.
[6] M.J.D. Powell, "Some global convergence properties of a variable metric
algorithm for minimization without exact line searches", (in Nonlinear
Programming, SIAM-AMS Proceedings, Vol. IX, R.W. Cottle, and C.E.
Lemke, eds., SIAM, 1976a, pp.53-72).
45
Rle jou par la convexit dans la convergence de la mthode de BFGS
[7] D.H. Li and M. Fukushima, "on the global convergence of BFGS method for
non convex unconstrained optimization problems", (April 7, 1999).
[8] R. Byrd, J. Nocedal and Y.Yuan, "Global convergence of a class of quasi-
Newton methods on convex problems", (SIAM Journal on Numerical Analysis,
24 (1987) 1171-1189).
[9] J.E.Dennis, Jr. and J.J.More, "A characterization of superlinear convergence
and its application to quasi-Newton methods", Mathematics of Computation,
(28 (1974) 549-560).
[10] R. Byrd and J. Nocedal, "A tool for the analysis of quasi-Newton methods with
application to unconstrained minimization", (SIAM Journal on Numerical
Analysis, 26 (1989) 727-739).
[11] R. Fletcher, "Practical Methods of Optimization", (Second Edition,
John Wiley & Sons, Chichester, 1987).
[12] R. Fletcher, "An overview of unconstrained optimization, in Algorithms for
Continuous Optimization : The State of the Art", (E. Spedicato, ed., Kluwer
Academic Publishers, Boston, 1994, pp.109-143).
46