Anda di halaman 1dari 7

V.

LES EXPOSANTS DE LYAPUNOV

1. Introduction

Jusqu’à présent, nous ne nous sommes en fait intéressés qu’à une seule des
propriétés fondamentales des phénomènes chaotiques : la présence d’un
attracteur de faible dimension dans l’espace de phase. Mais il existe une autre
propriété fondamentale des phénomènes chaotique : les trajectoires issues de
conditions initiales proches divergent localement au sein de cet espace borné
qu’est l’attracteur.

On peut interpréter ceci en termes d’information au sens de Shannon : sur un


attracteur chaotique, on parle de création d’information en ce sens que deux
états initiaux proches, indiscernables par un appareil de mesure de précision
finie, vont évoluer au cours du temps vers deux états discernables. Nous
reviendrons sur cet aspect des choses lorsque nous discuterons de l’entropie.
Pour le moment, essayons de mesurer le taux de divergence entre deux
trajectoires.

2. Définition

a) Cas d’une application unidimensionnelle

Soit une application discrète f de R dans R qui applique xt sur xt +1. Choisissons
deux conditions initiales très proches, soit x0 et x0 + ε et regardons comment se
comportent les trajectoires qui en sont issues. Supposons qu’elles s’écartent en
moyenne à un rythme exponentiel. On pourra alors trouver un réel λ tel que
après t itérations :

f t ( x0 + ε ) − f t ( x0 ) ≅ εe tλ (V.1)

En passant au logarithme, on trouve :

f t ( x0 + ε ) − f t ( x0 )
ln ≅ tλ (V.2)
ε

page 71
Chapitre 5 Les exposants de Lyapunov

Si l’on fait tendre ε vers 0, il vient :

1 df ( x0 )
t

λ ≅ ln (V.3)
t dx0

Finalement, en faisant tendre t vers l’infini et en utilisant la règle de dérivation


en chaîne, on obtient :

1 t −1
λ = lim t →∞ ∑ ln f ' ( xi )
t i=0
(V.4)

moyennant la notation :

f ' ( xi ) =
df
(V.5)
dx x = xi

λ est appelé exposant de Lyapunov. Il indique le taux moyen de divergence


par itération. Si ce nombre est positif, il y a élongation et sensibilité aux
conditions initiales. Si, par contre, il est négatif, on perd de l’information sur les
conditions initiales : les trajectoires se rapprochent.

b) Généralisation aux applications multidimensionnelles

Comment généraliser les concepts du paragraphe précédent à des trajectoires


multidimensionnelles de type f : Rm →Rm : xt +1 = f ( xt ) ?

Commençons par préciser qu’un système m-dimensionnel possédera m


exposants de Lyapunov. Chacun d’entre eux mesure le taux de divergence
suivant un des axes du système, de sorte qu’en moyenne un hyper-volume
initial V0 évolue selon une loi de type :

V = V0 e( λ + λ
1 2 +...+ λ m )t
(V.6)

Pour avoir du chaos, il est nécessaire qu’au moins un des λ i soit positif, pour
avoir étirement et donc SDIC selon au moins un axe. Mais il faut également que
la somme des λ i soit négative. En effet, dans le cas contraire, le volume initial
finirait par remplir tout l’espace dans lequel il est immergé. On n’aurait alors plus
un attracteur de faible dimension, et donc plus affaire à du chaos déterministe.

page 72
Chapitre 5 Les exposants de Lyapunov

Mais avant de nous pencher sur ce genre de considérations, nous devons


pouvoir définir et calculer les λ i . Dans ce but, fixons-nous donc une hyper-
sphère dans notre espace m-dimensionnel de rayon ε (petit) de conditions
initiales et examinons son évolution. Comme précédemment, nous nous
intéressons à :

f t ( x0 + ε ) − f t ( x0 ) (V.7)

Posons x' 0 = x0 + ε et opérons un développement en série limité d’ordre 1 de


f t ( x0 ) au voisinage de x' 0 :

df t ( x0 )
xt − x' t =
dx
( x0 − x' 0 ) = J t ( x0 )( x0 − x' 0 ) (V.8)

où J t ( x0 ) dénote la matrice jacobienne de f t (.) au point x0 . Il s’agit d’une


matrice carrée mxm . Si elle est diagonalisable, alors il existe une matrice
inversible Pt telle que :

Dmt = Pt−1 J t Pt (V.9)

où Dmt est une matrice diagonale contenant les valeurs propres de J t . Dénotons
celles-ci par Λti , i = 1,.., m. On définit alors les m exposants de Lyapunov de la
manière suivante46 :

λ i = lim t →∞ ln[ Λti ] i = 1,...,m


1
(V.10)
t

3. Lien avec la notion de dimension

Nous savons que si tous les exposants de Lyapunov sont positifs, on n’a pas
affaire à un attracteur chaotique, puisque l’on va peu à peu remplir tout Rm.
D’autre part, si ils sont tous négatifs, la sphère de conditions initiales va se
contracter jusqu’à dégénérer en un point. Nous sentons donc bien qu’il doit
exister un lien entre les exposants de Lyapunov et la dimension de l’attracteur.
Nous présentons ici succinctement deux conjectures de relations à partir du
spectre ordonné des exposants de Lyapunov.
46cf. DRAZIN,P.G.(1992),p.142.

page 73
Chapitre 5 Les exposants de Lyapunov

a) Conjecture de Kaplan et Yorke

Soit j0 un entier positif tel que :

j
 ∑
0

λi ≥ 0
i =1
 j +1
∑ λ < 0
0

 i =1 i

On définit alors la dimension de Kaplan et Yorke par la relation47 :

j0

∑λ i
DKY = j0 + i =1
(V.11)
λ j +1 0

b) Conjecture de Mori

Soient m0 le nombre d’exposants de Lyapunov nuls, m+ le nombre d’exposants


positifs, λ + la moyenne des exposants positifs et λ − celle des exposants négatifs.
La dimension de Mori est donnée par la relation48 :

 λ 
DMo = m0 + m+  1 + +  (V.12)
 λ− 

4. L’estimation des exposants de Lyapunov

Toute la théorie que nous avons développée jusqu’ici concernait le cas où f(.)
avait une forme analytique connue. Elle peut être d’un grand secours aux
physiciens et aux mathématiciens. Mais l’économètre, quant à lui, se trouve
confronté à une série chronologique et n’a en général aucune idée de la forme
de cette fonction. Tout est-il perdu pour autant ? Non, car des algorithmes
efficaces, mais malheureusement coûteux en temps de calcul, ont été
développés.

47cf.DESTEXHE,A.(1992) p. 24
48cf.DESTEXHE,A.(1992),p. 25

page 74
Chapitre 5 Les exposants de Lyapunov

a) Estimation du plus grand exposant

En 1985, Wolf, Swift, Swinney et Vastano49 ont proposé une méthode de calcul
du plus grand exposant et de la somme des n plus grands exposants de
Lyapunov à partir de séries chronologiques.

Leur algorithme se base sur le contrôle de la divergence entre trajectoires


voisines. On choisit dans un premier temps deux orbites très voisines, et on note
leur distance L ( t0 ) En un temps ultérieur, soit t1 , cette distance est devenue
L' ( t1 ). On effectue alors un remplacement : on se choisit une autre orbite, située
à une distance L ( t1 ) . Ce processus est illustré à la figure V.I :

sce : Wolf et al (1985), p.296


FIGURE V.1

On recommence alors ces opérations un grand nombre de fois pour les temps
t1 ,..., tM et on calcule l’estimateur du plus grand exposant :

1 M  L' ( t ) 
λ1 =
t M − t0
∑ log  L( t ) 
k
(V.13)
k =1  k −1 

Dans le même article, Wolf et al. proposent un algorithme pour le calcul de la


somme des deux plus grands exposants. Le principe est similaire : ils prennent
trois trajectoires voisines et calculent l’aire du triangle de conditions initiales,
soit A( t0 ) . En un temps ultérieur t1 , cette aire est devenue A' ( t1 ) . On effectue
alors un remplacement, et on obtient une nouvelle aire de conditions initiales
A( t1 ) . Ce processus est illustré à la figure V.II :

49cf.WOLF et al.(1985)

page 75
Chapitre 5 Les exposants de Lyapunov

sce : Wolf et al.(1985), p.296


FIGURE V.II

On recommence alors ces opérations un grand nombre de fois pour les temps
t1 ,..., tM et on calcule l’estimateur de la somme des 2 plus grands exposants :

1 M  A' ( t ) 
λ1 + λ 2 =
t M − t0
∑ log  A( t ) 
k
(V.14)
k =1  k −1 

Nous voyons que cet algorithme peut facilement être adapté à la somme des n
plus grands exposants. Un des problèmes est la présence de paramètres de
contrôle qui, mal spécifiés, pourraient fausser les calculs. Un autre est le temps de
calcul qui peut s’avérer excessivement long avec de longues séries.

b) Reconstruction de la matrice d’évolution du système50

Plaçons-nous dans un espace de phase de dimension m reconstruit suivant la


méthode des délais et soit X ( ti ) un point de cet espace. Ensuite, pour
( )
l’ensemble des points X t j appartenant au voisinage de X ( ti ) , on calcule la
meilleure régression linéaire de l’application qui envoie les vecteurs X ( ti ) - X t j ( )
[
sur leur image après un temps h, f h X ( ti ) − X t j ( )] = X ( t + h ) − X ( t
i j )
+ h . Si ce
voisinage reste très petit, alors l’application sera linéaire et la matrice obtenue,
[ ]
soit T X ( ti ) constituera une très bonne approximation de la matrice jacobienne
du système en X ( ti ) .

On répète l’opération un grand nombre de fois pour des valeurs du temps


successives On multiplie alors à droite les matrices jacobiennes successives
obtenues, conformément à la règle des dérivées en chaîne :

50cf.DESTEXHE,A.(1992) pp.21-24

page 76
Chapitre 5 Les exposants de Lyapunov

[ ] [ ] [ ] [
Tn X ( t0 ) = T X ( tn −1 ) T X ( tn −2 ) ...T X ( t0 ) ] (V.15)

Pour autant que la matrice jacobienne puisse partout être évaluée, il est donc
[ ]
possible de calculer la matrice Tn X ( t0 ) par multiplication à droite des matrices
jacobiennes obtenues pour les conditions successives X ( t0 ), X ( t1 ),..., X ( tn −1 ) .
Le spectre d’exposants de Lyapunov est alors obtenu, conformément à (V.10) à
partie de la diagonalisation de cette matrice finale.

page 77

Anda mungkin juga menyukai