On rappelle que ltude concernant la mthode des diffrences finies pour rsoudre des
quations aux drives partielles se dcompose en trois articles :
[AF 500] Mthode des diffrences finies pour les EDP stationnaires ;
[AF 501] Mthode des diffrences finies pour les EDP dvolution ;
[AF 502] Algorithmes numriques pour la rsolution des grands systmes.
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 1
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________
1. Position du problme On peut tirer partie de cette situation grce au rsultat suivant :
Avant dexposer les grandes lignes des mthodes de rsolution Thorme 1. Pour une matrice A quelconque, soit :
des systmes linaires, considrons un exemple issu dapplica-
tions industrielles, qui va nous permettre de comprendre la diffi- a 1,1 . . . a 1,i
cult de rsolution de tels systmes.
. . .
Exemple 1 : considrons lanalyse des flux arodynamiques i = det . . .
, 1 i n
autour dun avion en mouvement ; le problme revient dterminer en
. . .
chaque point du milieu et chaque instant, la valeur de paramtres
comme la temprature, la pression, etc. Le phnomne tudi peut a i,1 . . . a i,i
tre modlis par les quations de Navier-Stokes qui expriment la
conservation de la masse, du moment et de lnergie ; en coordonnes On suppose que i 0, 1 i n . Alors la matrice A se facto-
cartsiennes, et dans leurs formes compltes, ces quations compren- rise en un produit L R o R est une matrice triangulaire sup-
nent plus de soixante drives partielles. La rsolution numrique de rieure et L est une matrice triangulaire infrieure dont les
ces quations savre ncessaire dans la mesure o une rsolution coefficients diagonaux sont gaux lunit. De plus, la matrice R
analytique est problmatique. La prise en compte des quations de est inversible et la factorisation est unique.
Navier-Stokes dans leur totalit conduirait des maillages comprenant
de 1012 1015 points. Si lon considre un problme simplifi dcrit sur
un maillage comprenant 107 points, avec 20 valeurs attaches cha- Remarque
que point (paramtres du problme, lments de gomtrie, rsultats Le fait que la factorisation LR soit possible correspond une
intermdiaires, etc.), le modle discret considr comporte 2 108 mthode de Gauss dans laquelle on choisit comme pivot, chaque
donnes ; suivant le type de problme, le volume de calculs peut tape k, les coefficients a k,k , pour k = 1, 2, ..., n 1, cest--dire que
atteindre voire dpasser 1013 oprations arithmtiques. Pour un ordi-
lon neffectue jamais de permutation de ligne dans la mesure o
nateur capable dexcuter 107 oprations arithmtiques par seconde,
cette situation permet de montrer que ak,k 0, pour k = 1, 2, ...,
le temps de calcul est de lordre de 1013 /107 secondes, soit environ
278 heures ou encore prs de 12 jours. n 1. De plus on vrifie aisment que, dans ce cas, la structure
bande initiale est conserve, cest--dire que si A = (ai,j) vrifie
ai,j = 0 pour |i j | > o est la demi-largeur de bande, alors
Sauf cas particulier (cf. paragraphe 5, mthode multigrille),
pour simplifier les notations nous noterons dans la suite : L = ( i,j ) et R = ( r i,j ) satisfont r i,j = i,j = 0 pour |i j | > , ce qui
conduit reformuler une version bande de la mthode de Gauss.
AU = F, U dim ( A ) , F I dim ( A ) Ainsi, on sait que la mthode dlimination conserve la structure
le systme linaire inverser. bande initiale, condition toutefois de ne jamais permuter de
lignes, ce qui est assur grce au rsultat donn par le thorme 1.
Par exemple, aprs discrtisation convenable, cette proprit se
trouve encore conserve pour certain type de matrice autre que les
2. Mthodes directes matrices symtriques dfinies positives [2].
De plus, dans ce contexte, le nombre doprations arithmtiques
La premire mthode de rsolution envisageable du systme est de lordre de dim ( A ) 2 , ce qui diminue notablement la
linaire prcdent, est la mthode dlimination de Gauss (ou ses complexit de lalgorithme. Cependant, si lon veut calculer la
variantes comme la mthode de Crout ou la mthode de Cholesky, solution de lEDP de manire trs prcise, il est ncessaire de
etc.), dont la complexit, cest--dire le nombre doprations considrer des maillages trs fins et le cot de rsolution du sys-
2 3 tme linaire peut devenir prohibitif ; il dcoule de cet tat de fait
arithmtiques, est de lordre de ----- dim ( A ) ; si A est une matrice
3 que linversion de la matrice intervenant dans un systme linaire
symtrique, le nombre doprations arithmtiques se rduit issu de la discrtisation dune quation aux drives partielles
conduit :
1 3
3
----- dim ( A ) ; or on a vu que, dans le cas de rsolution numrique
des temps de calculs particulirement importants ;
dquations aux drives partielles, dim(A ) est grand et, par des rsultats de calcul peu prcis.
consquent, le nombre doprations arithmtiques devient vite
important. Par ailleurs, on a vu galement que, dans un grand En effet, pour ce dernier point, laccumulation des erreurs
nombre de cas, la discrtisation des quations aux drives par- darrondi, dues la mauvaise reprsentation des nombres rels en
tielles conduit des matrices de discrtisation structure bande du machine, peut, comme on la indiqu au paragraphe 4 de larticle
type suivant : [AM 500] compltement dnaturer le rsultat calcul, alors mme
que lapproximation conduit thoriquement des rsultats accep-
.
tables. Autrement dit, de petites perturbations sur le calcul des
. coefficients du systme linaire peuvent entraner de grandes per-
turbations sur les valeurs calcules ; ce phnomne numrique,
. 0
difficilement prvisible a priori, sajoute limprcision dcoulant
. .
du procd de discrtisation. Cette sensibilit la propagation et
. lamplification des erreurs intervient lorsque la matrice A est mal
2 + 1 .
conditionne et le nombre de conditionnement C (A ) permet
. . davoir un indicateur sur la difficult dinversion numrique de la
matrice ; si A est une matrice symtrique, et en considrant des
.
normes matricielles induites par la norme euclidienne, on a vu au
.
max ( A )
0 . corollaire 3 de larticle [AF 500] que C 2 ( A ) = ------------------------- , o max (A )
min ( A )
. et min (A ) reprsentent respectivement la plus grande et la plus
.
petite valeur propre de la matrice A. Une matrice bien conditionne
correspond une valeur de C2 (A ) gale ou proche de lunit ; une
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 2 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES
matrice mal conditionne correspond une valeur de C2 (A ) trs Les mthodes classiques de relaxation par points sont dfinies
grande et, dans le cas du problme de Poisson discrtis, on a comme suit ; on considre la dcomposition (en anglais splitting)
montr que le nombre de conditionnement tendait vers linfini lors- suivante de la matrice A :
que la dimension de la matrice augmentait.
A=DEF
On prfre gnralement inverser les systmes linaires issus de
la discrtisation des quations aux drives partielles par une .
mthode itrative qui limite les effets du mauvais conditionne-
ment, ainsi que le nombre doprations arithmtiques ; cependant, .
comme nous le verrons, leffet du mauvais conditionnement se . F
traduira par une vitesse de convergence plus lente. Il faut gale- .
ment avoir conscience que lutilisation des mthodes itratives . D .
ncessite non seulement ltude de la convergence des algori- A =
thmes mais encore celle de la vitesse de convergence ainsi que la . .
dtermination de tests darrt des itrations fiables. On distingue .
plusieurs types de mthodes itratives : E .
les mthodes de relaxation ( 3) ; .
les mthodes issues de la minimisation de formes quadra- .
tiques ( 4) ;
les mthodes multigrilles ( 5) ; avec D diagonale de la matrice A.
les mthodes de dcomposition de domaine ( 6).
La mthode de Jacobi par points est dfinie par :
ai,j u j
k
fi
k +1 ji
= ----------------------------------- , i B = J = D 1 ( E + F ) = I D 1 A
3. Mthodes itratives ui
a i,i
de relaxation par points La mthode de Gauss-Seidel par points est dfinie par :
et par blocs i 1 n
ai,j u j
k +1 k
fi a i,j u j
k +1 j=1 j = i +1
Les mthodes de relaxation par points consistent transformer ui = ----------------------------------------------------------------------------------- , i B = 1 = ( D E ) 1 F
lquation A U = F en une quation de point fixe comme suit : a i,i
Thorme 2. Une condition ncessaire et suffisante pour que Il est noter que, lorsque le paramtre est gal 1, on
litration : retrouve la mthode de Gauss-Seidel par points. Par ailleurs,
lintroduction du paramtre est destine augmenter la vitesse
U 0 donn quelconque, de convergence de lalgorithme, lorsque cela est possible.
k +1
U = BU k + c , pour k = 0, 1, 2 Dautre part, on a vu dans les articles [AF 500] et [AF 501] que les
matrices de discrtisation associes aux problmes modles
converge, quel que soit U 0, est que le rayon spectral de la avaient une structure par blocs. On peut tirer parti de cette struc-
matrice ditration ( B ) = Max i ( B ) soit de module stric- ture particulire et dfinir des mthodes de relaxation par blocs ;
1 i dim ( B ) considrons le cas o la matrice A se dcompose en p p blocs
tement infrieur lunit. nots (Ai, j ), i, j = 1, ..., p, ce qui correspond la structure suivante :
A A A
1,1 1,2 ... 1,p
Dfinition 1. On appelle vitesse asymptotique de convergence A A
2,2 ... A 2,p
A =
2,1
de litration linaire :
U 0 donn quelconque, A p,1 A p, 2 ... A p, p
k +1
U = B U k + c , pour k = 0, 1, 2
et supposons, de plus, que les blocs diagonaux soient des matrices
carres inversibles ; dcomposons galement les vecteurs U et F
la quantit dfinie par E (B ) = ln ( (B )). suivant une dcomposition par blocs compatible avec celle de A ;
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 3
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________
soient Ui et Fi , i = 1, ..., p, les blocs composantes de ces vecteurs. On citera, plus loin, des rsultats garantissant la convergence
Avec ces notations, on peut, comme prcdemment, dfinir des mthodes de Gauss-Seidel et de surrelaxation par points ou
lquation de point fixe associe au problme A U = F. On aura, par par blocs (avec paramtre optimal) utilisables lorsque la mthode
exemple : de Jacobi par points est convergente.
Compte tenu de la difficult pratique de dterminer (B ) dans le
A i,i U i = F i Ai,j Uj , i { 1, ..., p }
cas gnral, et du surcot de calcul pour dterminer cette quantit,
ji
on prfre utiliser des conditions suffisantes de convergence plus
faciles vrifier dans le cas des mthodes de relaxation classiques
On dfinit la mthode de relaxation par blocs (SOR) de manire telles que la mthode de Jacobi, Gauss-Seidel, surrelaxation (SOR)
analogue la mthode par point, ce qui conduit, dans ce cas, par points ou par blocs. On donne ici un rsum de quelques rsul-
lcriture suivante : tats.
Ai, j U j + ( 1 ) Ai,i U i
k +1 k +1 k
A i,i U i = Fi Thorme 4. Soit A une matrice symtrique dcompose par
j<i
points ou par blocs sous la forme A = D E F, avec D dfinie
k
A i,j U j , i { 1, ..., p } , 0 < < 2 positive. Alors la mthode de surrelaxation par points ou par
j>i blocs, pour ]0,2[, est convergente si et seulement si A est
dfinie positive.
k +1
Pour calculer les composantes U i , il est ncessaire de rsou-
k +1
dre un systme linaire du type A i,i U i = G i , ce dernier vec- Corollaire 1. Soit A une matrice symtrique dfinie positive ;
teurGi tant parfaitement dterminable. Il faut donc une rsolution alors la mthode de surrelaxation par points ou par blocs
qui soit relativement aise. Si lon utilise une dcomposition du converge pour ]0,2[.
type Li Ri base sur la dcomposition de Gauss de la matrice Ai,i ,
il suffira deffectuer une seule fois (lors de linitialisation de lalgo- Remarque
rithme) cette dcomposition ; en effet, si lon stocke les facteurs Li
En particulier, la mthode de Gauss-Seidel par points ou par
et Ri , il suffira de rsoudre Li Ri U i
k +1
= G i chaque itration k. blocs, correspondant au cas = 1, converge.
Remarque
Thorme 5. Soit A une matrice diagonale strictement
Dans la mthode de relaxation prcdente, si = 1, on retrouve dominante ; alors la mthode de Jacobi par points converge.
la mthode de Gauss-Seidel par blocs. La formulation de la
mthode de Jacobi par blocs scrit comme suit :
Thorme 6. Soit A une matrice diagonale dominante
Ai, j U j ,
k +1 k
A i,i U i = Fi i { 1, ..., p } irrductible ; alors la mthode de Jacobi par points et la
ji mthode de Gauss-Seidel par points convergent.
et le principe de rsolution par blocs est le mme.
Remarque
Remarque Les rsultats des thormes 5 et 6 stendent au cas de la
Les mthodes par blocs ncessitent plus doprations arithm- mthode de surrelaxation par points pour ]0,1].
tiques que les mthodes par points ; cependant, dans les appli-
cations, on vrifie que la vitesse asymptotique de convergence des Compte tenu des rsultats obtenus au paragraphe 4 de larticle
itrations par blocs est suprieure celle de leurs homologues par [AF 500], il est clair que lune ou lautre des proprits prcdentes
points. se trouvent vrifies par les matrices issues de la discrtisation des
quations aux drives partielles ; il existe dautres conditions
Remarque suffisantes de convergence prenant notamment en compte les pro-
prits de diagonale dominance irrductible de la matrice et
Comme pour les mthodes par points, on peut associer la applicables dans le contexte de la simulation numrique que nous
matrice A une dcomposition (splitting ) du type A = D E F, o ne dveloppons pas ici, renvoyant le lecteur la littrature [2].
ici les matrices D, E et F sont dfinies par blocs, conformment
la structure de la matrice A. Les mthodes de relaxation par blocs ont t tudies dans le
cas de matrices issues de la discrtisation dquations aux drives
partielles ; indiquons ci-dessous quelques rsultats spcifiques
Concernant ltude de la convergence, on a les rsultats ce type de situation.
suivants :
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 4 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES
On considre la minimisation dune forme quadratique du type : Thorme 9. Soit A une matrice symtrique dfinie positive de
dimension dim (A ). Alors la mthode du gradient conjugu,
J (U ) = Min (J (V ), V dim ( A ) ) applique la rsolution du systme algbrique linaire AU = F,
avec : converge, en arithmtique exacte, en dim (A ) itrations au plus.
1 De plus, la vitesse de convergence est majore par :
J ( U ) = ----- U t AU U t F
2
C2 ( A ) 1 2k
o A = A t (symtrie), ce qui correspond une hypothse non restric-
tive, et dfinie positive qui assure la stricte convexit de J (V ) ; dans
E ( U k ) 4 -----------------------------------
C2 ( A ) + 1 E ( U 0 ), k 0
ce contexte thorique minimal, on est assur de lexistence et de
lunicit du minimum, ce dernier tant caractris, dans le cas dopti- avec E, dfinie par E (V ) = <A (V U ), V U >.
misation sans contrainte, par lquation dEuler J (U ) = 0 ; on vrifie
alors aisment que la valeur de U qui rend minimale J est caractri-
se par la relation J (U ) = AU F = 0, cest--dire que U est solution Remarque
du systme linaire AU = F. Ainsi minimiser J (U ) revient rsoudre Il convient de prciser galement que le nombre maximal dit-
ce systme linaire. Le problme revient donc dterminer des algo- rations est de dim(A ) en arithmtique exacte ; cependant, les
rithmes efficaces de minimisation de formes quadratiques. nombres rels tant mal reprsents en machine, le nombre
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 5
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________
ditrations pour rsoudre le systme linaire peut tre suprieur On constate que, chaque itration, il est ncessaire, en plus des
dim (A ) ; cela provient dun dfaut de normalit entre les directions oprations habituelles, de rsoudre un systme de la forme :
de descente corriges. CZ = R
Remarque Il est donc indispensable que cette rsolution soit facile et peu
Si la matrice est mal conditionne, C2(A ) est grand et la coteuse, ce qui sera le cas si la matrice C est une matrice diago-
convergence de lalgorithme du gradient conjugu est lente ; par nale ou encore le produit de matrices triangulaires. Parmi les choix
contre si C2(A ) est proche de 1, la matrice est bien conditionne et classiques de matrices de prconditionnement, on retient les trois
la mthode du gradient conjugu converge rapidement. mthodes suivantes.
Prconditionnement diagonal o C = Diag (A ) = D, qui, en pra-
Cette remarque va tre le point de dpart de ltude dun procd tique est peu efficace ;
dacclration de la convergence de lalgorithme du gradient
conjugu. En effet, un autre intrt de cette mthode, rside dans le Prconditionnement SSOR (Symetric Successive Over-Relaxa-
fait que lon peut augmenter la vitesse de convergence de lalgo- tion) dEvans o :
rithme en prconditionnant la matrice A, artifice qui consiste rem-
1
placer la rsolution du systme algbrique linaire initial, AU = F, C = ------------------------- ( D E ) D 1( D E ) t
par celle du systme suivant : (2 )
C 1 AU = C 1 F avec E partie strictement triangulaire infrieure de A, avec
A = D E E t,
que lon peut encore crire :
paramtre rel strictement compris entre 0 et 2.
C 1/2 (C 1 A ) C 1/2 C 1/2 U = C 1/2 F
On constate que, dans ce cas, C est obtenue directement en
o C 1 est la matrice de prconditionnement, matrice symtrique fonction de A ; aucun stockage ni calcul supplmentaire nest
dfinie positive, de telle sorte que le systme quivalent : ncessaire. La rsolution du systme CZ = R ncessite de plus la
~~ ~ rsolution dun systme triangulaire infrieur, dun systme diago-
AU = F nal et dun systme triangulaire suprieur. On peut, de plus, dter-
~
soit dfini galement avec la matrice A = C 1/2 A C 1/2 , matrice ~ la valeur dun paramtre optimal qui minimise la valeur de
miner
C( A ) [1].
symtrique dfinie positive, semblable la matrice C 1 A, o
~ ~ Exemple 3 : dans le cas de lquation de Poisson discrtise avec
U = C 1/2U et F = C 1/2F, la matrice C tant choisie de telle sorte que : un maillage diffrences finies uniforme de pas h, ce paramtre opti-
~ mal est donn par :
C ( A )<< C ( A )
2
La dtermination de la matrice C est un problme non trivial. = opt = ----------------------------------------------------------
~ ~ 1 + 1 ( (J ) ) 2
La valeur idale est C ( A ) = 1 et, en pratique, A est une
1
approximation de lidentit, la matrice C tant une approxima- avec J = I D 1 A,
(J ) = Max | i (J )|.
tion de A 1 ; en pratique, il faudra trouver C 1 la plus proche de
~ 1
A 1, sans que les calculs pour dterminer C 1 soient trop coteux.
Si lon rcrit lalgorithme du gradient conjugu prconditionn
Par un calcul direct, on vrifie que C ( A ) = O ------ alors que
h
~~ ~ 1 ~
pour la rsolution du systme linaire AU = F , on peut exprimer
les tapes de calcul directement partir de la donne de la matrice h
C ( A ) = O --------2- ; ainsi on obtient bien que C ( A ) < < C ( A ) .
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 6 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 7
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________
dant la mthode de Gauss-Seidel, on montre, par analyse de Fou- Tableau 1 Comparaison des temps de calculs de solveurs
rier, que le facteur de rduction de lerreur est gal itratifs classiques
5 /5 = 0,447, ce qui correspond un excellent taux de rduction. Mthode (1) Temps CPU de calcul (2)
Gauss-Seidel 20 h
La mthode multigrille correspond lapplication rcursive
dune mthode 2-Grilles. En effet lors de la rsolution du systme
SOR optimal 20 min
dquations sur la grille grossire A VH = rH , on peut de nouveau uti-
liser une mthode 2-Grilles, en dfinissant un problme sur une
GC + factorisation incomplte 6 min
grille encore plus grossire de pas 2H, et ainsi de suite pour
finalement rsoudre un systme dquations sur la grille la plus
grossire ne contenant que quelques points, voire mme un seul Multigrille standard 18 s
point puisque les pas de discrtisation sont choisis comme des puis-
sances inverses de 2. Full multigrille 7s
X0 X1 X2 XN / 2 6. Mthodes de dcomposition
Grille grossire de pas H = 2h de domaine
On a vu prcdemment que la discrtisation dquations aux
drives partielles conduit la rsolution de systmes algbriques
Grille grossire de pas de 4h de grande dimension ; les algorithmes prsents prcdemment
sont, en gnral et pour la plupart des applications, les plus per-
formants sur les ordinateurs traditionnels. Actuellement, on assiste
une volution de larchitecture des machines et, depuis une ving-
taine dannes, on voit apparatre sur le march des multiproces-
Grille grossire de pas de 8h (1 seul point)
seurs, machines quipes de plusieurs processeurs destins
travailler en parallle sur la mme application. Bien videmment,
il est ncessaire dadapter les algorithmes de rsolution numrique
des quations aux drives partielles ce type de supercalculateur.
Cela ncessite de dfinir des stratgies de passages intergrilles Il existe plusieurs solutions. Soit on adapte les algorithmes prc-
que nous ne dvelopperons pas ici dans la mesure o le lecteur dents en excutant en parallle toutes les phases du programme
trouvera de nombreux dtails dans la rfrence [4]. Signalons ga- qui sont indpendantes afin de tirer parti au maximum de larchi-
lement que cette mthode multigrille est bien adapte une utili- tecture de la machine ; cet aspect relve plutt de techniques infor-
sation sur des domaines rectangulaires ; il existe cependant des matiques et nous naborderons pas ici ce sujet.
variantes de la mthode multigrille bien adaptes la rsolution
Une autre faon de tirer avantage des possibilits des machines
numrique dquations aux drives partielles sur des domaines
multiprocesseurs est de dcomposer le domaine o est dfinie
quelconques [5]. lquation aux drives partielles en une union de sous-domaines
i , de telle sorte que = i .
Exemple 4 : titre illustratif, considrons le problme de Poisson
dfini sur le carr unit avec conditions aux limites de Dirichlet ce stade, plusieurs possibilits sont envisageables ; on peut
homognes : soit considrer que :
i k = , si i k
u = f, ( x,y ) = ]0, 1 [ x ] 0, 1[
u = 0, ( x , y ) o est lensemble vide et, dans ce cas, on parle de mthode de
sous-domaines sans recouvrement, la plus connue tant la
mthode du complment de Schur qui est une mthode
La discrtisation de ce problme par diffrences finies classiques semi-directe correspondant une mthode dlimination par blocs,
conduit rsoudre un systme linaire ; considrons un pas de discr- le domaine tant partitionn, par exemple, en quatre sous-domai-
tisation h suffisamment fin ainsi quune tolrance raisonnable tol pour nes i , i = 1, ..., 4, disjoints coupls une interface . Ce mode de
arrter les itrations, par exemple : dcomposition est reprsent sur la figure 1, dans le cas de quatre
sous-domaines. La matrice de discrtisation a alors lallure
h = 256 1 dim(A ) = 65 025 et tol = 10 4 h2 ci-dessous :
La comparaison des temps de calcul conduit dresser le tableau 1.
A1 C1
Les rsultats prsents dans le tableau 1 permettent de mesurer la
diffrence de performance des algorithmes prcdents ; il convient de A2 C2
noter que les mthodes multigrilles sont favorises dans ce type de
A = A3 C3
problme, dans la mesure o le domaine est ici le carr unit ; si lon
considre un domaine quelconque, les performances de la mthode A4 C4
multigrille diminueront et la mise en uvre de lalgorithme sera moins
B1 B2 B3 B4 D
simple raliser.
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 8 Techniques de lIngnieur, trait Sciences fondamentales
______________________________________________________________________________________________________ MTHODE DES DIFFRENCES FINIES
1 2
1 2,1 1,2 2
3 4
Les matrices Ai correspondent la discrtisation sur les On peut galement considrer que i j si i j, et il sagit
sous-domaines i , i = 1, 2, 3, 4 et les matrices Bi et Ci correspon- alors de mthode de sous-domaines avec recouvrement, la plus
dent au couplage entre ces derniers et linterface , alors que D est classique dentre elles tant la mthode alterne de Schwarz, qui est
la matrice de discrtisation dfinie sur . Si lon effectue une limi- une mthode itrative de type relaxation [6]. On illustre, sur la
nation par blocs, on vrifie quaprs limination on obtient une figure 3, le cas dune dcomposition en deux sous-domaines se
matrice du type : recouvrant. En partant dune donne initiale U 0 = ( u 1 , u 2 ) connue,
0 0
Bien sr, nous navons pas fait le tour de tous les problmes
danalyse et dalgbre qui sont en relation avec la simulation
31 32 41 42 numrique des quations aux drives partielles. Cependant, nous
avons donn un bref aperu dune problmatique abstraite en rela-
3 4 tion avec un trs grand nombre dapplications concrtes.
33 34 43 44
Pour de plus amples renseignements concernant les algo-
rithmes numriques pour la rsolution de grands systmes, le
lecteur pourra consulter les rfrences [7] [17].
Figure 2 Dcomposition de Schur : dcomposition rcursive
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
Techniques de lIngnieur, trait Sciences fondamentales AF 502 9
MTHODE DES DIFFRENCES FINIES _______________________________________________________________________________________________________
Rfrences bibliographiques
[1] BARANGER (J.). Analyse numrique. [7] AXELSON (O.) et BARKER (V.A.). Finite [13] HACKBUSCH (W.) et TROTTENBERG (U.).
Hermann (1991). element solution of boundary value problems Multigrid methods. Lecture Notes in Mathe-
- Theory and computation. Academic Press matics, Springer-Verlag (1982).
[2] MEURANT (G.). Computer solution of large
(1984).
linear systems. North Holland (1999).
[8] AXELSON (O.). Iterative solution method. [14] SMITH (G.D.). Numerical solution of partial
[3] LASCAUX (P.) et THEODOR (R.). Analyse Cambridge University Press (1996). differential equations : Finite difference me-
numrique matricielle applique lart de thods. Clarendon Press (1984).
lingnieur. Tomes 1 et 2, Masson (1986). [9] BEREZIN (I.S.) et ZHIDKOV (N.P.). Computing
methods. Pergamon Press (1965).
[4] McCORMICK (S.). Multigrid methods. SIAM [15] WESSELING (P.). An introduction to multi-
[10] BRIGGS (W.). A multigrid tutorial. SIAM grid methods. John Wiley and Sons (1992).
(1987). (1988).
[5] HACKBUSCH (W.). Multigrid methods and [11] GASTINEL (N.). Analyse numrique linaire. [16] WILKINSON (J.H.). The algebraic eigenvalue
applications. Computational Mathematics, Hermann (1966). problem. Clarendon Press (1965).
Springer-Verlag (1980).
[12] GOLUB (G.H.) et VAN LOAN (C.F.). Matrix
[6] SAAD (Y.). Iterative methods for sparse linear computation. The Johns Hopkins Univ. Press. [17] YOUNG (D.M.). Iterative solution of large
systems. PWS Publishing Company (1996). (1983). linear systems. Academic Press (1971).
Toute reproduction sans autorisation du Centre franais dexploitation du droit de copie est strictement interdite.
AF 502 10 Techniques de lIngnieur, trait Sciences fondamentales