Anda di halaman 1dari 49

Cours de Gostatistique et analyse des donnes 1

Mohamed ADDAM
www.lmpa.univ-littoral.fr/ addam/
addam.mohamed@gmail.com
29 novembre 2011

1. Mention Gnie Environnement. 2eme anne. Anne 2011/2012

Table des matires


1 Rappel de calcul matriciel
1.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2 Notations et dfinitions . . . . . . . . . . . . . . . . . . . . . . . . . .
1.2.1 Le tableau des donnes . . . . . . . . . . . . . . . . . . . . . .
1.2.2 Matices carres inversibles et inverse dune matrice . . . . . . .
1.2.3 Transpos dun vecteur et transpose dune matrice . . . . . . .
1.3 Rduction des martices carres . . . . . . . . . . . . . . . . . . . . . .
1.3.1 Valeurs propres ; polynme caractristique ; polynme minimal
1.3.2 Vecteurs propres ; sous-espace propres . . . . . . . . . . . . . .
1.3.3 Matrices semblables . . . . . . . . . . . . . . . . . . . . . . .
1.3.4 Matrice nilpotente . . . . . . . . . . . . . . . . . . . . . . . .
1.3.5 Exponentiel dune matrice . . . . . . . . . . . . . . . . . . . .
1.4 Spectre et rayon spectral dune matrice, Matrice positive . . . . . . . .
1.4.1 Matrice positive et matrice dfinie positive . . . . . . . . . . .
1.4.2 Valeurs singulires dune matrice . . . . . . . . . . . . . . . .
1.4.3 Dcomposition en valeurs singulires . . . . . . . . . . . . . .
1.4.4 Pseudo-inverse de Moore-Penrose . . . . . . . . . . . . . . . .
1.5 Normes matricielles . . . . . . . . . . . . . . . . . . . . . . . . . . . .
2 Variogrammes et covariances : Krigeage
2.1 Rappel sur les variables alatoires . . . . . . . . . . . . . . . . .
2.1.1 Probabilit image . . . . . . . . . . . . . . . . . . . . . .
2.1.2 Loi de probabilit . . . . . . . . . . . . . . . . . . . . . .
2.1.3 Indpendance de variables alatoires . . . . . . . . . . . .
2.2 Esprance dune variable alatoire relle . . . . . . . . . . . . . .
2.2.1 Esprance mathmatique dun produit . . . . . . . . . . .
2.2.2 Variance dune variable alatoire . . . . . . . . . . . . . .
2.3 Variable alatoire ayant une densit . . . . . . . . . . . . . . . .
2.3.1 Densit dune variable alatoire . . . . . . . . . . . . . .
2.3.2 Esprance mathmatique dune variable alatoire densit
2.3.3 Variance dune variable alatoire densit . . . . . . . . .
1

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

4
4
4
5
5
6
8
8
10
11
12
12
15
16
16
17
17
19

.
.
.
.
.
.
.
.
.
.
.

24
24
25
25
26
26
27
28
29
29
30
30

TABLE DES MATIRES

2.4

2.5
2.6

2.7

2.3.4 Loi uniforme sur (a, b) . . . . . . . . . . . . . . . . . . .


2.3.5 Loi normale N (, ) ou v.a. gaussienne . . . . . . . . . .
Covariance, corrlation, vecteur-moyenne et matrice de covariance
2.4.1 Notation matricielle . . . . . . . . . . . . . . . . . . . .
2.4.2 Suite blanche . . . . . . . . . . . . . . . . . . . . . . . .
Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
Le vraiogramme . . . . . . . . . . . . . . . . . . . . . . . . . . .
2.6.1 Hypothses de base et dfinition . . . . . . . . . . . . . .
2.6.2 Estimation du variogramme . . . . . . . . . . . . . . . .
Krigeage variogramme connu . . . . . . . . . . . . . . . . . . .
2.7.1 LES QUATIONS DU KRIGEAGE . . . . . . . . . . . .
2.7.2 Krigeage ordinaire . . . . . . . . . . . . . . . . . . . . .
2.7.3 Krigeage simple . . . . . . . . . . . . . . . . . . . . . .
2.7.4 Quelques cas trs simples de krigeage : . . . . . . . . . .

2
.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

.
.
.
.
.
.
.
.
.
.
.
.
.
.

31
31
33
34
34
35
35
37
40
41
42
43
46
47

Notations

N := {0, 1, 2, . . .} lensemble des naturels,


(N) := {. . . , 2, 1, 0} lensemble des opposs des naturels,
N = N\{0} := {n N / n 6= 0},
Z := N (N) lensemble des entiers,
D lensemble des dcimaux,
Q := { pq / p Z, q N } lensemble des rationnels,
R lensemble des nombres rels,
C lensemble des nombres complexes.

Chapitre 1
Rappel de calcul matriciel
1.1 Introduction
Ce chapitre a pour but de rappeler, et dterminer, un certain nombre de rsultats relatifs
aux matrices et aux espaces vectoriels de dimension finie, et dont un usage constant sera
fait dans toute la suite de ce cours de mthodes numriques.
Nous faisons rfrences au cours dAlgbre, chapitre 5 situ ladresse suivante :
www.lmpa.univ-littoral.fr/ addam/enseignement/
pour des notions de base sur les espaces vectoriels et une introduction sur les matrices qui
est suffisante pour aborder ce chapitre. Nous aborderons dans ce cours tous les rsultats
concernant les matrices. Les rsultats importants pour la suite seront dmontrs.

1.2 Notations et dfinitions


Soit E un espace vectoriel sur le corps des scalaires K o K = R ou C.
1. Une base de E est un ensemble {e1 , e2 , . . . , en } de n vecteurs linairement indpendants de E, quon notera (ei )1in , ou simplement (ei ) si aucune confusion nest
craindre.
2. Tout vecteur x de E admet une dcomposition unique
n
X
x=
xi ei ,
i=1

les scalaires xi tant les composantes du vecteur x dans la base (ei ).


3. Lorsquune base est fixe sans ambigut, on peut ainsi identifier E Kn par une
bijection.
4

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

1.2.1 Le tableau des donnes


En Analyse des Donnes, on manipule des tableaux de nombres (matrices) et le tableau
de dpart est gnralement le tableau des donnes Z
V ariables(colonnes)

}|
z11 z12 . . . z1n
.
..
..
. . . . ..
.

Echantillons(lignes) z1 z2 . . . zn
.
.
..
..
. . . . ..
zm1 zm2 . . . zmn
z

= Z = (zij ) 1im
1jn

Llment zij dnote la valeur numrique place au croisement de la ligne numro i (indice
de lchantillon) et de la colonne numro j (indice de la variable). On dit que la matrice Z
est de m lignes et de n colonnes

1.2.2 Matices carres inversibles et inverse dune matrice


Dfinition 1.2.1 Soit A une matrice carre de Mn (K).
1. On dit que la matrice A est inversible si et seulement si dt(A) 6= 0.
2. Si la matrice A est inversible. On appelle inverse de la matrice A, la matrice carre
M de Mn (K) telle que AM = MA = I.
Dans ce cas, la matrice M = A1 .
Exemple 1.2.1 A la matrice de M2 (R) donne par


2 0
.
A=
1 3

1
La
 A est inversible car dt(A) = 6 6= 0. Trouvons maintenant la matrice A =
 matrice
a b
, telle que AA1 = A1 A = I.
c d

 
 


1 0
2a
2b
a b
2 0
=
=
0 1
a 3c b 3d
c d
1 3

a = 12 ,
2a = 1,

2b = 0,
b = 0,

3c
=
0,
c
= 61 ,

b 3d = 1,
d = 31 ,

do




1 3 0
0
.
=
A =
13
6 1 2
Ceci reste valable pour toutes les matrices carres inversibles dordre n 2.
1

1
2
1
6

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

1.2.3 Transpos dun vecteur et transpose dune matrice


Dfinition 1.2.2
1. On appelle vecteur ligne tout vecteur scrivant sous la forme v =
(v1 , v2 , . . . , vn ).

w1
w2

2. On appelle vecteur colonne tout vecteur scrivant sous la forme W = .. .


.
wn

3. Le vecteur transpos
dun
vecteur ligne v = (v1 , v2 , . . . , vn ) est un vecteur colonne
v1
v2

not par : t v = ..
.
vn

W1
W2

4. Soit W = .. une matrice carre de Mn (K) ou Wi = (wi,1 , wi,2 , . . . , wi,n ),


.
Wn
1 i n est un vecteur ligne

W1
W2

Si K = R, alors la transpose de la matrice W = .. est la matrice t W =


.
Wn

wi,1
wi,2

(t W1 ,t W2 , . . . ,t Wn ) ou t Wi = .. pour tout 1 i n.
.
wi,n

W1
W2

Si K = C, alors la transpose de la matrice W = .. est la matrice t W =


.
Wn

wi,1
wi,2

(t W1 ,t W2 , . . . ,t Wn ) ou t Wi = .. pour tout 1 i n.
.
wi,n
5. Une matrice A Mn (R) (resp. A Mn (C)) est dite symtrique si et seulement si
t
A = A (resp. t A = A).

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL


Exemple 1.2.2

1. K = R, A la matrice de M2 (R) donne par




2
.
A=
3
1

La transpose t A de la matrice A est


t

A=

1
2
3

2. K = C, A la matrice de M3 (C) donne par

i
2+ i
3
A= 1+i
3
5 .
2
3+i 1+i

La transpose t A de la matrice A est

i 2 i
2
t
A= 2i
3 3 i .
3
5
1i

Exemple 1.2.3 Soit Z la matrice des donnes, donne par

z11 z12 . . . z1n


..
.
..
. . . . ..
.

Z = z1 z2 . . . zn
.
..
.
..
. . . . ..
zm1 zm2 . . . zmn

Un exemple de matrice symtrique est la matrice de variance-covariance V, contenant les


variances sur la diagonale et les covariances en dehors de celle-ci
1
V = [ij ] = (Z M)T (Z M)
n
o M est la matrice rectangulaire nm des moyennes M = n1 eeT Z, dont tous les lments
de chaque colonne sont gaux la moyenne de la variable correspondant cette colonne.
Exemple 1.2.4 Un autre exemple de matrice symtrique est la matrice R des corrlations
R = [ij ] = D1 VD1
o D1 est la matrice diagonale contenant les inverses des carts-types des variables

0
...
0
11

..
..
0
1
.
.

22

D1 =

..
..
..
.
.
.
0
0
...
0 1nn

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

1.3 Rduction des martices carres


Dans cette partie, on dsigne par E un espace vectoriel de dimension finie n sur un
corps commutatif K, par Mn (K) lensemble des matrices carres dordre n coefficients
dans K et par I la matrice unit. Soit A une matrice dans Mn (K).

1.3.1 Valeurs propres ; polynme caractristique ; polynme minimal


Dfinition 1.3.1 un nombre K est une valeur propre dune matrice A de Mn (K) sil
existe un vecteur x non nul tel que
Ax = x
ou encore si la matrice A I nest pas inversible.
Exemple 1.3.1 Soit A une matrice de M2 (R) donne par


2 0
.
A=
0 3
Les valeurs propres de A sont 2 et 3 car dt(A 2I) = 0 et dt(A + 3I) = 0 puisque




5 0
0 0
et A + 3I =
A 2I =
0 0
0 5
Dfinition 1.3.2
1. On appelle le polynme caractristique dune matrice A de Mn (K)
le polynme suivant :
P () = dt(A I).
2. Les valeurs propres de la matrice A de Mn (K) sont les racines du polynme caractristique de A
Exemple 1.3.2

1. Soit A une matrice de M2 (R) donne par




2 4
.
A=
1 3

Le polynme caractristique de la matrice A est




2
4
= (2 )(3 ) + 4,
P () = dt
1
3
P () = 2 + 2.

Pour trouver les valeurs propres de la matrice A il suffit de rsoudre lquation


2 + 2 = 0.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

2. Soit M une matrice de M3 (R) donne par

2 4 0
M = 1 3 2 .
0 1 3

Le polynme caractristique de la matrice M est

2
4
0
3
2 ,
P () = dt 1
0
1
3




3
2
2
1


+4
,
P () = (2 )
3 0
1
3

P () = (2 )[(3 )(3 ) 2] + 4[(3 )],

pour trouver les valeurs propres de la matrice M il suffit de rsoudre lquation


P () = 0.
Thorme 1.3.1 (Cayley-Hamilton)
Soit A une matrice de Mn (K). Si le polynme caractristique P de A se dcompose dans
K en facteurs du premier degr, alors P (A) = 0.


Dmonstration. En exercice.
Exemple 1.3.3 Soit A une matrice de M2 (R) donne par


2 4
.
A=
1 3

Le polynme caractristique de la matrice A est P () = 2 + 2.



2 

 

2 4
2 4
2 4
0 4
=
=
.
1 3
1 3
1 3
1 5

 
 
 
 

0 4
2 4
2 0
0+22 44+0
0 0
+
+
=
=
1 5
1 3
0 2
1 + 1 + 0 5 3 2
0 0
Dfinition 1.3.3 Soit A une matrice de Mn (K).
On appelle polynme minimal de A un polynme Q vrifiant :
i) Q est de plus petit degr divisant le polynme caractristique P de A.
ii) Q(A) = 0.
Exemple 1.3.4 On considre une matrice A de M3 (K) dont le polynme caractristique
P () = ( 2)2 ( 3).

Si (A 2I)(A 3I) = 0, alors le polynme minimale de A est Q() = ( 2)( 3).

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

10

1.3.2 Vecteurs propres ; sous-espace propres


Dfinition 1.3.4 Soit A une matrice de Mn (K). Si est une valeur propre de la matrice
A, lensemble des solutions de lquation
Ax = x
est un sous-espace vectoriel H de Kn dit sous-espace propre associ . Les lments
non nuls de H sont les vecteurs propres associs .
On a H = Ker(A I).
Exemple 1.3.5 Soit A une matrice de M2 (R) donne par


2 4
A=
.
1 3
2
Le polynme caractristique
de la matrice
A est P () = + 2. Les valeurs propres

1 + 5
1 5
et 2 =
.
de A sont 1 =
2
2
!
1+ 5
H1 = Ker A +
I
2

H2

1 +
= Ker A
2

Proposition 1.3.1 Soit A la matrice de Mn (K).

1. Les vecteurs propres v1 , v2 , . . . , vk associs des valeurs propres distinctes 1 , 2 , . . . , k


sont linairement indpendants.
2. Si H1 = Ker(A 1 I), H2 = Ker(A 2 I), . . . , Hk = Ker(A k I) sont respectivement les espaces propres associs des valeurs propres distinctes 1 , 2 , . . . , k ,
alors la sommes H = H1 + H2 + . . . + Hk est une somme directe.

3. La runion dune base de H1 , dune base de H2 ,. . ., dune base de Hk est une base
de H.
Dmonstration. Laisser en exercice.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

11

1.3.3 Matrices semblables


Dfinition 1.3.5 Deux matrices sont semblables si et seulement si elles constituent deux
matrices reprsentatives du mme endomorphisme dans deux bases (ventuellement) diffrentes. Autrement dit, on dit que deux matrices A et B sont semblables si et seeulement si
il existe une matrice inversible P telle que
A = P 1 BP.




2 1
2 2
Exemple 1.3.6 Les matrices A =
et B =
sont semblables.
2 0 
5
4



1 1
0 1
1
En effet, il existe une matrice inversible P =
et P =
.
1 0
1 1
On a

 



2 2
1 1
2 1
0 1
1
=
P AP =
5
4
1 0
2 0
1 1
Remarque 1.3.1 On dfinit la relation binaire R suivante :
A R B P une matrice inversible telle que A = P 1 BP.
La relation R est une relation dquivalence sur lensemble des matrices Mn (K).
Proposition 1.3.2 Deux matrices semblables A et B de Mn (K) ont le mme polynme
caractristique.
Dmonstration. Soient A et B deux matrices semblables de Mn (K), alors il existe une
matrice inversible P telle que
A = P 1 BP.
On a
A I = P 1 BP I = P 1 BP P 1 P = P 1 (B I)P,
alors
dt(A I) = dt(P 1 (B I)P ) = dt(P 1)dt(B I)dt(P )
do
dt(A I) = dt(B I)

dt(P )
= dt(B I).
dt(P )


Corollaire 1.3.1 Deux matrices semblables A et B de Mn (K) ont les mmes valeurs
propres.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

1.3.4

12

Matrice nilpotente

Dfinition 1.3.6 On dit quune matrice carre A est nilpotente sil existe un entier naturel
p tel que Ap soit la matrice nulle. Lindice de nilpotence est alors le plus petit p tel que
Ap = 0.


0 1
Exemple 1.3.7
1. On prend la matrice A =
. On a
0 0
2

A =

0 1
0 0

2

0 0
0 0

Do A est nilpotente dindice de nilpotence p = 2.


2. Considrons la matrice B

3 9 9
B = 2 0 0
3 3 3

Si nous calculons la reprsentation matricielle de B 2 et de B 3 , on trouve :

0 0
0
B 2 = 6 18 18
6 18 18

0 0 0
et B 3 = 0 0 0
0 0 0

Puisque B 3 est la matrice nulle alors B est bien nilpotente dindice 3. Son indice est
plus petit que la dimension de lespace.
Nilpotence et base rduite : Considrons alors le vecteur e1 . Il est dindice 2 et la famille (e1 , Ae1 , A2 e1 ) est libre. Elle est libre et de cardinal gal la dimension de lespace
vectoriel. Cette famille est donc une base.

1.3.5 Exponentiel dune matrice


La fonction exponentielle est infiniment drivable sur R, alors au voisinage de 0, alors
daprs le dveloppement de Taylor on peut crire
t

e =1+

+ n
X
t
n=1

n!

= 1 + lim

p+

Dfinition 1.3.7 Soit A et B deux matrices de Mn (K).

p
X
tn
n=1

n!

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

13

1. On appelle exponentielle de la matrice A, note par exp(A), la formule suivante :


exp(A) = I +

+
X
An
n=1

n!

Nous avons les proprits suivantes :


2. exp(A + B) = exp(A) exp(B).
3. Si A est inversible dinverse A1 , alors exp(A1 ) = (exp(A))1 .




0
0
0 1
,
, alors on a A2 =
Exemple 1.3.8
1. On prend la matrice A =
0 0
0 0
alors

 
 

1 0
0 1
1 1
exp(A) = I + A =
+
=
0 1
0 0
0 1
2. Pour la matrice B suivante

3 9 9
0 0
0
B = 2 0 0 , on a B 2 = 6 18 18
3 3 3
6 18 18
alors on a

et

0 0 0
B 3 = 0 0 0
0 0 0

1 0 0
3 9 9
0 0 0
1
exp(B) = I + B + B 2 = 0 1 0 + 2 0 0 + 3 9 9
2
0 0 1
3 3 3
3 9 9

4 9 9
exp(B) = 5 10 9 .
3 12 11

Dfinition 1.3.8 Une matrice A de Mn (K) est dite diagonalisable si il existe une matrice
inversible P de Mn (K) telle que

1 0 . . . 0
.
.

0 2 . . ..
1
P AP = D = . .

.. ... 0
..
0 . . . 0 n

o 1 , . . . , n sont les valeurs propres de A comptes avec leurs ordres de multiplicit.


Dans ce cas, chaque vecteur colonne w de la matrice P est un vecteur propre pour la
matrice A, cest--dire quil existe un scalaire sur la diagonale de D tel que A.w = .w.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

14

Exemple 1.3.9 Les valeurs propres de la matrice

1 1 0
A = 1 2 1
1 0 1

sont 1 = 2, 2 = 1 + i et 3 = 1 i.
Les veteurs propres associs 1 , 2 et 3 sont respectivement



1
i
i
V1 = 1 , V2 = 1 et V3 = 1 .
1
1
1

La matrice P = (V1 |V2 |V3 ) donne par

0
2
2
1 i i
1
2i
1 + i .
P = 1 1 1 P 1 = 1
4
2i (1 + i) 1 i
1 1
1

paar un calcul simple, on trouve

0
2
2
1 1 0
1 i i
2
0
0
1
2i
1 + i 1 2 1 1 1 1 = 0 1 + i
0 .
P 1 AP = 1
4
2i (1 + i) 1 i
1 0 1
1 1
1
0
0
1i
Proposition 1.3.3 Soit A une matrice de Mn (K). Alors
1. Si A est nilpotente dindice de nilpotence p, alors
exp(A) = I +

p
X
An
n=1

n!

2. Si la seule valeur propre de A est 0, alors les puissance de A sont nulles partir
dun certain rang n0 :
An = 0, ds que n n0 .
Dans ce cas, on a
exp(A) = I +

n0
X
An
n=1

n!

3. Si A a une seule valeur propre , alors nous pouvons crire A = I + B o B est


une matrice dont la seule valeur propre est 0. On a bien
exp(A) = exp(). exp(B)

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

15

4. Si A est une matrice diagonale, cest--dire que A scrit sous la forme

1 0 . . . 0
e
0 ... 0
.
.
..
.

. ..
0

0 e2 . . ..
A= . .2 .
,
alors
exp(A)
=

. .
.
.. .. 0
.. ... 0
..
..
0 . . . 0 n
0 . . . 0 en
5. Si P 1 AP = D o D = diag(i , 1 i n), alors pour tout k N on a
P 1 Ak P = D k .


Dmonstration. Exercice.

1.4 Spectre et rayon spectral dune matrice, Matrice positive


Soit A = (ai,j )1i,jn une matrice carre.
P
1. La trace de A est tr(A) = ni=1 ai,i .

2. Les valeurs propres de A sont les n racines relles ou complexes (i )1in du polynme caractristique P de A. Le spectre de A, not Sp(A) est lensemble de tous
les valeurs propres de A :
Sp(A) = {i : 1 i n}
3. La matrice A est diagonale si ai,j = 0 pour i 6= j, on la note
A = diag(aii ) = diag(a11 , a22 , . . . , ann ).
On rappelle les proprits suivantes :
n
Y
Pn
1. tr(A) = i=1 i , dt(A) =
i .
i=1

2. tr(AB) = tr(BA), tr(A + B) = tr(A) + tr(B).

3. dt(AB) = dt(BA) = dt(A)dt(B).


Dfinition 1.4.1 On appelle le rayon spectral de la matrice A, not %(A), le nombre rel
positif
%(A) = max{|i | : 1 i n}
Dfinition 1.4.2 Une matrice A est

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

16

1. Symtrique si A est relle et A = AT ;


2. hermitienne si A = A ;
3. Orthogonale si A est relle et AAT = AT A = I ;
4. Unitaire si AA = A A = I ;
5. Normale si AA = A A.
une matrice A est dite singulire si elle nest pas inversible.
Proprit 1.4.1 Si A et B sont deux matrices inversibles, alors (AB)1 = B 1 A1 ,
(AT )1 = (A1 )T , (A )1 = (A1 ) .

1.4.1 Matrice positive et matrice dfinie positive


Dfinition 1.4.3 Soit A une matrice
1. La matrice A est dfinie positve si
(Ax, x) > 0,

x E {0}

2. La matrice A est positve si


(Ax, x) 0,

x E {0}

Thorme 1.4.1 Une matrice hermitienne A est dfinie positive (resp. positive), si et seulement si toutes ses valeurs propres sont > 0 (resp. 0).
Dmonstration. soit A une matrice hermitienne et x 6= 0 un vecteur dans E.
(Ax, x) = (x, x) = kxkE


1.4.2 Valeurs singulires dune matrice


Dfinition 1.4.4 Soit A une matrice carre. On appelle valeurs singulires dune matrice
carre A, les racines carres positives des valeurs propres de la matrice hermitienne A A
(ou AT A si la matrice A est relle).
Remarque 1.4.1 Les valeurs propres de la matrice hermitienne A A sont toujours 0
puisque
A Ax = x, x 6= 0 (A Ax, x) = kxkE ,
les valeurs singulires sont toutes > 0 si et seulement si la matrice A est inversible

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

17

1.4.3 Dcomposition en valeurs singulires


Dfinition 1.4.5 Soit A une matrice carre. On appelle valeurs singulires dune matrice
carre A, les racines carres positives des valeurs propres de la matrice hermitienne A A
(ou AT A si la matrice A est relle).
Toute matrice peut tre rduite sous forme diagonale en la multipliant droite et gauche
par des matrices unitaires bien choisies. Plus prcisment on a le rsultat suivant :
Proprit 1.4.2 Soit A Cmn . Il existe deux matrices unitaires U Cmm et V Cnn
telles que
U AV = diag(1 , 2 , . . . , p ) Cmn ,

p = min(m, n)

(1.1)

et 1 2 . . . p 0.
La relation (1.1) est appele dcomposition en valeurs singulires (SVD) de A et les
scalaire (i ) sont appels valeurs singulires de A.
Si A est une matrice relle, U et V sont aussi des matrices relles et on peut remplacer
U par U T .
Les valeurs singulires sont caractrises par
p
i = i , o i Sp(A A),

i = 1, . . . , p.

(1.2)

Si A Cnn est une matrice hermitienne de valeurs propres 1 , 2 , . . . , n , alors


daprs (1.2) les valeurs singulires de A concident p
avec les modules des valeurs

2
propres de A. En effet, puisque AA = A , on a i = 2i = |i | pour i = 1, . . . , n.
Si
1 2 . . . r r+1 = . . . = p = 0,
alors le rang de A est r (rang(A) = r), le noyau de A est le sous-espace vectoriel
engendr par les vecteurs colonnes de V (Ker(A) = {vr+1 , . . . , vn }), et limage de
A est le sous-espacevectoriel engendr par les vecteurs colonnes de U (Im(A) =
{u1 , . . . , ur }).

1.4.4 Pseudo-inverse de Moore-Penrose


Dfinition 1.4.6 Supposons A Cmn soit de rang r et quelle admette une dcomposition en valeurs singulires du type U AV = . La matrice A = V U est appele
matrice pseudo-inverse de Moore-Penrose, o


1 1
1

, , . . . , , 0, . . . , 0 Cmn , p = min(m, n)
(1.3)
= diag
1 2
r

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

18

la matrice A est aussi appele matrice inverse gnralise de A, on a



(AT A)1 AT , si rang(A) = n < m,

A =
A1 , si rang(A) = n = m.

LAnalyse des Donnes tant lart de dcomposer des tableaux, une dcomposition sappliquant une matrice rectangulaire (dans le mme esprit que la dcomposition dune matrice
symtrique en valeurs et vecteurs propres) va videmment jouer un rle central. La dcomposition en valeurs singulires p dune matrice A rectangulaire de taille n m de rang r
scrit :
. QT2
A = Q1 . |{z}
|{z}
|{z}
|{z}
(nm)

(nn) (nm) (mm)

o Q1 et Q2 sont des matrices orthogonales et o est une matrice rectangulaire avec r


valeurs positives p sur la diagonale ( savoir lensemble des lments dindices gaux) et
des zros ailleurs. Par exemple, dans le cas o n > m et r = m, la matrice a la structure
suivante

1 0 . . . 0
.

.
0 2 . . ..
. .

..
.. ... 0

=
0
.
.
.
0

r
0 ... ... 0

.
.
.
..
..
..
..
0 ... ... 0
Une telle dcomposition existe toujours et peut tre obtenue en calculant les valeurs propres
p de AAT et de AT A, qui sont identiques et positives ou nulles. Les valeurs singulires
sont les racines carres des valeurs propres non nulles,
p
p = p .

Dans cette dcomposition, Q1 est la matrice des vecteurs propres de AAT , tandis que Q2
est la matrice des vecteurs propres de AT A.
Linverse de Moore-Penrose sobtient partir de la dcomposition en valeurs singulires en intervertissant les deux matrices orthogonales, en transposant et en inversant
chacune des valeurs singulires :
A = Q2 QT1
La matrice est de taille m n et a, dans le cas o n > m et r
1
1/2
1
0 ... 0 0 ... 0
1
0

.
.

1/2
..
.. 0 . . . 0 0
2
0 1
2
= .
=
.
.
.

.
.
.
..
..
..
. . 0 .. .. .. ..
.
0
. . . 0 1
0
.
.
.
0
0
...
r

= m, la structure
...
..
.
..
.

0
..
.
0

1/2
r

0 ... 0
0 ...
.. ..
. .
0 ...

0
..
.
0

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

19

Exemple 1.4.1 (KRIGEAGE SIMPLE AVEC UN DOUBLON)


On peut se demander si linverse de Moore-Penrose peut tre utilise pour rsoudre un
systme de krigeage dont le membre gauche est singulier. Nous nallons pas traiter le
problme de manire gnrale, mais nous contenter dun petit exercice trs simple.
On cherche estimer une valeur en x0 partir de deux valeurs situes au mme point
x1 . Le systme de krigeage simple est
   

b
w1
a a
=
b
w2
a a
o a est la variance des donnes et o b est la covariance entre les points x1 et x0 .
La matrice A tant singulire on va recourir linverse gnralise de Moore-Penrose.
Soit

 
 2
c c
2a 2a2
T
T
=C
=
AA = A A =
c c
2a2 2a2
On a
dt(C) = 0

2 = 0;

tr(C) = 2c

1 = 2c,

et une matrice de vecteurs propres norms


Q=

1
2
1
2

12
1
2

La solution du systme au sens de linverse gnralise est


!  
b
b
w = A b = Q QT b = b2c = 2a
b
2c

2a

En considrant des donnes de moyenne nulle, on a en fin de compte lestimation par


krigeage simple


b z1 (x1 ) + z2 (x1 )

z (x0 ) =
a
2

Cette solution satisfait lesprit, puisque lestimateur prend la moyenne des deux valeurs z1
et z2 mesures au point x1 et la multiplie par le pondrateur que livre le krigeage simple
lorsquil ny a quune seule information disponible.

1.5 Normes matricielles


soit K = R ou C.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

20

Dfinition 1.5.1 Une norme matricielle est une application k . k : K(mn) [0, +[
telle que :
i) kAk 0,

A K(mn) et kAk = 0 si et seulement si A = 0 ;

ii) kAk = ||kAk,

A K(mn) , K (Proprit dhomognit) ;

iii) kA + Bk kAk + kBk,

A, B K(mn) (Ingalit triangulaire).

Dfinition 1.5.2 On dit que la norme matricielle k . k est compatible ou consistante avec
la norme vectorielle k.k si
kAxk kAkkxk,

A K(mn)

x Kn .

Plus gnralement, on dit que trois normes, toutes notes k . k et respectivement dfinies
sur Km , Kn , et K(mn) , sont consistantes si x Kn , y Km et A K(mn) tels que
Ax = y, on a kyk kAkkxk.

Pour quune norme matricielle soit intressante dans la pratique, on demande gnralement
quelle possde la proprit suivante :
Dfinition 1.5.3 On dit quune norme matricielle k . k est sous-multiplicative si A
K(nm) , B K(mq)
kABk kAkkBk.

(1.4)


Exemple 1.5.1 Soit k . kN lapplication dfinie par


kAkN = max |aij |.
i,j

On considre deux matrices A et B donnes par




1 1
= B.
A=
1 1
On peut vrifier facilement que k . kN est une norme et quelle ne satisfait pas lingalit
(1.4) puisque
2 = kABkN > kAkN kBkN = 1.
Do la norme k . kN nest pas une norme sous-multiplicative.

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

21

Norme de Frobenius
La norme
kAkF =

m X
n
X
j=1 i=1

|aij |2

!1/2

p
tr(A A)

est une norme matricielle appele norme de Frobenius (ou norme euclidienne dans C(nn)
et elle est compatible avec la norme vectorielle euclidienne k . k2 . En effet,

2
!
m X
n
m
n
n

X
X
X
X


kAxk22 =
aij xj
|aij |2
|xj |2 = kAk2F kxk22 .



i=1

j=1

i=1

j=1

j=1

On peut remarquer que pour cette norme, on a kIn kF =

n.

Thorme 1.5.1 Soit k.k une norme vectorielle. La fonction


kAk = sup
x6=0

kAxk
kxk

(1.5)

est une norme matricielle. On lappelle norme matricielle subordonne ou associe la


norme vectorielle k.k. On lappelle aussi parfois norme matricielle naturelle, ou encore
norme matricielle induite par la norme vectorielle k.k.
Dmonstration. Commenons par remarquer que (1.5) est quivalente
kAk = sup kAxk.

(1.6)

kxk=1

Pour tout x 6= 0, on peut dfinir un vecteur unitaire u =


kAk = sup kAuk = kAwk,
kuk=1

x
,
kxk

de sorte que (1.5) scrive

kwk = 1.

cela tant, vrifions que (1.5) est effectivement une norme, en utilisant les conditions dune
norme matricielle de la dfinition (1.5.1).


Exemples de normes remarquables


Dautres exemples de normes remarquables, il sagit de normes matricielles subordonnes fournies par les p-normes :
kAkp = sup
x6=0

kAxkp
kxkp

(1.7)

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

22

La 1-norme et la norme infinie se calculent facilement :


kAk1 = max

1jn

kAk = max

m
X
i=1

1im

|aij |,

n
X
j=1

(1.8)

|aij |,

(1.9)

On a les proprits suivantes :


1. kAk1 = kAT k

2. Si A est matrice symtrique relle, alors kAk1 = kAk .

La 2-norme ou norme spectrale mrite une discussion particulire vu son intrt pour des
applications pratiques.
Thorme 1.5.2 Soit 1 la plus grande valeur singulire de A. Alors
p
p
kAk2 = %(A A) = %(AA ) = 1 .

En particulier, si A est hermitienne (ou symmtrique relle), alors


kAk2 = %(A),
tandis que si A est unitaire alors kAk2 = %(A) = 1.

Dmonstration. Puisque A A est hermitienne, alors il existe une matrice unitaire U telle
que
U A AU = diag(1 , 2 , . . . , n )
o i sont les valeurs propres positive de A A. Soit y = U x, alors
s
s
(A Ax, x)
(U A AUy, y)
kAk2 = sup
= sup
(x, x)
(y, y)
x6=0
x6=0
v
u n
n
X
q
uX
2
t
i |yi | /
|yi |2 = max |i | = 1 .
= sup
x6=0

i=1

i=1

1in

Si A est hermitienne, les mmes considrations sappliquent directement A. En fin si A


est unitaire
kAxk22 = (Ax, Ax) = (x, A Ax) = kxk22
et donc kAk2 = 1. Enfin, si A est unitaire

CHAPITRE 1. RAPPEL DE CALCUL MATRICIEL

23

Exercice 1.5.1
1. Soit B une matrice carre. Montrer que les conditions suivantes sont
quivalentes :
(a) limk+ B k = 0 ;
(b) limk+ B k x = 0 pour tout vecteur x ;
(c) %(B) < 1 ;
(d) kBk < 1 pour au moins une norme matricielle subordonne k . k.

2. Soit B une matrice carre, et k . k une norme matricielle quelconque. Montrer que
lim kB k k1/k = %(B).

k+

Chapitre 2
Variogrammes et covariances : Krigeage
La gostatistique est une dicipline la frontire entre les mathmatiques et les
sciences de la terre. Son principale domaine dutilisation a historiquement t lesptimation des gisements miniers, mais son domaine dapplication actuel est beaucoup
plus large et tout phnomne spatialis peut tre tudi en utilisant la gostatistique.
Le krigeage est une mthode destimation issue de la gostatistique. Le terme krigeage, provient du nom de famille de lingnieur minier sud-african Daniel Gerhardus Krige. Il a t formalis pour la prospection minire par Georges Matheron
(1930-2000) lcole des Mines de Paris. depuis, le domaine de ses applications
a largement t tendu, touchant notamment la mtorologie, les sciences de lenvironnement et llectromagntisme.
Le krigeage est donc une mthode dinterpolation spatiale, parfois considre comme
la plus juste dun point de vue statistique, qui permet une estimation linaire base
sur lesprance mathmatique et aussi sur la variance de la donne spatialise.
ce titre, le krigeage se base sur le calcul, linterprtation et la modlisation du
viogramme, qui est une apprciation de la variance en fonction de la distance entre
donnes.
Cette mthode dinterpolation se distingue dautres mthodes (distance inverse, estimation par noyau, etc) car elle prsente des avantages que nous verrons par la suite.
Le krigeage sest dclin sous plusieurs formes (simple, ordinaire,...) qui toutes utilisent les mmes principes.

2.1 Rappel sur les variables alatoires


Soit (, B, P ) un espace probabilisable fini et X une application de dans un ensemble
J. Si A est une partie de J, on notera X 1 (A) lensemble des ventualits dont limage
appartenant A.
X 1 (A) = { ; X() A}.
24

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

25

Dfinition 2.1.1 Soit (, B, P ) un espace probabilisable fini. Une application X de


dans un ensemble J est dite mesurable si, et seulement si, pour tout point x de J, X 1 ({x})
est un vnement :
x J X 1 ({x}) B.
Au lieu de application mesurable, on dit aussi variable alatoire
Remarque 2.1.1 Si J = Rn alors
1. dans le cas n = 1, on dit variable alatoire relle,
2. dans le cas n > 1, on dit variable alatoire vectorielle.
Dfinition 2.1.2 Soit X : J une variable alatoire. Pour toute partie A de J,
X 1 (A) est appel vnement.
On appelle indicatrice dun vnement A, la fonction A dfinie par

A () = 1 si A,
( )
A () = 0 si
/ A,

2.1.1 Probabilit image


Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire (o J est
fini). Lapplication
Q : P [0, 1], A 7 P (X 1 (A))
est une probabilit sur lespace probabilisable (J, P) o P est lensemble des parties mesurables de J.

2.1.2 Loi de probabilit


Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire vectorielle. On appelle loi de probabilit de X la probabilit image de P par X, cest dire
Q(A) = P (X 1 (A)).

Fonction de rpartition
Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire. On
appelle fonction de rpartition de X la fonction relle de variable relle
x 7 F (x) = P (X < x).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

26

2.1.3 Indpendance de variables alatoires


Soit (, B, P ) un espace probabilis fini. Un couple de variables alatoires relles X =
(X1 , X2 ) telles que
((a, b) R2 (X1 = a) et (X2 = b)
sont deux vnements indpendants est appel couple de variables alatoires relles indpendantes. On traduit ceci par
((a, b) R2

P (X = (a, b)) = P (X1 = a)P (X2 = b).

2.2 Esprance dune variable alatoire relle


Dfinition 2.2.1 Soit (, B, P ) un espace probabilis fini et (A1 , A2 , . . . , An ) une suite
forme de sous-ensembles de B. On appelle esprance mathmatique la forme linair E
dfinie lespace vectoriel des variables alatoires relles V sur (, B) par ses valeurs pour
les indicatrices constituant la base : (A1 , . . . , An ) de la manire sivante
E(Ai ) = P (Ai ).
Si X est une variable alatoire relle prenant la valeur xi sur Ai (i = 1, . . . , n).
On a
n
X
X=
xi Ai
i=1

et donc on a E(X) =

n
X
i=1

xi P (Ai ). On peut tablir que si X() = {y1, y2 , . . . , yr } o les

yi sont distincts alors lexpression de lesprance mathmatique E devient


E(X) =

r
X

yi P (X = yi ).

i=1

Dfinition 2.2.2 Une variable alatoire relle X est dite centre si son esprance mathmatique E(X) est nulle.
Exercice 2.2.1 Montrer que la variable alatoire X E(X) est centre.
Exemple 2.2.1 (Esprance dune variable binomiale)
Une variable binomiale de paramtres n et p (n N et 0 < p < 1) est une variable
alatoire telle que
X() = {0, 1, 2, . . . , n}

et P (X = i) = Cin pi (1 p)ni .

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

27

Daprs son expression, lesprance mathmatique est


E(X) =

n
X
i=1

n
X
i=1

iCin pi (1 p)ni
i

n!
pi (1 p)ni
i!(n i)!

n
X
(n 1)! i1
= np
p (1 p)ni
i!(n i)!
i=1

= np

n1
X
j=1

(n 1)!
pj (1 p)n1j
j!(n 1 j)!

= np(p + (1 p))n1
= np

2.2.1 Esprance mathmatique dun produit


Soit (, B, P ) un espace probabilis fini. Un couple de variables alatoires relles
(X, Y ) dfinies sur (, B). Soit
X() = {x1 , x2 , . . . , xn }
Y () = {y1, y2 , . . . , yp }.
o les xi tant distincts et yi tant distincts.
On a (X, Y )() = {(xi , yj ) 1in } les (xi , yj ) tant distincts,
1jn

E(XY ) =

p
n X
X

xi yj P ((X, Y ) = (xi , yj )).

i=1 j=1

Si on ne connat pas les lois marginales de X et Y , il nest pas possible de poursuivre


puisquon ne peut pas calculer
P ((X, Y ) = (xi , yj )).
Si X et Y sont indpendantes, alors
P ((X, Y ) = (xi , yj )) = P (X = xi )P (Y = yj ),
et on a
E(XY ) = E(X)E(Y ).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

28

2.2.2 Variance dune variable alatoire


Dfinition 2.2.3 On appelle variance dune variable alatoire relle X, la quantit Var(X)
dfinie par
Var(X) = E((X E(X))2 ).
Exercice 2.2.2 Soit k un rel. Montrer que
1. Var(k.X) = k 2 .Var(X),
2. Var(X + k) = Var(X),
3. Var(X) = E(X 2 ) [E(X)]2 .
Dfinition 2.2.4 On appelle lcart-type dune variable alatoire relle X, la quantit
(X) dfinie par
p
(X) = Var(X).
Exemple 2.2.2 Soit X une variable alatoire binomiale de paramtres n et p (n N et
0 < p < 1). On a
X() = {0, 1, 2, . . . , n}

et P (X = i) = Cin pi (1 p)ni .

Calculons dabord E(X 2 ), ou mieux encore, pour un calcul plus facile calqu sur celui de
lesprance, E(X(X 1)) :
E(X(X 1)) =

n
X
i=0

= np

i(i 1)

n
X
i=0

n!
pi (1 p)ni
i!(n i)!

n!
pi (1 p)ni
(i 2)!(n i)!

= n(n 1)p

= n(n 1)p2

n
X
i=2

(n 2)!
pi2 (1 p)ni
(i 2)!(n i)!

et donc on a
E(X 2 ) = E(X(X 1)) + E(X) = n(n 1)p2 + np.
En fin
Var(X) = E(X 2 ) [E(X)]2 = n(n 1)p2 + np (np)2 = np(1 p).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

29

Exemple 2.2.3 Soit (, B, P ) un espace probabilis fini et X : X() la variable


alatoire de Bernoulli, cest--dire que X() = {0, 1} et P (X = 0) = q, P (X = 1) = p
o 0 < q, p < 1 p + q = 1.
Lesprance de la variable alatoire de Bernoulli est
E(X) =

1
X
i=0
2

iP (X = i) = 0P (X = 0) + 1P (X = 1) = 0(1 p) + 1p = p.

E(X 2 ) = 0 .p + 12 .q = q = 1 p.
E(cos(X)) = cos(0).p + cos().q = p q = p (1 p) = 2p 1.
Var(X) = E(X 2 ) [E(X)]2 = p p2 = p(1 p).

2.3 Variable alatoire ayant une densit


Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire. On
appelle fonction de rpartition de X la fonction relle de variable relle
x 7 FX (x) = P (X < x).

2.3.1 Densit dune variable alatoire


Soit (, B, P ) un espace probabilis fini et X : J une variable alatoire. Une
fonction f : R R est la densit de la variable X si et seulement si
1. la fonction f est positive,
R +
2. f (t)dt = 1.

La densit de la variable alatoire X est donne par :


FX (x + h) FX (x)
= FX0 (x).
h0
h

fX (x) = lim

Si la variable X a une densit fX alors la fonction de rpartition est


Z x
FX (x) =
fX (t)dt.

En gnral, on a
P (a X b) =

b
a

fX (t)dt = FX (b) FX (a).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

2.3.2 Esprance mathmatique dune variable alatoire densit


Si la variable X a une densit f alors lesprance mathmatique :
Z +
E(X) =
tfX (t)dt.

2.3.3 Variance dune variable alatoire densit


Si la variable X a une densit f alors lesprance mathmatique :
Z +
Z +
2
Var(X) =
(t E(X)) fX (t)dt =
t2 fX (t)dt (E(X))2 .

Exemple 2.3.1 On considre la variable alatoire dont la densit fX donne par



t si t [0, 1],
fX (t)
t + 2 si t ]1, 2],


Z 2
Z 1
Z 2
7
1
2
= 1.
E(X) =
tfX (t)dt =
t dt +
t(2 t)dt = + 3
3
3
0
0
1


Z 2
Z 1
Z 2
7
14 15
1
2
2
3
2
E(X ) =
= .
t fX (t)dt =

t dt +
t (2 t)dt = +
4
3
4
6
0
0
1
Z +
1
7
Var(X) =
t2 fX (t)dt (E(X))2 = 12 = = 0.1667.
6
6

L cart-type de la variable alatoire relle X dont la densit fX est donne par


La fonction densit fX
1
0.9
0.8
0.7

fX(t)

0.6
0.5
0.4
0.3
0.2
0.1
0

0.5

1
t

p
(X) = Var(X) =

1.5

1
= 0.4082.
6

30

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

31

2.3.4 Loi uniforme sur (a, b)


Dfinition 2.3.1 Une variable alatoire X est dite uniforme ou quirpartie sur (a, b)
avec b > a, si sa densit de probabilit a pour expression :
 1
, si t (a, b),
ba
fX (t) =
0,
sinon.
On peut calculer lesprance mathmatique ou la moyenne de cette variable alatoire, sa
variance et son cart-type :
Z b
Z b
a+b
t
E(X) =
dt =
.
tfX (t)dt =
2
a
a ba
Z b
Z b 2
t
a2 + ab + b2
2
2
E(X ) =
t fX (t)dt =
dt =
.
3
a
a ba
(b a)2
.
var(X) = E(X ) (E(X)) =
12
r
p
(b a)2
ba
= .
(X) = Var(X) =
12
2 3
2

Tirages de la loi uniforme sur [,]


4
3
2
1
0
1
2
3
4

200

400

600

800

2.3.5 Loi normale N (, ) ou v.a. gaussienne

1000

Dfinition 2.3.2 Une variable alatoire X a une loi normale rduite si elle a une densit
dfinie par :
1
2
(t) = et /2 .
2

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

32

On dit que cest la loi normale N (0, 1). La fonction de rpartition associe la variable
X est dfinie par
Z x
1
2
et /2 dt.
(x) =
2

Valeurs numriques de (x)


x
(x)
x
(x)
x
(x)

0
0.5
1.0
0.841
2.0
0.977

0.1
0.54
1.1
0.864
2.2
0.986

0.2
0.579
1.2
0.885
2.4
0.992

0.3
0.618
1.3
0.903
2.6
0.995

0.4
0.655
1.4
0.919
2.8
0.997

0.5
0.692
1.5
0.933
3.0
0.9986

0.6
0.726
1.6
0.945
3.3
0.9995

0.7
0.758
1.7
0.955
3.6
0.9998

0.8
0.788
1.8
0.964
4.0
0.99996

0.9
0.816
1.9
0.971
4.5
0.999997

Valeurs numriques de la fonction


1
0.95
0.9
0.85

(x)

0.8
0.75
0.7
0.65
0.6
0.55
0.5

0.5

1.5

2.5

3.5

4.5

Exercice 2.3.1

1. Montrer que (x) + (x) = 1.

2. Soit Y la loi normale N (, ). Montrer que X =


rduite.

(Y )

est une variable alatoire

3. Montrer que la fonction de densit f et la fonction de rpartition F associes sont


donnes par :
f (y) =

1
2
e(y) /2 ,
2

F (y) = ((y )/) .

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE


Tirages de laloi gaussienne (var(X)=4,=7)

33

Histogramme de laloi gaussienne (var(X)=4,=7)

14

0.16

12

0.14

10
0.12
8
0.1

6
4

0.08

0.06

0
0.04
2
0.02

4
6

1000

2000

3000

4000

5000

0
4

10

12

F IGURE 2.1 Ici = var(X) et = 2 .

2.4 Covariance, corrlation, vecteur-moyenne et matrice


de covariance
Dfinition 2.4.1 Soit (X, Y ) deux variables alatoires,
1. on appelle covariance entre X et Y la quantit dfinie par :
cov(X, Y ) = E((X E(X))(Y E(Y ))),
= E(XY ) E(X)E(Y ).
2. On dit que X et Y ne sont pas corrles si cov(X, Y ) = 0 soit encore E(XY ) =
E(X)E(Y ).
3. On appelle coefficient de corrlation la quantit dfinie par :
(X, Y ) = p

cov(X, Y )
p
.
var(X) var(Y )

Par lingalit de Schwarz on a 1 (X, Y ) 1. Soit (X1 , . . . , Xn ) n variables alatoires de moyennes respectives E(Xi ).
1. On appelle vecteur-moyenne le vecteur de dimension n dont les composantes sont
les moyennes E(Xi ).
2. On appelle matrice de covariance la matrice C de dimension (nn) dont llment
gnrateur est Cij = cov(Xi , Xj ) pour 1 i n et 1 j n.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

34

2.4.1 Notation matricielle


Si on note :

X1

X = ...
Xn

le vecteur alatoire dont les n composantes sont les variables alatoires Xk , le vecteurmoyenne scrit :

E(X1 )

E(X) = ...
E(Xn )

et la matrice de covariance :

C = E((X E(X))(X E(X))T ).


Notons que les lments diagonaux de la matrice de covariance reprsentent les variances
respectives des n variables alatoires ; ils sont donc positifs.
Si les n variables alatoires ne sont pas corrles, leur matrice de covariance est diagonale.
Proprit 2.4.1 Toute matrice de covariance est positive. Ce qui signifie que, quel que soit
le vecteur x Rn on a xT Cx 0.
P
2
Dmonstration. Considrons la v.a. Y = N
k=1 ak (Xk E(Xk )). On a E(|Y | ) 0 car
lesprance mathmatique dune variable alatoire positive est positif. Exprimons maintenant E(|Y |2 ), il vient :
!
N
N
X
X

2
a` (X` E(X` ))
ak (Xk E(Xk ))
E(|Y | ) = E
=
=

k=1
N
N
XX

k=1 m=1
N X
N
X

`=1

ak E ((Xk E(Xk ))(X` E(X` )) ) am


ak ckm am = xT Cx

k=1 m=1

comme E(|Y |2 ) 0 alors xT Cx 0 pour tout x Rn .

2.4.2 Suite blanche


Dfinition 2.4.2 Soit X1 , . . . , Xn n variables alatoires. On dit quelles forment une suite
blanche si on a la foi

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

35

i) var(Xi ) = 2 = constante,
ii) et cov(Xi , Xj ) = 0 pour i 6= j.

Leur matrice de covaraince scrit donc :


C = 2 In
o In est la matrice identit de taille n n.
Exercice 2.4.1 Soit X1 , . . . , Xn des varaibles alatoires indpendantes.
1. Montrer quelles ne sont pas corrles.
2. Montrer que leur matrice de covariance est diagonale.
3. Justifier que la rciproque est fausse en gnral.

2.5 Introduction
Lorsquon mesure une caractristique en un point, on peut considrer la valeur obtenue
comme la ralisation dune variable alatoire en ce point. Il en est de mme pour tous les
points dun site donn. On a donc un grand nombre (ou une infinit) de v.a. reprsentant
conjointement un site. La gostatistique adopte ce point de vue et considre la distribution
conjointe de toutes ces v.a.
Il y a deux tapes principales dans une tude gostatistique :
identification des caractristiques des v.a.. Loutil principal utilis est le variogramme
(section 9.2),
utilisation de ces caractristiques et des valeurs connues pour lestimation optimale
aux points (ou sur des volumes) non mesurs. La mthode utilise est le krigeage
(section 9.3).

2.6 Le vraiogramme
Ide : La nature nest pas entirement imprvisible. Deux observations situes lune prs
de lautre devraient, en moyenne, se ressembler davantage (i.e. tre plus corrles) que
deux observations loignes.
Exemple 2.6.1 Soit trois localisations x0 , x1 et x2 , que lon dplace par translation sur le
site. On mesure la valeur en chacun de ces points.
x0

x1

x2

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

36

La valeur au point x1 devrait ressembler plus (en moyenne) celle observe en x0 qu


celle en x2 .
Supposons maintenant que lon connat uniquement la valeur aux points x1 et x2 . On
a peut-tre intrt utiliser linformation contenue en x1 et x2 pour fournir une bonne
estimation de la valeur en x0 .
Notion de continuit de la minralisation : Implicitement toutes les mthodes destimation, dinterpolation et de cartographie reposent sur ce concept. En gostatistique, on
cherche quantifier cette continuit pralablement lestimation pour pouvoir lutiliser
lors de lestimation.
Soit deux points x et x + h spars dune distance h.
xx+h

La teneur en x est une variable alatoire Z(x), la teneur en x+h est aussi une v.a. Z(x+h).
La diffrence entre les valeurs prises par ces deux v.a. est Z(x)Z(x+h). Cest galement
une v.a. dont on peut calculer la variance. Cette variance devrait tre plus petite lorsque les
points sont rapprochs (les valeurs se ressemblent plus en moyenne) et plus grande lorsque
les points sont loigns.
On appelle variogramme la demi-variance de cette diffrence, i.e.
1
(h) := (x, x + h) = var (Z(x) Z(x + h)) .
2
Si lon considre n localisations diffrentes x1 , x2 , . . . , xn , la meilleure description que
lon puisse faire des n variables alatoires Z(x1 ), Z(x2 ), ..., Z(xn ) est dtablir la fonction
de distribution conjointe (multivariable) ou la fonction de rpartition. Clairement, ceci nest
pas possible puisquon ne peut disposer gnralement que dune seule observation chacun
de ces n points. On pourrait formuler une hypothse trs forte du genre : le vecteur des
v.a. suit une loi multinormale de moyennes et variances-covariances spcifies. Ceci
serait beaucoup trop restrictif.
La gostatistique a des vises plus modestes. On veut estimer des paramtres statistiques partir des donnes et ne pas imposer un modle priori qui aurait toutes les
chances de savrer inadquat. Les paramtres que lon cherchera estimer ne sont pas
la fonction de distribution conjointe, ni mme la fonction de distribution bivariable (i.e.
les v.a. considres deux deux) mais simplement les deux premiers moments (moyenne,
variance, covariance) des v.a. prises deux deux. Mme rduit cela, on ne dispose toujours que dune seule paire dobservations situes prcisment aux points x et x + h. On
ne peut donc estimer les paramtres statistiques sans formuler certaines hypothses. Ces
hypothses ont uniquement pour but de permettre lestimation des paramtres statistiques
de notre modle partir des donnes. On les appelle hypothses de stationnarit du second
ordre ; elles visent essentiellement dtacher les deux premiers moments de localisations prcises en permettant des translations des emplacements x et x + h. La covariance
(et le variogramme) deviennent donc des fonctions dpendant uniquement de la distance
sparant les points dobservation et non plus de leur localisation exacte.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

37

2.6.1 Hypothses de base et dfinition


on suppose que :
i) Lesprance mathmatique ne dpend pas de x, i.e. E (Z(x)) = m ou Lesprance
des carts est zro i.e. E (Z(x) Z(x + h)) = 0,

ii) La covariance entre Z(x) et Z(x + h) ne dpend que de h,


i.e. Cov(Z(x), Z(x + h)) = C(h) ; stationnarit du second ordre, C(h) est appel
fonction de covariance ou covariogramme
ou Le variogramme (h) ne dpend pas de la localisation x, seulement de h (soit en
module, soit en module et en direction). i.e.
1
Var(Z(x) Z(x + h)) = (h);
2
hypothse intrinsque (cette dernire hypothse est lgrement moins restrictive
que la stationnarit du second ordre).
videmment, ces hypothses supposent une certaine rgularit, une certaine homognit
du gisement tudi. Si on peut reconnatre des zones trs diffrentes gologiquement, on a
habituellement intrt les traiter sparment.
La fonction la plus utilise en gostatistique pour dcrire la continuit de la minralisation est le variogramme, et ce surtout parce quelle est plus simple estimer que la
covariance (qui demande lestimation pralable de lesprance mathmatique), mais galement parce quelle permet daccommoder les situations ou Var(Z(x)) nest pas dfinie.
Le variogramme thorique est dfini comme :

1
1 
(h) = Var(Z(x) Z(x + h)) = E (Z(x) Z(x + h))2 ,
2
2

o x est le vecteur de coordonnes (1, 2 ou 3 coordonnes selon le cas) h est le vecteur


distance i.e. en 1D on parle de x R, en 2D on parle de x R2 et en 3D on parle de
x R3 .
Proprit 2.6.1 Soit un variogramme :
1. est une fonction paire, valeurs positives.
2. est souvent une fonction croissante borne. Dans ce cas, le palier est la limite du
variogramme linfini et la porte est la distance o le palier est quasiment atteint
une valeur dont le pourcentage entre 95% et 100%. Lorsquil existe, la variance C0
est ce palier.
Cette fonction, habituellement croissante en fonction de h, synthtise beaucoup dinformations concernant le comportement conjoint des variables alatoires et concernant la continuit de la minralisation. Ainsi, pour les modles de variogramme montrant un seuil, on
a:

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

38

i) Porte a : Distance o deux observations ne se ressemblent plus du tout en moyenne,


elles ne sont plus lies (covariance nulle) linairement. cette distance, la valeur du
variogramme correspond la variance de la variable alatoire.
ii) Palier 2 = C0 + C : Variance de la v.a. (Var(Z(x)) carts les plus grands, en
moyenne entre deux v.a.
iii) Effet de ppite C0 : Variation trs courte chelle, erreurs de localisation, erreurs
danalyse et prcision analytique. La ppite est la limite du variogramme lorsque
h 0. Elle reprsente la variation entre deux mesures effectues des emplacements infiniment proches, et peut donc provenir de trois effets :
une variabilit naturelle du paramtre mesur : il pourra par exemple prendre deux
valeurs diffrentes si mesur deux instants diffrents ;
une variabilit de linstrument de mesure : la ppite mesure donc en partie lerreur
statistique de linstrument de mesure ;
un rel effet ppite : une variation brutale de paramtre mesur ; le cas le plus
connu est le passage sans transition dune ppite de cuivre ou dor un sol ne
contenant pas de cuivre ou dor.
Exemple 2.6.2 Une carotte fendue en deux (coupe en deux) et dont chaque partie est analyse sparment ne fournira pas exactement les mmes valeurs pour les deux moitis. Un
mme paquet de poudre, spar en deux parties pour analyse ne donnera pas exactement
la mme teneur.
Notes
i) Lorsque h = 0 on a
1
(0) = Var (Z(x) Z(x)) = 0 6= C0 ,
2
par contre
lim () = C0 = ppite

0+

i.e. on a une discontinuit lorigine du variogramme.


ii) Parfois les variogrammes ne montrent pas de palier (dans ce cas, la covariance et la
variance nexistent pas).
iii) Lorsque les variogrammes montrent un palier alors on peut facilement tablir le lien
entre la valeur du variogramme pour la distance h et la covariance pour deux observations spares de h.
Proprit 2.6.2 (h) = 2 C(h) ou h 7 C(h) est appel la fonction de covariance de
Z. Cette relation est de grande importance et elle est continuellement utilise en gostatistique.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

39

Dmonstration.
1
Var (Z(x) Z(x + h))
2
1
[Var (Z(x)) + Var (Z(x + h)) 2Cov (Z(x), Z(x + h))]
=
2
= 2 C(h).

(h) =


On voit que lorsque la porte a est atteinte, il ny a plus de covariance entre les v.a., i.e.
C(h) = 0 si h a. Lorsquil y a un palier, les deux fonctions sont quivalentes en ce sens
quelles fournissent la mme information sur le processus.
Le variogramme possde toutefois deux avantages sur le covariogramme.
i) Le variogramme est dfini mme sil ny a pas de palier.
ii) Dans lexpression du variogramme, la constante E(Z(x)) = m napparat pas et
lon na donc pas besoin de lestimer comme cest le cas lorsquon veut calculer
directement le covariogramme.
Variogramme exprimental et thorique
3.5
Palier (C0+C)

3
2.5

(h)

2
1.5
1
0.5
C0

Port (a)
0.5

0.5

1.5
h

2.5

F IGURE 2.2 Reprsentation dun variogramme thorique avec des valeurs numrique

Proprit 2.6.3 (variogramme stationnaire)


Soit un variogramme stationnaire, alors
1. (0) = 0,

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

40

2. (h) 0, pour tout h,


3. La fonction h 7
4. est paire,

(h)
|h|2

est borne lorsque h ,

5. Si le variogramme est born linfini, la fonction alatoire est stationnaire dordre


2 ; il existe alors une covariance stationnaire C(h) telle que (h) = C0 C(h).

2.6.2 Estimation du variogramme


On estime le variogramme laide de
Nh
1 X
e (h) =
(Z(xi ) Z(xi + h))2
2Nh i=1

o Nh nombre de paires dont les points sont espaces de h.


Pour un champ donn, rien nassure que la continuit soit identique dans toutes les directions. Par exemple, il se pourrait que des teneurs montrent une meilleure continuit paralllement la stratigraphie que perpendiculairement celle-ci. De mme, pour la contamination par des hydrocarbures, on pourrait observer une meilleure continuit horizontalement que verticalement en raison de la gravit. Si le nombre dobservations le permet
(typiquement au moins 50, prfrablement 100), on peut chercher vrifier ce point en
calculant le variogramme exprimental dans diffrentes directions.
On peut calculer le variogramme selon certaines directions spcifiques :
Nh,
1 X
e (h, ) =
(Z(xi ) Z(xi + h))2
2Nh, i=1

o Nh, est le nombre de paires spares de h dans la direction .

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

41

N = 1831

points concentriques

F IGURE 2.3 Reprsentation de la dispersion de point dans des directions

En pratique on saccorde une tolrance sur h et sur afin davoir suffisamment de


paires pour chaque h et chaque . Pour chacune des classes ainsi formes, on calcule la
distance moyenne sparant les extrmits des paires (abscisse) et on value le variogramme
exprimental pour chaque classe. On obtient donc une srie de points exprimentaux auxquels on cherche ajuster un modle (i.e. expression analytique) permettant de dduire
la covariance entre deux points quelconque en fonction de leur espacement gographique
(et, ventuellement, de la direction quils dfinissent). Une fois le modle adopt, toute
la suite des calculs se fait avec les valeurs obtenues du modle et non avec les valeurs
exprimentales.

2.7 Krigeage variogramme connu


Depuis les travaux du gologue sud-africain D.-G. KRIGE dans les annes 1950, puis
la formulation de la thorie des variables rgionalises (V.R.) par G. MATHERON (1951,
1962), le krigeage a t largement utilis, tout dabord dans les problmes destimation
des gisements miniers, puis comme mthode gnrale dinterpolation. En bref, le krigeage
consiste estimer une variable en un point (krigeage ponctuel) ou la moyenne dune variable sur un domaine (krigeage zonal) partir dchantillons dimplantation connue.
La large diffusion de cette mthode est avant tout due deux de ses caractristiques :
i) le krigeage est un estimateur non-biais et optimal ;

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

42

ii) le krigeage permet le calcul dune variance destimation.


Sous lune de ses formes (krigeage variogramme connu) le krigeage utilise lhypothse
irttrinsque (MATHERON, 1962) qui stipule notamment que le variogramme (h) est stationnaire sur le domaine tudi.
Ltude exprimentale du variogramme, tape ncessaire avant la mise en oeuvre du
krigeage, constitue un puissant moyen pour lanalyse structurale de la variable rgionalise
(V.R.) tudie (SERRA, 1967). Le prsent article traite de ltude du variogramme et de son
utilisation dans le krigeage lorsque la V.R. chantillonne est affecte derreurs de mesure
connues a priori. Ce cas se prsente notamment lorsque la V.R. tudie est le rsultat dune
analyse statistique en chaque point de donne, laquelle fournit une moyenne et une erreurtype. Le systme de krigeage quil convient dutiliser dans ce cas a galement t tudi
par J.P. DELHOMME (1976). Lune dmarche analogue a t utilise par lauteur pour
la cartographie ctire en prsence de mesures photogrammtriques et bathymtriques de
prcision fort diffrente.

2.7.1 LES QUATIONS DU KRIGEAGE


Puisquon peut calculer la variance destimation pour tout estimateur linaire, pourquoi
ne pas choisir celui qui assure la variance destimation minimale ? Cest prcisment ce
queffectue le krigeage. Dans le cas stationnaire, on en reconnat deux types principaux,
selon que la moyenne du processus est connu ou non, soit le krigeage simple et le krigeage
ordinaire. Ce dernier est, de loin, le plus frquemment utilis.
Le krigeage envisag est le krigeage ponctuel universel variogramme connu :
i) Ponctuel signifie que lon cherche estimer la valeur Zv prise par la V.R. Z en un
point xv non chantillonn,
ii) Universel signifie que la mthode est applicable mme en prsence dune drive non
stationnaire sur le domaine tudi (la drive m(x) est lesprance de la V.R. Z au
point x : E(Z(x))).
m(x) = E(Z(x)).
iii) A variogramme connu signifie que lon utilise lhypothse intrinsque : lhypothse
intrinsque stipule que les accroissements Z(x) Z(x + h) entre deux points distants de h (et non la V.R. Z elle-mme) admettent, sur le domaine tudi, les deux
moments stationnaires suivants :
M(h) = E(Z(x) Z(x + h)),
1
Var(Z(x) Z(x + h)).
(h) =
2
La fonction M(h) est la drive linaire. Sa valeur ne dpend que de la distance h :
M(h) = m(x) m(x + h), quel que soit x.

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

43

La fonction (h) est le demi-variogranune ou variogramme, ou fonction intrinsque,


galement indpendante de la coordonne x.
Pour tablir les quations du krigeage, nous supposons que la drive peut tre approche, dans le voisinage du point x0 o lon cherche estimer Z0 , par la forme linaire :
m(x) =

n
X

a` B` (x),

`=1

o {B` = B(., Z` ), 1 ` n} est une famille qui forme une base despace vectoriel de
dimension n dans lequel on estime et les a` sont des coefficients inconnus.
Si lon note ij le variogramme (d(i, j)) pour la distance entre deux points xi et xj , si
n est le nombre de points connus et le sous-indice v dsigne le point inconnu, le systme
dquations du krigeage ponctuel universel variogramme connu scrit :
n
X

n
X

` .B(Zi , Z` ) = iv ,

1 i n,

j .B(Zj , Z` ) = B(Zv , Z` ),

1 ` n,

j .ij +

j=1

`=1

n
X
j=1

o les ` sont les n0 paramtres de Lagrange associs aux conditions doptimalit de lestimation, et les j sont les poids associs aux mesures Zj pour lestimation de Z :
Zv

n
X

i Z i .

i=1

La variante destimation ou variante de krigeage est donne par :


k2 =

n
X

i (xv , xi ) +

i=1

n
X

i B(Zv , Zi ),

i=1

o Zv et Zi sont respectivement les v.a. places aux points xv et xi .

2.7.2 Krigeage ordinaire


Supposons que lon veuille estimer un bloc v centr au point xv . Notons Zv la vraie valeur
(inconnue) de ce bloc et Zv lestimateur que lon obtient.
Lestimateur est linaire, i.e. :
Zv

n
X
i=1

i Z i

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

44

o les Zi dsignent les v.a. correspondant aux points chantillons.


On veut minimiser :
e2 = Var(Zv Zv ) = Var(Zv ) + Var(Zv ) 2Cov(Zv , Zv ).
Substituant lexpression de lestimateur dans cette quation, on obtient :
e2

= Var(Zv ) +

n X
n
X
i=1 j=1

i j Cov(Zi , Zj ) 2

n
X

i Cov(Zv , Zi ).

i=1

Estimateur sans biais


Dfinition 2.7.1 On dit que lestimateur est sans biais si et seulement si
n
X

i = 1.

i=1

Dans le cas dun estimateur sans biais, les v.a. Zi associes des positions xi pour 1 i
n, ont une esprance mathmatique (ou moyenne) constante, en effet :
E(Zv )

n
X
i=1

i E(Zi ) =

n
X

i m = m. 

i=1

On obtient un problme de minimisation dune fonction quadratique (donc convexe)


sous contrainte dgalit que lon solutionne par la mthode de Lagrange. On forme le
lagrangien :
!
n
X
L() = e2 + 2
i 1
= Var(Zv ) +

i=1
n
n X
X
i=1 j=1

i j Cov(Zi , Zj ) 2

n
X
i=1

i Cov(Zv , Zi ) + 2

n
X
i=1

i 1

Ou est le multiplicateur de Lagrange. Le minimum est atteint lorsque toutes les derivees partielles par rapport a chacun des i et par rapport a sannulent. Ceci conduit au
systeme de krigeage ordinaire :

n
X

L()

=
2
j Cov(Zi , Zj ) + 2 2Cov(Zv , Zi ) = 0,

i
j=1
!
n
X

L()

i 1 = 0.

= 2
i=1

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

45

ce qui quivalent au systme


n
X

j Cov(Zi , Zj ) + = Cov(Zv , Zi ),

j=1

n
X

i = 1.

i=1

La variance destimation minimale, appele variance de krigeage, est obtenue en substituant les quations de krigeage dans lexpression gnrale pour la variance destimation :
2
ko

= Var(Zv )

n
X
i=1

i Cov(Zv , Zj ) .

Cette variance de krigeage ne dpend pas des valeurs observes, elle ne dpend que du
variogramme et de la configuration des points servant lestimation par rapport au point
(ou bloc) estimer.

Systme de krigeage crit en terme du variogramme :


Comme la variance destimation secrit aussi directement en terme du variogramme,
on peut aussi ecrire le systeme de krigeage en fonction du variogramme. Ceci tient au fait
n
X
que C(h) = 2 (h) et que
i = 1.
i=1

n
X

j (xi , xj ) + = (v, xi ), 1 i n

j=1

et, alors

n
X

i = 1.

i=1

2
ko

n
X
i=1

i (v, xi ) (v, v) .

Il est intressant de visualiser le systme de krigeage ordinaire et la variance de krigeage


ordinaire sous forme matricielle :
K0 0 = k0

et

k20 = v2 T0 k0 ,

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

K0 =

2
Cov(Z1 , Z2 )
...
...
Cov(Z1 , Zn )
2
Cov(Z2 , Z1 )

Cov(Z2 , Z3 )
...
Cov(Z2 , Zn )
..
..
..
.
...
.
Cov(Z3 , Z2 )
.
..
..
..
.
.
...
Cov(Zn1 , Zn )
.
Cov(Zn , Z1 ) Cov(Zn , Z2)
...
Cov(Zn , Zn1 )
2
1
1
...
1
1

1
Cov(Z1 , Zv )
2
Cov(Z2 , Zv )

..
0 = ... , k0 =
et v2 = C(v, v).
.

n
Cov(Zn , Zv )

46
1
1
..
.
..
.
1
0

2.7.3 Krigeage simple


Parfois on connat la moyenne E(Z(x)) = m du champ estimer ou du moins on
en possde un estim fiable. On peut alors former un estimateur sans biais sans imposer la
contrainte que la somme des poids soit gale 1.
!
n
n
X
X
i m.
i Z i + 1
Zv =
i=1

i=1

Tout comme pour le krigeage ordinaire, on crit la variance destimation et on substitue


lexpression prcdente pour lestimateur Zv . On trouve :
e2

= Var(Zv ) +

n
n X
X
i=1 j=1

i j Cov(Zi , Zj ) 2

n
X

i Cov(Zv , Zi ).

i=1

On derive cette expression par rapport a chacun des i . On trouve alors le systeme de
krigeage simple :

Systme de krigeage simple


n
X

j Cov(Zi , Zj ) = Cov(Zv , Zi ),

j=1

1 i n

et la variance destimation, appele variance de krigeage simple scrit :


2
ks
= Var(Zv )

n
X
i=1

i Cov(Zv , Zj ).

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

47

La variance de krigeage simple est toujours inferieure a la variance de krigeage ordinaire car on na pas besoin dimposer de contrainte sur les poids i . Toutefois, elle
requiert la connaissance de la moyenne m. De plus, lhypothese de stationnarite
requise est plus forte que dans le cas du krigeage ordinaire. Dans le cas du krigeage
ordinaire, seule lhypothese intrinseque est requise. Dans le cas du krigeage simple,
la stationnarite est necessaire. Ainsi, il nest pas possible deffectuer un krigeage
simple si le variogramme ne presente pas de palier.
Le systeme de krigeage simple (KS) ne peut secrire directement en termes de varion
X
grammes puisquon na pas
i = 1.
i=1

En termes pratiques, les estims obtenus par krigeage ordinaire (KO) et simple (KS)
sont trs similaires lorsquon effectue le krigeage courte distance par rapport aux
points connus et par rapport la porte du variogramme et que le variogramme
montre une structure importante. Lorsquon effectue lestimation grande distance
ou si le variogramme montre un effet de ppite plus important, alors lestimation KO
consistera essentiellement en une moyenne des points du voisinage et lestime KS
sera simplement la moyenne suppose connue, i.e. m.
Rgle gnrale, le KO est prfrable au KS. Dans certaines applications telles le
krigeage dindicatrices et les simulations il est prfrable de recourir au KS.

2.7.4 Quelques cas trs simples de krigeage :


Ces quelques cas sont prsents dans le seul but dacqurir une certaine intuition du
comportement du krigeage. On suppose un variogramme sphrique de porte finie a.
i) Estimation dun point par un autre point situ une distance h
(a) Krigeage ordinaire :

2 ( 2 C(h)) = 2(h), 0 h < a
2
1 = 1, ko =
2 2 , h > a.
(b) Krigeage simple :
1 =

C(h)
,
2

k2s =



C(h)
2
= 2(h), 0 h a
2

2 , h > a.

Il est possible davoir une variance de krigeage ordinaire suprieure la variance


thorique de la variable tudie !
ii) Estimation dun bloc v par un point situ en x1 .
(a) Krigeage ordinaire :
1 = 1,

k2o = 2 + v2 2C(v, x1 )

CHAPITRE 2. VARIOGRAMMES ET COVARIANCES : KRIGEAGE

48

(b) Krigeage simple :


C(v, x1 )
,
1 =
2

k2s

C(v, x1 )
= v2
2

2

iii) Estimation dun point situ en x0 par deux points situs en x1 et x2


(a) Krigeage ordinaire :

1 =
(b) Krigeage simple :

=
2

2 +C(x0 ,x1 )C(x1 ,x2 )C(x0 ,x2 )


,
2(2 C(x1 ,x2 ))
2 +C(x0 ,x2 )C(x1 ,x2 )C(x0 ,x1 )
.
2(2 C(x1 ,x2 ))

1 =

=
2

2 C(x0 ,x1 )C(x1 ,x2 )C(x0 ,x2 )


,
(2 )2 (C(x1 ,x2 ))2
2 C(x0 ,x2 )C(x1 ,x2 )C(x0 ,x1 )
.
(2 )2 (C(x1 ,x2 ))2

Dans les deux cas, les poids peuvent tre ngatifs dpendant de la position respective
des trois points. Dans le cas du krigeage simple, les poids sont nuls si les 2 points
sont une distance de x0 suprieure la porte.
iv) Estimation dun point par n points en prsence dun variogramme effet de ppite
pur.
(a) Krigeage ordinaire :
1
i =
n

et

k2o

1
1+
n

(b) Krigeage simple :


i = 0

et k2s = 2 .

2.

Anda mungkin juga menyukai