Anda di halaman 1dari 84

TRABAJO MONOGR

AFICO
N umero de Condici on
y Matrices Aleatorias
Diego Armentano
Orientador: Mario Wschebor
Licenciatura en Matem atica
Facultad de Ciencias
Universidad de la Rep ublica
Montevideo, Uruguay
11 de Noviembre del 2005
Resumen
El objetivo de esta monografa es estudiar el n umero de condici on de sistemas de
ecuaciones lineales cuando los coecientes del sistema sean aleatorios. Exploraremos
resultados en el caso que los coecientes de la matriz sean variables aleatorias inde-
pendientes con igual distribuci on. Mostraremos el comportamiento de la cola de la
distribuci on del n umero de condici on en el caso de variables Gaussianas. Con ese n
introduciremos algunos conceptos de campos aleatorios demostrando la F ormula de
Rice. Incluiremos tambien comentarios sobre el n umero de condici on en problemas
m as generales.
Abstract
The goal of this monograph is to study the condition number of systems of linear
equations when the coecients of the system are random. We will explore results
in the case that the coecients of the matrix are independent variables with equal
distribution. We will show the behavior of the tail of the distribution of the condi-
tion number in the case of Gaussian variables. With that aim we will introduce some
concepts of random elds proving Rice Formula. We will also include some remmarks
on the condition number in more general problems.
Palabras Claves: N umero de condici on, F ormula de Rice, Matrices Aleatorias.
Key words: Condition number, Rice Formula, Random matrices.

Indice general
1. Introducci on 2
2. N umero de Condici on 5
2.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.1.1. Motivaci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
2.3. Aspectos Geometricos . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.4. Matrices mal condicionadas . . . . . . . . . . . . . . . . . . . . . . . 13
3. F ormula de Rice 15
3.1. Introducci on . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.1.1. Notaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.2. Prueba Heurstica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
3.3. Preliminares Tecnicos . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
3.4. Demostraci on de la F ormula de Rice . . . . . . . . . . . . . . . . . . 21
4. Matrices Aleatorias 30
4.1. Algunos resultados sobre E(log((A))) . . . . . . . . . . . . . . . . . 30
4.1.1. Ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
4.5. Distribuci on de la cola de (A) . . . . . . . . . . . . . . . . . . . . . 39
4.5.1. Preliminares tecnicos . . . . . . . . . . . . . . . . . . . . . . . 39
4.5.2. Demostraci on . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
5. Miscelanea 75
5.1. N umero de condici on en general . . . . . . . . . . . . . . . . . . . . . 75
6. Apendice 79
6.1. Serie de Neumann . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6.2. Teorema del Valor Medio para campos vectoriales . . . . . . . . . . . 80
1
Captulo 1
Introducci on
La resoluci on de sistemas de ecuaciones lineales por medio de computadoras, es
un tema de mucha importancia en las diferenentes areas de la ciencia. Los analistas
numericos han estudiado el tiempo de ejecuci on y la memoria necesaria para imple-
mentar diferentes algoritmos de algebra lineal. Este es el caso de algoritmos directos
que resuelven un sistema de ecuaciones lineales en una cantidad nita de pasos. Pero
las computadoras digitales quiebran la posibilidad de resolver dichos sistemas con
precisi on exacta. En la mayora de los casos hay una perdida en la precisi on en cada
uno de los pasos del proceso de resoluci on.
Una de las mayores preocupaciones es estimar el efecto de varios errores. Contare al-
gunos del los problemas que surgen:
1. Los elementos de la matriz A a considerar pueden traer errores inherentes al
problema en si. Por ejemplo que los datos sean extrados de alguna medida
fsica, como es el caso de muchos problemas surgidos de la ciencia. Para este
tipo de errores podemos establecer una cota , como por ejemplo la precisi on del
instrumento, entre otras. Entonces la matriz A es perturbada por una matriz
E = ((e
ij
)) donde los [e
ij
[ < , y por lo tanto la matriz en la cual se realizar an
las operaciones es A +E y no A.
2. Quiz as los elementos de la matriz esten exactamente denidos por alguna f ormu-
la algebraica, pero a un as es probable que dichos elementos no esten en el sis-
tema aritmetico de la computadora. Las computadoras actuales trabajan con
el sistema de aritmetica de punto otante, y entonces todas las operaciones
aritmeticas son hechas en un subconjunto nito c de R en vez de todo el con-
junto R. Unas de las caractersticas de este sistema aritmetico es la existencia
de una funci on r : R c llamada funci on redondeo que aproxima el dato ingre-
sado (en alg un sentido le da el valor del elemento m as proximo de c). De esta
manera todas las operaciones aritmeticas en R pasan a operaciones aritmeticas
en c a traves de la funci on r. Es decir se pasan los n umeros a sus redondeos,
2
CAP

ITULO 1. INTRODUCCI

ON 3
luego se realizan las operaciones establecidas y luego se redondea el resultado.
Por ejemplo, multiplicar dos elementos x, y en R es hacer r(r(x) r(y)). De esta
manera aunque estemos seguros que los datos de la matriz son los verdaderos,
est a el problema de redondeo en cada uno de los datos.
3. Otro problema es que, como se explic o en el ejemplo anterior, si tenemos dos
n umeros ya en el subconjunto c de R, las operaciones pueden caer fuera de c y
por lo tanto al implementar un algoritmo con la matriz es muy probable que en
las operaciones realizadas halla una perdida de exactitud en los datos (aunque
evitemos los dos problemas anteriores).
La pregunta que surge para este tipo de problemas (a excepci on del primer proble-
ma que de alguna manera no nos concierne) es cu anto afecta el error en la entrada
de los datos la soluci on del sistema?. Esta pregunta es la clave para poder hacer
algoritmos m as ecientes, en el sentido que tengan mayor rapidez y que los erro-
res acumulados no sean excesivos, como para que la soluci on este muy lejos de la
verdadera.
Muchos cientcos han estudiado estos problemas entre los cuales se destacan
Von Neumann y Turing entre otros. Von Neumann en particular se preguntaba si era
posible resolver sistemas de ecuaciones lineales con grandes n umeros de variables.
Sea A una matriz n n con coecientes reales invertible, y b R
n
. Estamos
interesados en resolver el sistema A x = b, y queremos estudiar como se afecta
la soluci on si se perturban los datos ingresados (input) A y b. Sera conveniente
conocer de antemano cu an distante es la soluci on del sistema perturbado x de la
soluci on del sistema x. O sea saber de antemano cual es la sensibilidad de la soluci on
a las perturbaciones en el input. Con tales nes existe una cantidad que nos da una
medida de esa sensibilidad. Dicha cantidad se denomina n umero de condici on y fue
identicada por Turing [16], Von Neumann y Goldstine [15]. El n umero de condici on
es denido por
(A) = |A| |A
1
| (1.1)
siendo |A| la norma usual de operadores, o sea
|A| = sup
xR
n
|Ax|
|x|
(1.2)
= sup
|x|=1
|Ax|. (1.3)
Aqu | | indica la norma Euclideana en R
n
It is characteristic of ill-conditioned sets of equations that small percentage errors
in the coecients given may lead to large percentage errors in the solution (Turing
[16]).
CAP

ITULO 1. INTRODUCCI

ON 4
Es en este artculo que Turing introduce el n umero de condici on de una matriz cua-
drada.
Probaremos m as adelante en el Teorema 1 que se cumple la siguiente desigualdad:
|x|
|x|

(A)
1 (A)
|A|
|A|

_
|b|
|b|
+
|A|
|A|
_
siendo b y A el error relativo en el input A y b respectivamente, y x el error
en la soluci on (x = x x). M as a un, la constante (A) es optima, en el sentido
de que cualquier constante menor no verica siempre la desigualdad. De esa manera,
(A) da una medida de cu anto amplica el error relativo en el input la soluci on. Pero
en realidad lo que estamos interesados es en saber la magnitud en termino de cifras
signicativas. O sea lo que queremos es estudiar log((A)).
Seg un como sean representados los n umeros en las m aquinas digitales se usa el lo-
garitmo en una base conveniente. Por ejemplo si la maquina trabaja con n umeros
binarios usaremos el logaritmo en base 2, pero si trabaja con n umeros decimales usa-
remos logaritmo en base 10. Pero por conveniencia trabajaremos con el logaritmo en
base e.
Cuando la matriz A no es invertible (singular) el n umero de condici on no est a bien
denido, pero lo podemos extender deniendo (A) = .
Llamaremos matrices bien-condicionadas(well-conditioned) aquellas con (A) pe-
que no y mal-condicionadas(ill-conditioned) aquellas con (A) muy grande.
Estamos interesados en estudiar el n umero de condici on para cierta familia de pro-
blemas. Es claro que no conocemos a priori el n umero de condici on de cierto input,
y que se supone que es m as f acil resolver el problema que computar su complejidad.
Una manera de atacar estos problemas es asumir que existe alguna ley probabilstica
donde los coecientes (input) se rigen bajo la acci on de dicha ley. Es decir, estamos
interesados en estudiar el n umero de condici on cuando los coecientes de la matriz en
cuesti on son aleatorios. A este tipo de matrices las llamaremos matrices aleatorias.
La idea de asumir una medida de probabilidad, nos conduce a poder obtener resul-
tados sobre el valor esperado del logaritmo del n umero de condici on y buscar en lo
posible resultados sobre la distribuci on de este. Esta idea fue impulsada por Stephen
Smale en 1997 para analizar la complejidad de este tipo de problemas. Vale la pena
comentar, que sobre estos temas se conoce todava muy poco, y la gran mayora de
resultados solo se restringe a una clase muy particular de problemas en los que los
coecientes son variables aleatorias Gaussianas.
El objetivo de esta monografa es mostrar resultados sobre el valor esperado del loga-
ritmo del n umero de condici on y de la distribuci on de la cola del n umero de condici on.
De m as est a decir que la ausencia de referencias en algunas partes de esta mono-
grafa, no supone originalidad de mi parte.
Captulo 2
N umero de Condici on
En este captulo daremos algunas propiedades y aspectos geometricos del n ume-
ro de condici on. Empezaremos por demostrar la desigualdad que de alguna manera
motiva la denici on de dicha cantidad. Luego mostraremos algunas propiedades al-
gebraicas sencillas, para terminar mostrando que el n umero de condici on nos da una
medida de la distancia al conjunto de matrices singulares.
Las referencias principales de este captulo son: [9], [12], [13] y [14].
2.1. Propiedades
2.1.1. Motivaci on
Teorema 1. Consideremos el sistema de ecuaciones lineales
Ax = b. (2.1)
Si llamamos A al error de redondeo en A, b al error de redondeo en b y x la
perturbaci on en la soluci on de (2.1) entonces si |A
1
A| < 1 se tiene:
|x|
|x|

(A)
1 (A)
|A|
|A|

_
|b|
|b|
+
|A|
|A|
_
.
Demostraci on. Haremos la demostraci on por partes, primero suponiendo que existe
un error de redondeo en b y que A es exacta, luego recprocamente, para luego hacer
el caso conjunto. De esta manera la demostraci on sera m as extensa de lo que en
realidad es pero seguramente se entienda m as si hacemos cada caso por separado.
Supongamos primero que A no tiene error, entonces A(x + x) = b + b:
Como x es la soluci on del sistema de ecuaciones lineales Ax = b entonces
A x = b = x = A
1
b
5
CAP

ITULO 2. N

UMERO DE CONDICI

ON 6
y entonces tomando norma en ambos miembros y usando la denici on de norma de
un operador se tiene
|x| = |A
1
b|
|A
1
| |b|.
Por otro lado
Ax = b = |A| |x| |b| = |x| |b| |A|
1
entonces se tiene que el error relativo
|x|
|x|
|A| |A
1
|
|b|
|b|
= (A)
|b|
|b|
entonces
|x|
|x|
(A)
|b|
|b|
.
Supongamos ahora b sin error o sea (A + A)(x + x) = b:
Nuevamente por (2.1) se tiene
A (x + x) = A x
o sea
A x + (A +A)x = 0 = (A +A)x = A x.
Como A+A = A (I +A
1
A) se tiene que (I +A
1
A) x = A
1
A x.
Si |A
1
A| < 1 entonces I + A
1
A es invertible
1
y por lo tanto A + A es
invertible.
Tenamos que (A + A) x = A x entonces x = (A + A)
1
A x
y entonces tomando normas se tiene
|x|
|x|
|(A + A)
1
A|. (2.2)
Llamando F = A
1
A tenemos que A + A = A (I +F) entonces
(A + A)
1
= (I +F)
1
A
1
1
En el apendice Serie de Neumann incluimos la demostraci on.
CAP

ITULO 2. N

UMERO DE CONDICI

ON 7
y como |(I +F)
1
|
1
1|F|
se tiene que
|(A + A)
1
|
|A
1
|
1 |A
1
| |A|
. (2.3)
Entonces por (2.2) y (2.3)
|x|
|x|

|A
1
A|
1 |A
1
A|

|A
1
| |A|
1 |A
1
A|

|A
1
| |A|
1 |A
1
| |A|
,
y si multiplicamos y dividimos por |A| se tiene
|x|
|x|

(A) |A|
|A| (A) |A|
y escribiendolo en funci on del error relativo de la matriz A se tiene:
|x|
|x|

(A)
|A|
|A|
1 (A)
|A|
|A|
.
Concluyendo obtuvimos los siguientes resultados:
|x|
|x|
(A)
|b|
|b|
(2.4)
en el caso A sin perturbar y
|x|
|x|

(A)
|A|
|A|
1 (A)
|A|
|A|
en el caso b sin perturbar.
Ahora con las dos discusiones anteriores estamos preparados para atacar el caso
general en que se perturban a la vez A y b:
(A + A) (x + x) = b + b.
Desarrollando y usando el hecho de que x es la soluci on de Ax = b se tiene que
(A + A) x = b A x.
CAP

ITULO 2. N

UMERO DE CONDICI

ON 8
Si |A
1
A| < 1 entonces (A + A) es invertible y
|(A + A)
1
|
|A
1
|
1 |A
1
| |A|
(2.5)
(ver apendice en la secci on de Serie de Neumann). Entonces en ese caso x = (A +
A)
1
(b A x) entonces
|x| = |(A + A)
1
(b A x)|
|(A + A)
1
| |(b A x)|
|(A + A)
1
| (|b| +|A x|)
|(A + A)
1
| (|b| +|A| |x|)
entonces dividiendo por |x|
|x|
|x|
|(A + A)
1
|
_
|b|
|x|
+|A|
_
. (2.6)
Usando la denici on de norma de un operador en (2.1) se tiene que |b| |A| |x|
y por lo tanto |x| |A|
1
|b|. Entonces sustituyendo en (2.6) y luego usando (2.5)
|x|
|x|
|(A + A)
1
|
_
|b|
|x|
+|A|
_
|(A + A)
1
|
_
|b|
|A|
1
|b|
+|A|
_

|A
1
|
1 |A
1
| |A|

_
|b|
|A|
1
|b|
+|A|
_

|A
1
| |A|
1 |A
1
| |A|

_
|b|
|b|
+
|A|
|A|
_
o sea
|x|
|x|

(A)
1 (A)
|A|
|A|

_
|b|
|b|
+
|A|
|A|
_
que es la desigualdad que busc abamos.
Como ya comentamos, cuando una matriz A no es invertible podemos extender
la denici on de (A) para que tome el valor .
Una matriz se dice singular cuando su determinante es cero, y por tanto se podra
esperar que las matrices que tengan determinante peque no tienen que ser las mal
condicionadas. Pero ese no es el caso, como veremos en el siguiente ejemplo.
CAP

ITULO 2. N

UMERO DE CONDICI

ON 9
Ejemplos 2.2. Sea A

=
_
0
0
_
, entonces det(A

) =
2
.
Como A
1

=
1
2
_

1
0
0
1
_
, se tiene que (A

) = 1. Entonces si tendemos a
cero, el determinante tiende a cero mientras que el n umero de condici on se mantiene
constante igual a 1.
En la siguiente secci on demostraremos un resultado que relaciona el det(A) con
(A).
Es f acil probar las siguientes dos armaciones
Armaci on 2. Sea A una matriz n n entonces:
1. (A) = (A) si ,= 0.
2. (A
1
) = (A) si A es invertible.
2.3. Aspectos Geometricos
Sea el conjunto de matrices singulares (o sea las ill-posed). Estas matrices
caen en una subvariedad del espacio R
n
2
. Dicha subvariedad est a denida por las
matrices con determinante nulo, y como la funci on determinante es un polinomio, la
subvariedad de la que hablamos es una variedad algebraica en el espacio R
n
2
( =
det
1
(0)). Probaremos que es un conjunto de medida de Lebesgue nula en el
espacio R
n
2
.
Lema 1. Si = A M
n
(R) : det(A) = 0 entonces

n
2() = 0
siendo
n
2 la medida de Lebesgue en el espacio R
n
2
.
Demostraci on. Quiz as uno se ve tentado a usar el Teorema de Sard, y argumentar
que es una variedad de dimensi on menor a n
2
en R
n
2
y por tanto la medida de
Lebesgue sera cero, pero no estamos en las condiciones del teorema ya que 0 no es un
valor regular. Por tanto hay que recurrir a otros metodos dejando de lado resultados
de la Geometra Diferencial.
Una matriz A = ((a
ij
)
i,j=1
) la podemos escribir en el espacio R
n
2
como
A = (a
11
, a
12
, . . . , a
1n
, a
2n
, . . . . . . , a
nn
) = (a
11
, b)
entonces si escribimos el determinante desarrollando por la primera la ( o primera
columna) se tiene que
det(A) = a
11

11
+B
CAP

ITULO 2. N

UMERO DE CONDICI

ON 10
donde
11
y B solo dependen de b. Entonces por Fubini

n
2() =
_
R
n
2

1
(
b
) db siendo
b
= a
11
: a
11

11
+B = 0.
Si
11
,= 0 entonces
b
=
B

11
y por tanto
1
(
b
) = 0.
Entonces

n
2() =
n
2(
11
,= 0) +
n
2(
11
= 0)
=
n
2(
11
= 0)

n
2(
11
= 0),
pero

11
= 0 = R
2n1

n1
(2.7)
siendo
n1
= A M
n1
(R) : det(A) = 0. De esta manera si hacemos un razona-
miento por inducci on usando Fubini en (2.7) se tiene el resultado. Detallemos esto.
Para matrices 11 es claro que el resultado del Lema es cierto. La hip otesis de induc-
ci on es que para matrices (n1)(n1) vale el resultado, es decir
(n1)
2(
n1
) = 0.
Entonces aplicando Fubini en (2.7) se tiene

n
2(
11
= 0) =
n
2(R
2n1

n1
)
Fubini
=
_
R
2n1

(n1)
2
_
(
n1
)
x
_
dx
=
_
R
2n1
=0
..

(n1)
2(
n1
) dx
= 0.
Existe un teorema que nos dice que el n umero de condici on est a relacionado con
la distancia de A a la variedad algebraica .
Consideraremos otra norma en el espacio de las matrices n n distinta a la norma
de operadores que comentamos en (1.2)
|A|
F
=
_
traza(AA
T
) =

_
n

i,j=1
[a
ij
[
2
conocida como norma de Frobenius o Hilbert-Schmidt, siendo A = ((a
ij
)
i,j=1...n
) y A
T
la matriz traspuesta de A, que no es otra cosa que la norma Euclideana en R
n
2
. En el
caso de que las entradas de la matriz sean complejas en vez de la matriz traspuesta
se considera la matriz conjugada traspuesta (o sea la matriz adjunta).
CAP

ITULO 2. N

UMERO DE CONDICI

ON 11
Teorema 3 (Teorema del n umero de condici on). Para toda matriz real A de
n n se tiene
d
F
(A, ) =
|A|
(A)
siendo d
F
la distancia en el espacio de las matrices nn con respecto a la norma de
Frobenius.

A
Este teorema fue probado por [Eckart y Young 1936].
Es necesario especicar algunos detalles antes de empezar la demostraci on.
Si A M
n
(R) (matrices reales cuadradas de dimensi on n) entonces podemos conside-
rar A como un operador lineal A : R
n
R
n
con matriz asociada A en la base can oni-
ca. Como estamos en dimensi on nita es conocido de los cursos b asicos de C alculo
que A es una funci on continua, y como || : R
n
R es tambien una funci on continua
tenemos que la composici on tambien lo es. Pero el conjunto x R
n
: |x| = 1 es
compacto, entonces por Weirestrass podemos sustituir la denici on de |A| dada en
(1.2) por
|A| = m ax
|x|=1
|Ax|. (2.8)
Para la prueba del teorema de Eckart-Young es necesario usar que la norma de
Frobenius es invariante por transformaciones ortogonales.
Recordemos que una matriz B es ortogonal cuando BB
T
= I siendo I la matriz
identidad.
Notar que en las matrices ortogonales los vectores columnas de la matriz B (B
i
con i = 1 . . . n) son ortogonales entre s y de norma 1. Esto se ve f acilmente pues
B
i
, B
j
) =
i,j
siendo

i,j
=
_
1 i = j
0 i ,= j.
CAP

ITULO 2. N

UMERO DE CONDICI

ON 12
Lema 2. Sea A una matriz nn y B una matriz ortogonal tambien nn. Entonces
|AB|
F
= |BA|
F
= |A|
F
.
Demostraci on. Notar que cuando multiplicamos por B a la izquierda, la la i del
producto es
(A
i
, B
1
) , . . . , A
i
, B
n
))
siendo A
i
la la i de la matriz A y B
j
la columna j de B. Pero como los B
j
son
ortogonales y de norma uno, por Pit agoras la longitud de la la es igual a la longitud
de A
i
.
An alogamente, si se multiplica por la matriz B a la derecha, la longitud de las co-
lumnas se mantiene igual a las columnas de A. Por lo tanto la norma de Frobenius
se mantiene constante.
Prueba de Teorema 3. Probaremos que
d
F
(A, ) =
1
|A
1
|
.
Sea v R
n
donde se toma el m aximo en (2.8) para A
1
. Es decir sea v tal que |v| = 1
y |A
1
(v)| = |A
1
|.
Sea u =
1
|A
1
|
A
1
(v), por lo tanto |u| = 1, A(u) =
1
|A
1
|
v y |A(u)| =
1
|A
1
|
.
Si u = e
1
y llamamos

A a la matriz que resulta de cambiar la primer columna de A por
todos ceros, tenemos que

A . Entonces d
F
(A, ) |

A A|
F
= |A(u)| =
1
|A
1
|
es decir d
F
(A, )
1
|A
1
|
.
Si u ,= e
1
consideramos B una matriz ortogonal tal que B(e
1
) = u. Entonces (AB)
1
=
AB(e
1
) = A(u) es decir la primera columna de la matriz AB es A(u). De forma
an aloga tomamos la matriz

AB que resulta de cambiar la primer columna de AB por
ceros. Entonces procediendo igual que antes llegamos a que d
F
(AB, )
1
|A
1
|
, pero
usando el Lema 2 se tiene
d
F
(A, )
1
|A
1
|
.
Falta la otra desigualdad.
Sea M la matriz donde se minimiza d
F
(A, ), o sea d
F
(A, ) = |A M|
F
.
Como M es una matriz singular el n ucleo no es el trivial. Entonces existe v de norma
uno tal que M(v) = 0.
Sea B una matriz ortogonal tal que B(e
1
) = v. De esta manera la primera columna de
MB es cero ((MB)
1
= MB(e
1
) = M(v) = 0). Entonces |AB(e
1
)| |ABMB|
F
=
d
F
(A, ).
De la denici on de norma de operadores en (1.2) se desprende que
|Au| |A| |u| u R
n
,
CAP

ITULO 2. N

UMERO DE CONDICI

ON 13
de donde
|w| = |A
1
A(w)| |A
1
| |A(w)|
entonces
|A
1
|
|w|
|A(w))|
,
y tomando w = B(e
1
) se tiene que
|A
1
|
|B(e
1
)|
|AB(e
1
)|

1
d
F
(A, )
.
Lo que nos dice este teorema es que las matrices mal-condicionadas (las de n umero
de condici on grande) est an cercas de la variedad algebraica . Es decir est an en alguna
vecindad de cada punto de , lo que signica que caen en alg un entorno tubular de
.
2.4. Matrices mal condicionadas
Las matrices mal condicionadas son aquellas en que peque nas perturbaciones en
los coecientes de un sistema de ecuaciones lineales (Ax = b) provocan grandes
perturbaciones en la soluci on del sistema. Daremos ejemplos de este tipo de matrices,
pero tratemos el caso de matrices sencillas (como por ejemplo las diagonales) para
facilitar los c alculos.
Sea A =
_
0
0
_
con >> > 0. Supongamos A ja y un error en b (b). Entonces
A (X +X) = b +b y por lo tanto A X = b.
Es claro que A es invertible, entonces X = A
1
b, y si tomamos norma se tiene
que |X| = |A
1
b|. Como X = A
1
b obtenemos que
|X|
|X|
=
|A
1
b|
|A
1
b|
. (2.9)
Entonces eligiendo de manera adecuada b y b tal que el numerador en (2.9) sea
grande, y el denominador en (2.9) sea chico, tendremos un gran error relativo. Como
el comportamiento de A
1
seg un los valores propios es opuesto al de A, basta tomar
b en la direcci on (1, 0) y b en la direcci on (0, 1). Tomemos b = (1, 0) y b = (0, 1).
En ese caso la soluci on del sistema A X = b es
X =
_
1/
0
_
.
CAP

ITULO 2. N

UMERO DE CONDICI

ON 14
La matriz inversa de A es
1

_
0
0
_
entonces
X =
1

_
0
0
_

_
0

_
=
1

_
0

_
=
_
0

_
entonces |X| = [

[ y |X| = [
1

[.
Por (2.9) el error relativo es
|X|
|X|
=


y como est abamos en el caso >> , podemos controlar el de la m aquina para
hacer que el error relativo sea tan grande como querramos.
Es claro que lo anterior lo podramos haber hecho para matrices tomando distintos
vectores propios y ajustando como antes los valores propios para obtener nuevamente
una gran perturbaci on en la soluci on.
Observar que (A) =
1

>> 1.
Ejemplos 2.5. A =
_
10
6
0
0 10
6
_
, = 10
3
entonces X =
_
10
6
0
_
y X = (0, 10
3
)
o sea la soluci on perturbada es X +X = (10
6
, 10
3
) y
|X|
|X|
= 10
9
.
Captulo 3
F ormula de Rice
En este captulo introduciremos algunas nociones sobre procesos estoc asticos y
campos aleatorios, orientados hacia el estudio de los extremos de un campo aleatorio.
Enunciaremos y demostraremos la Formula de Rice que sera de utilidad para poder
estudiar la cola de la distribuci on del n umero de condici on en el caso Gaussiano.
Las referencias de este captulo son: [2], [3] y [7].
3.1. Introducci on
Un procesos estoc astico (p.e.) es una familia de variables aleatorias que est an
denidas en un mismo espacio de probabilidad, que est an indexadas por cierto con-
junto T. Es decir, dado un espacio de probabilidad (, A, P), un p.e. es una funci on
X : T R medible en la primera variable. Los procesos estoc asticos ser an nota-
dos por X(t) : t T.
Los procesos para los cuales T se identica con los enteros o alguna parte de ellos,
ser an llamados procesos estoc asticos de tiempo discreto.
Si T coincide con alg un intervalo [a, b] (o la recta real, o alguna semirrecta) diremos
que X(t) : t T es de tiempo continuo.
Si en vez de tener una familia de variables aleatorias tenemos una familia de
vectores aleatorios denidos en el mismo espacio de probabilidad a valores en R
n
,
diremos que es un campo estoc astico o campo aleatorio en R
n
.
Consideremos el proceso X(t) : t T. Si jamos obtenemos una funci on
X(, ) : T R tal que t X(t, w) que llamaremos trayectoria del proceso.
De esta manera podemos ver al proceso como una variable aleatoria que a cada le
asigna una funci on.
Diremos que un p.e. tiene trayectorias continuas (o C
r
) si el mapa X(, ) : T R
es continuo (o C
r
) salvo en un conjunto de probabilidad nula.
Llamaremos p
X(t)
(x) a la densidad (en caso de que exista) de la variable aleatoria
15
CAP

ITULO 3. F

ORMULA DE RICE 16
X(t) en el punto x.
Diremos que un campo aleatorio Z(t) : t T es Gaussiano si dado cualquier
conjunto nito t
1
, . . . , t
m
de ndices el vector (X(t
1
), . . . , X(t
m
)) tiene distribuci on
conjunta Gaussiana en R
m
.
A lo largo de este captulo, consideraremos que el conjunto de par ametros es
una variedad diferenciable compacta I de dimensi on d en R
d
y el campo (aleatorio)
Z : I R
d
es Gaussiano.
3.1.1. Notaciones
Sea A una matriz simetrica n n, notamos A ~ 0 (A 0) si A es denida
positiva (denida negativa).
Sea f : U R
d
R, denimos el m odulo de continuidad para > 0 como

f
() = sup
x,yU
[f(x) f(y)[ : |x y| < .
M as generalmente si A() : U R
d
R
mn
es un campo matricial (A(t) =
(a
ij
(t)) con i = 1 . . . m, j = 1 . . . n) denimos
A
() como el m aximo m odulo
de continuidad de sus entradas, es decir

A
() = m ax
i=1...m
j=1...n

a
ij
().
Sea Z : I R
d
un campo y J I R
d
, denimos N
Z
u
(J) como el n umero de
soluciones en J del sistema de ecuaciones Z(t) = u. O sea
N
Z
u
(J) = #t J : Z(t) = u.
La f ormula de Rice establece de manera explcita una f ormula que nos permite
expresar el valor esperado de N
Z
u
(J) en el caso que Z sea Gaussiano y bajo ciertas
hip otesis sobre su regularidad y sobre la variedad I.
El resultado es el siguiente
E(N
Z
u
(I)) =
_
I
E
_
[det(Z
t
(t))[/Z(t) = u
_
p
Z(t)
(u) dt.
3.2. Prueba Heurstica
Teorema 4. Sea Z : I R
d
con I R
d
compacto, un campo aleatorio, y u R
d
.
Asumimos lo siguiente:
CAP

ITULO 3. F

ORMULA DE RICE 17
H0 Z es Gaussiano,
H1 c.s. el mapa t Z(t) es C
1
,
H2 t I, Z(t) tiene distribuci on no-degenerada (var(Z(t)) ~ 0),
H3 Pt

I, Z(t) = u, det(Z
t
(t)) = 0 = 0,
H4 (I) = 0.
Entonces
E(N
Z
u
(I)) =
_
I
E
_
[det(Z
t
(t))[/Z(t) = u
_
p
Z(t)
(u) dt. (3.1)
En esta secci on mostraremos una prueba no formal de la F ormula de Rice pero
que ayuda a entender y justicar la f ormula (3.1).
-Fijemos en el espacio muestral.
Tomemos u R
d
. Por tener medida de Lebesgue nula la frontera de I, con probabi-
lidad uno las pre-im agenes caen todas en el interior de I. Adem as podemos suponer
que u es un valor regular para el campo Z pues lo es con probabilidad uno por H3.
Por ser Z de clase C
1
y I compacto, N
Z
u
(I) < . Si n > 0, sean
1
, . . . ,
n
las pre-
im agenes por Z de u (N
Z
u
(I) = n).
Tomando un chico, podemos aislar cada una de las pre-im agenes
1
, . . . ,
n
con en-
tornos abiertos disjuntos U
1
, . . . , U
n
respectivamente, de forma tal que:
Z sea un difeomorsmo local entre U
i
y la bola B
d
(u, )
si x /
n
i=1
U
i
entonces Z(x) / B
d
(u, )
donde B
d
(u, ) es la bola Euclideana en R
d
de centro u y radio .
Entonces
_
I
[ det(Z
t
(t))[ Ind
|Z(t)u|<
dt =
n

i=1
_
U
i
[ det(Z
t
(t))[ dt
=
d
_
B
d
(u, )
_
n
entonces
N
Z
u
(I) = lm
0
1

d
(B
d
(u, ))
_
I
[ det(Z
t
(t))[ Ind
|Z(t)u|<
dt.
Tomando esperanza en ambos miembros se tiene
E(N
Z
u
(I)) = lm
0
1

d
(B
d
(u, ))
_
I
E([ det(Z
t
(t))[ Ind
|Z(t)u|<
) dt
= lm
0
_
I
dt
1

d
(B
d
(u, ))
_
B
d
(u,)
E
_
[ det(Z
t
(t))[

Z(t) = y
_
p
Z(t)
(y) dy
=
_
I
E
_
[ det(Z
t
(t))[/Z(t) = u
_
p
Z(t)
(u) dt
CAP

ITULO 3. F

ORMULA DE RICE 18
prob andose el resultado.
No nos es posible justicar cada una de las igualdades por tanto para la prueba formal
necesitamos un trabajo preliminar previo.
3.3. Preliminares Tecnicos
En el siguiente lema probaremos que con probabilidad uno no hay pre-im agenes
por Z de u en el borde de la variedad.
Lema 3. Sea I compacto en R
d
, Z : I R
d
un campo vectorial aleatorio y u R
d
tal que:
1. El mapa t Z(t) es C
1
c.s.,
2.
d
(I) = 0,
3. t I, p
Z(t)
(x) C con x V (u) entorno de u,
entonces
P
_
N
Z
u
(I) ,= 0
_
= 0.
Demostraci on. Como I es compacto, 1. nos dice que
sup
tI
i,j=1...d
[
Z
i
t
j
(t)[ M
con M() < con probabilidad 1. Entonces existe M
0
sucientemente grande tal
que P(M > M
0
) < y sea A

= M > M
0
.
Como
d
(I) = 0 y I es tambien compacto, dado
t
> 0, encontramos bolas (deter-
minsticas) B
1
, ..., B
m
de radio
j
con j = 1...m respectivamente tales que
m

j=1

d
(B
j
) <
t
y I
m
_
j=1
B
j
.
P
_
N
Z
u
(I) ,= 0
_
P
_
N
Z
u
_
m
_
j=1
B
j
I
_
1
_
(3.2)
P
_
_
N
Z
u
_
m
_
j=1
B
j
I
_
1
_
A
c

_
+P(A

)
. .
<
(3.3)
< P
_
_
N
Z
u
_
m
_
j=1
B
j
I
_
1
_
A
c

_
+. (3.4)
CAP

ITULO 3. F

ORMULA DE RICE 19
Estudiemos el primer miembro despues de la desigualdad en (3.4).
P
_
_
N
Z
u
_
m
_
j=1
B
j
I
_
1
_
A
c

_

m

j=1
P
__
N
Z
u
_
B
j
I
_
1
_
A
c

_
.
Si
_
N
Z
u
(B
j
I) 1
_
entonces B
j
I tal que Z() = u.
Sean

t
j
B
j
I jos.
Entonces si
_
N
Z
u
(B
j
I) 1
_
A
c

se tiene
|Z(

t
j
) Z()| = |Z(

t
j
) u|
M
0
d|

t
j
t|
M
0
d2
j
donde la primera desigualdad sigue del teorema de valor medio para campos vecto-
riales, que por completitud agregamos su demostraci on en el Apendice (6.1).
Tenemos que
|Z(

t
j
) u| 2M
0
d
j
. (3.5)
Concluimos que: si
_
N
Z
u
(B
j
I) 1
_
A
c

entonces por (3.5) |Z(

t
j
)() u|
2M
0
d
j
. Juntando lo anterior se tiene
P(N
Z
u
(B
j
I) 1 A
c

) P(|Z(

t
j
) u)| 2M
0
d
j
)
=
_
B(u,2M
0
d
j
)
P
Z(

t
j
)
(x) dx
C V ol(B(u, 2M
0
d
j
))
= C V ol(B(0, 2M
0
d
j
))
= C (2M
0
d)
d
V ol(B(0,
j
)).
Entonces
P(N
Z
u
(I) ,= 0) <
m

j=1
2M
0
d)
d
V ol(B(0,
j
) +
<
t
C(2M
0
d)
d
+.
Como M
0
= M
0
() depende s olo de , dado > 0 elegimos M
0
y luego
t
tal que

t
C(2M
0
d)
d
< , entonces se tiene
P(N
Z
u
(I) ,= 0) < 2
lo que concluye la prueba.
CAP

ITULO 3. F

ORMULA DE RICE 20
En la demostraci on anterior hay un detalle que pasamos por alto. Para usar el
teorema de valor medio es necesario que los extremos (en este caso

t
j
y ) esten
conectados. Pero esto no es un problema pues en la hip otesis cuando decimos que el
mapa t Z(t) es C
1
en I c.s, queremos decir que tiene una extensi on C
1
y por
tanto el teorema de valor medio lo podemos usar en un conjunto mayor a I en el
que para cada punto de I existe una bolita incluida en la extensi on. De esa manera
trabajamos en vez de con I, con la extensi on, y ah hacemos el procedimiento.
Lema 4. Sea Z : I R
d
un campo vectorial C
1
, I compacto en R
d
y u R
d
.
Asumimos que:
1. inf
tZ
1
(u)
_

min
_
Z
t
(t)
_
_
> 0,
2.
Z
() <

d
,
siendo
min
(M) el mnimo valor propio de la matriz M
T
M.
Entonces, si t
1
y t
2
son soluciones de Z(t) = u y el segmento comprendido entre t
1
y
t
2
(que notaremos [t
1
, t
2
]) est a incluido en I entonces
|t
1
t
2
| > .
Demostraci on. Sean = |t
1
t
2
| y v =
t
1
t
2
|t
1
t
2
|
.
Como Z(t
1
) = Z(t
2
) y Z(t) = (Z
1
(t), . . . , Z
d
(t)) entonces Z
i
(t
1
) = Z
i
(t
2
) para i =
1 . . . d. Entonces por ser Z diferenciable se tiene por el teorema del valor medio que

i
Z
i
v = 0 con
i
[t
1
, t
2
]. y entonces (Z
t
(t) v)
i
= 0 cuando t =
i
, es decir
(Z
t
(
i
) v)
i
= 0 para todo i = 1 . . . d, por ejemplo:
Z
t
(
1
) v =
_
_
_

1
Z
1
.
.
.

1
Z
d
_
_
_

_
_
_
v
1
.
.
.
v
d
_
_
_
=
_
_
_
_
0

_
_
_
_
.
Ahora

_
Z
t
(t
1
) v
_
i

_
Z
t
(t
1
) v
_
i

_
Z
t
(
i
) v
_
i

_
_
Z
t
(t
1
) Z
t
(
1
)

v
_
i

y si desarrollamos en sus coordenadas tenemos

_
Z
t
(t
1
) v
_
i

k=1

Z
t
(t
1
)
ik
Z
t
(
i
)
ik

[v
k
[

Z
( )
d

k=1
[v
k
[

Z
( )

d
CAP

ITULO 3. F

ORMULA DE RICE 21
donde la segunda desigualdad es consecuencia de que |t
1

i
| < |t
1
t
2
| =
Usando 1. tenemos que
0 <
min
(Z
t
(t
1
))
|Z
t
(t
1
) v|
=
_
d

i=1
_
(Z
t
(t
1
) v)
i
_
2
_
1/2

_
d

i=1

2
Z
( )d
_
1/2
=
_

2
Z
( )d
2
_
1/2
=
Z
( )d.
Entonces hemos probado que 0 <
Z
( )d y por tanto se verica que
Z
() <

d

Z
( ) y entonces es necesario que < = |t
1
t
2
|.
3.4. Demostraci on de la F ormula de Rice
Una vez demostrados los dos lemas anteriores, podemos proceder a la demostra-
ci on formal de la F ormula de Rice.
Demostraci on. Sea F : R R una funci on continua, creciente en sentido amplio tal
que F(x) = 0 si x 1/2 y F(x) = 1 si x 1.
Sean y dos n umeros positivos. Denamos la siguiente funci on aleatoria:

,
(u, Z, I) = F
_
1
2
inf
sI
_

min
(Z
t
(s)) +|Z(s) u|

_
1 F
_
d


Z
()
__
(3.6)
y el conjunto
I

= t I : |t s| , s / I.
(Notaremos
,
(u, Z, I) por
,
(u)).
Si
,
(u) > 0 se tiene que:
(i) inf
sI
_

min
(Z
t
(s)) +|Z(s) u|

> ,
(ii)
d

Z
() < 1 o sea
Z
() <

d
.
De (i) se tiene que inf
sZ
1
(u)
_

min
(Z
t
(s))

> siempre que el conjunto de


preim agenes de u sea no vaco.
CAP

ITULO 3. F

ORMULA DE RICE 22
Usando el teorema de extensi on de pre-medidas de Carathedory, es f acil ver que basta
probar la F ormula para paraleleppedos. De esta manera podemos suponer que I es
un paraleleppedo y concluimos que si
,(u)
> 0 y N
Z
u
(I

) no es cero, entonces
estamos en las hip otesis del lema 4 por la convexidad de los paraleleppedos.
Entonces cubriendo I

con bolas de radio /2, a lo sumo puede haber una raz en


cada bola (de lo contrario las races distaran menos de ).
Como I

es compacto (es cerrado y esta incluido en I compacto) tenemos que s olo


una cantidad nita de esas bolas cubren I

y por ende hay una cantidad nita de


races, acotada por una constante C(I, ) que depende s olo de I y .
Sea f : R
d
R otra funci on continua con soporte compacto. Como c.s. Z es
Lipchitz y
,
(u) f(u) es integrable (pues
,
(u) es acotada) usando la f ormula
de co- area de Federer se tiene que:
_
R
d
f(u) N
Z
u
(I

)
,
(u) du =
_
I

[det(Z
t
(t)[ f(Z(t))
,
(Z(t)) dt. (3.7)
Tomando esperanzas en ambos miembros se tiene que el primer miembro en (3.7)
E
__
R
d
f(u) N
Z
u
(I

)
,
(u) du
_
Fubini
=
(A)
..
_
R
d
f(u) E
_
N
Z
u
(I

)
,
(u)
. .
(i)
_
du . (3.8)
Antes de estudiar el segundo miembro de (3.7) recordar que si g(X, Y ) con X, Y son
variables aleatorias
E
_
g(X, Y )
_
= E
_
E(g(u, Y )[X = u)

=
_
R
d
E
_
g(u, Y ) [ X = u
_
p
X
(u) du (3.9)
entonces tomando g
_
Z(t), Z
t
(t)
_
=

det
_
Z
t
(t)
_

f(Z(t))
,
(Z(t), Z, I) se tiene
E
_
_
I

g
_
Z(t), Z
t
(t)
_
dt
_
Fubini
=
_
I

E
_
g
_
Z(t), Z
t
(t)
_
_
dt
=
_
I

E
_
E
_
g
_
u, Z
t
(t)
_
[ Z(t) = u
__
dt
=
_
I

_
R
d
E
_
g
_
u, Z
t
(t)
_
[ Z(t) = u
_
p
z(t)
(u) dudt
y si deshacemos la notaci on y usamos el hecho de que f(u) es determinstico se obtiene
que la esperanza del segundo miembro de (3.7) es igual a
_
I

dt
_
R
d
f(u) E
_

det
_
Z
t
(t)
_

,
(u, Z, I)

Z(t) = u
_
p
z(t)
(u) du
CAP

ITULO 3. F

ORMULA DE RICE 23
y si aplicamos nuevamente Fubini llegamos al siguiente resultado
E
_
_
I

[ det(Z
t
(t))[ f(Z
t
(t))
,
(Z(t), Z, I) dt
_
=
(B)
..
_
R
d
f(u)
_
I

E
_
[ det(Z
t
(t))[
,
(u, Z, I) [ Z(t) = u
_
p
Z(t)
(u) dt
. .
(ii)
du .
De la igualdad entre (A) y (B) se tiene que salvo un conjunto de medida de
Lebesgue nula, (i) y (ii) coinciden, es decir
E(N
Z
u
(I

)
,
(u, Z, I))
y
_
I

E
_
[det(Z
t
(t))[
,
(u, Z, I) [ Z(t) = u
_
p
z(t)
(u) dt
coinciden para casi todo u R
d
. Pero probaremos que ambos terminos son continuos
en u, entonces tendremos la igualdad u R
d
. La prueba de la continuidad dejemosla
para m as adelante.
Entonces armamos que
E(N
Z
u
(I

)
,
(u))
. .
(i)
=
_
I

E
_
[det(Z
t
(t))[
,
(u, Z, I) [ Z(t) = u
_
p
z(t)
(u) dt
. .
(ii)
.
Fijemos u R
d
y hacemos tender 0 y luego 0 en ese orden.
en (i): Es claro que si 0 entonces N
Z
u
(I

) N
Z
u
(

I) para cada , pues si existe
t

I soluci on de Z(t) = u entonces tomando sucientemente chico se tiene
que t I

, pero c.s. por el Lema 3 N


Z
u
(

I) = N
Z
u
(I). Entonces si 0,
N
Z
u
(I

) N
Z
u
(I) c.s..
Ahora por el Lema 3 y por H3
inf
sI
_

min
(Z
t
(s)) +|Z(s) u|

> 0 c.s.
pues si Z(s) ,= u se sigue la desigualdad, y si Z(s) = u entonces con proba-
bilidad uno u

I por Lema 3, y por (H3) c.s.
min
(Z
t
(s)) > 0. Adem as, c.s.
CAP

ITULO 3. F

ORMULA DE RICE 24

min
(Z
t
(s)) +|Z(s) u| es una funci on continua en s.
Si observamos la denici on de
,
en (3.6) se tiene
lm
0
lm
0

,
(u) = 1 de forma creciente c.s.
(observar que
Z
() decrece a cero cuando 0). Por lo tanto usando el
Teorema de Beppo Levi (convergencia mon otona) se tiene
lm
0
lm
0
E
_
N
Z
u
(I

)
,
(u)
_
= E
_
N
Z
u
(I)
_
.
en (ii): Observemos que
(ii) =
_
R
d
E
_
[det(Z
t
(t))[
,
(u, Z, I)

Z(t) = u
_
Ind
I

(t) p
z(t)
(u) dt.
Si mostramos que
E
_
[det(Z
t
(t))[
,
(u, Z, I) [ Z(t) = u
_
E
_
[det(Z
t
(t)) [ Z(t) = u
_
(3.10)
cuando 0 y luego 0, como Ind
I

(t) Ind

I
(t) cuando 0 entonces
por Beppo Levi se tiene
lm
0
lm
0
_
R
d
E
_
[ det(Z
t
(t))[
,
(Z(t)) [ Z(t) = u
_
Ind
I

(t) p
z(t)
(u) dt
=
_
R
d
E
_
[ det(Z
t
(t))[ [ Z(t) = u
_
Ind

I
(t) p
z(t)
(u) dt
=
_

I
E
_
[ det(Z
t
(t))[ [ Z(t) = u
_
p
Z(t)
(u) dt
H4
=
_
I
E
_
[ det(Z
t
(t))[ [ Z(t) = u
_
p
Z(t)
(u) dt.
Ahora queda por probar la continuidad de (i) y (ii), y (3.10).
Continuidad de (i):
Sea u
0
jo, probemos que (i) es continua en u
0
usando el teorema de convergencia
dominada. Para eso primero veamos que c.s. N
Z
u
(I

) es constante en un entorno de
u
0
como funci on de u.
Por H3 y por el Lema 3 es claro que c.s. no existe t Z
1
(u
0
) tal que det(Z
t
(t)) = 0.
Pero entonces por el Teorema de la Funci on Inversa podemos encontrar entornos
disjuntos de cada una de las pre-im agenes de u
0
por Z tal que Z(.) es un difeomorsmo
local. Es f acil ver que como I es compacto, la cantidad de pre-im agenes es nita
CAP

ITULO 3. F

ORMULA DE RICE 25
(consecuencia del Teorema de la Funci on Inversa). Sean
1
, . . . ,
n
las pre-im agenes
de u
0
por Z.
Si nos restringimos al conjunto I

, la distancia de Z(t) a u
0
para los t que est an
fuera de la uni on de esos entornos, esta acotada por abajo por una constante positiva
que solo depende de I

. Esto es as ya que de lo contrario existira una sucesi on t


k

en

I

= I

n
i
V
i
(siendo V
i
entorno de
i
donde Z es un difeomorsmo local con
su imagen) tal que |Z(t
k
) u
0
| < 1/k. Pero por la compacidad de

I

, existira t
0
en

lmite de alguna subsucesi on de t


k
, y como Z es continuo se tendra Z(t
0
) = u
0
lo que es absurdo.
Entonces para cada en un conjunto de probabilidad 1, se tiene que N
Z
u
(I

) =
N
Z
u
0
(I

) para u variando en un entorno (aleatorio) de u


0
.
Adem as, es claro que
,
(u) es continua y acotada por 1 como funci on de u (basta
ver la denici on en (3.6)). Recordando que N
Z
u
(I

) est a acotado por una constante


C(I, ) independiente de u, la continuidad de (i) es consecuencia directa del Teorema
de Lebesgue de convergencia dominada
lm
uu
0
E
_
N
Z
u
(I

)
,
(u)
_
= E
_
N
Z
u
0
(I

)
,
(u
0
)
_
.
Continuidad de (ii):
La idea es primero mostrar que la esperanza condicional en el integrando de (ii) es
continua como funci on de u para cada t I y luego tratar como antes de aplicar el
teorema de convergencia dominada.
Es claro que la funci on aleatoria
,
(u) =
,
(u, Z, I) depende de Z(s), de
Z
t
(s) y del conjunto I. Por lo tanto la funci on aleatoria [det(Z
t
(t))[
,
(u, Z, I) es
un funcional denido en el conjunto
_
(Z(s), Z
t
(s)) : s I R
d
_
.
Haciendo una regresi on Gaussiana de (Z(s), Z
t
(s)) con s I, respecto de Z(t) obte-
nemos:
Z(s) = Y
t
(s) +
t
(s) Z(t), Z
t
j
(s) = Y
t
j
(s) +
t
j
(s) Z(t)
donde Z
t
j
(s) con j = 1 d son las columnas de la matriz Z
t
(s), Y
t
(s) e Y
t
j
(s)
para j = 1 d son vectores Gaussianos independientes de Z(t), y
t
(s) y
t
j
(s) son
matrices continuas en las variables s y t. La anterior construcci on es posible usando
el hecho de que Z(t) no degenera en I (var(Z(t)) ~ 0).
Remplazando en la esperanza condicional obtenemos
(ii) =
_
I

E
_
[det(M
t
(t, u))[
,
(u, Y
t
() +
t
() u, M
t
(, u))
_
p
Z(t)
(u) dt
siendo M
t
(s, u) la matriz con columnas Y
t
j
(s) +
t
j
(s) u.
Entonces si u tiende a u
0
se tiene que
[det(M
t
(t, u))[
,
(u, Y
t
() +
t
() u, M
t
(, u))
CAP

ITULO 3. F

ORMULA DE RICE 26
tiende a
[det(M
t
(t, u
0
))[
,
(u
0
, Y
t
() +
t
() u
0
, M
t
(, u
0
)).
Entonces usando que E([det(M
t
(t, u))[) es acotado variando t en I y u en alg un
entorno de u
0
(por tener vectores columna Gaussianos) la continuidad sigue de la
aplicaci on del teorema de convergencia de Lebesgue.
Entonces con la continuidad en cada miembro se tiene que u R
d
E(N
Z
u
(I

)
,
(u)) =
_
I

E
_
[det(Z
t
(t))[
,
(Z(t)) [ Z(t) = u
_
p
z(t)
(u) dt
como habamos armado.
Nos resta probar el lm
0
lm
0
de (ii), m as precisamente probar la armaci on
(3.10)
De ahora en adelante u R
d
est a jo.
Haciendo la regresi on en (ii) y tomando 0 se obtiene
E
_
N
Z
u
(I)

(u, Z, I)
_
=
_
I
E
_
[det(Z
t
(t))[ F
_
1
2
mn
sI
_

min
(M
t
(s)) +|Y
t
(s) +
t
(s)u u|

__
p
z(t)
(u) dt
donde

(u, Z, I)
_
= F
_
1
2
mn
sI
_

min
(Z
t
(s)) +|Z(s) u|
_
.
El problema surge cuando hacemos tender 0 pues no sabemos que ocurre con

min
(M
t
(s)) +|Y
t
(s) +
t
(s)u u|.
Tomemos > 0.
Consideremos las funciones

t
(s) =
m ax
(M
t
(s)) = m ax
|x|=1
x
T
(M
t
(s))
T
M
t
(s)x

t
(s) =
mn
(M
t
(s)) = mn
|x|=1
x
T
(M
t
(s))
T
M
t
(s)x
Como M
t
(s) es una funci on continua como funci on de las variables s y t en I, se tie-
ne que los valores singulares de M
t
(s) (es decir los valores propios de (M
t
(s))
T
M
t
(s))
se mueven continuamente con probabilidad uno
1
.
1
M as adelante en la secci on 4.5.1 se estudiaran m as en detalle los valores singulares de una matriz.
CAP

ITULO 3. F

ORMULA DE RICE 27
Adem as se tiene que
sup
t,sI
[ det(M
t
(s))[
pertenece a L
1
como ya vimos.
Sea sucientemente grande tal que
E
_
sup
tI
[ det(M
t
(t))[ Ind
sup
s,tI

t
(s)>
_
<
y sea > 0 sucientemente peque no tal que
E
_
sup
tI
[ det(M
t
(t))[ Ind

()
1
2

d1

_
<
siendo

el m odulo de continuidad de en I I.
Sea J I un cubito tal que su di ametro sea menor a ,
2
entonces
E
_
N
Z
u
(I)

(u, Z, J)
_

_
J
E
_
[det(Z
t
(t))[ F
_
1
2
mn
sI
_

min
(M
t
(s)) +|Y
t
(s) +
t
(s)u u|

_
Ind
F

_
p
z(t)
(u) dt
donde
F

=
_
sup
s,tI

t
(s) ,

() <
1
2

d1
, [ det(M
t
(s))[ >
_
.
De esta manera, si F

se tiene:
[ det(M
t
(t))[ =
_
det(M
t
(t))
T
M
t
(t)
_1
2

mn
(M
t
(t))
d1
_1
2
=
t
(t) =
mn
(M
t
(t))

2

d1
,
entonces en J (s, t J) se tiene que

t
(s)
1
2

d1
(pues [
t
(s)
t
(t)[ <

() para todo s, t J), y por lo tanto


t J, mn
sJ
_

min
(M
t
(s)) +|Y
t
(s) +
t
(s)u u|
_
> 0
2
Recordar que estamos suponiendo que I es un paraleleppedo.
CAP

ITULO 3. F

ORMULA DE RICE 28
en F

.
Entonces si F

se tiene
F
_
1
2
mn
sJ
_

min
(M
t
(s)) +|Y
t
(s) +
t
(s)u u|
_
1 cuando 0.
Pasando al lmite ( 0) se tiene
E
_
N
Z
u
(J)
_

_
J
E
_
[ det(M
t
(t))[ Ind
F

_
p
Z(t)
(u) dt
=
_
J
E
_
[ det(M
t
(t))[
_
p
Z(t)
(u) dt R()
siendo
R() =
_
J
E
_
[ det(M
t
(t))[ Ind
F

c
_
p
Z(t)
(u) dt.
Pero
0 E
_
[ det(M
t
(t))[ Ind
F

c
_
E
_
[ det(M
t
(t))[ Ind
sup
s,tI

t
(s)>
_
+
+E
_
[ det(M
t
(t))[ Ind

()
1
2

d1

_
+E
_
[ det(M
t
(t))[ Ind
[ det(M
t
(s))[
_
< 3,
entonces en J se tiene:
E
_
N
Z
u
(J)
_

_
J
E
_
[ det(M
t
(t))[
_
p
Z(t)
(u) dt 3
_
J
p
Z(t)
(u) dt
ahora tomando una partici on de I con cubitos disjuntos y sumando se tiene
E
_
N
Z
u
(I)
_

_
I
E
_
[ det(M
t
(t))[
_
p
Z(t)
(u) dt 3
_
I
p
Z(t)
(u) dt,
y como es arbitrario, se tiene
E
_
N
Z
u
(I)
_

_
I
E
_
[ det(M
t
(t))[
_
p
Z(t)
(u) dt.
La otra desigualdad resulta de acotar
,
(u, Z, I) por la constante 1.
Observaci on 1.
p
Z(t)
(u)
1
(2)
d/2
_
det(V ar(Z(t)))

1/2
donde V ar(Z(t)) = ((E(Z(t)
i
Z(t)
j
)))
i,j=1...d
, entonces det(V ar(Z(t))) es continuo en
un compacto, y siempre positivo para todo t en I como consecuencia de no degenerar
en I (H2). Por lo tanto esa funci on tiene un m aximo en I y en consecuencia p
Z(t)
(u)
K t I y u R
d
.
CAP

ITULO 3. F

ORMULA DE RICE 29
Hemos concluido
E
_
N
Z
u
(I)
_
=
_
I
E
_
[ det(M
t
(t))[
_
p
Z(t)
(u) dt,
que es lo que queramos demostrar.
Captulo 4
Matrices Aleatorias
En este captulo mostraremos resultados sobre el valor esperado del logaritmo del
n umero de condici on, y mostraremos como se comporta la cola de la distribuci on del
n umero de condici on en el caso de variables Gaussianas.
Las referencias principales de este captulo son: [1], [4] y [5].
4.1. Algunos resultados sobre E(log((A)))
Teorema 5. Sean a
ij
con i, j = 1 . . . n variables aleatorias independientes e identi-
camente distribuidas (en el espacio (, A, )), siendo la distribuci on de probabilidad
com un P. Asumimos que P satisface las siguientes condiciones:
1. Para todo par de n umeros reales y tales que < se tiene que:
P ([, ]) P
_
[

2
,

2
]
_
. (4.1)
2. E([a
11
[
r
) =
+
_

[x[
r
P(dx) = 1 para alg un r positivo.
3. Existen constantes positivas C y tales que
P ([, ]) C

, para todo > 0.


Bajo esas hip otesis se prueba
E[log (A)]
_
1 +
2
r
_
log n +
1
r
+
1

_
[(2 +) log n + log C]
+
+ 1
_
donde a
+
= m ax(a, 0).
30
CAP

ITULO 4. MATRICES ALEATORIAS 31


Demostraci on. Primero veamos que |A|
2


n
i,j=1
a
2
ij
(= |A|
2
F
).
|A|
2
= sup
|x|=1
|Ax|
2
=
= sup
x
2
1
++x
2
n
=1
(a
11
x
1
+ +a
1n
x
n
)
2
+ + (a
n1
x
1
+ +a
nn
x
n
)
2
CS
(a
2
11
+ +a
2
1n
) + + (a
2
n1
+ +a
2
nn
)
=
n

i,j=1
a
2
ij
donde la desigualdad sigue de Cauchy-Schwartz.
Calculemos por separado las esperanzas de log |A| y la de log |A
1
|. Para esto
usaremos el siguiente lema conocido de los cursos b asicos de probabilidad:
Lema 5. Sea X una variable aleatoria positiva en sentido amplio, denida en el
espacio de probabilidad (, A, ) entonces
E(X) =
_
+
0
(X > t) dt.
Usando el anterior c alculo se tiene
(|A| > t) = (|A|
2
> t
2
) (
n

i,j=1
a
2
ij
> t
2
)
entonces usando s olo el hecho de que las variables aleatorias [a
ij
[ tienen igual distri-
buci on, se tiene
(|A| > t)
_
n
2
sup
i,j=1...n
a
2
ij
> t
2
_
=
_
sup
i,j=1...n
[a
ij
[ >
t
n
_

_
n
_
i,j=1
_
[a
ij
[ >
t
n
_
_
n
2

__
[a
11
[ >
t
n
__
,
entonces se tiene
(|A| > t) n
2

__
[a
11
[ >
t
n
__
. (4.2)
CAP

ITULO 4. MATRICES ALEATORIAS 32


Usando el Lema 5 se tiene
E[log |A|] x
n
+
_

x
n
(log |A| > x) dx
x
n
+
_

x
n
(|A| > e
x
) dx
x
n
+
_

x
n
n
2

__
[a
11
[ >
e
x
n
__
dx
donde la primera desigualdad resulta de aplicar el Lema 5 a la variable aleatoria que
coincide con (log |A|)
+
cuando esta toma valores positivos, y toma el valor constante
x
n
cuando (log |A|)
+
toma el valor 0. La ultima desigualdad sigue de (4.2). Ahora
usando la desigualdad de Markov se tiene que

_
[a
11
[ >
e
x
n
_

_
e
x
n
_
r
E([a
11
[
r
)
y por la hip otesis 2. se tiene

_
[a
11
[ >
e
x
n
_

_
e
x
n
_
r
,
sustituyendo en la integral tenemos
E[log |A|] x
n
+n
2

_

x
n
_
e
x
n
_
r
dx
= x
n
+n
2+r

_

x
n
1
e
rx
dx
= x
n
+n
2+r

1
r e
x
n
r
,
es decir
E[log |A|] x
n
+n
2+r

1
r
e
x
n
r
. (4.3)
Nos resta por minimizar esta cota sobre x
n
0. Como el segundo miembro de (4.3)
es una funci on convexa en x
n
, basta ver donde se anula la derivada (y que este en el
eje real positivo). Derivando el segundo miembro seg un x
n
obtenemos
1 n
2+r
e
x
n
r
= 0
despejando y tomando logaritmo se obtiene que el x
n
buscado es
x
n
= log n
_
2
r
+ 1
_
CAP

ITULO 4. MATRICES ALEATORIAS 33


que es un n umero positivo. De esta manera sustituyendo en (4.3) el x
n
minimizante
se tiene
E[log |A|]
_
2
r
+ 1
_
log n +n
2+r

1
r
e

(
2
r
+1
)
r log n
=
_
2
r
+ 1
_
log n +n
2+r

1
r
n
(1+2/r)r
=
_
1 +
2
r
_
log n +
1
r
,
es decir
E[log |A|]
_
1 +
2
r
_
log n +
1
r
(4.4)
obteniendo as la primera parte del resultado.
Ahora consideremos |A
1
|. Para eso notemos A
1
= (b
ij
)
i,j=1...n
donde se sabe
que
b
ij
=
a
(ij)
det(A)
siendo a
(ij)
el adjunto en la posici on (i, j). Como las variables a
ij
son igualmente
distribuidas e independientes, las variables aleatorias [b
ij
[ tambien son igualmente
distribuidas, y por tanto podemos realizar el mismo procedimiento que hicimos para
A.
1
De esa manera se tiene
(|A
1
| > t)
_
n
2
sup
i,j=1...n
[b
ij
[
2
> t
2
_
=
_
sup
i,j=1...n
[b
ij
[ >
t
n
_

_
n
_
i,j=1
_
[b
ij
[ >
t
n
_
_
n
2

__
[b
11
[ >
t
n
__
= n
2

__

a
(11)

n
j=1
a
1j
a
(1j)

>
t
n
__
= n
2

__

a
11
+
n

j=2
a
1j

a
(1j)
a
(11)

<
n
t
__
.
1
Recordar que lo unico que usamos era que los m odulos de las variables aleatorias eran identica-
mente distribuidas.
CAP

ITULO 4. MATRICES ALEATORIAS 34


Llamando =

n
j=2
a
1j

a
(1j)
a
(11)
se tiene que a
11
y son independientes y por lo tanto

_
[a
11
[ + <
n
t
_
=
_
+

_
[a
11
[ +y <
n
t
_
P

(dy)
=
_
+

P
__

n
t
y,
n
t
y
__
P

(dy)

_
+

P
__

n
t
,
n
t
__
P

(dy)
= P
__

n
t
,
n
t
__
C
_
n
t
_

.
Hemos concluido que
(|A
1
| > t) n
2
C
_
n
t
_

. (4.5)
Ahora usando nuevamente el Lema 5 y (4.5) se tiene
E[log |A
1
|] y
n
+
_

y
n
(|A
1
| > e
x
) dx
y
n
+
_

y
n
n
2
C
_
n
e
x
_

dx
= y
n
+n
2+
C
_

y
n
e
x
dx
= y
n
+n
2+
C
e
x

entonces
E[log |A
1
|] y
n
+n
2+
C
e
y
n

.
Resta por minimizar para y
n
0.
Derivando e igualando a cero obtenemos
1 n
2+
C e
y
n
= 0,
entonces tomando logaritmo se tiene
y
n
=
1


_
(2 +) log n + log C
_
e y
n
0,
es decir
y
n
=
_
1

log
_
n
2+
C
_
_
+
=
_
1


_
(2 +) log n + log C
_
_
+
.
CAP

ITULO 4. MATRICES ALEATORIAS 35


Observar que
n
2+
C
e
y
n

= n
2+
C
e

log(n
2+C
)

donde la desigualdad se debe al siguiente argumento:


-si n
2+
C < 1 el exponente de e es 0 y se sigue la desigualdad estricta;
-si n
2+
C 1 desarrollando sigue la desigualdad, por lo tanto hemos concluido que
E[log |A
1
|]
_
1

((2 +) log n + log C)


_
+
+
1

.
es decir
E[log |A
1
|]
1


_
[ ((2 +) log n + log C)]
+
+ 1
_
. (4.6)
Entonces de (4.4) y (4.6) se sigue que
E[log (A)]
_
1 +
2
r
_
log n +
1
r
+
1

_
[(2 +) log n + log C]
+
+ 1
_
.
Observaci on 2. Se puede probar que la hip otesis 1. implica que la distribuci on P es
simetrica alrededor de 0. De esta manera si las variables aleatorias a
ij
son integrables
entonces su valor esperado es 0.
Observaci on 3. Es f acil ver que la hip otesis 2. a efectos de estimar E(log (A)) no
es m as restrictiva que pedir que la distribuci on P tenga momento de orden r nito
para alg un r > 0. Esto es consecuencia directa de la invariancia del n umero de
condici on por homotecias
2
. Si m
r
=
_
+

[x[
r
P(dx) < para alg un r > 0 entonces
basta tomar la nueva matriz m
1/r
r
A en vez de la matriz A. De esta manera se puede
modicar la distribuci on P sin modicar el n umero de condici on. Resta ver solamente
como se modica la constante C.
Observaci on 4. Se pueden modicar sutilmente las hip otesis del teorema cambiando
las hip otesis 1. y 3. por la siguiente:
Existen constantes positivas C y tales que para todo par de n umeros reales y
tales que < se tiene que:
P([, ]) C [ [

.
Esto es consecuencia que en la demostraci on s olo se utilizo el argumento anterior, que
claramente es consecuencia de relacionar 1. y 3..
2
Recordar que en la secci on 2.1 se observo que si > 0 entonces (A) = (A).
CAP

ITULO 4. MATRICES ALEATORIAS 36


4.1.1. Ejemplos
Ejemplo 4.2. Supongamos que P tiene densidad f par y decreciente en sentido amplio
en [0, ). Supongamos adem as que
m
r
=
_
+

[x[
r
f(x) dx < para alg un r > 0.
Cambiando f por m
1/r
r
f(m
1/r
r
x) y llamando

P a la nueva distribuci on, se tiene
_
+

[x[
r
m
1/r
r
f(m
1/r
r
x) dx =
_
+

[u[
r
m
r
f(u) du =
m
r
m
r
= 1.
Adem as,

P([, ]) =
_

m
1/r
r
f(m
1/r
r
x) dx
= 2
_

0
m
1/r
r
f(m
1/r
r
x) dx
2m
1/r
r
f(0),
entonces estamos bajo las hip otesis del Teorema 5 con C = 2m
1/r
r
f(0) y = 1, por
lo tanto
E[log (A)]
_
1 +
2
r
_
log n +
1
r
+
_
3 log n +
1
r
log m
r
+ log(2f(0))
_
+
+ 1.
Ejemplo 4.3. Supongamos ahora que P tiene distribuci on uniforme en el intervalo
[H, H]. Entonces P tiene densidad
f(x) =
1
2H
, x [H, H]
m
r
=
_
H
H
[x[
r

1
2H
dx =
1
H

_
H
0
[x[
r
dx
=
1
H

H
r+1
r + 1
=
H
r
r + 1
CAP

ITULO 4. MATRICES ALEATORIAS 37


entonces m
r
=
H
r
r+1
, y por lo tanto r > 0, m
r
< .
Haciendo tender r a + se tiene
E[log (A)] lm
r
__
1 +
2
r
_
log n+
+
1
r
+
_
3 log n +
1
r
log
_
H
r
r + 1
_
+ log(2 f(0))
_
+
+ 1
_
= lm
r
_
log n +
_
3 log n
1
r
log(r + 1)
_
+
+ 1
_
4 log n + 1,
entonces
E[log (A)] log n
4
+ 1.
Ejemplo 4.4 (Concentraci on cerca de la media). Si consideramos la familia de distri-
buciones con soporte en el intervalo [1, 1] dadas por
f(x) =
1
2


[x[
1
Ind
[1,1]
(x) con 0 < < 1.
Calculemos m
r
:
m
r
= 2
_
1
0
1
2


[x[
1
[x[
r
dx =
_
1
0
[x[
r+1
dx
=
[x[
r+
r +

1
0
=

+r
,
entonces
m
r
=

+r
r > 0.
Veamos que tomando en consideraci on el Ejemplo 4.2 caemos en las hip otesis del
Teorema 5.
CAP

ITULO 4. MATRICES ALEATORIAS 38

P([, ])
_

m
1/r
r
f(m
1/r
r
x) dx
=
_
m
1/r
r

m
1/r
r

f(u) du
= 2
_
m
1/r
r
0
1
2

[u[
1
du
=
[u[

m
1/r
r
0
= (m
1/r
r
)

=
_

+r
_
/r

.
Entonces tomando
C =
_

+r
_
/r
= m
/r
r
y entre 0 y 1 se tiene
E[log (A)]
_
1 +
2
r
_
log n +
1
r
+
_
_
(2 +) log n +

r
log
_

+r
__
+
+ 1
_
,
tomando r + se tiene
E[log (A)] log n +
_
2

+ 1
_
log n +
1

entonces
E[log (A)]
_
2 +
2

_
log n +
1

.
CAP

ITULO 4. MATRICES ALEATORIAS 39


4.5. Distribuci on de la cola de (A)
En esta secci on enunciaremos y demostraremos el resultado m as importante de
esta monografa. El resultado nos muestra como se comporta la cola de la distribuci on
de (A) cuando A es una matriz aleatoria Gaussiana. Pasemos a enunciarlo
Teorema 6. Sea A = ((a
ij
)
i,j=1...m
) con m 3 y a
ij
^(0, 1).
Entonces existen constantes universales c y C tales que si x > 1
c
x
< P((A) > mx) <
C
x
(4.7)
con c = 0,13 y C = 5,60.
Para demostrar este teorema es necesario pasar por algunos resultados tecnicos
que abordaremos en la siguiente secci on.
4.5.1. Preliminares tecnicos
Lema 6 (Lema de Bulinskaia). Sea X
t
: t I un proceso estoc astico, con
trayectorias C
1
(es decir t X
t
es C
1
c.s.), I R un intervalo. Sea u R, y
supongamos que t I X
t
tiene densidad p
X
t
(x) y est a acotada para t variando en
compactos de I y x variando en un entorno de u. Entonces
P(T
X
u
,= ) = 0
siendo T
X
u
= t I : X
t
= u, X
t
t
= 0 o sea los puntos crticos del proceso estoc astico
X que toman el valor u.
Demostraci on. Por el Teorema de Lindel o, basta probar que
P(T
X
u
J ,= ) = 0 J I intervalo compacto.
Sea l = long(J), C una cota de p
X
t
(x) en J, y t
0
< t
1
< < t
m
partici on uniforme
de J, con t
j+1
t
j
= l/m con j = 0 . . . (m1).
Sea
X
(, J) el m odulo de continuidad de X
t
en J, y
E
,
=
X
(, J) .
Dado > 0, podemos elegir > 0 tal que P(E
,
) < como consecuencia de la
CAP

ITULO 4. MATRICES ALEATORIAS 40


continuidad de la X
t
, y elegimos m tal que l/m < se tiene
P(T
X
u
J ,= ) P(E
,
) +
m1

j=0
P
_
T
X
u
[t
j
, t
j+1
] ,= E
c
,
_
< +
m1

j=0
P
_
[X
t
j
u[ l/m
_
= +
m1

j=0
_
[xu[l/m
p
X
t
j
(x) dx
< +
m1

j=0
C l/m
= +Cl
con C y l constantes, y como es arbitrario se obtiene el resultado.
Lema 7. Sean 0
1
. . .
m
los valores propios de A
t
A, entonces casi segura-
mente los valores propios son dos a dos diferentes.
Demostraci on. Que los valores propios son positivos es consecuencia de que la matriz
A
t
A es denida positiva (los detalles est an explicados en el Lema 8).
Sea
c
() =
m
+ c
1

m1
+ + c
m
el polinomio caracterstico de A
t
A con
c = (c
1
, . . . , c
m
).
Queremos probar que
P(c :
c
() tiene raiz doble) = 0,
o sea
P(c : tal que
c
() = 0,
t
c
() = 0) = 0
y para eso basta probar que para n jo
P(c : , [[ n tal que
c
() = 0,
t
c
() = 0) = 0.
Asumiendo que en compactos el proceso estoc astico
c
tiene densidad acotada, el
resultado lo obtenemos por el Lema de Bulinskaia.
Para no entrar en detalle y probar cada una de las hip otesis realizadas (que re-
quiere de cierto trabajo tecnico) optamos por transitar otro camino.
Existe un resultado de Fisher en que da explcitamente la densidad conjunta de
los valores propios. Eso quiere decir que la densidad conjunta de los valores propios
es absolutamente continua respecto a la medida de Lebesgue. Es decir que
P((
1
, . . . ,
m
) A) =
_
A
f
(
1
,...,
m
)
(x
1
, . . . , x
m
) dx
1
. . . dx
m
(4.8)
CAP

ITULO 4. MATRICES ALEATORIAS 41


pero es f acil ver que la medida de Lebesgue en R
m
de
i
=
j
es 0 por ser un
subespacio de dimensi on menor a m. Entonces por (4.8)
P(
1
=
2
) = 0.
En general

m
(
i,=j

i
=
j
) = 0 = P(
i
=
j
con i ,= j e i, j = 1 . . . m) = 0
Se pueden caracterizar el mayor y el menor valor propio de la matriz A
t
A. Para
caracterizarlos se puede usar un resultado conocido de los cursos de An alisis Funcio-
nal:
si T es un operador normal en un espacio de Hilbert entonces se tiene que
|T| = sup[ Tx, x) [ : |x| 1.
Pero por razones de completitud y auto-contenido haremos una prueba sin usar ar-
gumentos muy sosticados.
Lema 8. Sea A una matriz real mm, y 0
1
. . .
m
los valores propios de
la matriz A
t
A. Sea X : S
m1
R el polinomio cuadr atico asociado a A
t
A dado por
X(x) = x
t
A
t
Ax.
Entonces
(i)
m
= |A|
2
= m ax
xS
m1 X(x).
(ii) Si
1
> 0,
1
=
1
|A
1
|
2
= mn
xS
m1 X(x).
Demostraci on. Observar que X(x) = x
t
A
t
Ax = A
t
Ax, x) = Ax, Ax) = |Ax|
2
entonces
X(x) 0, (4.9)
por tanto si x es vector propio de A
t
A con valor propio asociado

se tiene
X( x) = A
t
A x, x) (4.10)
=

x, x) (4.11)
=

| x|
2
, (4.12)
entonces de (4.9) y (4.12) se tiene que los valores propios de A
t
A tienen que ser po-
sitivos o cero.
Sea

X : R
m
R la extensi on de X a todo R
m
, o sea

X(x) = A
t
Ax, x) con x R
m
.
Su derivada usual es

X
t
(x) = 2A
t
Ax (derivada libre).
CAP

ITULO 4. MATRICES ALEATORIAS 42


Queremos estudiar los m aximos y mnimos de

X con la condici on subsidiaria g(x
1
, . . . , x
m
) =
0 siendo
g(x
1
, . . . , x
m
) = x
2
1
+ +x
2
m
1 (g
1
(0) = S
m1
R
m
).
Entonces para buscar los m aximos y mnimos con esa condici on subsidiaria basta
considerar los vectores x S
m1
tales que

X
t
(x) = x es decir que el gradiente sea
perpendicular al espacio tangente de x, que no es otra cosa que decir que sea paralelo
al vector x. Pero como

X
t
(x) = 2A
t
Ax entonces estamos buscando los vectores propios
de A
t
A que son
1
, . . . ,
m
.
Sean s
1
. . . , s
m
los vectores propios respectivos en S
m1
. Entonces
X(s
i
) = A
t
As
i
, s
i
)
=
i
s
i
, s
i
)
=
i
|s
i
|
2
=
i
y por lo tanto
m ax
xS
m1
X(x) =
m
y mn
xS
m1
X(x) =
1
.
Es claro que
m
= |A|
2
pues
|A|
2
def
= m ax
|x|=1
|Ax|
2
= m ax
|x|=1
X(x)
=
m
.
Veamos ahora que si
1
> 0 entonces
1
=
1
|A
1
|
2
.
Es f acil ver que si A
1
es no singular (o sea
1
> 0) entonces los valores propios de
A
t
A son los mismos que los de AA
t
.

Esto es consecuencia de la siguiente igualdad:
AA
t
I = A(A
t
A I)A
1
.
Como (A
1
)
t
A
t
= (AA
1
)
t
= I se tiene que (A
1
)
t
= (A
t
)
1
, y por lo tanto
(A
1
)
t
A
1
= (A
t
)
1
A
1
= (AA
t
)
1
.
De la anterior igualdad se concluye que los valores propios de (A
1
)
t
A
1
son exacta-
mente los inversos de los valores propios de A
t
A, o sea
1
1
, . . . ,
1
m
, y si aplicamos
el resultado anterior obtenemos que |A
1
|
2
es igual al mayor valor propio asociado
a (A
1
)
t
A
1
, es decir
|A
1
|
2
=
1

1
,
lo que concluye la prueba.
CAP

ITULO 4. MATRICES ALEATORIAS 43


Observaci on 5. Si continuamos con esta notaci on, podemos reescribir la denici on de
n umero de condici on dada en (1.1)
(A) = |A| |A
1
| =

1
=

m ax
xS
m1 X(x)
mn
xS
m1 X(x)
siendo X(x) = x
t
A
t
Ax (x R
m
).
De esta manera para nuestros nes de demostrar el Teorema 6 nos basaremos en las
distribuci on conjunta de (
1
,
m
).
4.5.2. Demostraci on
En esta monografa s olo incluiremos la demostraci on de la cota superior de la
distribuci on de la cola de (A) en el Teorema 6.
Prueba del Teorema 6. Probaremos que
P((A) > x) <
Cm
x
para x > m.
La prueba se dividir a en varios pasos. Nuestro objetivo principal es estimar la densi-
dad conjunta de (
m
,
1
) como ya observamos.
Paso 1:
Recordemos la notaci on, X : S
m1
R, X(x) = x
t
A
t
Ax es decir X(x) = |Ax|
2
.
Notaremos A
t
A como B.
Dados a, b R con a > b queremos calcular la probabilidad del conjunto

m
(a, a +da),
1
(b, b +db). (4.13)
Para eso tratemos de describir dicho conjunto en funci on de los vectores propios.
Tratemos de identicar los vectores propios de norma uno asociados a
m
y
1
que
los llamaremos s y t respectivamente. Por el Lema 7 sabemos que casi seguramente
los valores propios son todos distintos. Entonces con probabilidad uno es f acil probar
que en el caso de que la matriz sea autoadjunta, se tiene que s y t son ortogonales:
-Sean v y w vectores propios con valores propios y respectivamente. Entonces
usando el hecho de que B es simetrica se tiene
v, w) =
1

Bv, w) =
1

v, B
t
w) =
1

v, Bw) =

v, w)
y si ,= se tiene que v, w) = 0.
CAP

ITULO 4. MATRICES ALEATORIAS 44


Sea
u
: R
m
R
m
la proyecci on ortogonal sobre el subespacio u

, es decir

u
(w) = w w, u) u con u de norma uno, entonces si
u
(Bu) = 0 se tiene que
Bu Bu, u)u = 0 o sea Bu = Bu, u)u que no es otra cosa que u sea un vector
propio de B. Por lo tanto debemos pedir que
s
(B
s
) = 0
t
(B
t
) = 0. Lo unico que nos
esta faltando es que los vectores s y t tengan los valores propios m aximos y mnimos
respectivamente. Y para eso solo hay que chequear que son los vectores que verican
X
tt
(s) 0 y X
tt
(t) ~ 0.
Entonces hemos probado que casi seguramente (4.13) es igual a
_
s, t S
m1
, s, t) = 0, X(s) (a, a +da), X(t) (b, b +db),

s
(B
s
) = 0,
t
(B
t
) = 0, X
tt
(s) 0 y X
tt
(t) ~ 0
_
. (4.14)
Si llamamos N
a,b,da,db
a la variable aleatoria que cuenta el n umero de pares (s, t) que
pertenecen a (4.14), podemos observar que casi seguramente solo puede tomar los
valores 0 o 4, ya que si existen, aparecen de a pares por ser X simetrica. Entonces
E
_
N
a,b,da,db
_
= 4 P
_

m
(a, a +da),
1
(b, b +db)
_
,
o sea
P
_

m
(a, a +da),
1
(b, b +db)
_
=
1
4
E
_
N
a,b,da,db
_
. (4.15)
Paso 2:
Ac a daremos una cota para E
_
N
a,b,da,db
_
.
Sea
V = (s, t) : s, t S
m1
, s, t) = 0 R
2m
.
Los puntos de V , verican las siguientes condiciones:
(A) =
_
_
_
|s| = 1
|t| = 1
s, t) = 0
y si consideramos las funciones
g
1
(s, t) = s
2
1
+ +s
2
m
+ 0 + + 0
g
2
(s, t) = 0 + + 0 +t
2
1
+ t
2
m
g
3
(s, t) = s
1
t
1
+ s
m
t
m
CAP

ITULO 4. MATRICES ALEATORIAS 45


el sistema de ecuaciones (A) lo podemos escribir como
(A) =
_
_
_
g
1
(s, t) = 1
g
2
(s, t) = 1
g
3
(s, t) = 0.
Sea G : R
2m
R
3
denida por,
G(s, t) =
_
_
g
1
(s, t)
g
2
(s, t)
g
3
(s, t)
_
_
entonces la matriz asociada en la base can onica del diferencial de G en el punto (s, t)
es
dG
(s,t)
=
_
_
2s
1
. . . 2s
m
0 . . . 0
0 . . . 0 2t
1
. . . 2t
m
t
1
. . . t
m
s
1
. . . s
m
_
_
que es una matriz de 32m. Veamos que el rango es 3 y por tanto de rango m aximo.
Para eso podemos observar que basta probar que el det
_
dG
(s,t)
_
dG
(s,t)
_
t
_
,= 0. No-
temos G
t
(s, t) a la matriz asociada en la base can onica a dG
(s,t)
o sea basta probar
que det
_
G
t
(s, t)
_
G
t
(s, t)
_
t
_
,= 0 donde G
t
(s, t)
_
G
t
(s, t)
_
t
es una matriz 3 3.
det
_
G
t
(s, t)
_
G
t
(s, t)
_
t
_
=

_
_
2s 0
0 2t
t s
_
_

_
2s 0 t
0 2t s
_

_
_
2
2
s, s) 0 2s, t)
0 2
2
t, t) 2t, s)
2t, s) 2t, s) t, t) +s, s)
_
_

_
_
2
2
0 0
0 2
2
0
0 0 2
_
_

entonces
det
_
G
t
(s, t)
_
G
t
(s, t)
_
t
_
= 32 ,= 0.
Resumiendo, tenemos una funci on G : R
2m
R
3
donde G
t
(s, t) tiene rango m aximo
y
V = G
1
_
_
1
1
0
_
_
entonces por el teorema de la funci on implcita, se tiene que V es una variedad diferen-
ciable de dimensi on 2m3, de clase C

(ya que G lo es), encajada en R


2m
y sin borde.
CAP

ITULO 4. MATRICES ALEATORIAS 46


Llamaremos = (s, t) un punto generico en V y
V
(d) la medida geometrica en
V . Se prueba que

V
(V ) =

2
m1

m2
(4.16)
donde
m1
es el area de la supercie S
m1
R
m
, es decir
m1
=
2
m/2
(m/2)
.
Denimos en V el siguiente campo aleatorio Y : V R
2m
, como
Y (s, t) =
_

s
(Bs)

t
(Bt)
_
.
Dado = (s, t) V , tenemos que Y ()
_
s

_
y como
Y (s, t), (t, s))
R
2m
=
s
(Bs), t)
R
m
t
(Bt), s)
R
m
= Bs Bs, s)
R
ms, t)
R
m Bt Bt, t)
R
mt, s)
R
m
= Bs, t)
R
m Bs, s)
R
m
=0
..
s, t)
R
m Bt, s)
R
m +Bt, t)
R
m
=0
..
t, s)
R
m
= Bs, t)
R
m Bt, s)
R
m
= s, B
t
t)
R
m s, Bt)
R
m
= s, Bt)
R
m s, Bt)
R
m
= 0,
entonces
Y () (t, s)

.
Sea
W

=
_
(t, s)
_

_
s

_
R
2m
.
Como s

R
m
tiene dimensi on m 1 entonces s

es un subespacio
vectorial de R
2m
de dimensi on 2(m 1) = 2m 2 y como (t, s) s

tenemos que
_
(t, s)
_

_
s

_
tiene dimensi on 2m3 o sea
dim(W

) = 2m3.
Denamos ahora
() =
_
det
_
(Y
t
())
t
Y
t
()
__
1/2
y N = # : V, Y () = 0
y para V
F

= X(s) (a, a +da), X(t) (b, b +db), X


tt
(s) 0, X
tt
(t) ~ 0 . (4.17)
CAP

ITULO 4. MATRICES ALEATORIAS 47


Tambien denamos p
Y ()
() como la densidad del vector aleatorio Y () en el subes-
pacio vectorial W

R
2m
de dimensi on 2m3.
Veremos m as adelante, cuando computemos Y
t
(s, t), que podemos asumir que 0 es
un valor regular de Y , pues lo es con probabilidad uno.
Como
V = G
1
_
_
1
1
0
_
_
S
m1
S
m1
,
se tiene que V es compacto (cerrado en un compacto), entonces eso implica que
N < . De lo contrario acumularan y 0 dejara de ser un valor regular
3
.
Sean
1
, . . . ,
N
las races de Y () = 0 en V . Por el Teorema de la Funci on Inversa
podemos encontrar en V entornos abiertos U
1
, . . . , U
N
de
1
, . . . ,
N
respectivamente,
tales que, para > 0 sucientemente peque no se verican:
Y es un difeomorsmo local de U
j
en Y (V ) B
2m
(0, ) siendo B
2m
(0, ) la bola
Euclideana en R
2m
de centro 0 y radio ,
U
1
, . . . , U
N
son dos a dos disjuntos,
si V

N
j=1
U
j
entonces Y () / B
2m
(0, ).
Usando la f ormula de cambio de variable, tenemos
_
V
() Ind
|Y ()|<

V
(d) =
N

i=1
_
U
i
()
V
(d) (4.18)
=
N

i=1
(Y (U
i
)) (4.19)
donde (Y (U
i
)) es la medida geometrica 2m 3 dimensional de Y (U
i
) (que es una
variedad diferenciable de dimensi on 2m3 como ya observamos).
Si tomamos 0 entonces (Y (U
i
)) [B
2m3
(0, )[ siendo [B
2m3
(0, )[ la medida
de Lebesgue de la bola en R
2m3
.
Entonces dividendo por [B
2m3
(0, )[ en (4.18) y tomando lmite se sigue que:
N = lm
0
1
[B
2m3
(0, )[
_
V
() Ind
|Y ()|<

V
(d).
De la misma manera se prueba que:
N
a,b,da,db
= lm
0
1
[B
2m3
(0, )[
_
V
() Ind
F

Ind
|Y ()|<

V
(d). (4.20)
3
Argumento ya usado en la prueba de la F ormula de Rice.
CAP

ITULO 4. MATRICES ALEATORIAS 48


Aplicando Fatou en (4.20) se tiene
E
_
N
a,b,da,db
_
lminf
0
1
[B
2m3
(0, )[
E
__
V
() Ind
F

Ind
|Y ()|<

V
(d)
_
y luego usando Fubini
E
_
N
a,b,da,db
_
lminf
0
1
[B
2m3
(0, )[
_
V
E
_
() Ind
F

Ind
|Y ()|<
_

V
(d),
o sea
E
_
N
a,b,da,db
_
lminf
0
1
[B
2m3
(0, )[
_
V
E
_
() Ind
F

Ind
|Y ()|<
_

V
(d)
= lminf
0
1
[B
2m3
(0, )[

_
V
_

_
_
B
2m3
(0,)W

E (() Ind
F

[ Y () = y) p
Y ()
(y) dy
_

_

V
(d)
= lminf
0
_
V

V
(d)
_
1
[B
2m3
(0, )[

_
B
2m3
(0,)W

E (() Ind
F

[ Y () = y) p
Y ()
(y) dy
_
_
_
=
_
V
E (() Ind
F

[ Y () = 0) p
Y ()
(0)
V
(d)
donde la ultima igualdad se debe a que la segunda integral es una funci on continua del
par (, y) (m as adelante quedara claro la continuidad).
4
Por lo tanto por la denici on
de F

se tiene
E
_
N
a,b,da,db
_

_
a+da
a
dx
_
b+db
b
dy
_
V
E
_
(s, t) Ind
X

(s)0, X

(t)~0
[
X(s) = x, X(t) = y, Y (s, t) = 0
_
p
(X(s),X(t),Y (s,t))
(x, y, 0)
V
(d(s, t)).
(4.21)
M as tarde veremos que el integrando en (4.21) es constante (no depende de (s, t))
4
En realidad lo que acabamos de hacer es usar una f ormula de Rice modicada, pues calculamos
la esperanza del n umero de races de Y en V (N
Y
0
(V )) que verifcan el evento F

. La prueba de esta
nueva versi on de la f ormula de Rice no asume cambios signicativos en la demostraci on ya hecha.
CAP

ITULO 4. MATRICES ALEATORIAS 49


como consecuencia de que la matriz A es invariante bajo isometras de R
m
, entonces
E
_
N
a,b,da,db
_

_
a+da
a
dx
_
b+db
b
dy
_
V
E
_
(e
1
, e
2
) Ind
X

(e
1
)0, X

(e
2
)~0
[
X(e
1
) = x, X(e
2
)) = y, Y (e
1
, e
2
) = 0
_
p
(X(e
1
),X(e
2
),Y (e
1
,e
2
))
(x, y, 0)
V
(d(e
1
, e
2
)).
(4.22)
De esta manera por (4.15), (4.22), y (4.16) hemos probado que la densidad conjunta
de
m
y
1
que llamaremos h(a, b) con a > b verica la siguiente desigualdad:
h(a, b)

2
4

m1

m2
E
_
(e
1
, e
2
) Ind
X

(e
1
)0, X

(e
2
)~0
[ X(e
1
) = a,
X(e
2
)) = b, Y (e
1
, e
2
) = 0) p
(X(e
1
),X(e
2
),Y (e
1
,e
2
))
(a, b, 0).
(4.23)
Paso 3:
En lo que sigue vamos a computar cada factor del lado derecho de (4.23). Antes
de seguir necesitamos explicitar algunos c alculos, que con el n de mantener una lnea
en la demostraci on los hacemos en forma de lema.
Lema 9.
X
tt
(e
1
) = 2(B
1
b
11
I
m1
)
X
tt
(e
2
) = 2(B
2
b
22
I
m1
).
Demostraci on. Sea Z : R
m
R dado por Z(x) = x
t
Bx = Bx, x). La derivada libre
Z
t
(x) : R
m
R (Z
t
: R
m
L(R
m
, R) = (R
m
)

) (que es
x
Z)
Z
t
(x) = 2(Be
1
, x), . . . , Be
m
, x)) (4.24)
= 2(b
11
x
1
+b
21
x
2
+. . . +b
m1
x
m
, . . . , b
1m
x
1
+. . . +b
mm
x
m
) (4.25)
y Z
tt
(x) : R
m
R
m
(Z
tt
: R
m
L(R
m
, R
m
)) esta dada por Z
tt
(x) = 2B.
Por denici on X = Z[
S
m1
.
Sea x = (x
1
, . . . , x
m
) S
m1
entonces x
2
1
+ +x
2
m
= 1 y por tanto podemos escribir
x
1
en funci on de las dem as variables o sea
x
1
=
_
1 (x
2
2
+ +x
2
m
) para (x
2
, . . . .x
m
) (0, . . . , 0).
Sea : U S
m1
con U R
m1
una parametrizaci on local de e
1
S
m1
dada por
(x
2
, . . . , x
m
) =
_
_
1 (x
2
2
+ +x
2
m
), x
2
, . . . , x
m
_
CAP

ITULO 4. MATRICES ALEATORIAS 50


S
m1
X
//
R
U

OO

<<
y
y
y
y
y
y
y
y
y
siendo = X .
Sea u U entonces se tiene
d
u

def
= d

1
(u)
(X ) = d

1
(u)
(Z )
con Z :
R
m1
..
U R denido como
Z (x
2
, . . . , x
m
) = Z
_
_
1 (x
2
2
+ +x
2
m
), x
2
, . . . , x
m
_
.
Sea u = (x
2
, . . . , x
m
) entonces
d
u
(Z ) = d
(u)
Z d
u

Notemos por x = (u). Tenemos que d


x
Z =
x
Z es una matriz 1 m como vimos
en (4.24) y d
u
es una matriz m (m 1) entonces d
u
(Z ) = d
x
Z d
u
es una
matriz 1 (m1).
Calculemos d
u
:
d
u
=
_
_
_
_
_

x
2

1(x
2
2
++x
2
m
)

x
m

1(x
2
2
++x
2
m
)
I
m2
_
_
_
_
_
siendo I
m2
la matriz identidad de dimension m2. Entonces se tiene que d
x
Z d
u

es igual a
2(Be
1
, x), . . . , Be
m
, x))
_
_
_
_
_

x
2

1(x
2
2
++x
2
m
)

x
m

1(x
2
2
++x
2
m
)
I
m2
_
_
_
_
_
= 2
_
b
1
, x)
x
2
_
1 (x
2
2
+ +x
2
m
)
+b
2
, x) , . . . ,
. . . , b
1
, x)
x
m
_
1 (x
2
2
+ +x
2
m
)
+b
m
, x)
_
,
(4.26)
CAP

ITULO 4. MATRICES ALEATORIAS 51


llamando a
b
i
= Be
i
=
_
_
_
b
1i
.
.
.
b
mi
_
_
_
.
Ordenando en (4.26) se obtiene
2
b
1
, x)
_
1 (x
2
2
+ +x
2
m
)
(x
2
, . . . , x
m
) + (b
2
, x) , . . . , b
m
, x
m
))
y entonces se tiene
X
t
(x) = 2
b
1
, x)
_
1 (x
2
2
+ +x
2
m
)
(x
2
, . . . , x
m
)+
2 (b
2
, x) , . . . , b
m
, x
m
))
(4.27)
con x =
_
_
1 (x
2
2
+ +x
2
m
), x
2
, . . . , x
m
_
.
Las derivadas parciales son
X
x
j
(x) =
b
1
, x)
_
1 (x
2
2
+ +x
2
m
)
(x
j
) + 2 b
j
, x) ,
es decir
X
x
j
(x) = 2
_
m

k=1
b
k1
x
k
_
(x
j
)
_
1 (x
2
2
+ +x
2
m
)
+
m

k=1
b
kj
x
k
(4.28)
= 2
_
b
11
x
j
+
_
m

k=2
b
k1
x
k
_
(x
j
)
_
1 (x
2
2
+ +x
2
m
)
(4.29)
+
m

k=1
b
kj
x
k
_
(4.30)
con j = 2 . . . m. Entonces si derivamos (4.28) respecto a x
i
se tiene

2
X
x
i
x
j
(e
1
) = 2(b
11
+b
ij
) con i, j = 2, . . . , m
y por lo tanto se tiene
X
tt
(e
1
) = 2 (B
1
b
11
I
m1
) ,
an alogamente para e
2
se obtiene
X
tt
(e
2
) = 2 (B
2
b
22
I
m1
)
siendo B
1
(respectivamente B
2
) es la matriz (m1)(m1) que resulta de suprimir
la primera (segunda) la y columna de B.
CAP

ITULO 4. MATRICES ALEATORIAS 52


Tomemos la siguiente base ortonormal del subespacio W

con = (e
1
, e
2
)
B
1
= (e
3
, 0), . . . , (e
m
, 0), (0, e
3
), . . . , (0, e
m
),
1

2
(e
2
, e
1
)
(es f acil chequear que es una base ortonormal).
Tenemos que X(e
1
) = Be
1
, e
1
) = b
11
y X(e
2
) = Be
2
, e
2
) = b
22
. Entonces tenemos
lo siguiente:
_

_
X(e
1
) = b
11
X(e
2
) = b
22
X
tt
(e
1
) = 2 (B
1
b
11
I
m1
)
X
tt
(e
2
) = 2 (B
2
b
22
I
m1
)
por lo tanto podemos re-escribir la esperanza condicional en (4.23) como
E
_
(e
1
, e
2
) Ind
B
1
b
11
I
m1
0, B
2
b
22
I
m1
~0

b
11
= a, b
22
= b, Y (e
1
, e
2
) = 0
_
. (4.31)
Recordando la denici on de Y (s, t), se tiene que
Y (e
1
, e
2
) = (

e
1
(Be
1
)
..
0, b
21
, . . . , b
m1
,

e
2
(Be
2
)
..
b
12
, 0, b
32
, . . . , b
m2
)
t
por lo tanto Y (e
1
, e
2
) tiene una expresi on en la base ortonormal B
1
:
Y (e
1
, e
2
) =
m

i=3
(b
i1
(e
i
, 0) +b
i2
(0, e
i
)) +

2
_
1

2
(e
2
, e
1
)
_
.
Se sigue que la densidad conjunta de X(e
1
), X(e
2
), Y (e
1
, e
2
) que aparece en (4.23) en
el espacio R R W
(e
1
,e
2
)
es la densidad conjunta de las variables aleatorias
X(e
1
)
..
b
11
,
X(e
2
)
..
b
22
,
Y (e
1
,e
2
)
..

2b
12
, b
31
, . . . , b
m1
, b
32
, . . . , b
m2
tomada en el punto (a, b, 0, . . . . . . , 0).
Primero computemos la densidad conjunta de
b
31
, . . . , b
m1
, b
32
, . . . , b
m2
dados a
1
, a
2
, donde a
1
(respectivamente a
2
) es la primera (segunda) columna de la
matriz A. Llamaremos q a dicha densidad condicional.
Como A es Gaussiana, entonces a
1
y a
2
son vectores aleatorios Gaussianos est andares
en R
m
.
CAP

ITULO 4. MATRICES ALEATORIAS 53


Sean X = (X
3
, . . . , X
m
) y Y = (Y
3
, . . . , Y
m
) con X
i
= b
i1
y Y
i
= b
i2
.
Como b
ij
= a
i
, a
j
) se tiene
X
i
= a
1i
a
11
+ + a
mi
a
m1
Y
i
= a
1i
a
12
+ + a
mi
a
m2
donde el doble subrayado nos indica que est an dados.
Es claro que la distribuci on de X
i
dado a
1
con i = 3, . . . , m es la distribuci on de una
variable aleatoria con distribuci on ^(0,

m
j=1
a
2
j1
) = ^(0, |a
1
|
2
) y an alogamente la
distribuci on de Y
i
dado a
2
con i = 3, . . . , m es la distribuci on de una variable aleatoria
con distribuci on ^(0, |a
2
|
2
). Entonces se concluye que q es una densidad normal en
R
2(m2)
con esperanza 0 y matriz de covarianza = E [(X, Y )
t
(X, Y )]
=
_
_
_
_
_
_
_
_
_
X
1
.
.
.
X
m2
Y
1
.
.
.
Y
m2
_
_
_
_
_
_
_
_
_

_
X
1
, . . . , X
m2
, Y
1
, . . . , Y
m2
_
= E
_

_
X
2
1
X
1
X
m2
X
1
Y
1
X
1
Y
m2
.
.
.
.
.
.
.
.
.
.
.
.
X
m2
X
1
X
2
m2
X
m2
Y
1
X
m2
Y
m2
Y
1
X
1
Y
1
X
m2
Y
2
1
Y
1
Y
m2
.
.
.
.
.
.
.
.
.
.
.
.
Y
m2
X
1
Y
2
m2
Y
m2
Y
1
Y
2
m2
_

_
entonces
=
_
|a
1
|
2
I
m2
E(X
t
Y )
E(X
t
Y ) |a
2
|
2
I
m2
_
.
Calculemos E(X
t
Y ):
E(X
i
Y
j
) = E ((a
1i
a
11
+ +a
mi
a
m1
)(a
1j
a
12
+ +a
mj
a
m2
))
=
ij
E(a
2
1i
a
11
a
12
+ +a
2
mi
a
m1
a
m2
)
=
ij
a
1
, a
2
)
donde las igualdades resultan de la independencia de los coecientes de A y de que
tienen distribuci on normal est andar, entonces
E(X
t
Y ) = a
1
, a
2
) I
m2
. (4.32)
CAP

ITULO 4. MATRICES ALEATORIAS 54


Concluimos de (4.32) que
=
_
|a
1
|
2
I
m2
a
1
, a
2
) I
m2
a
1
, a
2
) I
m2
|a
2
|
2
I
m2
_
.
Hemos concluido que la densidad conjunta q de (b
31
, . . . , b
m1
, b
32
, . . . , b
m2
) dados a
1
y
a
2
es la densidad de una normal con esperanza 0 y varianza .
Calculemos ahora la densidad de
_
b
11
, b
22
, b
12
_
= (|a
1
|
2
, |a
2
|
2
, |a
1
| |a
2
| a
1
, a
2
)) en
el punto (a, b, 0) siendo a
i
=
a
i
|a
i
|
.
Para eso probemos lo siguiente:
Lema 10. Sea un vector aleatorio con distribuci on ^(0, I
m
) en R
m
entonces
||

||
donde el smbolo quiere decir que son independientes.
Demostraci on. Calculemos P
_
|| x,

||
A
_
con A S
m1
.
P
_
|| x,

||
A
_
= P ( K)
=
_
K
1
(2)
m/2
e

1
2
|z|
2
dz
=
_
A

m1
(du)
. .
uniforme en la esfera

2
m
()
..
_
x
0

m1
1
(2)
m/2
e

1
2

2
d
entonces se tiene que
P
_
|| x,

||
A
_
= P
_

||
A
_
P(|| x).
Con este lema tenemos que (|a
1
|, |a
2
|) es independiente de ( a
1
, a
2
), entonces
(|a
1
|, |a
2
|) a
1
, a
2
). Entonces, notando por f(W) la densidad de la variable W
obtenemos
f
_
b
11
, b
22
, b
12
) = f(b
11
)f(b
22
)f(b
12
[ b
11
, b
22
_
,
CAP

ITULO 4. MATRICES ALEATORIAS 55


donde
f(|a
1
| |a
2
| a
1
, a
2
) [ |a
1
|
2
, |a
2
|
2
) =
f(

ab a
1
, a
2
) [ |a
1
|
2
= a, |a
2
|
2
= b) = f(

ab a
1
, a
2
))
por la independencia.
Si observamos que
P
_

abZ x
_
= P
_
Z
x

ab
_
=
_ x

ab

f
Z
(y) dy
se tiene
f

abZ
(x) =
1

ab
f
Z
(
x

ab
),
y como |a
1
|
2

2
m
siendo
2
m
la distribuci on de Fisher con m grados de libertad, y
X = a
1
, a
2
) entonces
p
(b
11
,b
22
,b
12
)
(a, b, 0) =
2
m
(a)
2
m
(b)
1

ab
p
f a
1
,f a
2
)
(0). (4.33)
Sea
= (
1
, . . . ,
m
)
un vector aleatorio Gaussiano en R
m
est andar. Como a
1
, a
2
) es invariante por rota-
ciones (por ser producto interno de vectores con distribuci on normal, que son inva-
riantes por movimientos rgidos) se tiene que a
1
, a
2
) tiene igual distribuci on que

1
||
,
entonces:
(t) =
1
2t
P([ a
1
, a
2
) [ t) =
1
2t
P
_

2
1
||
2
t
2
_
,
y como
||
2
=
2
1
+ +
2
m
=
2
1
+ con
2
m1
se tiene entonces

2
1

2
1
+
2
m1
t
2
=

2
1

2
m1

t
2
1 t
2
.
Por lo tanto
(t) =
1
2t
P
_

2
1

2
m1

t
2
1 t
2
_
(4.34)
=
1
2t
P
_
F
1,m1

t
2
(m1)
1 t
2
_
(4.35)
=
1
2t
_ t
2
(m1)
1t
2
0
f
1,m1
(u) du (4.36)
CAP

ITULO 4. MATRICES ALEATORIAS 56


siendo F
1,m1
la distribuci on de Fisher con (1, m 1) grados de libertad. Se tiene
entonces que
f
1,m1
(u) = C
m1
1

u
_
1 +
1
m1
u
_
m/2
siendo
C
m1
=
(
m
2
)
(
1
2
)(
m1
2
)
1

m1
.
Por lo tanto cuando t 0
(t)
1
2t
_ t
2
(m1)
1t
2
0
C
m1
1

u
du =
C
m1
t
_
t
2
(m1)
1 t
2
= C
m1

m1

1 t
2
,
entonces
lm
t0
(t) = C
m1

m1
=
1

(
m
2
)
(
m1
2
)
= p
f a
1
,f a
2
)
(0)
por lo tanto se tiene
p
f a
1
,f a
2
)
(0) =
1

(
m
2
)
(
m1
2
)
. (4.37)
Concluyendo tenemos que:
-La densidad conjunta de (b
11
, b
22
, b
12
) en el punto (a, b, 0) es
_
1
(
m
2
)
_
1
2
_
m/2
a
m/21
e
a/2
_

_
1
(
m
2
)
_
1
2
_
m/2
b
m/21
e
b/2
_

_
1

ab
1

(
m
2
)
m1
2
_
=
1

_
1
2
_
m/2
(ab)
m/211/2
e
(a+b)/2
1
(
m
2
)(
m1
2
)
,
es decir, la densidad conjunta de (b
11
, b
22
, b
12
) es:
1

_
1
2
_
m/2
(ab)
(m2)/2

ab
e
(a+b)/2
1
(
m
2
)(
m1
2
)
,
CAP

ITULO 4. MATRICES ALEATORIAS 57


y por lo tanto la densidad conjunta de (b
11
, b
22
,

2b
12
) es:
p
(b
11
,b
22
,

2b
12
)
(a, b, 0) =
1

_
1
2
_
m/2
(ab)
(m2)/2

ab
e
(a+b)/2
1
(
m
2
)(
m1
2
)
. (4.38)
Lo que estamos buscando es p
(X(e
1
),X(e
2
),Y (e
1
,e
2
))
(a, b, . . . . . . , 0), es decir
p
(b
11
,b
22
,

2b
12
,b
31
,...,b
m1
,b
32
,...,b
m2
)
(a, b, 0, . . . . . . , 0), (4.39)
pero (4.39) es igual al producto de las densidades
p
(b
11
,b
22
,

2b
12
)
(a, b, 0) p
(b
31
,...,b
m1
,b
32
,...,b
m2
)
(0, . . . , 0 [ b
11
= a, b
22
= b, b
12
= 0)
. .
q(a,b,0)
donde q era una densidad normal con esperanza 0 y varianza dada anteriormente,
es decir
q(a, b, 0) =
1
(2)
2(m2)/2
(det(
t
))
1/2
siendo

t
=
_
aI
m2
0
0 bI
m2
_
.
Entonces se tiene que (4.39) es igual a
_
1

_
1
2
_
m/2
(ab)
(m2)/2

ab
e
(a+b)/2
1
(
m
2
)(
m1
2
)
_

_
1
(2)
m2
(ab)
(m2)/2
_
=
=
1

1
(2)
m2
1
2
m
1

ab
e
(a+b)/2
1
(
m
2
)(
m1
2
)
.
Hemos probado que
p
(X(e
1
),X(e
2
),Y (e
1
,e
2
))
(a, b, . . . . . . , 0) = (4.40)
1

1
(2)
m2
1
2
m
1

ab
e
(a+b)/2
1
(
m
2
)(
m1
2
)
(4.41)
CAP

ITULO 4. MATRICES ALEATORIAS 58


Paso 4:
Falta acotar la esperanza condicional en (4.23), y para eso calculemos (e
1
, e
2
).
Sea T
(s,t)
V el espacio tangente a V en el punto (s, t). Como la dimensi on del
espacio tangente a una variedad diferenciable es igual a la dimensi on de la variedad,
se tiene que dim(T
(s,t)
V ) = 2m 3. Es claro que T
(s,t)
V es paralelo al complemento
ortogonal en R
m
R
m
de los vectores (s, 0), (0, t), (t, s).
Sea
B
2
= (e
3
, 0), . . . , (e
m
, 0), (0, e
3
), . . . , (0, e
m
),
1

2
(e
2
, e
1
)
base ortonormal de T
(e
1
,e
2
)
V y calculemos Y
t
(e
1
, e
2
) en esa base. Como Y : V R
2m
se tiene que Y
t
(e
1
, e
2
) : T
(e
1
,e
2
)
V R
2m
, por lo tanto podemos ver el diferencial como
un operador de R
2m3
en R
2m
.
Escribimos
Y (s, t) =
_
_
_
_
_
_
_
_
_
y
1
(s, t)
.
.
.
y
m
(s, t)
z
1
(s, t)
.
.
.
z
m
(s, t)
_
_
_
_
_
_
_
_
_
donde
y
i
(s, t) =
m

j=1
b
ij
s
j

_
m

j,k=1
b
jk
s
j
s
k
_
s
i
z
l
(s, t) =
m

j=1
b
lj
t
j

_
m

j,k=1
b
jk
t
j
t
k
_
t
l
recordando que
u
(Bu) = Bu Bu, u) u.
Entonces si calculamos las derivadas parciales, obtenemos
y
i
s
k
(s, t) =
_
b
ik
2 (

m
k=1
b
hk
s
k
) s
i
i ,= k
b
ik
2 (

m
k=1
b
hk
s
k
) s
i

m
j,k=1
b
jk
s
j
s
k
_
i = k,
y si evaluamos en (e
1
, e
2
) se tiene
y
i
s
k
(e
1
, e
2
) =
_
b
ik
i ,= k, i > 1
b
ii
b
11
i = k
y
1
s
k
(e
1
, e
2
) =
_
b
1k
2b
1k
= b
1k
k ,= 1
2b
11
k = 1.
CAP

ITULO 4. MATRICES ALEATORIAS 59


An alogamente para las derivadas parciales de las coordenadas en z obtenemos
z
i
t
k
(e
1
, e
2
) =
_
b
ik
i ,= k, i ,= 2
b
ii
b
22
i = k, i ,= 2
z
2
t
k
(e
1
, e
2
) =
_
b
1k
k ,= 1
2b
22
k = 1.
Para encontrar Y
t
(e
1
, e
2
) en la base B
2
, basta tomar como matriz la que tiene
como columnas a las derivadas en las direcciones de los respectivos vectores de la
base de B
2
. Es decir
Y
t
(e
1
, e
2
) =
_
d
(e
1
,e
2
)
Y (e
3
, 0), . . . . . . , d
(e
1
,e
2
)
Y (e
m
, 0),
d
(e
1
,e
2
)
Y (0, e
3
), . . . . . . , d
(e
1
,e
2
)
Y (0, e
m
), d
(e
1
,e
2
)
Y (e
2
, e
1
)
1

2
_
,
luego
Y
t
(e
!
, e
2
) =
_

_
y
1
s
3
. . .
y
1
s
m
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
y
m
s
3
. . .
y
m
s
m
0 . . . 0
0 . . . 0
z
1
t
3
. . .
z
1
t
m

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0
z
m
t
3
. . .
z
m
t
m

_
,
siendo la ultima columna igual a u = d
(
e
1
, e
2
)Y (e
2
, e
1
)
1

2
=
_

_
b
13
b
14
. . . b
1m
0 0 . . . 0
b
23
b
24
. . . b
2m
0 0 . . . 0
b
t
33
b
34
. . . b
3m
0 0 . . . 0
b
43
b
t
44
. . . b
4m
0 0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b
m3
b
m4
. . . b
t
mm
0 0 . . . 0
0 0 . . . 0 b
13
b
14
. . . b
1
m

0 0 . . . 0 b
23
b
24
. . . b
2m

0 0 . . . 0 b
tt
33
b
34
. . . b
3m

0 0 . . . 0 b
43
b
tt
44
. . . b
3m

.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. . .
.
.
.
.
.
.
0 0 . . . 0 b
m3
b
m4
. . . b
tt
mm

_

_
con b
t
jj
= b
jj
b
11
y b
tt
ll
= b
ll
b
22
.
CAP

ITULO 4. MATRICES ALEATORIAS 60


Estudiemos la ultima columna, que esta formada por las coordenadas del vector
u:
u =
1

2
_

_
y
1
s
1
. . .
y
1
s
m
0 . . . 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
y
m
s
1
. . .
y
m
s
m
0 . . . 0
0 . . . 0
z
1
t
1
. . .
z
1
t
m
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 . . . 0
z
m
t
1
. . .
z
m
t
m
_

_
e
2
e
1
_
=
1

2
_
_
_
_
_
_
_
_
_
_
y
1
s
2
.
.
.
y
m
s
2

z
1
t
1
.
.
.

z
m
t
1
_
_
_
_
_
_
_
_
_
_
y sustituyendo las derivadas parciales, se obtiene
u =
1

2
_
_
b
12
, b
22
b
11
, b
32
, . . . , b
m2
. .
w
t
, b
22
b
11
, b
12
, b
31
, . . . , b
m1
. .
v
t
_
_
t
.
Denamos
w
t
= (b
32
, . . . , b
m2
)
y
v
t
= (b
31
, . . . , b
m1
),
entonces se tiene
Y
t
(e
1
, e
2
) =
_

_
v
t
0
1(m2)

1

2
b
12
w
t
0
1(m2)
1

2
(b
22
b
11
)
B
12
b
11
I
m2
0
(m2)(m2)
1

2
w
0
1(m2)
v
t 1

2
(b
22
b
11
)
0
1(m2)
w
t 1

2
b
12
0
(m2)(m2)
B
12
b
22
I
m2

1

2
v
_

_
.
Luego si condicionamos b
11
= a, b
22
= b, v = w = 0 se tiene que
Y
t
(e
1
, e
2
) =
_

_
0
1(m2)
0
1(m2)
0
0
1(m2)
0
1(m2)
1

2
(b a)
B
12
aI
m2
0
(m2)(m2)
0
(m2)1
0
1(m2)
0
1(m2)
1

2
(b a)
0
1(m2)
0
1(m2)
0
0
(m2)(m2)
B
12
bI
m2
0
(m2)1
_

_
.
Para completar el c alculo de (e
1
, e
2
) es necesario calcular (Y
t
(e
1
, e
2
))
t
Y
t
(e
1
, e
2
)
que es igual:
(Y
t
(e
1
, e
2
))
t
Y
t
(e
1
, e
2
) =
_

_
C
t
C 0
m2
0
(m2)1
0
m2
D
t
D 0
(m2)1
0
1(m2)
0
1(m2)
2
_
1

2
(b a)
_
2
_

_
,
CAP

ITULO 4. MATRICES ALEATORIAS 61


donde C = B
12
aI
m2
y D = B
12
bI
m2
entonces por la denici on de (e
1
, e
2
) se
tiene
(e
1
, e
2
)
2
=

det
_
_
C
t
C 0
m2
0
(m2)1
0
m2
D
t
D 0
(m2)1
0
1(m2)
0
1(m2)
(b a)
2
_
_

,
y desarrollando el determinante obtenemos que
(e
1
, e
2
)
2
=

det(C)
2
det(D)
2
(b a)
2

det(B
12
aI
m2
)
2
det(B
12
bI
m2
)
2
(b a)
2

por lo tanto
(e
1
, e
2
) =

det(B
12
aI
m2
)

det(B
12
bI
m2
)

(a b). (4.42)
Notar que si una matriz simetrica M de n n es denida positiva (M ~ 0)
entonces Mx, x) > 0 para todo x = (x
1
, . . . , x
n
) R
n
0. Luego si consideramos
x = (0, x
2
, . . . , x
n
) ,= (0, . . . , 0) se tiene que M x, x) > 0 y por lo tanto M
1
y, y) > 0
para todo y = (y
1
, . . . , y
n1
) R
n1
0. De esta manera se concluye lo siguiente:
si M ~ 0 entonces M
1
~ 0. An alogo para el caso en que M sea denida negativa.
Por lo tanto si B
1
aI
m1
0 implica que B
12
aI
m2
0 y an alogamente si
B
2
bI
m1
~ 0 implica que B
12
bI
m2
~ 0.
Si M ~ 0 entonces
1
, . . . ,
n
son todos mayores que 0 y M aI 0 entonces es
claro que a >
i
para i = 1 . . . n. Esto se ve claramente ya que
0 > (M aI)v
i
, v
i
) =
i
v
i
av
i
, v
i
) =
i
v
i
, v
i
) av
i
, v
i
) =
i
a
siendo v
i
vector propio de norma 1 asociado al valor propio
i
para i = 1 . . . n.
Entonces:
[ det(M aI)[ = [
k

i=1
(a
i
)[
=
k

i=1
(a
i
)

i=1
a = a
k
.
Por tanto hemos concluido que:
Si M ~ 0 y M aI 0 = [ det(M aI)[ a
k
.
Entonces retomando la esperanza condicional en (4.31)
E
_
(e
1
, e
2
) Ind
B
1
b
11
I
m1
0, B
2
b
22
I
m1
~0

b
11
= a, b
22
= b, b
12
= 0, v = w = 0
_
CAP

ITULO 4. MATRICES ALEATORIAS 62


y observando (4.42) podemos usar la anterior conclusi on para obtener que la esperanza
condicional esta acotada por
a
m2
(a b)E
_
[ det(B
12
bI
m2
)[ Ind
B
2
bI
m1
~0
[ b
11
= a, b
22
= b,
b
12
= 0, v = w = 0
_
,
acotando a b por a y que B
2
bI
m1
~ 0 implica que B
12
bI
m2
~ 0 se tiene que
la esperanza condicional en (4.31) es acotada por
a
m1
E
_
[ det(B
12
bI
m2
)[ Ind
B
12
bI
m2
~0
[ v = w = 0
_
donde la nueva condici on se debe a que las variables b
11
, b
22
y b
12
ya no juegan ning un
papel en la esperanza condicional.
Ahora si condicionamos por a
1
y a
2
tenemos que la esperanza condicional tiene la
siguiente forma
E
_
f(a
3
, . . . , a
m
) [ a
1
, a
2
, a
i
, a
1
) = 0, a
i
, a
2
) = 0, i = 3 . . . m
_
donde los condicionantes a
1
y a
2
son vectores de R
m
no colineales (con probabilidad
1). Llamando V al subespacio generado por a
1
y a
2
, o sea
V =
_
a
1
, a
2
_
y tomando como base ortonormal de R
m
a v
1
, . . . , v
m
siendo v
1
, v
2
V se tiene
que para i = 3 . . . m
a
i
=
m

j=1

ij
v
j
=
m

j=3

ij
v
j
por ser perpendiculares a a
1
y a
2
( a
i
V

para i = 3 . . . m). Por la invariancia por


isometras de la distribuci on normal en R
m
, tenemos que
ij
^(0, 1) y son indepen-
dientes en i. Luego la esperanza condicional es igual que la esperanza incondicional
de f( a
1
, . . . , a
m
) siendo a
i
variables aleatorias con distribuci on est andar en R
m2
.
De esta manera, se tiene
E
_
[ det(B
12
bI
m2
)[ Ind
B
2
bI
m1
~0
[ a
1
, a
2
, a
i
, a
k
) = 0, k = 1, 2, i = 3 . . . m
_
es igual a
E
_
[ det(M) bI
m2
)[ Ind
MbI
m2
~0
_
siendo M = ((M
ij
)) con M
ij
= v
i
, v
j
) y los v
i
son normales est andar en R
m2
e
independientes para i, j = 3, . . . , m, entonces la esperanza condicional nos queda
acotada por
a
m1
E
_
[ det(M) bI
m2
) [ Ind
MbI
m2
~0
_
a
m1
E (det M)
= a
m1
(m2)!
CAP

ITULO 4. MATRICES ALEATORIAS 63


donde la igualdad es consecuencia del Lema 11 que demostraremos a continuaci on.
Luego tenemos acotada la esperanza condicional en (4.31) por
a
m1
(m2)!.
Lema 11. Sean
1
, . . . ,
m
vectores aleatorios i.i.d en R
d
, con d m y distribuci on
com un Gaussiana est andar con matriz de varianza I
d
. Si llamamos W
m,d
a la matriz
mm dada por
W
m,d
= ((
i
,
j
)))
i,j=1...m
,
y sea D() su polinomio caracterstico, es decir
D() = det(W
m,d
I
d
).
Entonces se prueba
(i)
E(det(W
m,d
)) = d(d 1) (d m+ 1)
(ii)
E
_
D()
_
=
m

k=0
(1)
k
C
m
k
d!
(d m+k)!

k
siendo C
m
k
combinaciones de m en k, (C
m
k
=
m!
k!(mk)!
).
Demostraci on. Los vectores son linealmente independientes con probabilidad uno.
Fijemos los valores de
1
, . . . ,
m1
, y sea v
1
, . . . , v
d
una base ortonormal de R
d
tal
que v
1
, . . . , v
m1
pertenecen al subespacio V
m1
generado por
1
, . . . ,
m1
.
Es conocido que el volumen del paraleleppedo formado por los vectores
1
, . . . ,
m
,
es decir el volumen de P siendo
P =
m

k=1
a
k

k
: 0 a
k
1, k = 1 . . . m
es igual al determinante en R
m
de los vectores
i
expresados en la base v
1
, . . . , v
m
.
Sea A = ((a
ij
))
i,j=1...m
tal que
i
=

m
j=1
a
ij
v
j
. Entonces

i
,
j
) =
_
m

k=1
a
ik
v
k
,
m

h=1
a
jh
v
h
_
=
m

k=1
a
ik
a
jk
= (AA
t
)
ij
siendo (AA
t
)
ij
el coeciente (i, j) de la matriz AA
t
. Por lo tanto usando el hecho
conocido de que si T : R
m
R
m
es una transformaci on lineal con matriz asociada A
en e
1
, . . . , e
m
base ortonormal de R
m
entonces
det(T(e
1
), . . . , T(e
m
)) = det(A) det(e
1
, . . . , e
m
) = det(A),
CAP

ITULO 4. MATRICES ALEATORIAS 64


se concluye que
Vol (P) = det(
1
, . . . ,
m
) = det(A) =
_
det(AA
t
) =
_
det(W
m,d
),
es decir, el cuadrado del volumen del paraleleppedo P es igual al determinante de la
matriz W
m,d
. Entonces es claro
det(W
m,d
) = d
2
(
m
, V
m1
) det(W
m1,d
)
siendo d(
m
, V
m1
) la distancia Eucldea entre
m
y V
m1
. Ahora, la distribuci on
condicional de la distancia d
2
(
m
, V
m1
) dados
1
, . . . ,
m1
por la invariancia por
rotaciones de la distribuci on Gaussiana es igual a la distancia de
m
al subespacio
0
m1
R
dm+1
. Pero nuevamente por la invariancia por transformaciones orto-
gonales de la distribuci on Gaussiana, esta distancia es igual a la distancia al 0 en
R
dm+1
de un vector Gaussiano en R
dm+1
. Por lo tanto d
2
(
m
, V
m1
) tiene distribu-
ci on
2
dm+1
.
Entonces
E
_
det(W
m,d
)
_
= E
_
d
2
(
m
, V
m1
) det(W
m1,d
)
_
= E
_
E
_
d
2
(
m
, V
m1
) det(W
m1,d
)

1
, . . . ,
m1
_
_
= E
_
d
2
(
m
, V
m1
)E
_
det(W
m1,d
)

1
, . . . ,
m1
_
_
= E
_
d
2
(
m
, V
m1
)
_
E
_
det(W
m1,d
)
_
= (d m+ 1) E
_
det(W
m1,d
)
_
,
y si iteramos obtenemos (i)
E
_
det(W
m,d
)
_
= (d m+ 1) (d m+ 2) . . . (d 1)d.
Probemos (ii).
Para eso escribamos D() como
D() =
m

k=0
D
(k)
(0)
k!

k
. (4.43)
Diferenciando k veces la funci on determinante se obtiene
D
(k)
() = (1)
k

det(W
i
1
,...,i
k
m,d
I
mk
)
donde las sumas se obtienen en todas las k-uplas distintas de 1, . . . , m de elementos
distintos, y siendo W
i
1
,...,i
k
m,d
la matriz (m k) (m k) que resulta de eliminar las
CAP

ITULO 4. MATRICES ALEATORIAS 65


las y columnas indexadas en i
1
hasta i
k
.
Entonces
D
(k)
(0) = (1)
k

det(W
i
1
,...,i
k
m,d
),
tomando esperanza se obtiene
E
_
D
(k)
(0)
_
= (1)
k

E
_
det(W
i
1
,...,i
k
m,d
)
_
y considerando lo hecho en la parte (i), y que la cantidad de sumandos es arreglos de
m elementos en k lugares, se tiene
E
_
D
(k)
(0)
_
= (1)
k
d(d 1) . . . (d (mk) + 1)
m!
(mk)!
.
Entonces tomando esperanza en (4.43) se tiene
E
_
D()
_
=
m

k=0
(1)
k
k!
C
m
k
d!
(d m)!
m!
(mk)!

k
,
o sea
E
_
D()
_
=
m

k=0
(1)
k
C
m
k
d!
(d m+k)!

k
.
Entonces juntando esto con el c alculo hecho para la densidad en (4.40) se obtiene
que
h(a, b) C
m
e
(a+b)/2

ab
a
m1
(4.44)
donde
C
m
=
1
4(m2)!
.
Paso 6:
Ahora probaremos la cota superior en (4.13). Para probar dicha cota es necesario
hacer un trabajo previo.
El siguiente lema es extrado de [17].
Lema 12. Sea A una matriz cuadrada arbitraria determinstica en R
nn
, y A una
matriz de variables aleatorias independientes centrada en A, con distribuciones nor-
males de varianza
2
. Sea v S
m1
,
entonces
P
_
|A
1
v| > x
_
<
_
2

_
1/2
1
x
.
CAP

ITULO 4. MATRICES ALEATORIAS 66


Demostraci on. Llamemos A = ((a
ij
))
i,j=1...n
, donde los a
ij
tienen distribuciones N (a
ij
,
2
)
respectivamente, donde A = ((a
ij
))
i,j=1...n
. Sea U = ((u
ij
))
i,j=1...n
una matriz ortogo-
nal, y sea B = UA.
Los elementos de B son
b
ij
=
n

k=1
u
ik
a
kj
.
Entonces la esperanza de b
ij
es:
E(b
ij
) =
n

k=1
u
ik
a
kj
,
y por lo tanto la nueva matriz B esta centrada en UA.
Calculemos la matriz de covarianza:
cov(b
ij
, b
i

j
) = E
_
_
n

k=1
u
ik
(a
kj
a
kj
)
_

_
n

=1
u
i

k
(a
k

j
a
k

j
)
_
_
=
n

k,k

=1
u
ik
u
i

k
E
_
(a
kj
a
kj
)(a
k

j
a
k

j
)
_
. .

kk

jj

=
n

k=1
u
ik
u
i

k

2

jj

=
2

jj

k=1
u
ik
u
i

k
=
2

jj

ii
,
entonces obtuvimos
cov(b
ij
, b
i

j
) =
2

jj

ii
.
Es claro que que los coecientes de la matriz UA son independientes y tienen distri-
buci on normal con esperanza

n
k=1
u
ik
a
kj
y varianza
2
.
Tomemos U ortogonal tal que U
1
e
1
= v. Entonces
|A
1
v| = |A
1
U
1
e
1
| = |(UA)
1
e
1
|.
Sea B = UA (donde U es ortogonal por serlo U
1
). Entonces basta probar que
P
_
|B
1
e
1
| > x
_
<
_
2

_
1/2
1
x
CAP

ITULO 4. MATRICES ALEATORIAS 67


donde B es una matriz de variables aleatorias independientes centrada en UA, con
distribuciones normales de varianza
2
.
Es evidente que |B
1
e
1
| es la norma de la primera columna de B
1
, es decir
|B
1
e
1
| es la longitud del vector (B
1
)
:1
, siendo (B
1
)
:j
el vector que tiene como
coecientes la j-esima columna de la matriz B
1
, y (B
1
)
j:
el vector que tiene como
coecientes la j-esima la.
Como BB
1
= Id es claro que las las B
2:
, . . . , B
n:
de B son ortogonales a (B
1
)
:1
,
y el producto interno entre B
1:
con (B
1
)
:1
es 1.
Entonces se tiene que la norma de la proyecci on de B
1:
sobre (B
1
)
:1
es el inverso de
la norma de (B
1
)
:1
. Veamos esto:
-Deniendo por w al vector de norma 1 en la direcci on de (B
1
)
:1
, y V al subespacio
generado por las las B
2:
, . . . , B
n:
, o sea
w =
(B
1
)
:1
|(B
1
)
:1
|
y V =< B
2:
, . . . , B
n:
>
se observa que la proyecci on
w
sobre el subespacio generado por w de B
1:
es

w
(B
1:
) = B
1:
, w) w,
entonces la norma de la proyecci on es
|
w
(B
1:
)| = [ B
1:
, w) [
= [
_
B
1:
,
(B
1
)
:1
|(B
1
)
:1
|
_
[
= [

B
1:
, (B
1
)
:1
_
[
1
|(B
1
)
:1
|
=
1
|(B
1
)
:1
|
.
Como las las de B son independientes, la distribuci on condicional de la primer la
dadas las dem as es la distribuci on incondicional. Entonces jando una base ortonor-
mal de R
n
formada por w, v
2
, . . . , v
m
se tiene
B
1:
=
1
w +
n

i=2

i
v
i
donde
w
(B
1:
) =
1
w, entonces |
w
(B
1:
)| = [
1
[ que es la distribuci on del m odulo
de una variable aleatoria normal N (,
2
) para alg un .
CAP

ITULO 4. MATRICES ALEATORIAS 68


Entonces
P
_
|A
1
v| > x
_
= P
_
1
|A
1
v|
<
1
x
_
= P
_
[
1
[ <
1
x
_
=
1

2
_
+1/x
1/x
e
(u)
2
/2
2
du

_
2

1
x
,
lo que completa la prueba.
Corolario 6.1. Asumimos que A = (a
ij
) con a
ij
= m
ij
+ g
ij
para i, j = 1 . . . m,
donde g
ij
son variables aleatorias i.i.d. normales est andar. Sea v S
m1
. Entonces
P
_
|A
1
v| > x
_
<
_
2

_
1/2
1
x
.
Lema 13. Sea U = (U
1
, . . . , U
m
) un vector aleatorio con distribuci on uniforme en
S
m1
y sea t
m1
una variable aleatoria con distribuci on Student de m1 grados de
libertad.
Entonces, si c (0, m) se tiene
P
_
U
2
1
>
c
m
_
= P
_
t
2
m1
>
m1
mc
c
_
.
Demostraci on. Como ya vimos en la demostraci on del Lema 10, podemos asumir que
U =
V
1
|V |
con V = (V
1
, . . . , V
m
) con distribuci on Gaussiana en R
m
. Entonces se tiene
_
U
2
1
>
c
m
_
=
_
V
2
1
|V |
2
>
c
m
_
=
_
V
2
1
V
2
2
+ +V
2
m
>
c
mc
_
entonces
P
_
U
2
1
>
c
m
_
= P
_
(m1)V
2
1
V
2
2
+ +V
2
m
>
m1
mc
c
_
= P
_
t
2
m1
>
m1
mc
c
_
siendo t
m1
una variable aleatoria con distribuci on Student de m1 grados de liber-
tad.
CAP

ITULO 4. MATRICES ALEATORIAS 69


Proposici on 6.1. Asumimos que A = (a
ij
) con a
ij
= m
ij
+ g
ij
para i, j = 1 . . . m,
donde g
ij
son variables aleatorias i.i.d. normales est andar y M = (m
ij
)
i,j=1...m
una
matriz determinstica.
Entonces
P(|A
1
| x) C
2
(m)

m
x
con C
2
(m) una constante que depende de m pero esta acotada por 2,34737 para todo
m.
Demostraci on. Sea U con distribuci on uniforme en S
m1
(como en el Lema 13) in-
dependiente de A. Condicionando se tiene
P
_
|A
1
U| > x
_
= E
_
P
_
|A
1
U| > x [ U
_
_
,
luego si aplicamos el Corolario 6.1 tenemos
P
_
|A
1
U| > x
_

_
2

_
1/2
1
x
. (4.45)
Sea v
A
donde A
1
alcanza su norma como operador, es decir, sea v
A
de norma uno tal
que |A
1
v
A
| = |A
1
| y sea u R
m
tal que |u| = 1. Llamando C a A
1
, se tiene que
|Cv
A
| = |C|, entonces v
A
es el vector propio de C
t
C con mayor valor propio igual
a |C|
2
(ver Lema 8). Es decir |C
t
Cv
A
| = |C|
2
, y como C
t
Cv
A
, u) = |C|
2
v
A
, u)
se tiene
[|C|
2
v
A
, u) [ = [ Cv
A
, Cu) [ |Cv
A
| |Cu| = |C| |Cu|,
y cambiando C por A
1
concluimos que
|A
1
u| |A
1
| [ v
A
, u) [. (4.46)
Tomando c (0, m) se tiene usando (4.46) que
P
_
|A
1
U| > x
_
c
m
_
1/2
_
P
_
_
|A
1
| > x
_

_
[ v
A
, U) [
_
c
m
_
1/2
__
= E
_
P
_
_
|A
1
| > x
_

_
[ v
A
, U) [
_
c
m
_
1/2
_

A
__
= E
_
Ind
|A
1
|>x
P
_
[ v
A
, U) [
_
c
m
_
1/2

A
__
Lema13
= E
_
Ind
|A
1
|>x
P
_
t
2
m1
>
m1
mc
c
__
= P
_
t
2
m1
>
m1
mc
c
_
E
_
Ind
|A
1
|>x

= P
_
t
2
m1
>
m1
mc
c
_
P
_
|A
1
| x
_
.
CAP

ITULO 4. MATRICES ALEATORIAS 70


Luego
P
_
|A
1
| x
_

1
P
_
t
2
m1
>
m1
mc
c
_P
_
|A
1
U| > x
_
c
m
_
1/2
_
,
ahora usando (4.45) se tiene
P
_
|A
1
| x
_

1
P
_
t
2
m1
>
m1
mc
c
_
_
2

_
1/2
1
x
_
m
c
_
1/2
.
La constante a saber es
1
P
_
t
2
m1
>
m1
mc
c
_
_
2

_
1/2
1
c
1/2
,
por tanto solo resta encontrar c (0, m) de manera tal que la cota sea mnima. Para
eso necesitamos tomar el nmo en c (0, m). Tomando
C
2
(m) =
_
2

_
sup
c(0,m)

cP
_
t
2
m1
>
m1
mc
c
_
_
1
obtenemos una cota mnima.
Como
sup
c(0,m)
c
1/2
P
_
t
2
m1
>
m1
mc
c
_
sup
c(0,1)
c
1/2
P
_
t
2
m1
>
m1
mc
c
_
sup
c(0,1)
c
1/2
P
_
t
2
m1
> c
_
se tiene que es posible acotar la C
2
(m) a traves de c alculos numericos, y de esta
manera llegamos al resultado de la proposici on.
Una vez terminado el trabajo preliminar podemos continuar con el Paso 6:
Para x > 1 se tiene por la Observaci on 5 en la p agina 43 que
P
_
(A) > x
_
= P(

1
> x
2
)
entonces partiendo el espacio en donde
1
sea mayor o menor a
L
2
m
x
2
se tiene
P
_
(A) > x
_
P
_

1
<
L
2
m
x
2
_
+P
_

1
> x
2
,
1

L
2
m
x
2
_
(4.47)
CAP

ITULO 4. MATRICES ALEATORIAS 71


siendo L una constante positiva a determinar despues.
Recordando que
1
= |A
1
|
2
, el primer termino de (4.47) se acota usando la Pro-
posici on 6.1
P
_

1
<
L
2
m
x
2
_
= P
_
|A
1
| >
x
L

m
_
C
2
(m)
Lm
x
. (4.48)
Para el segundo termino de (4.47) se tiene
P
_

1
> x
2
,
1

L
2
m
x
2
_
=
_
+
L
2
mx
2
db
_
+
bx
2
h(a, b) da G
m
(x
2
) (4.49)
siendo
G
m
(y) = C
m
_
+
L
2
my
db
_
+
by
C
m
e
(a+b)/2

ab
a
m1
da
(donde la desigualdad en (4.49) es consecuencia de la acotaci on en (4.44)).
Tratemos de derivar G
m
(y):
-Sea
G(y) =
_
+
A
y
db
_
+
by
g(a, b) da
con A y b constantes y g derivable.
Notando por F(b, y) =
_
+
by
g(a, b) da y f(y) = A/y se tiene
G(y) =
_
+
f(y)
F(b, y) db.
Sea h > 0 entonces usando el hecho que f(y) es decreciente en y se tiene
G(y +h) G(y)
h
=
1
h
__
+
f(y+h)
F(b, y +h) db
_
+
f(y)
F(b, y) db
_
=
1
h
_
_
+
f(y+h)
_
F(b, y +h) F(b, y)
_
db +
_
f(y)
f(y+h)
F(b, y) db
_
y tomando lmite en h 0 se tiene
lm
h0
G(y +h) G(y)
h
= lm
h0
_
+
f(y+h)
_
F(b, y +h) F(b, y)
h
_
db +
+lm
h0
1
h
_
f(y)
f(y+h)
F(b, y) db
=
_
+
f(y)
F
y
(b, y) db +F(f(y), y) lm
h0
f(y) f(y +h)
h
=
_
+
f(y)
F
y
(b, y) db F(f(y), y) f
t
(y).
CAP

ITULO 4. MATRICES ALEATORIAS 72


An alogamente para h < 0.
Entonces obtuvimos
G
t
(y) =
_
+
A
y
F
y
(b, y) db F(A/y, y) f
t
(y).
Es claro que
F
y
(b, y) = b g(by, b)
entonces sustituyendo se obtiene
G
t
(y) =
_
+
L
2
m
y
e
b(y+1)/2
(by)
m1

y
db +
L
2
m
y
2
_
+
L
2
m
e
(a+(L
2
m)/y)/2
a
m1

mL

y
1
da.
Como G
t
m
(y) = C
m
G
t
(y) se tiene que
G
t
m
(y) C
m
_
+
L
2
m
y
e
b(y+1)/2
b
m1
y
m3/2
db
= C
m
y
m3/2
_
+
L
2
m
y
e
b(y+1)/2
b
m1
db
=
1
4(m2)!
y
3/2
y
m
_
+
L
2
m
y
e
b(y+1)/2
b
m1
db,
haciendo el cambio de variable z = b(y + 1)/2 se tiene
G
t
m
(y)
y
3/2
4(m2)!
y
m

2
y + 1
_
+
L
2
m(y+1)
2y
e
z
z
m1
2
m1
1
(y + 1)
m1
dz
=
y
3/2
4(m2)!
y
m

2
m
(y + 1)
m
_
+
L
2
m(y+1)
2y
e
z
z
m1
dz
=
y
3/2
4(m2)!
2
m

_
y
y + 1
_
m
_
+
L
2
m(y+1)
2y
e
z
z
m1
dz
y como y/(y + 1) < 1 se tiene
G
t
m
(y) <
y
3/2
4(m2)!
2
m
_
+
L
2
m(y+1)
2y
e
z
z
m1
dz.
Sea
I
m
(a) =
_
+
a
e
z
z
m1
dz,
CAP

ITULO 4. MATRICES ALEATORIAS 73


integrando por partes se tiene
I
m
(a) = e
z
z
m1

+
a
+ (m1)
_
+
a
e
z
z
m2
dz = e
a
a
m1
+ (m1)I
m1
(a),
es decir
I
m
(a) = e
a
a
m1
+ (m1)I
m1
(a).
Entonces lo que se obtuvo es una ecuaci on de recurrencia y si desarrollamos se tiene
que
I
m
(a) = e
a
_
a
m1
+ (m1)a
m2
+ (m1)(m2)a
m3
+ + (m1)!

.
Tomando a >
5
2
m se tiene m <
2
5
a, entonces
I
m
(a) < e
a
_
a
m1
+ma
m2
+m
2
a
m3
+ +m
m

e
a
_
a
m1
+
_
2
5
_
a
m1
+
_
2
5
_
2
a
m1
+ +
_
2
5
_
m
a
m1

< e
a
a
m1
_
+

i=0
_
2
5
_
i
_
= e
a
a
m1
_
1
1
2
5
_
= e
a
a
m1

5
3
,
entonces
I
m
(a) <
5
3
e
a
a
m1
.
Como a = L
2
m/2 > (5/2)m, podemos tomar L
2
> 5 y se obtiene la siguiente cota
G
t
m
(y) D
m
y
3/2
siendo D
m
=
2
m
4(m2)!
e
L
2
m/2
_
L
2
m
2
_
m1
5
3
,
es decir
D
m
=
5
6
m
m1
(m2)!
L
2(m1)
e
L
2
m/2
.
Ahora si aplicamos la f ormula de Stirling
k! =
_
k
e
_
k

2k e
A
k
k
con 0 < A
k
< 12
se tiene que
D
m

5
6
m
m1
_
m2
e
_
m2
L
2m
L
2
e
L
2
m/2
_
2(m2)e
0
=
5
6
mm
m2
(m2)
m2
e
m2
L
2m
L
2
e
L
2
m/2
_
2(m2)
CAP

ITULO 4. MATRICES ALEATORIAS 74


y considerando que 1 +x < e
x
se tiene
_
m
m2
_
m2
=
_
m2 + 2
m2
_
m2
=
_
1 +
2
m2
_
m2
<
_
e
2/(m2)
_
m2
= e
2
.
Resulta que
D
m

5
6
e
2
m
e
m2
L
2m
L
2
e
L
2
m/2

2
_
(m2)
=
5
6
1

2
m
_
(m2)
1
L
2
e
2mlog(L)
e
L
2
m/2+m
=
5
12

2
m
_
(m2)
1
L
2
e
m/2(L
2
4 log(L)2)
y si buscamos las races de L
2
4 log(L) 2 obtendremos una cota. Existe una raz
en aproximadamente L 2,3145 que es mayor a

5 entonces se tiene que


D
m

5

2
12

L
2
m.
De esta manera se tiene
0 G
m
(y) =
_
+
y
G
t
m
(t) dt < D
m
_
+
y
dt
t
3/2
= 2D
m
y
1/2
y entonces cambiando y por x
2
, en (4.49) se tiene
P(

1
> x
2
,
1

L
2
m
x
2
) 2D
m
1
x
. (4.50)
Juntando (4.48) y (4.50) obtenemos la cota superior
P
_
(A) > x
_
C
2
(m)
Lm
x
+ 2D
m
1
x
< (C
2
(+) L + 2
D
m
m
)
m
x
<
Cm
x
con
C = 5,60 C
2
(+) L +
2 5

2
12

L
2
.
Captulo 5
Miscelanea
5.1. N umero de condici on en general
La idea de esta secci on es mostrar que el concepto de n umero de condici on se
puede extrapolar a problemas m as generales que los tratados en esta monografa.
Las referencias para este captulo son: [8] y [10].
El n umero de condici on es un tema cl asico en an alisis numerico. Fue introducido
con el prop osito de obtener cotas tanto para los redondeos como para la complejidad
del problema.
Es decir el n umero de condici on fue introducido originalmente para medir la sensibi-
lidad de un input a perturbaciones, m as precisamente mide la sensibilidad del peor
caso para peque nas perturbaciones. Por ejemplo, si nuestro objetivo es computar una
funci on donde el output varia continuamente como funci on del input, el n umero de
condici on para el input x R
n
es medir el tama no de |(x +x) (x)| donde x
es la perturbaci on.
Una manera de hacerlo es considerar
cond(x) = lm
0
sup
x
|(x + x) (x)|/|(x)|
|x|/|x|
donde | | es alguna norma en R
n
.
input
output
x
x + x
(x)
(x + x)
75
CAP

ITULO 5. MISCEL

ANEA 76
Esta denici on deja de ser util cuando el output toma un conjunto de valores
discretos. Ejemplos cl asicos de este tipo de problemas son los problemas de decisi on,
es decir, aquellos en que dado un input devuelven si o no, o 1 o 0 (por
ejemplo preguntarle a la maquina si una matriz es invertible o no). Si consideramos
la denici on dada arriba obtenemos que
cond(x) =
_
0 si x /
si x
siendo el conjunto de input que no responde ni si ni no (o sea la frontera entre
el output si o no). Por ejemplo en el caso de decir cuando una matriz es invertible
o no, tenemos que son las matrices no invertibles.
Una manera de atacar este tipo de problema para obtener un n umero de condici on
util, es tomar como denici on el Teorema del N umero de Condici on 3 que estudiamos
para el caso de n umero de condici on de matrices cuadradas.
Sea y
j
: i J el conjunto de outputs posibles, y la frontera de los conjuntos
X
i
= x : (x) = y
i
.
Cualquier dato en lo consideramos como ill-posed. Entonces denimos el n umero
de condici on como:
cond(x) =
|x|
d(x, )
(5.1)
donde | | es alguna norma en el espacio discreto de inputs.
En la Introducci on a esta monografa se comento como entra en juego la probabili-
dad en el estudio del n umero de condici on, comentando sobre la dicultad del c alculo
mismo del n umero de condici on. Otro enfoque a considerar es estimar cuan complejo
es calcular el n umero de condici on, o sea estudiar el n umero de condici on del n umero
de condici on.
Existe una conjetura de Renegar que dice que computar cond

(x) para el problema


, es igual de complejo que resolver el problema .
A la condici on de la condici on se le llama n umero de condici on grado-2 y se nota
cond
[2]

(x) que fue introducida por J. Demmel. Es decir


cond
[2]

(x) = lm
0
sup
x
|cond(x + x) cond(x)|/|cond(x)|
|x|/|x|
donde usamos la denici on para el caso en que el output varia continuamente en
funci on del input, tal como lo hace el n umero de condici on (aunque el problema sea
discreto).
Demmel prob o para algunos tipos de problemas que el n umero de condici on grado-2
coincide con el n umero de condici on salvo multiplicar por alguna constante.
F. Cucker y D.Cheung probaron en [8] el siguiente teorema:
CAP

ITULO 5. MISCEL

ANEA 77
Teorema 7. Sea un problema en el que su n umero de condici on se deni o en
terminos de la distancia relativa a como en (5.1), entonces
cond

(x) 1 cond
[2]

(x) cond

(x) + 1.
Por su simplicidad, incluiremos la prueba:
Demostraci on. Sea como antes las ill-posed, x un input y notemos (x) = d(x, ).
cond
[2]

(x) = lm
0
sup
x
|cond(x + x) cond(x)|/|cond(x)|
|x|/|x|
= lm
0
sup
x

|x+x|
(x+x)

|x|
(x)

|x|
|x|
(x)
|x|
= lm
0
sup
x

|x + x|(x) |x|(x + x)
(x + x)|x|

.
Es f acil ver que

|x + x|(x) |x|(x + x)

_
|x + x| |x|
_
(x) +
+|x|
_
(x) (x + x)
_

|x|(x) +|x| |x|


usando que [(x) (x + x)[ |x|. Entonces se tiene

|x + x|(x) |x|(x + x)
(x + x)|x|


|x|(x) +|x| |x|
(x + x)|x|

|x|(x) +|x| |x|


(x) |x|
.
Por lo tanto
cond
[2]

(x) = lm
0
sup
x

|x + x|(x) |x|(x + x)
(x + x)|x|

lm
0
sup
x

(x) +|x|
(x) |x|

=
(x) +|x|
(x)
= 1 +
|x|
(x)
= 1 +cond

(x)
CAP

ITULO 5. MISCEL

ANEA 78
y esto prueba la cota superior.
Para probar la cota inferior consideremos x
0
tal que |x
0
| = (x) y x +x
0
.
Para cualquier 0 < < |x
0
| sea
|x

0
| =

(x)
x
0
.
Entonces |x

0
| = y (x + x

0
) = (x) |x

0
| = (x) .
De igual manera que antes se tiene

|x + x

0
|(x) |x|(x + x

0
)
(x + x

0
)|x

0
|

|x + x

0
|(x) |x|((x) )
((x) )

(|x| |x

0
|)(x) |x|(x)
((x) )

(|x| )(x) |x|(x)


((x) )

=
(x) +|x|
((x) )
=
|x| (x)
(x)
,
entonces
cond
[2]

(x) = lm
0
sup
x

|x + x|(x) |x|(x + x)
(x + x)|x|

lm
0
|x| (x)
(x)
=
|x| (x)
(x)
= cond

(x) 1,
lo que prueba la cota inferior.
Captulo 6
Apendice
6.1. Serie de Neumann
Nuestro objetivo es mostrar que si un operador lineal T en un espacio de Banach
verica que |T| < 1 entonces el operador I T es invertible y la norma de la inversa
esta acotada por
1
1|T|
.
Sea (X, | |) un espacio normado. Diremos que una serie

x
n
en normalmente
convergente cuando converge

|x
n
| < . Si el espacio es completo es f acil ver que
toda serie normalmente convergente converge.
En efecto si S
n
= x
1
+ +x
n
, la condici on de que

|x
n
| < nos dice que la cola
de la serie tiende a cero. Por tanto dado > 0 existe n
0
tal que |x
n
0
+1
| + < .
Pero entonces si m > n
0
se tiene
|S
m
S
n
0
| = |x
n
0
+1
+ +x
m
| |x
n
0
+1
| + +|x
m
|
<
+

n=n
0
+1
|x
n
|
<
entonces S
n
es de Cauchy y por tanto converge.
Sea ahora (X, | |) un espacio de Banach (espacio normado completo), y T B(X)
siendo B(X) el espacio de los operadores lineales de X en X acotados. Supongamos
que |T| < 1 entonces es f acil ver que

+
n=0
T
n
converge a un elemento de B(X). En
efecto usando la propiedad submultiplicativa de la norma de operadores |T
n
| |T|
n
se tiene
+

n=0
|T
n
|
+

n=0
|T|
n
=
1
1 |T|
<
entonces

+
n=0
T
n
es normalmente convergente y por tanto converge, adem as su nor-
79
CAP

ITULO 6. AP

ENDICE 80
ma esta acotada por
1
1|T|
. Veamos que

+
n=0
T
n
es la inversa de I T.
_
+

n=0
T
n
_
(I T) = lm
N
_
N

n=0
T
n
_
(I T)
= lm
N
_
N

n=0
T
n
T
n+1
_
= lm
N
I T
N+1
= I
pues lm
n
|T
n
| lm
n
|T|
n
= 0 y entonces lm
n
T
n
= 0.
An alogamente se prueba que (I T)

+
n=0
T
n
= I.
Hemos probado que |T| < 1 implica que I T es invertible siendo
+

n=0
T
n
= (I T)
1
donde a la anterior suma se denomina Serie de Neumann.
6.2. Teorema del Valor Medio para campos vecto-
riales
Sea f : U R continuamente diferenciable (f C
1
), con U R
d
, x, y U y
suponemos que el segmento entre x e y este incluido en U. Sea F : [0, 1] R dada
por F(t) = f(x + t(x y)), entonces F C
1
y vale el Teorema de Valor Medio de
Lagrange para funciones de R en R.
F(1) F(0) = F
t
(

t) con

t (0, 1).
Pero F
t
(

t) = f (x y) entonces si = x +

t(x y) tenemos
f(y) f(x) = f
x
1
()(x
1
y
1
) + +f
x
d
()(x
d
y
d
)
siendo f
x
j
=
f
x
j
. Tomando valor absoluto en ambos miembros se tiene
[f(y) f(x)[
d

j=1
[f
x
j
()[(x
j
y
j
)
CAP

ITULO 6. AP

ENDICE 81
y como f es continuamente diferenciable, M tal que [f
x
j
()[ < M con en el
segmento con extremos x e y que es un compacto. Entonces
[f(y) f(x)[ M
d

j=1
[x
j
y
j
[
M

d|x y|
siendo | | la norma Euclideana. En conclusi on, obtuvimos la siguiente desigualdad:
[f(y) f(x)[ M

d|x y|.
Ahora con esta ultima desigualdad atacamos el caso para campos vectoriales.
Sea F : U R
d
con F C
1
, con U R
d
, F(x) = (F
1
(x), . . . , F
d
(x)).
F(y) F(x) =
_
_
_
F
1
(y) F
1
(x)
.
.
.
F
d
(y) F
d
(x)
_
_
_
entonces
|F(y) F(x)| =
_
d

j=1
[F
j
(y) F
j
(x)[
2
_
1
2

_
d

j=1
M
2
d|x y|
2
_
1
2
=
_
d
2
M
2
|x y|
2
_1
2
= dM|x y|,
es decir
|F(y) F(x)| dM|x y|. (6.1)
CAP

ITULO 6. AP

ENDICE 82
Referencias
[1] J-M. Azais; M. Wschebor, Upper and Lower Bounds for the Tails of the Distribution of the
Condition Number of a Gaussian Matrix, SIAM Journal of Matrix Analysis and Applications,
26 (2005), 426440.
[2] , On the Distribution of the Maximum of a Gaussian Field with d Parameters, The
Annals of Applied Probability, 15 (2005), 254278.
[3] , Computing the Distribution of the Maximum of a Gaussian Process, Prepublicaciones
de Matem atica de la UDELAR, 01/ 44, http://premat.ng.edu.uy, (2001).
[4] J.A. Cuesta-Albertos; M. Wschebor, Some Remarks on the Condition Number of a Real Random
Square Matrix, Journal of Complexity, 19 (2003), 548554.
[5] , Condition Numbers and Extrema of Random Fields, IV Ascona Seminar on Stochastic
Analysis, Random Fields and Applications, Progress in Probability, Birkha user, (2004), 6982.
[6] F.Cucker; M. Wschebor, On the Expected Condition Numbers of Linear Programming Problems,
Numerische Mathematik, 94 (2003), 419478.
[7] M. Wschebor, One-parameter Gaussian Process: Lectures on the Distribution of the Maximum,
Notas de curso de postgrado, Merida, Asociaci on Venezolana de Matem aticas, 2001.
[8] D. Cheung; F. Cucker, A note on level-2 condition numbers, Technical Report, City University
of Hong Kong, (2004).
[9] L. Blum; F. Cucker; M. Shub; S. Smale, Complexity and real computation, Springer, 1998.
[10] F. Cucker; R. Wong, The collected papers of Stephen Smale, vol. 3, Singapore University Press;
River Edge, NJ : World Scientic, Singapore, 2000.
[11] S. Smale, Complexity Theory and Numerical Analysis, Acta Numerica, Cambridge University
Press, (1997), 523551.
[12] K. Atkinson, An introduction to numerical Analysis, Wiley, University of Iowa, 1987.
[13] J.H. Wilkinson, Rounding Errors in Algebraic Process, Prentice-Hall, Series in automatic com-
putation, 1963.
[14] , The Algebraic Eigenvalue Problem, Oxford Science Publications, 1992.
[15] Von Neumann; H. Goldstine, Numerical inverting of matrices of high order, Bull. Amer. Math.
Soc. (1947), 10211099.
[16] A.M. Turing, Rounding-o errors in matrix processes, Quart. J. Mech. Appl. Math. (1948),
287308.
[17] D. Spielman A. Sankar S. Teng, Smoothed Analysis of the Condition Numbers and Growth
Factors of Matrices, Preprint, http://basilo.kaist.ac.kr/papers/MIT/Spielman/ (2003).

Anda mungkin juga menyukai