Anda di halaman 1dari 226

Analisis Matricial.

Jorge Antezana y Demetrio Stojano


July 20, 2008

Indice
1 Preliminares. 7
1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 El espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.3 Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.4 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5 Herramientas para operar con matrices . . . . . . . . . . . . . . . . . . . . . 17
1.6 El Teorema de Schur y sus corolarios . . . . . . . . . . . . . . . . . . . . . . 20
1.7 Polinomios y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.9 Matrices de rango uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2 Matrices normales y Hermitianas 29
2.1 Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2 Matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.3 Principio minimax. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4 Entrelace de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3 Matrices denidas positivas 38
3.1 Propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Descomposici on polar y valores singulares . . . . . . . . . . . . . . . . . . . 40
3.3 Parte positiva y parte negativa . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.4 Normas en /
n
(C). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.5 Algunas caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.6 El famoso truco 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4 Mayorizaci on. 54
4.1 Deniciones y propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . 54
4.2 Mayorizacion y funciones convexas . . . . . . . . . . . . . . . . . . . . . . . 60
4.3 Birkho, Hall y los casamientos . . . . . . . . . . . . . . . . . . . . . . . . . 62
4.4 Mayorizacion logartmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
1
5 Mayorizaci on de autovalores y valores singulares 67
5.1 Aplicaciones a matrices Hermitianas. . . . . . . . . . . . . . . . . . . . . . . 67
5.2 Teorema de Schur-Horn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
5.3 Normas unitariamente invariantes. . . . . . . . . . . . . . . . . . . . . . . . . 73
5.4 Mayorizacion de matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . 77
5.5 Teoremas de Lindskii y sus aplicaciones. . . . . . . . . . . . . . . . . . . . . 82
5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 85
6 Funciones mon otonas y convexas de operadores 88
6.1 C alculo funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2 Funciones monotonas de operadores . . . . . . . . . . . . . . . . . . . . . . . 91
6.3 Funciones convexas de operadores . . . . . . . . . . . . . . . . . . . . . . . . 94
7 Productos tensoriales y alternados 101
7.1 Producto tensorial de a dos . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
7.2 Potencias tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
7.3 Productos alternados y determinantes. . . . . . . . . . . . . . . . . . . . . . 105
7.4 Propiedades utiles de los productos alternados . . . . . . . . . . . . . . . . . 112
8 Producto de Hadamard 115
8.1 Propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
8.2 La norma de un multiplicador Hadamard. . . . . . . . . . . . . . . . . . . . 118
8.3 Funcionales positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.4 Matrices incompletas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 122
8.5 El teorema de Haagerup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
8.6 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
9 Algunas desigualdades de matrices. 130
9.1 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130
9.2 Desigualdad aritmetico-geometrica en matrices . . . . . . . . . . . . . . . . . 133
9.3 La tecnica alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
9.4 Primeras aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 136
9.5 La exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
9.6 Desigualdades de Araki y Cordes. . . . . . . . . . . . . . . . . . . . . . . . . 140
9.7 Desigualades entre exponenciales . . . . . . . . . . . . . . . . . . . . . . . . 142
9.8 Desigualdad de Johnson-Bapat . . . . . . . . . . . . . . . . . . . . . . . . . 145
9.9 Medias de operadores positivos . . . . . . . . . . . . . . . . . . . . . . . . . 147
10 Rango y Radio Numericos 150
10.1 Deniciones y propiedades b asicas . . . . . . . . . . . . . . . . . . . . . . . . 150
10.2 El Teorema de Hausdor T oeplitz . . . . . . . . . . . . . . . . . . . . . . . . 152
10.3 Comparaci on con NUIs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
10.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
2
11 Teora de Perron-Frobenius. 163
11.1 Matrices de entradas positivas. . . . . . . . . . . . . . . . . . . . . . . . . . 163
11.2 Matrices de entradas no negativas. . . . . . . . . . . . . . . . . . . . . . . . 167
12 Complementos de Schur y determinantes 174
12.1 Notaciones y deniciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 174
12.2 Identidades asociadas a determinantes. . . . . . . . . . . . . . . . . . . . . . 177
13 Matrices totalmente positivas 183
13.1 Deniciones y criterios de positividad total. . . . . . . . . . . . . . . . . . . 183
13.2 Permanencia de la positividad total. . . . . . . . . . . . . . . . . . . . . . . . 188
13.3 Factorizaciones LU y UL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191
13.4 Matrices oscilatorias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195
13.5 Variaci on de signos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
13.6 Totalmente Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . 206
13.7 Algunos ejemplos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
13.8 Apendice: La prueba del criterio clave . . . . . . . . . . . . . . . . . . . . . 217
3
Introducci on
El an alisis matricial (AM) es una continuacion natural del algebra lineal, pero considerando
que el cuerpo de escalares son los n umeros reales o los complejos, y con una mirada basada
en la problem atica de las teoras de espacios de Hilbert y de sus operadores acotados.
Muchos problemas del an alisis, la geometra diferencial, el an alisis funcional, los sistemas
din amicos, la fsica te orica y otras importantes teoras, pueden bajarse al caso de matrices.
Y eso sin mencionar todas las ramas de la matem atica aplicada, que suelen tener a este tipo
de reducciones como herramienta principal. En general, poder reducir y reformular un
problema al caso matricial es un exito, porque es mucho m as viable resolver un problema de
matrices que el problema de origen.
Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matem a-
tico quiere poder aplicarlo, y trata sistem aticamente de hacerlo. Porque es un contexto
donde las cuentas se pueden hacer (o la mayora cree a priori que deberan porder hacerse).
M as a un, cuando la reducci on a matrices de un problema P sigue siendo difcil, se puede
concluir que P tena una dicultad intrnseca. Pero con dicultad o sin ella, el tema es como
resolver P en matrices.
Para poder hacerlo, hay que desarrollar a fondo una teora de matrices, o al menos una
extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables
problemas que le caen de arriba. Podra decirse que eso es el AM.
Lo mas interesante del AM es que es el contexto mas basico (un alumno de segundo
a no de la licenciatura ya puede entender la mayora de los enunciados) en el que se pueden
plantear problemas matematicos bien difciles, muchos de ellos no resueltos a un. Pero para
entender a fondo este tipo de problemas, sus ramicaciones, y las tecnicas que se suelen
aplicar para resolverlos, hace falta hacer un curso especco de AM, que pueda ser atendido
tanto por matem aticos formados como por estudiantes de la licenciatura. Otra particularidad
remarcable, es que con ese solo basamento, alcanza para leer y entender (y porque no hacer)
una gran cantidad de publicaciones actuales. Un tpico trabajo nal para un curso de AM, es
estudiar un paper de los ultimos 2 o 3 a nos del tema. Y en muchos casos, con las contenidos
de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo.
Por otra parte, como toda teora matem atica, el AM tiene su problematica propia. El
tema m as tpicamente matricial son las desigualdades, que involucran normas, autovalores,
valores singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y
operadores es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas
son unos tipos especiales, una especie de gremio de artesanos. Las tecnicas que se usan
suelen ser intrincadas y de un gran ingenio. Se aplican ideas de toda la matem atica, pero la
4
teora tiene sus reglas propias y toda una gama de herramientas y metodos espceccos. Una
de esas herramientas, fundamental y no muy conocida, es otro tema central para el AM:
La teora de mayorizaci on (de vectores y matrices), y sus m ultiples ramicaciones. Esta
teora, elemental pero difcil, es poco conocida por los matematicos, y ha sido y sigue siendo
redescubierta innumerables veces en distintas areas, muchas veces con terminologas ad hoc.
Si bien la mayorizacion aparece como una forma de comparar vectores de R
n
, cuando se
la piensa en vectores de autovalores o de valores singulares, se percibe r apidamente que
es una noci on intrnsecamente relacionada con la teora de matrices. Estos dos aspectos:
mayorizacion y desigualdades, son desarrollados con profundidad en este texto.
Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada
teora de Perron y Frobenuis, podra tener el rango de area independiente. De ella daremos
un captulo con las bases principales de la teora, y otro captulo exponiendo una de sus
ramas: las matrices totalmente positivas.
Este libro es el resultado de m as de una decena de cursos de ese tipo, dictados en diversos
departamentos de matematica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-
UNLP) y en varios congresos, en los ultimos a nos. Es importante aclarar que se asumen
como conocidos (y no se exponen en este texto) todos los contenidos de un curso inicial
de algebra lineal. Para comodidad del lector, y para jar notaciones y prerrequisitos, se
enumeran al pricipio del primer captulo todas las nociones y resultados especcos de un tal
curso que seran usados a lo largo del texto. Cualquier libro de algebra lineal (y hay miles)
sirve como referencia para los mismos. Si me dan a elegir, yo recomiendo el de K. Homan
y R. Kuntze [11] para algebristas, y el de P. D. Lax [16] para analistas.
Debo mencionar que este libro est a fuertemente basado en tres excelentes textos que son
la bibliografa basica en el tema: los dos tomos Matrix Analysis [12] y Topics of Matrix
Analysis [13] de R. Horn y C. Johnson y, sobre todo, el maravilloso libro Matrix Analysis [6]
de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian de esos libros. Por un lado,
el texto esta pensado como base para un curso elemental, y organizado efectivamente para
que todo el material pueda darse en un cuatrimestre. Por otro lado, hay fuertes diferencias
en la manera de encarar muchos de los temas, y se incluyen resultados mas modernos y
numerosas pruebas simplicadas de resultados clasicos, en base a publicaciones recientes o
al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados.
Los temas elegidos son solo una peque na parte de la teora, pero son la base principal sobre
la que se edican la mayora de las areas no incuidas en el texto. Hay muchas tecnicas de
an alisis, funciones analticas y geometra diferencial que suelen ser efectivas para problemas
de matrices. Ese tipo de interacciones no estan incluidos porque el texto esta pensado
para una audiencia no necesariamente experta. Una referencia escencial para esa clase de
recursos es el libro mencionado de R. Bhatia [6]. Otra teora aprate, poco desarrollada aqu,
es la de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se
podran mencionar varios captulos de [6], y tambien el monumental tratado de T. Kato [15].
Tampoco se hace mucho incapie en este texto en los metodos algortmicos, que vendran a
ser la otra pata de la teora. Bajado un problema a matrices, hay dos alternativas: resolverlo
te oricamente (para ese lado va este texto) o resolverlo aproximando, dado que en matrices se
puede (si no son muy grandes). La bibliografa sobre aproximaci on mediante algoritmos es
5
inmensa, y nos limitaremos a citar el excelente tratado Matrix computations [8] de G. Golub
y C. F. Van Loan, y la bibliografa que all aparece. La mayora de las herramientas que se
usan para los algoritmos mencionados, y muchos de los procedimientos especcos que ellos
usan, s est an expuestos en el texto; pero sin hacer hincapie en la optica de la velocidad de
convergencia o la robustez ante perturbaciones, sino a la problem atica teorica que presentan.
Otros temas que no tratamos en este libro son los de matrices diagonalizables, polinomios
minimales y formas can onicas, en particular la forma de Jordan. Esto es porque ese tipo
de resultados no se usar an en el resto del texto, y porque suelen estar incluidos en un buen
curso b asico de algebra lineal. Los dos libros antes mencionados ([11] y [16]) dan excelentes
tratamientos de estos temas.
Muchos de los resultados presentados en este libro siguen siendo validos en contextos m as
generales que las matrices reales o complejas, como ser: matrices a coecinetes en cuerpos
generales o en anillos, algebras de Banach, operadores en espacios de Banach o de Hilbert,
agebras de operadores (C

y de von Neumann). Esto sucede particularmente con resultados


de los captulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (secci on 3), 9, 10 y 12. La decision que
tomamos para presentarlos fue dar demostraci ones especcas para el contexto matricial y,
por lo general, mencionar luego los contextos donde siguen valiendo, y las tecnicas diferentes
para cada uno de ellos. La principal razon que justica este enfoque es que el libro busca ser
autocontenido en un nivel elemental, y que los contextos mencionados son muy variados, lo
que hara muy difcil dar las demostraciones generales sin largas secciones introductorias de
cada uno de ellos. Adem as, las demostraciones para el caso matricial suelen ser muchsimo
m as simples y breves, y brindan un manejo interesante de las tecnicas propias del AM. Por
otra parte, opinamos que es muy util el enfrentarse con una primera versi on de enunciados
complicados en un contexto menos complicado, para despues poder entender el signicado
de esos enunciados en los contextos mas especcos (adem as de su nueva demostraci on).
Sin embargo, este enfoque tiene un lmite. Por lo tanto, una parte importante del AM
hemos decidido desarrollarlo en el contexto m as general de operadores en espacios de Hilbert.
Se seleccionaron para esa parte aquellos resultados cuyas pruebas dieren poco al aumen-
tar la generalidad, y que forman una rama imporante de la teora de operadores, aunque
mantengan un espritu claramente matricial. Sin embargo, ese trabajo se realizara en un
segundo vol umen, dado que el contenido del presente libro ya es suciente para un curso
cuatrimestral, y porque el nuevo vol umen requiere una introducci on especca de espacios
de Hilbert que no consideramos necesaria para este texto puramente matricial.
Los contenidos del libro est an sucientemente explicitados en los ttulos de las secciones
del ndice. A continuaci on haremos algunos comentarios sobre el enfoque aplicadao en cada
Captulo. Como se dijo anteriormente, al principio del captulo 1 se enumera una serie de
notaciones y resultados del algebra lineal elemental. En la seccion 5 se presentan varias
f ormulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular
importancia es el manejo de matrices de bloques y las tecnicas para operar con ellas. Luego
se presenta el teorema de Schur de muestra la equivalencia unitaria de toda matriz con una
triangular superior. Este teorema, si bien suele estar incluido en los textos elementales,
es presentado en detalle porque ser a de importancia clave para numerosos resultados a lo
largo de todo el libro. El captulo culmina con tres secciones de resultados elementales, que
6
tambien ser an muy usados m as adelante: Polinomios aplicados a matrices, descomposicion
QR y las propiedades basicas de las matrices de rango uno.
Los captulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con
material b asico, desarrollan en detalle las propiedades variacionales de los autovalores de
matrices autoadjuntas, y dan una versi on nitodimensional de los principales resultados de
la teora de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM.
Los captulos 4 y 5 tratan sobre mayorizaci on, primero en su version vectorial, y despues
en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque con-
sideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la
matem atica, adem as de ser escencial para el AM. El captulo 6, sobre monotona y convexi-
dad de operadores, incluye una introducci on al calculo funcional para matrices, en el estilo
del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se dan las prin-
cipales caracterizaciones y propiedades de las funciones mencionadas, que son herramientas
escenciales para estudiar desigualdades de matrices y operadores. Estos tres captulos estan
fuertemente basados en la exposicion de estos temas que se hace en el libro de Bhatia [6]. Sin
embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes, y
la seleccion de resultados presentados es distinta.
En el captulo 7 se da una introducci on b asica a la teora de productos tensoriales y
alternados, como siempre con pruebas adecuadas al contexto matricial. Esta teora, por ser
bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en
funci on de poder aplicar los recursos que brinda (escenciales para entender las propiedades
de los determinantes y como herramienta para probar desigualdades) sin meterse en camisa
de once varas. Aqu intentamos dar una exposici on detallada y (casi) autocontenida, dado
que el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en captulos
posteriores necesitaremos trabajar con propiedades muy especcas del determinante de ma-
trices y submatrices. El tema es que una buena presentacion de los productos alternados
permite justicar completamente todas esas propiedades, tabajo que se inicia en la secci on
3, y se contin ua en el captulo 12.
El captulo 8 trata sobre productos de Hadamard. Aqu tambien el tratamiento es muy
detallado, porque es un area que aparece poco en los tratados del tema, es un tema fuerte de
investigacion dentro del AM, y tiene ademas muy intereantes aplicaciones en otras disciplinas.
Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del
operador de multiplicaci on (de Hadamard) por una matriz ja, relativa a la norma espectral
de matrices.
El captulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-
sarse como lugar en el que se concentran las tecnicas y desarrollos realizados en los captulos
anteriores. La lista no es exhaustiva, pero da una idea de las principales lneas de teora de
desigualdades, y presenta la mayora de las tecnicas usuales que se usan para mostrar este
tipo de desigualdades.
En el captulo 10 se presentan las principales propiedades del rango y del radio numericos
de matrices. Los teoremas m as importantes que desarrollamos son el de Hausdor-Toeplitz
sobre la convexidad del rango numerico, y el de T. Ando sobre caracterizaciones matriciales
del radio numerico.
7
Los ultimos tres captulos enfocan la teora de Perron-Frobenius sobre las matrices de
entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados clasicos
sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los
complementos de Schur y numerosas tecnicas con determinandtes que, adem as de tener un
interes propio, son la herramienta clave para desarrollar, en el captulo 13, una introducci on
a la teora de matrices totalmente positivas. El tratamiento se basa en un trabajo de T.
Ando [5], y esta escrita utilizando como punto de partida al trabajo nal de A. Iglesias para
un curso de AM dictado en La Plata.
8
Captulo 1
Preliminares.
1.1 Generalidades
1.1.1. Para empezar, enumeraremos las notaciones y convenciones mas basicas, sobre vec-
tores y matrices, que usaremos a lo largo de todo el texto:
1. Usaremos a C o R como cuerpo de escalares.
2. Llamaremos R
+
al conjunto de n umeros reales no negativos, y R

+
al conjunto de
n umeros reales positivos.
3. Dado n N, usaremos el smbolo I
n
para denotar al conjunto 1, 2, . . . , n N.
4. Llamaremos /
n,m
(C) = C
nm
, al espacio de matrices rectangulares de n m.
5. Cuando n = m, notaremos /
n
(C) = /
n
= /
n,n
(C), a las matrices cuadradas de
n n sobre C.
6. Para matrices reales escribiremos /
n,m
(R) = R
nm
y /
n
(R) = /
n,n
(R).
7. Para denotar las entradas de una matriz A /
n,m
(C), usaremos indistintamente, por
conveniencia del contexto, las notaciones A = (A
ij
)
iI
n
jI
m
o A = (a
ij
)
iI
n
jI
m
.
8. Dada A /
n,m
(C), denotaremos por A
T
/
m,n
(C) a su matriz traspuesta, dada
por A
T
ij
= A
ji
, para i I
n
y j I
m
.
9. Dado n N, denotaremos por I /
n
(C), o bien I
n
, si es que hace falta aclarar su
tama no, a la matriz identidad, dada por I
ij
= 1 si i = j e I
ij
= 0 si i ,= j.
10. La suma y producto de matrices (cuando sus tama nos los permitan) se hacen con las
deniciones usuales del algebra lineal. Por ejemplo, si A /
n,m
(C) y /
m,r
(C),
entonces AB /
n,r
(C) y sus entradas son
(AB)
ij
=
m

k=1
A
ik
B
kj
, para todo i I
n
y todo j I
r
. (1.1)
9
11. Dada A /
n
(C), diremos que A es inversible si existe A
1
/
n
(C), la unica matriz
que cumple que AA
1
= A
1
A = I. Denotaremos por
(l (n) = A /
n
(C) : A es inversible ,
que es un grupo (de Lie) con la multiplicacion usual de matrices. Su neutro es I
n
.
12. Asumiremos como conocidas las propiedades del determinante, que denotaremos
det : /
n
(/) /, para cualquier n N y cualquier anillo conmutativo /. En el
Captulo 7 sobre productos tensoriales, se daran deniciones precisas, y se demostraran
la mayora de dichas propiedades. En el Captulo 12 se profundizar a ese estudio.
Sin embargo, usaremos desde ahora esas propiedades, ad referendum de sus pruebas
(esperemos que no haya crculos muy viciosos).
13. Dada A /
n
(C), consideremos la matriz xI
n
A /
n
(C[x]). El polinomio carac-
terstico de A est a dado por la formula P
A
(x) = det(xI A) C[x]. Es un polinomio
m onico de grado n.
14. Dada A /
n
(C), su traza es el n umero tr A =
n

i=1
A
ii
. Usaremos el hecho conocido
de que, si B /
n
(C), entonces tr AB = tr BA.
15. Sea A /
n,m
(C). Las columnas de A se pueden pensar como vectores de C
n
, y
sus las, como vectores de C
m
. Se usar a la notaci on C
i
(A) C
n
(respectivamente
F
i
(A) C
m
) para denotar a la i-esima columna (resp. la) de A.
16. Los vectores de C
n
ser an pensados como vectores columna, es decir que identicamos
C
n
con C
n1
. Sin embargo, a lo largo del texto los describiremos como una la (estilo
x = (x
1
, . . . , x
n
) C
n
), para ahorrar espacio. Por ejemplo, si A /
n
(C) e i I
n
,
entonces C
i
(A) = (a
1i
, a
2i
, . . . , a
ni
) C
n
.
17. Si a = (a
1
, . . . , a
n
) C
n
, denotaremos por diag (a) a la matriz diagonal
diag (a) = diag (a
1
, . . . , a
n
) =
_
_
_
a
1
0 0
.
.
.
.
.
.
.
.
.
0 0 a
n
_
_
_
/
n
(C).
Por ejemplo, si tomamos e = (1, . . . , 1) C
n
, entonces diag (e) = I
n
.
18. Por otra parte, si A /
n
(C), llamaremos d(A) C
n
al la diagonal de A pensada
como vector, i.e. d(A) = (A
11
, . . . , A
nn
).
1.1.2 (Matrices y operadores). Enumeraremos a continuaci on las propiedades de las matrices
cuando son vistas como transformaciones lineales:
1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial
de transformaciones lineales T : V W. Si V = W, ponemos L(V) = L(V, V).
10
2. Dado un C-espacio vectorial V y un conjunto X V, denotaremos por span X
al subespacio de V generado por X. Si X = x
1
, . . . , x
m
, escribiremos tambien
span X = span x
1
, . . . , x
m
.
3. Si A /
n,m
(C), la pensaremos tambien como un elemento de L(C
m
, C
n
) actuando
por multiplicacion: si x C
m
= /
m,1
(C), entonces A(x) = A x C
n
, usando el
producto de la ecuaci on (1.1). En este contexto usaremos las notaciones conocidas:
ker A = x C
m
: Ax = 0 y R(A) = A(C
m
) = Im(A) .
4. Se denotara por c = e
1
, . . . , e
m
a la base can onica de C
m
. A veces seremos m as
explcitos, poniendo c
m
= e
(m)
1
, . . . , e
(m)
m
, para aclarar el contexto.
5. Si A /
n,m
(C), entonces se tiene que
Ae
(m)
i
= C
i
(A) C
n
, para todo i I
m
.
Por lo tanto, tenemos que R(A) = span C
1
(A), . . . , C
m
(A) .
6. Por el teorema de la dimensi on, si A /
n
(C) L(C
n
), entonces
A (l (n) ker A = 0 R(A) = C
n
.
7. El rango de A /
n,m
(C) es rk(A) = dimR(A) = dimspan C
1
(A), . . . , C
m
(A) .
M as adelante, en la Observaci on 3.6.4 (ver tambien el Ejercicio 1.1.15), veremos que
coincide con el rango la de A, que es la dimspan F
1
(A), . . . , F
n
(A) .
8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales
m as generales. Por ejemplo, si o C
n
es un subespacio y A /
n
(C) verica que
A(o) o, entonces se puede pensar a A (o su restricci on a o) como un operador en
o. En tal caso diremos que pensamos a A[
S
L(o).
Espacios de Hilbert nitodimensionales
1.1.3. En C
n
consideraremos el producto interno (o escalar) com un, dado por
x, y) =
n

k=1
x
k
y
k
, x, y C
n
. (1.2)
Es claro que , ) : C
n
C
n
C verica las propiedades denen a un tal producto: Dados
v, v, w C
n
y C, entonces
1. v, v) 0 y v, v) = 0 si y s olo si v = 0.
2. u, v) = v, u).
11
3. v, (u +w)) = v, u) +v +w).
4. u, v) = u, v), pero u, v) = u, v).
Dado x C
n
, deniremos su norma Eucldea, a la usual:
|x| = |x|
2
= x, x)
1/2
=
_
n

k=1
[x
k
[
2
_
1/2
.
A x se lo llama unitario, si |x| = 1. Muchas veces consideraremos otras normas de vectores
y matrices. Por ello damos una denicion general:
Denici on 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una
funci on N : V R que verica las siguientes condiciones: Dados u, v V y K,
1. N(v) 0 y, adem as, N(v) = 0 si y s olo si v = 0.
2. N(u +v) N(u) +N(v).
3. N(v) = [[ N(v).
Denici on 1.1.5. Sean H un K-espacio vectorial, con K = C o R, y N una norma en V.
1. Cuando N proviene de un producto interno , ), diremos que
el par (V, N) , o bien (V, , )) es un K-espacio de Hilbert .
Cuando K = C, tambien diremos que V es un espcio de Hilbert a secas. Ojo, aca se
asume que dimV < . Sin o hay que pedir que V sea completo.
2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al
espacio de operadores lineales de H en K (acotados, si dimH = ).
3. Si H = K, escribimos L(H) en lugar de L(H, H).
4. Si A L(H, K) notaremos por ker A a su n ucleo y R(A) a su imagen.
Denici on 1.1.6. Sea H un espacio de Hilbert.
1. Dados x, y H, decimos que son ortogonales, y escribimos x y si x, y) = 0.
2. Sea X H. Denotaremos por X

= y H : y x para todo x X, al subespacio


ortogonal a X.
3. Los vectores x
1
, . . . , x
k
H forman un conjunto ortogonal cuando x
i
, x
j
) = 0, para
todo i ,= j.
4. Si ademas los vectores est an normalizados, es decir |x
i
|
2
= x
i
, x
i
) = 1 (i I
k
),
entonces el conjunto se dice ortonormal.
12
5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la
base canonica c
n
es una BON de C
n
con el producto interno de la ecuaci on (1.2).
Denici on 1.1.7. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto
de A al unico operador A

L(K, H) que satisface


Ax, z)
K
= x, A

z)
H
, x H, z K. (1.3)
La demostraci on de que A

existe es un resultado b asico de la teora de espacios de Hilbert.


En el caso nitodimensional, se puede construir a A

usando BONes, como veremos.


1.1.8 (Propiedades de la adjunta). Sean A, B L(H). Usando la ecuacion (1.3) (y la
unicidad) se verican f acilmente las siguientes propiedades:
1. Supongamos que dimH = n. Si para cualquier BON ja B = v
1
, . . . , v
n
de H, se
identica a los operadores de L(H) con matrices en /
n
(C) va
A
ij
= Av
j
, v
i
) , i, j I
n
,
entonces la matriz de A

es A
T
, la traspuesta conjugada de la matriz de A. En otras
palabras, A

ij
= A
ji
, para todo par i, j I
n
.
2. (A

= A.
3. Dado C, se tiene que (A +B)

= A

+B

.
4. ker A = R(A

y, si dimH < , tambien R(A) = (ker A

.
5. (AB)

= B

e I

= I.
6. A es inversible si y solo si A

es inversible. En tal caso, (A

)
1
= (A
1
)

.
Denici on 1.1.9. Dado A L(H) un operador en un espacio de Hilbert, decimos que A es:
1. Hermitiano si A = A

.
2. anti-Hermitiano si A = A

.
3. unitario si AA

= A

A = I.
4. normal si AA

= A

A.
5. denido positivo si Ax, x) > 0 para todo x H. En tal caso de escribe A > 0.
6. semidenido positivo si Ax, x) 0 para todo x H. En tal caso de escribe A 0.
Los mismos nombres tendran las matrices de /
n
(C), al ser pensadas como operadores en
H = C
n
con el producto escalar y la norma usuales. En este contexto recordar que, si
A /
n
(C), entonces A

= A
T
. Ademas usaremos las siguientes notaciones:
13
1. H(n) = A /
n
(C) : A = A

.
2. |(n) = U /
n
(C) : U es unitaria .
3. ^(n) = N /
n
(C) : N es normal .
4. /
n
(C)
+
= A /
n
(C) : A 0 H(n).
5. (l (n) = A /
n
(C) : A es invertible .
Lema 1.1.10 (Polarizaci on). Sea H un C-espacio de Hilbert y sea A L(H). Entonces
Ax, y) =
1
4
4

k=1
i
k
_
A(x +i
k
y), (x +i
k
y)
_
para todo par x, y H . (1.4)
Demostracion. La cuenta es directa, y se deja como ejercicio.
Proposicion 1.1.11. Sea H es un C-espacio de Hilbert y sea A L(H). Luego, las sigu-
ientes condiciones son equivalentes:
1. A = 0.
2. Ax, y) = 0 para todo par x, y C
n
.
3. Az, z) = 0 para todo z C
n
.
Demostracion. Es claro que 1 2 3. La implicaci on 3 2 es consecuencia directa de
la formula de polarizacion (1.4). Si asumimos 2 y, para cualquier x H, tomamos y = Ax,
obtenemos que |Ax|
2
= Ax, Ax) = Ax, y) = 0, por lo que A = 0.
Observaci on 1.1.12. Es importante se nalar que el tem 3 no implica a los otros en el caso
de que H sea s olo un R-espacio de Hilbert. Observar que no puede valer la polarizacion.
Peor a un, tomando como A =
_
0 1
1 0
_
L(R
2
) (una rotaci on de 90 grados), es claro que
Ax, x) = 0 para todo x R
2
. Veamos ahora una aplicacion a matrices:
Corolario 1.1.13. Sea A /
n
(C). Entonces
1. A H(n) si y solo si Az, z) R para todo z C
n
.
2. /
n
(C)
+
H(n).
Demostracion. Si A H(n) y z C
n
, entonces Az, z) = z, Az) = Az, z). Si suponemos
que Az, z) R para todo z C
n
, entonces
Az, z) = Az, z) = z, Az) = A

z, z) , z C
n
= (A A

) z, z) = 0 , z C
n
.
Por la Proposici on 1.1.11, deducimos que A = A

. Por la denicion de /
n
(C)
+
, si se tiene
que A /
n
(C)
+
, entonces Az, z) R
+
R para todo z C
n
.
14
Ejercicio 1.1.14. Sean A, /
m,n
(C). Entonces se tiene que
A

A /
n
(C)
+
y (A

A)
i,j
= C
j
(A) , C
i
(A) ) , para todo par i, j I
n
.
En particular, tr(A

A) =
n

j=1
|C
j
(A)|
2
=
n

i,j=1
[a
ij
[
2
.
Ejercicio 1.1.15. Sean A, /
m,n
(C) L(C
m
, C
n
). Mostrar que entonces
ker A = span F
1
(A), . . . , F
n
(A)

C
n
.
Deducir que rk
F
(A) := dimspan F
1
(A), . . . , F
n
(A) = rk(A), o sea que los rangos la y
columna de A coinciden.
1.2 El espectro
Denici on 1.2.1. Se llama espectro de una matriz A /
n
(C) al conjunto de todos los
autovalores de A:
(A) = C : es autovalor de A = C : ker(A I) ,= 0 ,
que es un subconjunto nito y no vaco de C.
1.2.2 (Propiedades del espectro de matrices). Sea A /
n
(C). Valen:
1. (A) si y s olo si existe x C
n
tal que x ,= 0 y Ax = x.
2. Si C, entonces (A +I) = (A) + = + : (A).
3. A (l (n) si y s olo si 0 / (A). Mas a un, / (A) si y s olo si A I (l (n).
4. Sea P
A
(x) C[x] el polinomio caracterstico de A. Luego (A) si y solo si
P
A
() = 0, o sea que (A) es el conjunto de races de P
A
(x).
5. Como gr(P
A
) = n, se tiene que 0 < [(A)[ n.
6. (A

) = (A). En efecto, usando 1.1.8, tenemos que


A I / (l (n) (A I)

= A

I / (l (n) .
7. Si A (l (n), entonces (A
1
) = (A)
1
=
1
: (A). En efecto, es consecen-
cia de la igualdad ker(A I) = ker(A
1

1
I) (Ejercicio: probarla).
15
Observaci on 1.2.3. Vimos que los autovalores de A /
n
(C) son las races del polinomio
caracterstico P
A
(x) = det(xI A) y que gr(P
A
) = n. Pero P
A
puede tener races m ultiples,
por lo que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos solo
pueden contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces
como multiplicidad tiene como raz del caracterstico. Para hacer eso, factorizamos en C[x]
a P
A
(x) =
n

i=1
(x
i
) =
n

i=1
(x
i
(A) ), y diremos que
los autovalores de A son
1
, . . . ,
n
, o (A) = (
1
(A), . . . ,
n
(A) ) ,
donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como
raz de P
A
, y disponiendolos en alg un orden de C jado previamente (por ejemplo, el lex-
icogr aco en las coordenadas polares, con el cero al nal). Por eso quedan n. Al vector
(A) C
n
se lo llama vector de autovalores de A.
Observaci on 1.2.4. Sean A, B /
n
(C) y S (l (n) tales que B = SAS
1
. Luego B
diere de A en un cambio de base. Se suele decir que A y B son similares y se nota A B.
Por las propiedades del determinante, se tiene que
P
B
(x) = det(xI SAS
1
) = det S(xI A)S
1
= det(xI A) = P
A
(x) ,
por lo que (A) = (B) y tambien (A) = (B).
Denici on 1.2.5. Sea A /
n
(C).
1. El radio numerico de A se dene como
w(A) = max [Ax, x)[ : x C
n
, |x| = 1 .
2. El radio espectral de A se dene como
(A) = max [[ : (A) .
3. La norma espectral de A es su norma como operador, inducida por la norma eucldea
de C
n
. Es decir,
|A|
sp
= max|Ax| : x C
n
, |x| = 1 = minC 0 : |Ax| C|x| , x C
n
.
4. La norma 2 o norma Frobenius de A es su norma eucldea, si la pensamos como
un vector largo. Por el Ejercicio 1.1.14, tenemos que
|A|
2
2
=
n

i,j=1
[a
ij
[
2
= tr(A

A) . (1.5)
Observar que, analizando los autovectores (unitarios) de A, se muestra f acilmente que
(A) w(A) |A|
sp
. (1.6)
Tomando la matriz A =
_
0 1
0 0
_
, se ve que las desiguadades pueden ser estrictas. En efecto,
(A) = 0 , w(A) = 1/2 y |A|
sp
= 1 .
Ejercicio: vericarlo.
16
1.3 Matrices unitarias
Recordemos que U /
n
(C) es unitaria si UU

= U

U = I, y que |(n) denota al conjunto


de matrices unitarias en /
n
(C).
Teorema 1.3.1. Si U /
n
(C), las siguientes armaciones son equivalentes:
1. U |(n).
2. U

|(n).
3. U (l (n) y U
1
= U

.
4. U preserva el producto escalar, o sea que
Ux, Uy) = x, y) , para todo par x, y C
n
.
5. Si B es una BON de C
n
, entonces U(B) tamben lo es.
6. Las columnas de U forman una BON de C
n
.
7. Las las de U forman una BON de C
n
.
8. Para todo x C
n
, se tiene que |Ux| = |x| (o sea que U es una isometra).
Ademas, |(n) es un grupo con la multiplicacion de matrices.
Demostracion. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica
todo lo dem as, usar la Proposicion 1.1.11.
Denici on 1.3.2. Dadas A, B /
n
(C), se dice que A es unitariamente equivalente a B y
se nota
A

= B si existe U |(n) tal que A = U

BU .
Observar que, como |(n) es un grupo, se tiene que

= es una relaci on de equivalencia.
Teorema 1.3.3. Sean A y B /
n
(C) tales que A

= B. Entonces
(A) = (B) , |A|
2
= |B|
2
, |A|
sp
= |B|
sp
y A es si y solo si B es ,
donde puede signicar: Hermitiana, anti-Hermitiana, normal, denda positiva o unitaria.
Demostracion. La primera igualdad se sigue de la Observacion 1.2.4. Sea U |(n) tal que
B = UAU

. Entonces, por la ecuaci on (1.5),


|B|
2
2
= tr(B

B) = tr(UA

UAU

) = tr(UA

AU

) = tr(A

A) = |A|
2
2
,
donde la pen ultima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par
X, Y /
n
(C). Con respecto a las normas espectrales,
|B|
sp
= max
|x|=1
|UA(U

x)| = max
|y|=1
|Ay| = |A|
sp
,
ya que U

_
x C
n
: |x| = 1
_
= y C
n
: |y| = 1, porque U y U

son isometras
sobreyectivas. Las armaciones sobre se prueban directamente de las deniciones, porque
B

= (UAU

= UA

, con la misma U |(n).


17
1.4 Matrices triangulares
Denici on 1.4.1. Sea T /
n
(C). Diremos que
1. T es triangular superior (abreviamos TS) si verica que T
ij
= 0 para i > j. Es decir
que T tiene ceros por debajo de su diagonal.
2. T es estrictamente TS si T
ij
= 0 para i j. Aca tambien d(T) = 0.
3. An alogamente se denen las matrices triangulares inferiores y estrictamente triangu-
lares inferiores.
4. Denotaremos por T o(n) = T /
n
(C) : T es triangular superior .
1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enu-
meraremos los resultados, y las pruebas no escritas quedaran como ejercicio para el lector):
1. Sea c = e
1
, . . . , e
n
la base can onica de C
n
. Notemos H
k
= span e
1
, . . . , e
k
, para
cada k I
n
, y H
0
= 0. Dada T /
n
(C) se tiene que
T T o(n) T(H
k
) H
k
, para todo k I
n
, (1.7)
y T es estrictamente TS T(H
k
) H
k1
, para todo k I
n
.
2. Usando la ecuaci on (1.7) sale f acil que T o(n) es un subanillo de /
n
(C). Es decir que
T
1
, T
2
T o(n) = T
1
+T
2
y T
1
T
2
T o(n) . (1.8)
Tambien son subanillos los otros conjuntos de matrices triangulares, pero las estricta-
mente triangulares no tienen uno.
3. Ademas, dadas S, T T o(n), se tiene que
d (ST) = d (S) d (T) := (S
11
T
11
, . . . , S
nn
T
nn
) . (1.9)
Esto se muestra directamente calculando (ST)
ii
por la f ormula (1.1).
4. Si T /
n
(C) es estrictamente triangular, entonces T
n
= 0.
5. Si T T o(n), entonces su polinomio caracterstico cumple que
P
T
(x) = det (xI T) =
n

i=1
(x T
ii
) = (T) = d(T) (salvo el orden) . (1.10)
Lo mismo pasa para su transpuesta T
T
, que es una trianagular inferior generica. La
prueba es por inducci on, desarrollando el determinante por la primera columna.
6. Si T T o(n), entonces tr T =
n

i=1
T
ii
y det T =
n

i=1
T
ii
. Para la parte del determinante,
se sugiere mirar la prueba de la Proposicion 1.5.4.
18
7. Si T T o(n) es inversible, entonces
T
1
T o(n) y d
_
T
1
_
= d (T)
1
:= (d
1
(T)
1
, . . . , d
n
(T)
1
) . (1.11)
En efecto, por la ecuacion (1.7) y el hecho de que T (l (n), sabemos que
T(H
k
) = H
k
= T
1
(H
k
) = H
k
, para todo k I
n
= T
1
T o(n) .
La igualdad d (T
1
) = d (T)
1
se deduce ahora de la ecuacion (1.9).
1.5 Herramientas para operar con matrices
En esta secci on veremos varias estrategias para operar con matrices:
1.5.1. Sean A /
n,m
(C) y B /
m,r
(C). Enumeraremos los resultados, y las pruebas no
escritas quedaran como ejercicio para el lector.
1. (AB)
ij
es el producto de la F
i
(A) /
1,m
(C) , por la C
j
(B) /
m,1
(C) .
2. Si x = (x
1
, . . . , x
m
) C
m
, entonces Ax =
m

i=1
x
i
C
i
(A).
3. El producto AB /
n,r
(C) representa la composici on A B : C
r
C
n
, cuando se las
piensa como operadores. Sus columnas se describen por la acci on de A en las columnas
de B:
C
i
(AB) = A C
i
(B) C
n
, para todo i I
r
. (1.12)
Esto se puede probar directamente por la formula (1.1) del producto, o bien observando
que C
i
(AB) = (AB)e
(r)
i
= A ( Be
(r)
i
) = A C
i
(B), lo que se sigue de pensar a AB
como una composici on.
4. An alogamente puede verse que
F
i
(AB) = F
i
(A) B C
r
, para todo i I
n
. (1.13)
5. Luego, si C
i
(B) = 0 (resp. si F
i
(A) = 0), entonces C
i
(AB) = 0 (resp. si F
i
(AB) = 0).
Esto se usa para identicar los ideales (a izq. y der.) del anillo /
n
(C), cuando n = m.
6. Fijemos una columna C
i
(A). Alguna entrada de C
i
(A) aparece al calcular cualquier
entrada de AB. Pero siempre multiplicada por alguna entrada de la F
i
(B) (recordar
la formula (1.1): (AB)
st
=

m
i=1
A
si
B
it
).
7. Luego, si F
i
(B) = 0 (resp. si C
i
(A) = 0), entonces podemos cambiar a piacere la C
i
(A)
(resp. la F
i
(B) ) sin que ello afecte al producto AB.
8. Sean C
n
y C
m
. Si D
1
= diag () /
n
(C) y D
2
= diag () /
m
(C),
entonces
D
1
A =
_

i
a
ij
_
iI
n
jI
m
, AD
2
=
_
a
ij

j
_
iI
n
jI
m
y D
1
AD
2
=
_

i

j
a
ij
_
iI
n
jI
m
. (1.14)
19
Bloques
1.5.2. Sea k I
n
, tal que 0 < k < n y llamemos I = I
k
y J = I
n
I
k
= k + 1, . . . , n.
Dada A /
n
(C) notaremos su representaci on en bloques como sigue:
A =
_
A
I
A
IJ
A
JI
A
J
_
C
k
C
nk
, donde A
IJ
= (A
rl
)
rI
lJ
/
k, nk
(C) ,
y en forma similar se denen A
I
/
k
(C), A
JI
/
nk, k
(C) y A
J
/
nk
(C). Mas
adelante (en la secci on 2.4 y, sobre todo en los Captulos 12 y 13) se usar a una notaci on m as
detallada, tipo A
IJ
= A[I[J] = A[I[I) y as. Para jar ideas observemos que, por ejemplo,
A T o(n) A
I
T o(k) , A
J
T o(n k) y A
JI
= 0. (1.15)
Es extremadamente util el hecho de que esta notaci on es consistente con las operaciones de
matrices. Por ejemplo: Si B /
n
(C):
1. A +B =
_
A
I
+B
I
A
IJ
+B
IJ
A
JI
+B
JI
A
J
+B
J
_
C
k
C
nk
,
2. A

=
_
A

I
A

JI
A

IJ
A

J
_
C
k
C
nk
, una especie de transpuesta adjuntada. Luego
A = A

A
I
H(k) , A
J
H(n k) y A
JI
= A

IJ
.
3. La m as importante es la f ormula del producto:
AB =
_
A
I
B
I
+A
IJ
B
JI
A
I
B
IJ
+A
IJ
B
J
A
JI
B
I
+A
J
B
JI
A
JI
B
IJ
+A
J
B
J
_
C
k
C
nk
, (1.16)
que reproduce la f ormula del producto de matrices en /
2
(C). Observar que los
tama nos de todos los productos que aparecen son los adecuados al bloque donde viven.
La prueba de esta formula es straightforward. Hay que usar la f ormula (1.1) para
(AB)
ij
, dividiendo cada suma en sus primeros k sumandos, y en los otros n k.
4. Por ejemplo, cualquiera sea C /
k, nk
(C), se tiene que
A =
_
I
k
C
0 I
nk
_
(l (n) y, ademas , A
1
=
_
I
k
C
0 I
nk
_
(l (n) . (1.17)
An alogamente, si X /
nk, k
(C), luego
_
I
k
0
X I
nk
_
1
=
_
I
k
0
X I
nk
_
.
5. Otra aplicaci on: Si U |(k) y V |(n k), entonces
W =
_
V 0
0 W
_
|(n) y W AW

=
_
V A
I
V

V A
IJ
W

W A
JI
V

W A
J
W

_
. (1.18)
20
6. Si uno parte a I
n
en r mitades (con r 3), para cada A /
n
(C) se pueden denir
sus r r bloques relativos a esa partici on. Y valen propiedades an alogas a las del caso
2 2. En particular, vale algo similar a la formula (1.16), pero imitando el producto
en /
r
(C).
Observaci on 1.5.3. Sea o C
n
un subespaceio con dimo = k. Todo lo que se hizo
recien se puede generalizar exactamente igual a una representaci on de /
n
(C) en matrices
de 2 2 de bloques, pero teniendo en cuenta la descomposicion C
n
= o o

. El caso
anterior correspondera a tomar o = span e
1
, . . . , e
k
. La manera m as econ omica de verlo
es tomar una BON v
1
, . . . , v
n
= B de C
n
tal que o = span v
1
, . . . , v
k
(por lo que
o

= span v
k+1
, . . . , v
n
). Tomando coordenadas de las matrices en la base B, el laburo
anterior se extrapola a cualquier descomposicion. Pedimos que B sea una BON y no una
base cuaquiera (que empiece por una base de o) para que valgan las formulas relativas a A

,
en particular (1.18). Las dem as valen tomando coordenadas en cualquer base de aquel tipo.
La notacion que usaremos para estas representaciones es
A =
_
A
S
A
S, S

A
S

, S
A
S

_
o
o

.
Observar que, si P
S
es el proyector ortogonal sobre o, entonces P
S
=
_
I 0
0 0
_
o
o

. Adem as,
A
S
= P
S
AP
S
= P
S
A

S
, o sea pensado en L(o) (sin los tres ceros). Al operador A
S
L(o)
se lo llama la compresion de A a o. Su matriz concreta (de k k) depende de la BON
B elegida, pero en tanto operador en L(o), nuestro A
S
s olo depende del subsepacio o.
F ormulas semejantes se tienen para los otros tres bloques de A.
Proposicion 1.5.4. Sea n 2, A /
n
(C) y o C
n
un subespacio propio. Si
A =
_
B C
0 D
_
o
o

= det A = det B det D y P


A
(x) = P
C
(x)P
D
(x) . (1.19)
Una formula similar vale si A es triangular inferior de bloques (para o).
Demostracion. Eligiendo bases de o y o

, y usando que la similaridad no cambia ni el det


ni el caracterstico, podemos asumir que o = span e
1
, . . . , e
k
, donde k = dimo. Mas a un,
ya que elegimos una BON cualquiera de o, podemos suponer su primer elemento era un
autovector x
1
o de B para cierto (B). Observar que entonces tambien se tiene que
Ax
1
= x
1
. Al tomar matrices, queda que
A =
_

0 A
1
_
y B =
_

0 B
1
_
con A
1
=
_
B
1
C
1
0 D
_
/
n1
(C) .
Ojo que si k era uno, queda que A
1
= D y que B = [] (en ese caso , B
1
y C
1
no existen).
Si k > 1, desarrollando por la primer comumna, queda que
det A = det A
1
, det B = det B
1
, P
A
(x) = (x ) P
A
1
(x) y P
B
(x) = (x ) P
B
1
(x) .
21
Las dos ultimas salen porque xI
n
A =
_
x
0 xI
n1
A
1
_
, y lo mismo para B. Haciendo
ahora inducci on en n 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo
es va la denicion con permutaciones de S
n
, porque las permutaciones que no pasan por
el bloque nulo de abajo, son todas las del tipo S
k
S
nk
. Este camino queda como
ejercicio.
Como ejemplo del uso de estas tecnicas, mostraremos a continuaci on la relaci on que hay entre
el espectro del producto de dos matrices, en sus dos ordenes posibles. Se suguiere tratar de
probar el siguiente enunciado directamente, para ver cuanto m as f acil puede hacerse con la
tecnica de bloques, y la primera aparicion del famoso truco de 2 2.
Proposicion 1.5.5. Dadas A, B /
n
(C), entonces (AB) = (BA). Mas a un, AB y
BA tienen el mismo polinomio caracterstico, por lo que (AB) = (BA) C
n
.
Demostracion. Por la ecuacion (1.17), sabemos que la matriz
M =
_
I A
0 I
_
(l (2n) , y que M
1
=
_
I A
0 I
_
.
Adem as, usando la ecuacion (1.16), nos queda que
M
1
_
AB B
0 0
_
M =
_
I A
0 I
_ _
AB 0
B 0
_ _
I A
0 I
_
=
_
0 0
B 0
_ _
I A
0 I
_
=
_
0 0
B BA
_
.
Usando la Proposici on 1.5.4, podemos deducir que P
AB
= P
BA
, porque si se tienen dos
polinomios P, Q C[x] que cumplen x
n
P(x) = x
n
Q(x), entonces P = Q.
Observaci on 1.5.6. Sean A /
n,m
(C) y B /
m,n
(C) con m > n. Con casi la misma
prueba que la Proposicion 1.5.5 puede mostrarse que (BA) = (AB) 0, puesto que
sus polinomios caractersticos cumplen P
BA
(x) = x
mn
P
AB
(x).
1.6 El Teorema de Schur y sus corolarios
El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es suma-
mente util, y sera usado sistematicamente en todo este trabajo.
Teorema 1.6.1 (Schur 1). Sea A /
n
(C) con vector de autovalores (A) = (
1
, ... ,
n
),
dispuestos en cualquier orden prejado. Entonces
1. Existen matrices U |(n) y T T o(n) que verican:
a. A = U T U

.
22
b. d (T) = (A), i.e. T
ii
=
i
, para todo i I
n
.
2. Si A /
n
(R), el teorema sigue valiendo (con U /
n
(R)) siempre que (A) R.
3. Si B /
n
(C) conmuta con A, existen U |(n), y T
1
, T
2
T o(n) tales que
A = U T
1
U

, B = U T
2
U

(con la misma U) y d (T
1
) = (A) .
La d (T
2
) tendra a los autovalores de B, pero en un orden que no podremos elegir.
Demostracion. La prueba la realizaremos por inducci on sobre la dimension n. Si n = 1, el
resultado es trivial. Si n > 1, tomemos x
1
ker(A
1
I) con |x
1
| = 1. Completamos a
una BON de C
n
con vectores x
2
, . . . , x
n
, y los ponemos en las columnas de una matriz U
1
.
Por el Teorema 1.3.1, U
1
|(n). Como U
1
(e
1
) = x
1
y U

1
(x
1
) = e
1
, es f acil ver que
C
1
(U

1
AU
1
) = U

1
AU
1
e
1
=
1
e
1
= U

1
AU
1
=
_

1

0 A
2
_
C
C
n1
,
donde A
2
/
n1
(C). Por la Observacion 1.2.4, sus polinomios caractrsticos cumplen
P
A
(x) = P
U

1
AU
1
(x) = (x
1
)P
A
2
(x) = (A
2
) = (
2
, . . . ,
n
) C
n1
.
Por HI, existen V |(n 1) y T
2
T o(n 1) tales que V

A
2
V = T
2
y d(T
2
) = (A
2
).
Podemos extender V a otra matriz U
2
=
_
1 0
0 V
_
|(n). Sea U = U
1
U
2
. Entonces,
usando las ecuaciones (1.18) y (1.15), nos queda que
U

AU = U

2
(U

1
AU
1
) U
2
=
_
1 0
0 V

_ _

1

0 A
2
_ _
1 0
0 V
_
=
_

1

0 V

A
2
V
_
=
_

1

0 T
2
_
= T T o(n) ,
y se tiene que d(T) = (
1
, d(T
2
) ) = (
1
, (A
2
) ) = (A).
El caso real sale igual. Notar que se puede elegir x
1
R
n
siempre que
1
R. El caso
de dos matrices que conmutan, se deduce de que ker(A
1
I) es invariante para B (cuenta
f acil, ya que conmutan), por lo que el vector x
1
se puede elegir como un autovector de B
actuando en ker(A
1
I) (no se sabe cuales de los autovalores de B en C
n
pueden elegirse
ah). El resto de la prueba sigue igual, usando que las matrices achicadas A
2
y B
2
siguen
conmutando.
Corolario 1.6.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces
tr A =
n

i=1

i
y det A =
n

i=1

i
.
23
Demostracion. Por el Teorema 1.6.1 sabemos que podemos escribir A = U

TU, donde
U |(n), T T o(n) y d(T) = (A). Luego tr A = tr T y det A = det T.
Corolario 1.6.3. Sea U |(n). Entonces [ det U [ = 1.
Demostracion. Basta notar que (U) z C : [z [ = 1, dado que U es una isometra.
Observaci on 1.6.4. Sean A, B /
n
(C). En general, no se tiene la menor idea de que
pueden ser los espectros (A + B) y (AB). Sin embargo, cuando A y B conmutan, el
Teorema de Schur nos da alguna informaci on al respecto. El siguiente resultado vale tambien
el algebras de Banach de dimensi on innita, pero con una prueba mucho mas sosticada.
Corolario 1.6.5. Sean A, B /
n
(C), tales que AB = BA. Entonces
1. (A +B) (A) +(B) = + : (A) y (B).
2. (AB) (A) (B) = : (A) y (B).
Mas a un, existen ciertas ordenaciones de los vectores de autovalores (A) y (B) tales que
(operando en esos ordenes), (A +B) = (A) +(B) y
(AB) = (A) (B) = (
1
(A)
1
(B), . . . ,
n
(A)
n
(B) ) . (1.20)
Demostracion. Probaremos solamente la igualdad (1.20). Las cuentas para (A + B) son
iguales (y m as f aciles). Por el Teorema 1.6.1, existen U |(n), y T
1
, T
2
T o(n) tales
que A = U T
1
U

, B = U T
2
U

, d (T
1
) = (A) y d (T
2
) = (B), aunque los ordenes en que
aparecen (A) y (B) no lo sabemos. Pero en esos ordenes, tenemos que
T
1
T
2
T o(n) = (T
1
T
2
) = d (T
1
T
2
) = d (T
1
) d (T
2
) = (A) (B) ,
por las f ormulas (1.8), (1.10) y (1.9). Pero AB = (U T
1
U

)(U T
2
U

) = U(T
1
T
2
)U

. Luego,
por el Teorema 1.3.3, y en el orden que haba, (T
1
T
2
) = (AB).
Corolario 1.6.6. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces
(A

) = (A) = (
1
, . . . ,
n
) .
Esto generaliza la igualdad (A

) = (A) ya vista.
Demostracion. Sean U |(n) y T T o(n), con d (T) = (A), tales que A = U

TU. Luego
A

= U

U, por lo que (A

) = (T

). Pero T

es triangular inferior, as que tambien se


tiene que (T

) = d (T

) = d (T) = (A).
24
1.7 Polinomios y matrices
Observaci on 1.7.1. Si A /
n
(C) y P(x) =
m

k=0
b
k
x
k
C[x], entonces P se puede evaluar
en A de la siguiente manera:
P(A) =
m

k=0
b
k
A
k
/
n
(C) ,
dado que las potencias (enteras) A
k
se denen con el producto de matrices, y viven en
/
n
(C). Observar que, si S (l (n), entonces (SAS
1
)
k
= SA
k
S
1
, para todo k N.
Usando esto, es f acil ver que
P(SAS
1
) = S P(A) S
1
, para todo P C[x] . (1.21)
Adem as, si T T o(n), es f acil ver que T
2
T o(n) y que d (T
2
) = (T
2
11
, . . . , T
2
nn
) = d (T)
2
.
Esto se extinede a potencias enteras, por induccion. Por lo tanto, para todo P C[x],
P(T) T o(n) y P(T)
ii
= P(T
ii
) para i I
n
, o sea que d (P(T) ) = P(d (T) ) , (1.22)
donde P(d (T) ) = (P(T
11
) , . . . , P(T
nn
) ).
Corolario 1.7.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces,
(P(A) ) = P((A) ) := (P(
1
) , ... , P(
n
) ) para todo P C[x] .
En particular, (P(A)) = P( (A)) :=
_
P() : (A)
_
.
Demostracion. Supongamos que T T o(n). Por la ecuaci on (1.22), P(T) T o(n) y
d (P(T) ) = P(d (T) ). Luego, por la ecuaci on (1.10), tenemos que d (T) = (T) y que
(P(T) ) = d(P(T) ) = P(d (T) ) = P((T) ) ,
lo que prueba el Corolario en este caso. Si A /
n
(C) es cualquier matriz, sean
U |(n) y T T o(n) tales que A = U

TU y (A) = d(T) = (T) .


Por la ecuaci on (1.21), tenemos que P(A) = U

P(T)U. Luego, por la Observaci on 1.2.4 y


el caso anterior, sabemos que (P(A) ) = (P(T) ) = P((T) ) = P((A) ).
Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar
el polinomio Q(x) = P(x) , para P( (A) ) o (P(A) ), y analizar que pasa con
Q(A). Esta prueba es la que sirve en dimensi on innita. Pero tiene el defecto que no da
informaci on sobre multiplicidades.
Corolario 1.7.3 (Hamilton-Cayley). Sea A /
n
(C). Luego P
A
(A) es la matriz nula.
25
Demostracion. Por el Teorema 1.6.1, la ecuaci on (1.21) y la Observaci on 1.2.4, basta probar
que P
T
(T) = 0 para matrices T T o(n). En este caso, por la ecuaci on (1.10), sabemos que
P
T
(x) =
n

i=1
(x T
ii
) = P
T
(T) =
n

i=1
(T T
ii
I) .
Llamemos T
i
= (T T
ii
I), para cada i I
n
. Todas estan en T o(n), comnutan entre s,
y cumplen que (T
i
)
ii
= 0. Ademas C
1
(T
1
) = 0. Veamos que las dos primeras columnas de
T
2
T
1
son nulas. En efecto, por la formula (1.8), T
2
T
1
T o(n). Por la ecuaci on (1.12), se
tiene que C
1
(T
2
T
1
) = T
2
C
1
(T
1
) = 0. Y a mano sale que las entradas
(T
2
T
1
)
12
= (T
1
T
2
)
12
= 0 T
12
+T
12
0 y (T
2
T
1
)
22
= (T
2
T
1
)
22
= (T
22
T
11
) 0 . (1.23)
Inductivamente, uno va probando que
k

i=1
T
i
= T
k
k1

i=1
T
i
debe tener sus primeras k columnas
nulas. Las k 1 primeras, porque ya eran nulas (por HI) para
k1

i=1
T
i
, va la ecuacion (1.12).
La k-esima por eso mismo y el hecho de que (T
k
)
kk
= 0, pero haciendo el producto al reves,
como en la ecuaci on (1.23). Al llegar a k = n tenemos que P
T
(T) =
n

i=1
T
i
= 0, porque tiene
todas sus columnas nulas.
Observaci on 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo.
La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura al-
gebr aica (o aun cuerpo de descomposicion de P
A
(x) ), porque necesita del Teorema de Schur,
que solo vale para cuerpos algebraicamente cerrados (se necesitan los
i
(A) , que son las raices
que factorizan a P
A
(x) ). A nadie se le ocurra postular la siguiente prueba general:
P
A
(A) = det(A I A) = det 0 = 0,
porque es desastrosamente err onea. En palabras del maestro Enzo Gentile, es peor que
pegarle una patada a una vieja en la cara (sic).
1.8 QR
Otra aplicacion importante de las matrices triangulares el el denominado metodo QR.
Teorema 1.8.1. Sea A /
n
(C). Entonces existen Q |(n) y R T o(n) tales que
a. A = QR.
b. R
jj
0, para todo j I
n
.
Si A (l (n), entonces tales Q y R son unicas.
26
Demostracion. Caso A (l (n): Por el metodo de Gramm-Schmidt, si notamos x
k
= C
k
(A),
existe una BON B = u
1
, . . . , u
n
tal que span x
1
, . . . , x
k
= span u
1
, . . . , u
k
, para todo
k I
n
. Adem as, por la construcci on de B por Gramm-Schmidt,
u
j
=
x
j

j1

i=1
x
j
, u
i
) u
i
|x
j

j1

i=1
x
j
, u
i
) u
i
|
= x
j
=
j

i=1
r
ij
u
i
, con r
jj
= | x
j

j1

i=1
x
j
, u
i
) u
i
| > 0 . (1.24)
Tomemos Q |(n) con columnas C
i
(Q) = u
i
, i I
n
. Y tomemos R T o(n) dada por
R = (r
ij
)
i, jI
n
, donde ponemos r
ij
= 0 cuando i > j. Como se vi o en 1.5.1, tenemos que
C
j
(QR) = Q C
j
(R) =
n

i=1
r
ij
C
i
(Q) =
j

i=1
r
ij
u
i
= x
j
= C
j
(A) , para todo j I
n
.
Por lo tanto A = QR.
Unicidad: Si hubiera otro par Q
t
, R
t
cumpliendo las hip otesis, llamemos C
i
(Q
t
) = v
i
para
cada i I
n
. Es f acil ver que span x
1
, . . . , x
k
= span v
1
, . . . , v
k
, k I
n
(usar la Eq.
(1.7) ). De ah se deduce que existen constantes c
i
tales que [c
i
[ = 1 y v
i
= c
i
u
i
para todo
i I
n
. Como r
t
ii
> 0, de la ecuaci on (1.24) y del hecho de que A = Q
t
R
t
, se deduce que
x
i
=
i

s=1
r
t
si
v
s
=
i

s=1
r
t
si
c
s
u
s
= r
t
ii
c
i
= r
ii
= c
i
=
r
ii
r
t
ii
> 0 = c
i
= 1 ,
para todo i I
n
. Luego Q = Q
t
y, por lo tanto R
t
= Q

A = R.
Caso general: Si A / (l (n), el proceso es similar, salvo que, cada vez que aparece un
x
k
span x
1
, . . . , x
k1
,
se pone u
k
= 0 en la C
k
(Q), y, en la ecuaci on (1.24), ponemos r
kj
= 0 para todo j I
n
,
dado que el u
k
= 0 no aporta para generar a los x
j
(j k). Luego F
k
(R) = 0.
As queda que R T o(n), A = QR y r
ii
0 para todo i I
n
, pero Q / |(n).
Para terminar, se cambian las C
k
(Q) = u
k
= 0 del proceso anterior por una BON de
R(A)

= span u
j
: u
j
,= 0

(observar que la cantidad es la correcta). Como se vi o en el


tem 5 de 1.5.1, al multiplicar la Q cambiada por R, cada una de las nuevas C
k
(Q) s olo opera
con la respectiva F
k
(R) = 0. Luego sigue pasando que A = QR, pero ahora Q |(n).
Ejercicio 1.8.2. Sea A /
n
(C). Usando QR, probar que
[ det A[
n

i=1
| C
i
(A) |
2
, (1.25)
y que son iguales si y s olo si A

A es diagonal (o sea que R lo es). Se sugiere interpretarlo


tambien como un c alculo de vol umenes.
27
1.9 Matrices de rango uno
Recordemos que, si A /
n,m
(C), notamos rk(A) = dimR(A). A continuaci on daremos
una caracterizaci on muy util de las matrices con rango uno.
Denici on 1.9.1. Dados x C
n
e y C
m
consideremos la matriz
x y := xy

=
_

_
x
1
.
.
.
x
n
_

_
[ y
1
, . . . , y
m
] = (x
i
y
j
)
ij
/
n,m
(C) . (1.26)
Observar que x y act ua en C
m
de la siguiente manera:
x y(z) = (xy

) z = x (y

z) = z, y) x para todo z C
m
. (1.27)
Por lo tanto, se tiene que R(x y) span x, por lo que rk(x y) 1.
Por ejemplo, si A /
n,m
(C) cumple que su unica columna no nula es C
k
(A), entonces se ve
f acilmente que A = C
k
(A) e
(m)
k
, tanto por la Eq. (1.26) como por la Eq. (1.27). Observar
que todo /
n,m
(C) es el span de este tipo de matrices, porque se tiene la igualdad
A =
m

k=1
C
k
(A) e
(m)
k
=
n

j=1
e
(n)
j
F
j
(A) , para toda A /
n,m
(C) . (1.28)
La segunda igualdad se sigue de un argumento similar al anterior.
Proposicion 1.9.2.
1. Si A /
n,m
(C) tiene rk(A) 1, existen x C
n
e y C
m
tales que A = x y.
2. /
n,m
(C) = span x y : x C
n
e y C
m
.
Demostracion.
1. Sea x C
n
tal que R(A) = span x. Luego existe una funcional lineal
: C
m
C tal que Az = (z) x , para todo z C
m
.
Es sabido que existe un unico y C
m
tal que (z) =
y
(z) = z, y), para todo z C
m
(basta poner y
i
= (e
i
), para cada i I
m
). Luego, por la ecuacion (1.27), podemos
concluir que A = x y.
2. Se deduce de la Eq (1.28).
1.9.3. Estudiaremos a continuaci on las propiedades de las matrices x y. Enumeraremos
los resultados, y las pruebas no escritas quedaran como ejercicio para el lector. Tomemos
dos vectores x C
n
e y C
m
. Luego:
28
1. La norma espectral: |x y|
sp
= |x| |y|, ya que |
y
|
sp
= max
|z|=1
[
y
(z)[ = |y|.
2. El adjunto: (x y)

= (xy

= y x

= y x.
3. Si A /
n
(C), se tiene que A (x y) = A x y

= (Ax) y.
4. Si B /
m
(C), entonces (x y) B = x (B

y) (usar 2 y 3, o la Eq. (1.27) ).


5. Dados v C
m
y w C
k
, se tiene que (x y) (v w) = v, y) x w /
n,k
(C).
A partir de ahora supondremos que n = m, o sea que x y /
n
(C).
6. El espectro: El unico autovalor de xy que puede ser no nulo es
1
= x, y) (adivinen
quien es el autovector). M as a un, (x y) = (x, y), 0, . . . , 0). Para verlo basta tomar
la matriz de x y en una base que empiece por x, y usar la Proposicion 1.5.4.
7. Si |x| = 1, entonces x x = P
x
es el proyector ortogonal sobre span x. En efecto,
observar que x x(z) = z, x) x, la conocida formula de dicho proyector (se usa el
hecho de que z z, x) x x

).
8. En general, si x ,= 0, el proyector P
x
=
x
|x|

x
|x|
=
1
|x|
2
x x .
9. Autoadjuntos: Se tiene que A H(n) si y s olo si A se descompone como una suma
algebraica (i.e. con 1) de matrices x
i
x
i
(elegir los x
i
entre los autovectores de A
y esperar hasta el Teorema 2.2.1).
10. Positivos: A /
n
(C)
+
si y s olo si A se descompone como una suma de matrices
x
i
x
i
(ver Observaci on 5.2.3 de bastante m as adelante).
1.10 Ejercicios
Ejercicio 1.10.1. Mostrar que una matriz diagonalizable A satisface una ecuaci on polino-
mial de grado igual al [(A)[, y no menor.
Ejercicio 1.10.2. Usar la Descomposici on de Schur para probar que si, A /
n
(C) tiene
vector de autovalores (A) = (
1
, . . . ,
n
), entonces tr A
k
=
n

i=1

k
i
, para todo k N.
Ejercicio 1.10.3. Deducir que, si A, B /
n
(C) cumplen que tr A
k
= tr B
k
para todo
k N, entonces (A) = (B) (si usamos el mismo convenio para ordenarlos).
Ejercicio 1.10.4. Dadas A, B /
n
(C), notemos C = ABBA. Probar que si C conmuta
con A, entonces C es nilpotente.
29
Ejercicio 1.10.5 (Triangulares). Si T T o(n) es inversible, probar que
T
1
T o(n) y d
_
T
1
_
= d (T)
1
= (T)
1
.
Sugerimos induccionar usando que los dos productos TT
1
y T
1
T dan I.
Ejercicio 1.10.6. Sea A /
n
(C). Demostrar:
1. Para todo > 0, existe una matriz diagonalizable D

tal que |A D|
sp
.
2. Para todo > 0 existe una matriz inversible S tal que T = SMS
1
es una matriz
triangular superior que satisface
n1

i=1

j>i
[T
ij
[
2
.
Notar que se suman los cuadrados de los m odulos de las entradas que est an estric-
tamente sobre la diagonal, por lo que puede decirse que T esta muy pr oxima a ser
diagonal.
30
Captulo 2
Matrices normales y Hermitianas
2.1 Matrices normales
Recordemos que una matriz A /
n
(C) es normal si A

A = AA

, es decir si A conmuta
con su adjunta.
Notacion: Si a = (a
1
, . . . , a
n
) C
n
, recordemos que diag (a) denota la matriz diagonal
diag (a) = diag (a
1
, . . . , a
n
) =
_
_
_
a
1
0 0
.
.
.
.
.
.
.
.
.
0 0 a
n
_
_
_
/
n
(C).
Teorema 2.1.1. Sea A /
n
(C) con vector de autovalores (A) = (
1
, ... ,
n
). Entonces
las siguientes condiciones son equivalentes:
1. A es normal.
2. Para todo x C
n
, |Ax| = |A

x|.
3. A

= D para cierta matriz diagonal D /
n
(C) .
4. A

= diag ((A) ).
5. Existe una BON B = v
1
, . . . , v
n
de C
n
tal que Av
i
=
i
v
i
para todo i I
n
.
6. |A|
2
2
=
n

i=1
[
i
[
2
Demostracion. 1 2: Para cada x C
n
, se tiene que
|Ax|
2
= A

Ax, x) y |A

x|
2
= AA

x, x) .
2 3: Por el Teorema 1.6.1, existen U |(n) y T T o(n) tales que T = U

AU. Luego,
tambien se tiene que |Ty| = |T

y|, para todo y C


n
. Aplicando esto a la base canonica,
se deduce inductivamente (la por la) que T debe ser diagonal.
31
3 4: Si A

= D, con D diagonal, el Teorema 1.3.3 asegura que (D) = (A). Pero como
D es diagonal, (D) = d (D) salvo el orden. Conjugando con una matriz de permutaci on (o
sea que tiene a la base can onica en alg un otro orden en sus columnas, por lo que es unitaria),
reordenamos la diagonal de D, obteniendo que D

= diag ((A) ).
4 5: Llamemos D = diag ((A) ). Si existe U |(n) tal que D = U

AU, tomemos B =
C
1
(U), . . . , C
n
(U). Como AU = UD, la f ormula (1.12) muestra que AC
i
(U) =
i
C
i
(U)
para todo i I
n
. Recprocamente, si existe B como en 5, tomar la U |(n) dada por
C
i
(U) = v
i
, para todo i I
n
, y hacer la misma cuenta.
4 6: Si A

= diag ((A) ), el Teorema 1.3.3 muestra que |A|
2
2
= |diag ((A) ) |
2
2
=
n

i=1
[
i
[
2
.
6 1: Si U |(n) y T T o(n) cumplen T = U

AU y d (T) = (A), entonces


n

i=1
[
i
[
2
= |A|
2
2
= |T|
2
2
=
n

i=1
[
i
[
2
+

i<j
[t
ij
[
2
.
Por lo tanto t
ij
= 0 para i < j, o sea que T es diagonal, y por ende normal. Por el Teorema
1.3.3, tambien A debe ser (o sea normal).
Denici on 2.1.2. Sea A /
n
(C) una matriz normal. Diremos que
B = v
1
, . . . , v
n
es una BON adaptada a (A)
si B verica el tem 4 del Teorema 2.1.1, es decir que B es una BON de C
n
, y Av
i
=
i
(A) v
i
para todo i I
n
.
Corolario 2.1.3. Si A /
n
(C) es normal, entonces |A|
sp
= w(A) = (A).
Demostracion. Sea (A) = (
1
, ... ,
n
) el vector de autovalores de A. Llamemos D =
diag ((A) ). Por el Teorema 2.1.1, existe U |(n) tal que A = UDU

. Por un lado,
el Teorema 1.3.3 asegura que |A|
sp
= |D|
sp
y que (A) = (D), pues tienen el mismo
espectro. Por otro lado, si x = (x
1
, . . . x
n
) C
n
es unitario (i.e. |x| = 1), entonces
|Dx|
2
=
n

i=1
[
i
[
2
[x
i
[
2
max
iI
n
[
i
[
2

i=1
[x
i
[
2
= (A)
2
,
por lo que |A|
sp
= |D|
sp
(A). Las otras desigualdad surgen de la ecuaci on (1.6).
Corolario 2.1.4. Sean A, B /
n
(C) matrices normales. Si tomamos un orden jo en C
para ordenar los vectores (A) y (B), se tiene que
(A) = (B) existe U |(n) tal que B = UAU

, i.e. A

= B .
En otras palabras, si denimos la orbita unitaria |(A) := UAU

: U |(n), entonces
|(A) = B ^(n) : (B) = (A) .
Demostracion. El Teorema 1.3.3 asegura que si A

= B, entonces (A) = (B). Recproca-
mente, si D = diag ((A) ) = diag ((B) ), el Teorema 2.1.1 dice que A

= D

= B.
32
2.2 Matrices Hermitianas
Por lo general no es f acil calcular los autovalores de una matriz. Pero en muchos casos es
suciente saber que ellos estan en un intervalo especicado. En el resto de este Captulo
estudiaremos algunas de las principales caractersticas que distinguen a las matrices Hermi-
tianas, en particular los principios variacionales que se utilizan para localizar su espectro,
sin la necesidad de conocer los autovectores asociados en forma exacta. Recordemos las
notaciones
H(n) = A /
n
(C) : A = A

y /
n
(C)
+
= A H(n) : A 0 .
Teorema 2.2.1. Sea A /
n
(C). Luego son equivalentes:
1. A H(n) .
2. A es normal y (A) R.
3. (A) R
n
y existe una base ortonormal B adaptada a (A).
4. (A) R
n
y A

= diag ((A) ), i.e. existe U |(n) tal que U

AU = diag ((A) ).
5. Ax, x) R para todo x C
n
.
Demostracion. Por el Corolario 1.6.6, se tiene que (A

) = (A). Por lo tanto, si A H(n),


vemos que (A) R. El resto se deduce del Teorema 2.1.1 y del hecho de que una matriz
diagonal en /
n
(R) debe ser autoajunta. La equivalencia entre el tem 5 y los demas se sigue
del Corolario 1.1.13.
Denici on 2.2.2. Sea A H(n). Por el Teorema anterior, (A) R. Por lo tanto, sus
autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes
notaciones:
1. Escribiremos (A) = (
1
(A), . . . ,
n
(A)) para denotar al vector de autovalores de A
ordenados en forma creciente, es decir
k
(A)
k+1
(A), k I
n1
.
2. (A) = (
1
(A), . . . ,
n
(A)) ser a el vector de autovalores de A ordenados en forma
decreciente, es decir
k
(A)
k+1
(A), k I
n1
. Tambien
k
(A) =
nk+1
(A).
3. Se llamar an

min
(A) =
1
(A) =
n
(A) = min (A)
y, an alogamente,

max
(A) =
n
(A) =
1
(A) = max (A) .
As, cuando escribamos
i
(A) o, directamente
i
(si el contexto es claro) estaremos asumiendo
que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma
decreciente si escibimos
i
(A) o
i
.
33
Proposicion 2.2.3. Sea A H(n). Entonces se tiene que
|A|
sp
= (A) = max
n
(A),
1
(A) . (2.1)
Demostracion. Como H(n) ^(n), la igualdad |A|
sp
= (A) se sigue del Corolario 2.1.3.
La otra se deduce de que (A) [
1
(A),
n
(A)] R, y contiene a los bordes.
2.3 Principio minimax.
Para matrices generales la unica caracterizaci on conocida de sus autovalores es que son las
races del polinomio caracterstico de la matriz. Pero cuando las matrices son Hermitianas,
el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones mas
interesantes. Los pr oximos teoremas describen al vector (A), para A H(n), en funcion
de las expresiones
Ax, x)
x, x)
, para x C
n
0, conocidas como cocientes de Rayleig-Ritz.
Teorema 2.3.1 (Rayleigh-Ritz). Sea A H(n). Entonces
1. Para todo x C
n
,
min
(A)|x|
2
Ax, x)
max
(A)|x|
2
.
2.
max
(A) =
n
(A) = max
x,=0
Ax, x)
x, x)
= max
|x|=1
Ax, x).
3.
min
(A) =
1
(A) = min
x,=0
Ax, x)
x, x)
= min
|x|=1
Ax, x).
En particular, si A H(n), A 0 si y solo si
min
(A) 0 si y solo si (A) R
+
.
Demostracion. Sea B = v
1
, . . . , v
n
una BON de C
n
adaptada a (A), o sea que Av
i
=

i
(A)v
i
para todo i I
n
. Por lo tanto, dado x C
n
, se tiene que
x =
n

i=1
x, v
i
) v
i
, |x|
2
=
n

i=1
[ x, v
i
)[
2
y Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2
. (2.2)
Luego, si asumimos que |x| = 1, tenemos que
Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2

n
(A)
n

i=1
[ x, v
i
)[
2
=
n
(A) = Av
n
, v
n
) .
An alogamente, Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2

1
(A) = Av
1
, v
1
). Es claro que estas de-
sigualdades muestran los tres tems a probar.
Notaciones: En el resto de esta secci on usaremos las siguientes convenciones:
1. Las letras / y o denotar an subespacios de C
n
.
34
2. Dado / C
n
, escribiremos
/
1
= x / : |x| = 1
al conjunto de elementos de / de norma uno.
Teorema 2.3.2 (Courant-Fisher). Sea A H(n) y sea k I
n
. Entonces,

k
(A) = min
dim/=k
max
x/
1
Ax, x) = max
dimS=nk+1
min
xS
1
Ax, x) .
Demostracion. Sea B = v
1
, . . . , v
n
una BON de C
n
adaptada a (A). Como en la prueba
del Teorema 2.3.1, cualquier x C
n
verica la ecuaci on (2.2). Dado r I
n
, notemos por
H
r
= span v
1
, . . . , v
r
y K
r
= span v
r
, . . . , v
n
. Notar que dimH
r
= r y dimK
r
= nr+1.
Por la ecuacion (2.2) vemos que, si x K
k
,
Ax, x) =
n

i=k

i
(A) [ x, v
i
)[
2
=
k
(A) = min
x(K
k
)
1
Ax, x) max
dimS=nk+1
min
xS
1
Ax, x) .
Por otro lado, si dimo = nk+1, entonces oH
k
,= 0. Pero si y (oH
k
)
1
, la ecuaci on
(2.2) asegura que Ay, y) =
k

i=1

i
(A) [ y, v
i
)[
2
y que |y|
2
=
k

i=1
[ y, v
i
)[
2
= 1 . Luego
Ay, y)
k
(A) = min
xS
1
Ax, x)
k
(A) =
k
(A) max
dimS=nk+1
min
xS
1
Ax, x).
La otra formula se demuestra en forma analoga: el min
dim/=k
se alcanza en / = H
k
, y
cualquier otro tal / cumple que / K
k
,= 0.
Observaci on 2.3.3. La versi on tradicional de las formulas de Courant-Fisher sera la sigu-
iente:

k
(A) = min
w
1
,w
2
,...,w
nk
C
n
max
x,=0,xC
n
xw
1
,w
2
,...,w
nk
x

Ax
x

x
= max
w
1
,w
2
,...,w
k1
C
n
min
x,=0,xC
n
xw
1
,w
2
,...,w
k1
x

Ax
x

x
.
Teorema 2.3.4 (Teorema de Weyl). Sean A, B H(n). Entonces:

j
(A) +
1
(B)
j
(A +B)
j
(A) +
n
(B) para todo j I
n
. (2.3)
Demostracion. Por el Teorema 2.3.1, para todo x C
n
tal que |x| = 1, se tiene que
Ax, x) +
1
(B) Ax, x) +Bx, x) Ax, x) +
n
(B) .
Por lo tanto el teorema se puede deducir de las f ormulas de Courant-Fischer.
35
Observaci on 2.3.5. Una reformulaci on del Teorema de Weyl, que es bastante com un en
sus aplicaciones, es la siguiente: Sean C, D H(n), entonces:

1
(C D)
j
(C)
j
(D)
n
(C D) , para todo j I
n
. (2.4)
Para mostrarla, basta tomar A = D y B = C D, observar que ambos viven en H(n), que
A +B = C y, por ultimo, aplicar la Eq. (2.3).
Corolario 2.3.6. Sean A, B H(n) tales que A B, i.e. B A /
n
(C)
+
. Entonces

j
(A)
j
(B) para todo j I
n
.
Demostracion. Llamemos C = B A H(n). Por el Teorema 2.3.4, tenemos que

j
(A) +
1
(C)
j
(A +C) =
j
(A + (B A) ) =
j
(B) .
Por otra parte, como C /
n
(C)
+
, entonces
1
(C) = min
|x|=1
Cx, x) 0.
Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas,
matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras:
Corolario 2.3.7. Sean A, B H(n). Entonces:
|(A) (B)|

:= max
j I
n
[
j
(A)
j
(B)[ (A B) = |A B|
sp
.
Demostracion. Por el Teorema de Weyl, en su versi on dada por la Eq. (2.4), se tiene que

1
(A B)
j
(A)
j
(B)
n
(A B) , para todo j I
n
.
Por lo tanto, aplicando la Proposicion 2.2.3, se obtiene que
|(A) (B)|

max
_
[[ :
_

1
(A B),
n
(A B)

_
= (A B) ,
como se aseguraba.
Ejercicio 2.3.8. Demostrar las siguientes armaciones:
1. Dados S
1
, S
2
y S
3
subespacios de C
n
, probar que
dim(S
1
S
2
S
3
) dimS
1
+ dimS
2
+ dimS
3
2n .
2. Sean A, B H(n). Dados i, j I
n
tales que i +j n + 1, se tiene que

i+j1
(A +B)
i
(A) +
j
(B)
i+jn
(A +B) .

36
2.4 Entrelace de Cauchy
Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace
de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices
principales. Antes jaremos nuevas notaciones para estas submatrices:
Denici on 2.4.1. Sean A /
n
(C) y J I
n
. Si J tiene k elementos, notaremos
A[J] = a
ij

i,jJ
/
k
(C) y A(J) = a
ij

i,j / J
/
nk
(C) .
Si el contexto lo permite, a veces abreviaremos A[J] = A
J
, como en la seccion 1.5. Con esa
convencion, se tiene que A(J) = A
I
n
\J
. Observar que A[J] es la matriz cuadrada resultante
de borrar de A las las y columnas con ndices fuera de J. Para cada r I
n
, llamaremos
A
r
= A(r) = a
ij

i,=r,=j
/
n1
(C) , (2.5)
a la submatriz principal obtenida de borrar la la y la columna r-esimas de A.
Teorema 2.4.2 (Entrelace de Cauchy). Sean A H(n), r I
n
y A
r
/
n1
(C) la
submatriz principal de A obtenida como en la ecuacion (2.5) . Entonces

k
(A)
k
(A
r
)
k+1
(A) ,
para cada k I
n1
. Es decir que

1
(A)
1
(A
r
)
2
(A)
n1
(A)
n1
(A
r
)
n
(A) .
Demostracion. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exac-
tamente igual, pero con notaciones algo m as engorrosas. Fijemos un k I
n1
. Sea
H
n1
= e
n

= span e
1
, . . . , e
n1
= x C
n
: x
n
= 0 .
Si x H
n1
, notaremos x
0
= (x
1
, . . . , x
n1
) C
n1
a su parte signicativa. Observar que
A
n
x
0
, x
0
) =
n1

i,j=1
A
ij
x
j
x
i
= Ax, x), dado que x
n
= 0. Trabajando s olo con los subespacios
/ H
n1
que tienen dim/ = k (que son menos que los subespacios de dimensi on k de
todo C
n
, pero se identican con todos los de C
n1
), obtenemos, del Teorema 2.3.2, que

k
(A
n
) = min
dim/=k
M H
n1
max
x/
1
A
n
x
0
, x
0
) min
dim/=k
MC
n
max
x/
1
Ax, x) =
k
(A).
Tomemos ahora subespacios o H
n1
tales que dimo = nk. Como nk = n(k+1)+1
y a la ves, n k = (n 1) k + 1, obtenemos

k
(A
n
) = max
dimS=nk
S H
n1
min
xS
1
A
n
x
0
, x
0
) max
dimS=nk
min
xS
1
Ax, x) =
k+1
(A) ,
lo que prueba el teorema.
37
Observaci on 2.4.3. En forma analoga se puede probar versiones m as generales del Teorema
anterior: Dado A H(n),
1. Si J I
n
cumple que [J[ = r, entonces para cada k I
r
, se tiene

k
(A)
k
_
A[J]
_

k+nr
(A) .
Observar que, si r = n 1, entonces k +n r = k + 1, como en el Teorema 2.4.2
2. M as en general a un, si P L(H)
+
es un proyector autoadjunto (o sea ortogonal) sobre
un subespacio o de dimo = r, entonces al producto PAP se lo puede pensar como
un operador en el espacio de Hilbert o (para que su vector de autovalores tenga solo
r coordenadas, sacando los n r ceros que sobran). A esta compresion se la denota
A
S
= PAP

S
L(o). Entonces se obtienen desigualdades an alogas:

k
(A)
k
(A
S
)
k+nr
(A) , para cada k I
r
.
En efecto, basta cambiar coordenadas a una BON de C
n
cuyos primeros r vectores
generen o. En esa base, A
S
= A[I
r
] y se aplica el caso anterior.
Ejercicio 2.4.4. Escribir explcitamente como quedan los resultados de esta seccion (la
f ormula minimax, el teorema de Weyl y los tres entrelaces) en funcion de los vectores (A)
ordenados decrecientemente.
Ahora, como corolario del Teorema de entrelace, veremos una caracterizaci on de positivi-
dad de matrices en terminos de submatrices principales. Para ello necesitamos el siguiente
resultado previo.
Lema 2.4.5. Sea A (l (n)
+
. Entonces A[J] (l (r)
+
, para todo J I
n
con [J[ = r.
Demostracion. Si H
J
= span e
i
: i J y 0 ,= x H
J
, llamemos x
J
C
r
al vector
resultante de sacarle a x los ceros fuera de J. Entonces
0 < Ax, x) =

i,jI
n
A
ij
x
j
x
i
=

i,jJ
A
ij
x
j
x
i
= A[J] x
J
, x
J
) .
Como tales x
J
recorren todo C
r
0, vemos que A[J] (l (r)
+
.
Teorema 2.4.6. Si A H(n), entonces las siguientes condiciones son equivalentes:
1. A es denida positiva (i.e. A (l (n)
+
).
2. Si llamamos A
[k]
= A[I
k
] = a
ij

i,jI
k
/
k
(C) , entonces
det A
[k]
> 0 para todo k I
n
,
3. Si llamamos A
(k)
= A(I
k
) = a
ij

i,j>k
/
nk
(C) , entonces
det A
(k)
> 0 para todo k I
n1
0 ,
38
Demostracion. El Lema 2.4.5 dice que 1 2 y 3, porque es claro que si B (l (r)
+
, entonces
det B > 0. La recproca se prueba por inducci on sobre n. Si n = 1, entonces tenemos que
A = A
[1]
= det(A
[1]
) > 0. Si n > 1, es claro que la condicion 2 se verica tambien para
A
[n1]
, porque tiene las mismas submatrices involucradas. Por hipotesis inductiva, tenemos
que A
[n1]
(l (n 1)
+
, y por el Teorema 2.3.1 sabemos que 0 <
1
(A
[n1]
) . El Teorema
del entrelace de Cauchy 2.4.2 nos asegura que
2
(A)
1
(A
[n1]
) > 0. Luego
0 <
n

k=2

k
(A) y tamben 0 < det A
[n]
= det A =
n

k=1

k
(A) .
De ah deducimos que
1
(A) > 0. Usando el Teorema 2.3.1, podemos concluir rapidamente
que Ax, x) > 0 para todo x ,= 0, o sea que A (l (n)
+
. La prueba de la equivalencia con
el tem 3 es exactamente igual, pero usando para la induccion a A
(1)
/
n1
(C) .
Ejercicio (difcil): Probar que, dada A H(n), entonces
A /
n
(C)
+
det A[J] 0 para todo J I
n
.
39
Captulo 3
Matrices denidas positivas
3.1 Propiedades basicas
Recordemos que A /
n
(C)
+
si Ax, x) 0 para todo x C
n
.
Denici on 3.1.1. Dadas A, B H(n), se dice que A B si se tiene que BA /
n
(C)
+
,
o sea si Ax, x) Bx, x) para todo x C
n
.
Proposicion 3.1.2. Sean A, B y C /
n
(C). Entonces
1. A /
n
(C)
+
si y solo si A H(n) y (A) R
+
.
2. A (l (n)
+
si y solo si A H(n) y (A) R

+
.
3. Si A = B

B entonces A /
n
(C)
+
.
4. Si A, B H(n) y A B, entonces C

AC C

BC.
Demostracion.
1. Si A H(n) y (A) R
+
, el Teorema 2.3.1 asegura que
0
1
(A)|x|
2
Ax, x) para todo x C
n
= A /
n
(C)
+
.
Por el Corolario 1.1.13, sabemos que /
n
(C)
+
H(n). Por el Teorema 2.3.1, se tiene
que, si A /
n
(C)
+
, entonces
1
(A) = min
|x|=1
Ax, x) 0, por lo que (A) R
+
.
2. S olo diere del caso anterior en que en ambas situaciones 0 / (A). Notar que si A > 0,
como la bola de C
n
es compacta, existe un > 0 tal que
1
(A) = min
|x|=1
Ax, x) .
Luego 0 / (A), o sea que A es inversible.
3. Para todo x C
n
tenemos que
B

Bx, x) = Bx, Bx) = |Bx|


2
0.
Por lo tanto B

B /
n
(C)
+
.
40
4. Si B A 0 y x C
n
, entonces C

(B A)Cx, x) = (B A)Cx, Cx) 0. Luego


C

(B A)C 0, es decir C

AC C

BC.
Teorema 3.1.3. Sea A /
n
(C). Entonces:
1. A /
n
(C)
+
si y solo si existe B /
n
(C) tal que A = B

B.
2. En tal caso, existe una unica matriz B /
n
(C)
+
tal que A = B

B = B
2
.
Demostracion. Sabemos que si A = B

B entonces A /
n
(C)
+
. Luego basta probar que
si A /
n
(C)
+
, entonces existe una raiz cuadrada B /
n
(C)
+
para A, y que la tal B es
unica. Escribamos A = UDU

, con U |(n) y D = diag ((A) ) /


n
(C)
+
. Se toma
D
1/2
:= diag
_

1
(A)
1/2
, . . . ,
n
(A)
1/2
_
/
n
(C)
+
.
Esto es posible por la Proposici on 3.1.2. Es claro que (D
1/2
)
2
= D. Finalmente se dene
B = UD
1/2
U

. Luego B /
n
(C)
+
y que B
2
= A. La unicidad es algo m as complicada. El
problema es que la matriz U |(n) que diagonaliza a A no es unica. Sea C /
n
(C)
+
tal
que C
2
= A. Entonces, como C y A conmutan, el Teorema de Schur 1.6.1 asegura que
existe V |(n) tal que V

AV = D y V

CV /
n
(C)
+
es diagonal .
Para lo anterior se usa que ^(n) T o(n) consta de las matrices diagonales, como se vi o
en la prueba del Teorema 2.1.1. Como (V

CV )
2
= V

AV = D, es claro que V

CV = D
1/2
(entre diagonales la unicidad es trivial). Por otro lado,
UDU

= V DV

= A = (V

U)D = D(V

U) .
Aqu usaremos que D
1/2
se puede escribir como P(D) para cierto polinomio P R[X]. En
efecto, basta elegir un P tal que P(
i
(A) ) =
i
(A)
1/2
, para todo i I
n
. Pero entonces V

U
conmuta con P(D) = D
1/2
. Por ello B = UD
1/2
U

= V D
1/2
V

= C.
Observaci on 3.1.4 (El Grammiano). Dada una matriz B /
n
(C), llamemos f
i
= C
i
(B),
i I
n
. Notar que, entonces,
G(f
1
, . . . , f
n
) :=
_

f
i
, f
j
_
_
n
i,j=1
= B

B /
n
(C)
+
.
La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f
1
, . . . , f
n
. Del
Teorema 3.1.3 deducimos que una matriz es semi denida positiva si y solo si es una matriz
de Gramm. Y que es denida positiva si y s olo si es una matriz de Gramm de un sistema
linealmente independiente (en nuestro caso, esto equivale a que B (l (n) ).
Los mismos resultados son ciertos (la prueba es una ligera variaci on de la del Teorema
3.1.3) si la n-unpa f
1
, . . . , f
n
vive en cualquier espacio de Hilbert H (anche innitodimen-
sional, porque en tal caso B es un operador B : C
n
H, que es autom aticamente continuo).
Notar que la matriz de Gramm sigue estando en /
n
(C)
+
(y en (l (n)
+
si el sistema es LI),
donde n es el n umero de vectores en cuesti on.
Corolario 3.1.5 (Cholewsky). Sea A /
n
(C)
+
. Entonces existe T T o(n) tal que
T
ii
0 para todo i, y tal que A = T

T.
Demostracion. Sea B /
n
(C) tal que A = B

B. Sea B = QT, Q |(n), T T o(n),


una descomposicion de B como en el Teorema 1.8.1. Entonces A = T

QT = T

T.
41
3.2 Descomposicion polar y valores singulares
Denici on 3.2.1. Dada A /
n
(C)
+
, llamaremos A
1/2
a la unica raiz cuadrada de A en
/
n
(C)
+
, que existe (y es unica) por el Teorema 3.1.3.
Observaci on 3.2.2. Sea A /
n
(C)
+
. En la prueba del Teorema 3.1.3 se muestran las
dos maneras usuales de describir a A
1/2
:
1. Si A = U diag ((A) ) U

, con U |(n), se tiene que A


1/2
= U diag
_
(A)
1/2
_
U

.
2. A
1/2
= P(A) para culquier P C[x] tal que P() =
1/2
para todo (A).
Denici on 3.2.3. Sea A /
n
(C),
1. Llamaremos m odulo de A a la matriz
[A[ = (A

A)
1/2
/
n
(C)
+
.
2. Llamaremos valores singulares de A a los autovalores de [A[ ordenados en forma
decreciente, not andolos s
1
(A) s
n
(A) 0. Notar que, por el Corolario 1.7.2,
s
i
(A) =
i
([A[) =
i
(A

A)
1/2
, para todo i I
n
. (3.1)
3. Llamaremos s(A) = (s
1
(A), . . . , s
n
(A) ) = ([A[) y (A) a la matriz diagonal
(A) = diag (s(A)) =
_
_
_
s
1
(A) 0 0
.
.
.
.
.
.
.
.
.
0 0 s
n
(A)
_
_
_
.
Observar que [A[

= (A).
Ejemplos 3.2.4. Sea A /
n
(C).
1. Si A 0, entonces A = [A[ y s(A) = (A).
2. Si A /
n
(C) es normal, entonces s(A) = [(A)[, salvo el orden. En efecto, si
A = U diag ((A) ) U

para cierto U |(n), entonces


A

A = U diag
_
(A)
_
diag ((A) ) U

= U diag
_
[(A)[
2
_
U

.
3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singu-
lares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque
nilpotente de Jordan en /
n
(C) (i.e. Ae
k
= e
k+1
, k I
n1
y Ae
n
= 0), entoces
(A) = 0 porque A
n
= 0, pero s(A) = (1, . . . , 1, 0), porque A

A es un proyector de
rango n 1.
42
Teorema 3.2.5 (Descomposici on polar y en valores singulares). Sea A /
n
(C). Entonces
1. Para todo x C
n
, se verica que |Ax| = | [A[x|.
2. En particular, se tiene que |A|
sp
= | [A[ |
sp
= ([A[) = s
1
(A) =
1
(A

A)
1/2
.
3. Existe una matriz unitaria U |(n) tal que
A = U[A[ ,
que es la llamada descomposicion polar (DP) de A, aunque no es siempre unica.
4. Cualquier U |(n) que cumpla A = U[A[, verica que
A

= U

[A

[ , AA

= UA

AU

, U[A[U

= [A

[ y A = [A

[ U .
Esto dice que U

es un unitario admisible para la DP de A

. O sea que A tiene una


descomposicion polar a derecha A = [A

[ U con el mismo U que la otra.


5. Existen V, W |(n) tales que A = W(A)V

.
6. Las columnas C
i
(V ) forman una BON de autovectores de [A[ (y A

A), y las columnas


C
i
(W) forman una BON de autovectores de [A

[ (y AA

).
Demostracion.
1. Dado x C
n
, se tiene que
|Ax|
2
= Ax, Ax) = A

Ax, x) = [A[
2
x, x) = [A[x, [A[x) = | [A[x|
2
.
2. Se deduce de lo anterior, de la denicion de norma espectral y del Corolario 2.1.3.
3. Podemos denir (con buena denici on) una isometra suryectiva
U
1
: R([A[) R(A) dada por U
1
([A[x) = Ax, para todo x C
n
.
De hecho, [A[x = [A[y x y ker [A[ = ker A Ax = Ay. Como
dimR(A)

= n dimR(A) = dimker(A) = dimker([A[) = dimR([A[)

,
podemos extender la isometra U
1
a una matriz unitaria U |(n), operando isome-
tricamente desde R([A[)

sobre R(A)

. Por la denicion de U, se tiene que A = U[A[.


4. Notar que AA

= U[A[
2
U

= UA

AU

. Sea P(x) C[x] tal que P() =


1/2
, para
todo (AA

) = (A

A) (acabamos de ver que AA


= A

A). Luego
[A

[ = (AA

)
1/2
= P(AA

) = UP(A

A)U

= U[A[U

.
Luego A = U[A[ = U[A[U

U = [A

[U, por lo que tambien A

= U

[A

[.
43
5. Sea V |(n) tal que [A[ = V (A)V

. Si llamamos W = UV |(n), tenemos que


A = U[A[ = UV (A)V

= W(A)V

.
6. Notar que (A) = V

[A[V , por lo que cada C


i
(V ) es un autovector de [A[, y todas
las columnas de V forman una bon, por ser V unitaria. La prueba para W es similar,
dado que tambien (A)
2
= W

AA

W.
Existe una versi on de la caracterizacion minimax, de Courant-Fisher, para los valores singu-
lares de una matriz:
Proposicion 3.2.6. Sea A /
n
(C) (no necesariamente autoadjunta). Con las mismas
notaciones (para subespacios) que en el Teorema 2.3.2, se tiene que
s
k
(A) = max
dim/=k
min
x/
1
|Ax| = min
dimS=nk+1
max
xS
1
|Ax| para todo k I
n
. (3.2)
Demostracion. Basta notar que |Ax| = A

Ax, x)
1/2
y que s
k
(A) =
k
(A

A)
1/2
. Luego se
aplica el Teorema 2.3.2 (y el Ejercicio 2.4.4) para A

A.
Corolario 3.2.7. Dadas A, C /
n
(C), para todo k I
n
se tiene que
s
k
(AC) |A|
sp
s
k
(C) . En particular tr [AC[ |A|
sp
tr [C[ . (3.3)
Demostracion. Se usa la ecuacion (3.2) para calcular s
k
(AC) y s
k
(C), junto con la siguiente
desigualdad: |ACx| |A|
sp
|Cx|, para todo x C
n
.
3.3 Parte positiva y parte negativa
Fijemos una matriz autoadjunta A H(n), y tomemos A = U[A[, con U |(n), una DP
de A. Supongamos, adem as, que U opera como la identidad en ker A = ker [A[ = R([A[)

.
Una tal U existe por la construccion hecha en el Teorema 3.2.5, y adem as es unica (Ejercicio:
mostrar ambas cosas). Luego se verican las siguientes propiedades:
1. Si B = v
1
, . . . , v
n
es una BON de C
n
adaptada a (A), luego A

A = A
2
, [A[, [A[
1/2
y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A).
2. En la base B, la matriz de U es diagonal con 1s en la diagonal. M as especcamente,
U v
k
= v
k
si
k
(A) 0 , y U v
k
= v
k
si
k
(A) < 0 , (3.4)
dado que [A[ v
k
= (
2
k
(A) )
1/2
v
k
= [
k
(A)[ v
k
para todo k I
n
. Por lo tanto,
U

= U = U
1
y I U I .
44
3. Podemos deducir que [A[ A [A[. En efecto, [A[
1/2
U[A[
1/2
= A, y
[A[ = [A[
1/2
I[A[
1/2
[A[
1/2
U[A[
1/2
[A[
1/2
I[A[
1/2
= [A[.
4. Luego, si denotamos
A
+
=
A +[A[
2
y A

=
[A[ A
2
, (3.5)
se prueba f acilmente que
(a) Ambas matrices A
+
, A

/
n
(C)
+
.
(b) A = A
+
A

y [A[ = A
+
+A

.
(c) A
+
A

= A

A
+
= 0.
Es f acil ver que A
+
y A

son las unicas matrices que cumples las tres propiedades


anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A.
5. Otras propiedades que verican A
+
y A

son:
(a) AA
+
= A
+
A = (A
+
)
2
(idem con A

).
(b) (A)
+
= A

y (A)

= A
+
.
(c) Por la denici on de A
+
y la f ormula (3.4), se tiene que

k
(A
+
) = max
k
(A) , 0 , para todo k I
n
. (3.6)
(d)
k
(A

) =
k
( (A)
+
) = max
k
(A), 0 = min
nk+1
(A), 0, k I
n
.
6. Si A = B C con B, C /
n
(C)
+
, entonces se tiene que

k
(A
+
)
k
(B) y
k
(A

)
k
(C) , para todo k I
n
. (3.7)
En efecto, si A < 0, entonces A
+
= 0 y la primera desigualdad es obvia. Si
1
(A) 0,
sea p = maxk I
n
:
k
(A) 0. Luego, como B = C +A A, se tiene que

k
(A
+
) =
k
(A)
k
(B) para k I
p
y
k
(A
+
) = 0
k
(B) para k > p ,
por el Teorema de Weyl 2.3.4. La otra desigualdad en (3.7) se deduce de lo anterior
aplicado a la igualdad A = C B, dado que (A)
+
= A

.
45
3.4 Normas en /
n
(C).
Se estudiar an en esta seccion distintas normas en el espacio vectorial de matrices /
n
(C).
Muchas de estas normas son utiles en diversas desigualdades matriciales especcas. Pero
no olvidemos que, como dim/
n
(C) < , es un resultado conocido que todas las normas
en /
n
(C) son equivalentes.
En los siguientes ejemplos deniremos las normas m as cl asicas para matrices. Dejaremos
como ejercicio para el lector la vericacion (en algunos casos altamente no trivial, pensada
a futuro) de que son, efectivamente, normas.
Ejemplos 3.4.1. 1. La norma espectral | |
sp
, denida del siguiente modo
|A| = |A|
sp
= max
|x|=1
|Ax| = s
1
(A),
donde la ultima igualdad surge de que |A|
sp
= | [A[ |
sp
= ([A[).
2. Las normas de Schatten. Dado 1 p <
|A|
p
=
_
n

i=1
s
i
(A)
p
_
1/p
= (tr [A[
p
)
1/p
.
La | |
2
se llama norma de Frobenius. Ella verica que
|A|
2
2
= tr A

A =
n

i,j=1
[a
ij
[
2
y proviene del producto escalar en /
n
(C) denido por A, B) = tr B

A.
3. Las normas Ky-Fan. Dado k 1, . . . , n
|A|
(k)
=
k

i=1
s
i
(A) .
Notar que |A|
(1)
= |A|
sp
y |A|
(n)
= |A|
1
(de Schatten).
4. Toda norma N en C
n
induce una norma | [ | [
N
en /
n
(C) del siguiente modo:
| [ A | [
N
= max
N(x)=1
N(Ax).
Estas normas satisfacen que:
(a) | [ I | [
N
= 1
(b) (A) | [ A | [
N
46
(c) | [ AB | [
N
| [ A | [
N
| [ B | [
N
.
Ejercicio 3.4.2. Consideremenos en C
n
las siguientes normas:
|x|
1
=
n

i=1
[x
i
[ y |x|

= max
iI
n
[x
i
[ , para todo x C
n
,
conocidas como las normas 1 e . Como en el Ejemplo anterior, ellas inducen en /
n
(C)
las siguientes normas matriciales: Dada A /
n
(C),
| [ A | [

= max
|x|

=1
|Ax|

y | [ A | [
1
= max
|x|
1
=1
|Ax|
1
.
Probar que estas normas pueden calcularse efectivamente mediante las f ormulas:
| [ A | [

= max
iI
n
|F
i
(A)|
1
y | [ A | [
1
= max
iI
n
|C
i
(A)|
1
. (3.8)
para toda A /
n
(C).
Denici on 3.4.3. Una norma | | en /
n
(C) se llama:
1. Matricial: si |AB| |A| |B|
2. Unitariamente invariante (NUI): si |UAV | = |A|, para todo U, V |(n).
Ejemplo 3.4.4. Denamos N

(A) = max
ijI
n
[a
ij
[, para A /
n
(C). Sean e = (1, . . . , 1) C
n
y A = e e. Es decir que A
ij
= 1 para todo i, j I
n
. Como e, e) = n, tenemos que
A
2
= e e e e = e, e) e e = nA = N

(A
2
) = n ,
mientras que N

(A) = 1. O sea que N

no es matricial en /
n
(C) para ning un n > 1. El
lector interesado puede demostrar que n.N

() s es una norma matricial en /


n
(C).
Teorema 3.4.5. Sea | | una norma matricial en /
n
(C). Dada A /
n
(C) se tiene que
1. |A I| < 1 implica que A (l (n) y A
1
=

n=0
(I A)
n
2. Si B (l (n) y |B A| |B
1
|
1
, entonces, A (l (n).
Demostracion. Comencemos notando que 1 2. En efecto,
|B A| |B
1
|
1
= |B
1
A I| = |B
1
(A B)| |B
1
| |A B| < 1 .
Si valiera 1, luego B
1
A sera inversible y A = B(B
1
A) tambien debera serlo. Para probar
el tem 1, llamemos C = I A. Tenemos que
|C| < 1 = |C
m
| |C|
m
m N =

k=0
|C
k
|

k=0
|C|
k
=
1
1 |C|
.
47
Luego, la serie

k=1
C
k
converge. En particular, C
k

k
0. Luego
A
N

k=0
C
k
= (I C)
N

k=0
C
k
=
N

k=0
C
k

N+1

k=1
C
k
= 1 C
N+1

N
1 .
Analogamente
_

k=0
C
k
_
A = 1.
Proposicion 3.4.6. Sea A /
n
(C) y | | una norma matricial. Entonces (A) |A|.
Mas a un, |A
m
|
1/m
(A) para todo m N.
Demostracion. Sean (A) y x C
n
tales que x ,= 0 y Ax = x. Llamemos X a la
matriz cuyas columnas son todas iguales al vector x. Luego, AX = X, y por ende
[[ |X| = |AX| |A| |X|,
de donde se deduce que [[ |A|. Como el autovalor era cualquiera, (A) |A|. Adem as,
por el Corolario 1.7.2, se tiene que (A
m
) = (A)
m
, y entonces tambien (A
m
) = (A)
m
.
Por lo tanto, usando la parte ya probada, obtenemos que (A) |A
m
|
1/m
.
Observaci on 3.4.7. Dada una norma matricial | | en /
n
(C) y una matriz S (l (n), la
f ormula |A|
S
:= |SAS
1
|, A /
n
(C), dene otra norma matricial.
Proposicion 3.4.8. Dados A /
n
(C) y > 0, existe una norma matricial N
A,
en /
n
(C)
tal que N
A,
(A) (A) +.
Demostracion. Sea A = UTU

con T una matriz triangular superior y U |(n). Luego,


T = U

AU. Sea D
s
= diag (s, s
2
, . . . , s
n
). Entonces, (D
s
TD
1
s
)
ij
= t
ij
s
ij
para todo par
i, j I
n
(Ejercicio: vericarlo). Por lo tanto,
D
s
TD
1
s
En cualquier norma

s
diag (
1
(A) , . . . ,
n
(A)) .
Como |diag (
1
(A) , . . . ,
n
(A)) |
sp
= (A), entonces, |D
s
TD
1
s
|
sp

s
(A). Luego debe
existir un s
0
R tal que |D
s
0
T D
1
s
0
|
sp
< (A) +. Consideremos ahora la norma
N
A,
=
_
| |
sp
_
D
s
0
U

, o sea N
A,
(B) = |D
s
0
U

BU D
1
s
0
|
sp
, B /
n
(C).
Luego N
A,
(A) = |D
s
0
U

AU D
1
s
0
|
sp
= |D
s
0
T D
1
s
0
|
sp
< (A) +.
Corolario 3.4.9. Si A /
n
(C), entonces A
m
0 si y solo si (A) < 1.
Demostracion. Es claro que (A) < 1 si y s olo si (A
m
) = (A)
m

m
0. Usando
que (A
m
) |A
m
|
sp
para todo m N, una implicacion es clara. Para probar la otra,
supongamos que (A) < 1. Por la Proposicion 3.4.8, existe una norma matricial N tal que
(A) N(A) < 1. Como N es matricial, deducimos que N(A
m
) N(A)
m

m
0.
48
Teorema 3.4.10. Sea A /
n
(C). Entonces, para cualquier norma | | en /
n
(C),
(A) = lim
m
|A
m
|
1/m
.
Demostracion. Supongamos primero que | | es una norma matricial. Por la Proposici on
3.4.6, sabemos que se tiene (A) |A
m
|
1/m
para todo m N. Fijado > 0, consideremos
la matriz B =
A
(A) +
. Como (B) < 1, el Corolario 3.4.9 asegura que |B
m
| 0. En
consecuencia existe un m
0
N tal que, para todo m m
0
, se verica
|B
m
| < 1 , es decir que |A
m
| < ((A) +)
m
= |A
m
|
1/m
< (A) + ,
lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales,
por ser todas las normas equivalentes.
Ejercicio 3.4.11. Sea A /
n
(C). Si N es una norma matricial en /
n
(C), mostrar que
(A) = inf
mN
N(A
m
)
1/m
. Mas a un, probar que en tal caso, N(A
m
)
1/m

m
(A) .
Observaci on 3.4.12. Todos los resultados de esta secci on, a partir del Teorema 3.4.5, son
tambien ciertos en algebras de Banach, donde las normas son matriciales por denicion. El
unico resultado propio de matrices es la Proposici on 3.4.8, que nos permite dar una prueba
f acil de la f ormula del radio espectral (Teorema 3.4.10). Esta formula vale tambien en
dimensi on innita, y la prueba usa herramientas de analisis complejo. El curro es mostrar
que la llamada resolvente, que es la funcion

A
: C (A) (l (n) dada por
A
(z) = (zI A)
1
, z C (A) ,
es analtica. La f ormula dada surge del radio de convergencia de su serie de potencias
alrededor del innito. Sin embargo, hemos incluido las demostraciones anteriores porque
tienen un buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no
creo que pueda mejorarse). Notese que se asumi o implcitamente que /
n
(C) es un espacio
completo, porque usamos que una serie absolutamente sumable es convergente.
3.5 Algunas caracterizaciones
A continuaci on daremos algunas caracterizaciones faciles de la positividad y la contractividad
de matrices. A lo largo de esta Secci on abreviaremos |A|
sp
= |A|. Usaremos la Proposici on
1.5.5 que dice que dadas A, B /
n
(C), entonces (AB) = (BA). El primer enunciado
resume varias caracterizaciones ya mencionadas de esta norma.
Lema 3.5.1. Sea A /
n,m
(C) entonces
s
1
(A) = |A| = | [A[ | = ([A[) = (A

A)
1/2
= |A

A|
1/2
= |AA

|
1/2
. (3.9)
49
Demostracion. Como [A[ y A

A H(n), la Proposici on 2.1.3 asegura que | [A[ | = ([A[) =


s
1
(A) y que (A

A)
1/2
= |A

A|
1/2
. Las igualdades |A| = | [A[ | = s
1
(A) se deducen del
tem 1 del Teorema 3.2.5. La igualdad ([A[) = (A

A)
1/2
se sigue del Corolario 1.7.2,
usando que [A[
2
= A

A. Observar que (A

A) = (AA

) porque (A

A) = (AA

).
Proposicion 3.5.2. Sea A H(n), entonces |A| I A |A| I . Mas a un,
I A I |A| (A) ,
para cialquier R

+
.
Demostracion. Notar que si A H(n), entonces |A| = (A) = max
1
(A),
n
(A). Por
lo tanto, (A) si y solo si
n
(A)
1
(A) . Por el Teorema 2.3.1, tenemos
que

n
(A) = min
|x|=1
Ax, x) I A y ademas
max
|x|=1
Ax, x) =
1
(A) A I .
Es claro que esto da la equivalencia anunciada.
Proposicion 3.5.3. Dada A /
n
(C), son equivalentes
1. A es una contraccion (i.e., |A| = s
1
(A) 1).
2. [A[ I.
3. AA

I.
4. A

A I.
Demostracion. Es consecuencia del Lema 3.5.1 y de la Proposici on 3.5.2.
Proposicion 3.5.4. Si A /
n
(C)
+
y B (l (n)
+
, entonces son equivalentes
1. A B.
2. |A
1/2
B
1/2
| 1.
3. (AB
1
) 1.
Demostracion. Notemos que
A B B
1/2
AB
1/2
I (A
1/2
B
1/2
)

A
1/2
B
1/2
I .
Luego se aplica la Proposicion 3.5.3 y el hecho de que
_
B
1/2
AB
1/2
_
= (AB
1
).
50
3.6 El famoso truco 2 2
Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina
saliendo m agicamente y en un par de renglones, con el famoso truco de matrices de bloques
de 2 2. Ver, por ejemplo, la Proposici on 1.5.5, y tratar de probarla de otra manera. En
esta secci on juntaremos varios resultados que aportan tecnicas para usar dicho metodo. Para
operar entre matrices de bloques, se usar an sistem aticamente los resultados desarrollados en
la Seccion 1.5. En particular, las f ormulas (1.16), (1.17) y (1.18).
3.6.1. Sea A /
n
(C). Entonces
A /
n
(C)
+
A
(2)
=
_
A A
A A
_
/
2n
(C)
+
.
En efecto, Si tomamos la matriz
U =
1

2
_
I I
I I
_
|(2n),
cuentas elementales muestran que U = U

= U
1
, y que
UA
(2)
U

= UA
(2)
U =
_
0 0
0 2A
_
.
Ahora s es claro que A 0 si y s olo si A
(2)
0. Dejamos como ejercicio la vericaci on
de que si A
(k)
/
kn
(C) se dene en foma semejante a A
(2)
, entonces A 0 si y s olo si
A
(k)
0.
3.6.2. Si A /
n
(C), entoces B =
_
[A

[ A
A

[A[
_
0. En efecto, sea U |(n) tal que
A = U[A[. Entonces
0
_
U 0
0 I
_ _
[A[ [A[
[A[ [A[
_ _
U

0
0 I
_
=
_
U[A[ U[A[
[A[ [A[
_ _
U

0
0 I
_
=
_
U[A[U

U[A[
[A[U

[A[
_
=
_
[A

[ A
A

[A[
_
,
dado que U[A[U

= [A

[. El mismo resultado sigue valiendo (pero con otra prueba), si


A /
nm
(C), o sea si A es rectangular. En ese caso B /
n+m
(C)
+
(Ejercicio).
Proposicion 3.6.3. Sea A /
n,m
(C), y llamemos r = minn, m. Luego
s
k
(A

) = s
k
(A) para todo k I
r
. (3.10)
Demostracion. Como vimos recien, (AA

) = (A

A) salvo una cola de m n (o n m)


ceros. Usando el Corolario 1.7.2 y la denici on de [A[, obtenemos que s(A) = s(A

) salvo
los ceros nales. Esto muestra la f ormula (3.10).
51
Observaci on 3.6.4 (El rango). Recordemos que, si A /
n,m
(C) decimos que
rk A = dimR(A) = dimspan C
1
(A), . . . , C
m
(A) ,
lo que usualmente se llama rango columna de A. Llamemos r = minn, m. Sea U |(n)
tal que A = U[A[. Es f acil ver que
rk A = rk [A[ = rk (A) = maxk I
r
: s
k
(A) ,= 0 . (3.11)
El rango la de A es, con esta denicion, la dimspan F
1
(A), . . . , F
n
(A) = rk A
T
= rk A

.
Por la Proposici on 3.6.3, s(A

) = s(A) (salvo ceros nales). Luego la formula (3.11) muestra


que ambos rangos son iguales.
Proposicion 3.6.5. Sea A /
n
(C). Entonces

A :=
_
0 A
A

0
_

=
_
(A) 0
0 (A)
_
H(2n) .
En particular, (

A) = s
i
(A) (con las mismas multiplicidades). Es decir,
(

A) = (s
1
(A), , s
n
(A), s
n
(A), , s
1
(A) ). (3.12)
Demostracion. Sean U, V |(n) tales que (A) = V AU

= UA

. Es f acil ver que


W =
1

2
_
V U
V U
_
|(2n).
Entonces
W

A W

=
1
2
_
UA

V A
UA

V A
_ _
V

_
=
1
2
_
UA

+V AU

V AU

UA

UA

V AU

V AU

UA

_
=
_
(A) 0
0 (A)
_
,
como queramos demostrar.
Proposicion 3.6.6. Sea A /
n
(C). Entonces
|A|
sp
1 M =
_
I A
A

I
_
0.
Demostracion. Notar que M = I
2n
+

A. Usando que (

A) = (

A) (por la Proposici on
3.6.5) y luego el Teorema 2.3.1, obtenemos que
_
I A
A

I
_
0 I
2n
+

A 0

A I
2n
I
2n


A I
2n
.
Por la Proposici on 3.5.2, esto equivale a que |A|
sp
= s
1
(A) = (

A) = |

A|
sp
1.
52
Observaci on 3.6.7. Notar que la Proposici on 3.6.6 sigue siendo v alida si A es rectangular,
por el simple recurso de agregarle ceros (arriba o a la derecha) para que quede cuadrada, lo
que no cambia su norma.
3.6.8. Si A, B /
n
(C)
+
, entonces son equivalentes
1. A B.
2. La matriz M =
_
B A
A B
_
0.
En efecto, si B (l (n)
+
, entonces M 0 si y s olo si
0
_
B
1/2
0
0 B
1/2
_ _
B A
A B
_ _
B
1/2
0
0 B
1/2
_
=
_
I B
1/2
AB
1/2
B
1/2
AB
1/2
I
_
,
lo que, por la Proposici on 3.6.6, equivale a que |A
1/2
B
1/2
|
2
= |B
1/2
AB
1/2
| 1. Por
la Proposici on 3.5.2, se tiene que |A
1/2
B
1/2
| 1 si y s olo si A B. Un ejercicio facil es
deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia
B por B +I, entonces M pasa a ser M +I
2n
).
3.6.9. Sea A /
n
(C) una contraccion, es decir que |A|
sp
1.
1. Se tiene que A

(I AA

)
1/2
= (I A

A)
1/2
A

.
2. Entonces las matrices
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
y
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
son unitarias en /
2n
(C).
La vericaci on de ambas partes es directa, y se deja como ejercicio.
3.6.10. Sea M H(n), y representemosla por bloques M =
_
A C
C

B
_
k
n k
.
1. Si A = I
k
y B = I
nk
para ciertos , R

+
, se tiene que
M =
_
I
k
C
C

I
nk
_
0 C C

I
k
|C|
2
.
2. En el caso general, dado > 0, existe > 0 tal que
_
A C
C

B
_

_
A +I
k
0
0 I
nk
_
.
53
En efecto, conjugando a M con la matriz D =
_

1/2
I
k
0
0
1/2
I
nk
_
, caemos en el caso
de la Proposici on 3.6.6 (para C /
k,nk
(C) rectangular, donde tambien es cierto). Luego,
por el Lema 3.5.1,
M 0 DMD =
_
I
k

1/2

1/2
C

1/2

1/2
C

I
nk
_
0

1

1
|C|
2
=
1

1
|C C

| 1
C C

I
k
.
Para la segunda parte, basta tomar
|C|
2

+|B|. En efecto, en ese caso,


B |B|I
nk
= I
nk
B
_
|B|
_
I
nk

|C|
2

I
nk
,
y se aplica el caso anterior a la matriz
0
_
I
k
C
C

|C|
2

I
nk
_

_
I
k
C
C

I
nk
B
_
=
_
A +I
k
0
0 I
nk
_

_
A C
C

B
_
,
con lo que se prueba la desigualdad buscada.
3.7 Ejercicios
Ejercicio 3.7.1. Probar que para cualquier A M
mn
(C) vale:
s
j
(A) = max
dimS=j
min
xS,|x|=1
|Ax|
= min
dimT =nj+1
max
xT ,|x|=1
|Ax|
para cualquier 1 j n.
Ejercicio 3.7.2. Para j = 0, 1, . . . , n, sea
R
j
= T M
mn
(C) : rk(T) j.
Mostrar que para j = 1, . . . , n,
s
j
(A) = min
TR
j1
|A T|.
Ejercicio 3.7.3. Mostrar que si A, H M
mn
(C), y H tiene rango k, entonces
s
j
(A) s
j+k
(A +H), j = 1, 2, . . . , n k.
54
Ejercicio 3.7.4. Mostrar que para cualquier A M
mn
(C) y para cada k = 1, . . . , n, vale
k

j=1
s
j
(A) = max

j=1
Ax
j
, y
j
)

,
donde el m aximo se toma sobre todas las kuplas ortonormales x
1
, . . . , x
k
e y
1
, . . . , y
k
.
Ejercicio 3.7.5. Sea A L
sa
(H). Demostrar:
1.
k

j=1

j
(A) = max
UU

=I
k
tr(UAU

).
2.
k

j=1

j
(A) = min
UU

=I
k
tr(UAU

).
Por otro lado, si A es positiva demostrar:
1.
k

j=1

j
(A) = max
UU

=I
k
det(UAU

).
2.
k

j=1

j
(A) = min
UU

=I
k
det(UAU

).
En ambos casos, los m aximos y minimos son tomados sobre todas las matrices U M
kn
tales que UU

es la identidad sobre C
k
.
Ejercicio 3.7.6. Sea A /
n
(C). Para cada i = 1, . . . , n, sea R
i
=

j,=i
[a
ij
[ . Mostrar que
(A)
_
iI
n
z C : [z a
ii
[ R
i
.
Deducir que, si R
i
< [a
ii
[ para todo i I
n
, entonces A (l (n). Una tal matriz suele ser
llamada diagonal dominante.
Ejercicio 3.7.7 (Este es bien difcil). Sea A H(n). Para cada i I
n
, mostrar que si
r
i
=
_

j,=i
[a
ij
[
2
_
1/2
= (A) [a
ii
r
i
, a
ii
+r
i
] ,= .
Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada r
i
R
i
.
Adem as, ubica al menos un autovalor en cada disquito (aca son intervalitos).
55
Captulo 4
Mayorizaci on.
4.1 Deniciones y propiedades basicas
Notaciones: Sea x R
n
, x = (x
1
, ..., x
n
). Notaremos x

y x

a los vectores obtenidos al


reordenar las coordenadas de x en forma decreciente y creciente respectivamente. Es decir,
por ejemplo, que
x

1
= max
i
x
i
, x

1
+x

2
= max
i,=j
x
i
+x
j
, etc.
Por ejemplo, si x es el vector de autovalores de una matriz A H(n), entonces x

= (A)
y x

= (A). Otra notaci on: dado x = (x


1
, . . . , x
n
) R
n
, escribiremos tr x =
n

j=1
x
i
. Con
estas notaciones podemos dar la denici on de mayorizacion:
Denici on 4.1.1. Sean x, y R
n
.
1. Se dice que y mayoriza a x, y se nota x y si se verica que tr y = tr x , y adem as
k

j=1
x

j

k

j=1
y

j
para todo k I
n
. (4.1)
2. Dado que
k

j=1
x

j
= tr x
nk

j=1
x

j
, la relacion x y equivale a que tr y = tr x , y ademas
k

j=1
x

j

k

j=1
y

j
para todo k I
n
. (4.2)
3. Si s olo se cumple la condici on (4.1) (o sea que se permite que tr x < tr y ), se dice que
x est a submayorizado por y y se nota x
w
y.
4. Si solo se cumple la condicion (4.2) (aca se permite que tr x > tr y ), se dice que x est a
supramayorizado por y y se nota x
w
y.
56
Ejemplos 4.1.2.
1. Sea x R
n
. Llamemos a = tr x. Entonces
_
a
n
,
a
n
, . . . ,
a
n
_
x . En efecto,
supongamos que existiera un k I
n
tal que
k

i=1
x

i
<
ka
n
. En tal caso,
x

k

1
k
k

i=1
x

i
<
a
n
=
n

i=k+1
x

i
<
(n k)a
n
=
n

i=1
x

i
< a .
2. Si x R
n
+
, entonces x (tr x, 0, . . . , 0).
3. Sean x, y R
n
. Si sucediera que x y e y x, entonces es f acil ver que x

= y

. Por
lo tanto, x e y s olo dieren en una permutacion.
Existe una relacion muy estrecha entre las relaciones de mayorizacion y las matrices doble-
mente estocasticas.
Notaciones: Si A /
n
(C),
1. Llamaremos F
i
(A) a la la i-esima de A y C
j
(A) a la columna j-esima.
2. Notaremos A0 si A
ij
0 para todo par i, j I
n
. En otras palabras, A0 si A
tiene entradas no negativas. Ojo con el simbolito, no el lo mismo A0 que A 0.
Denici on 4.1.3. Una matriz A /
n
(R) se denomina doblemente estocastica si
A0 , tr F
i
(A) = 1 y tr C
i
(A) = 1 para todo i I
n
.
Al conjunto de matrices doble estocasticas en /
n
(C) lo denotaremos To (n).
Ejercicio 4.1.4. Sea A /
n
(R). Probar que A To (n) si y s olo si
A0 , Ae = e y A

e = e,
donde e = (1, 1, . . . , 1) R
n
. Deducir que To (n) es un conjunto convexo.
Teorema 4.1.5. Sea A /
n
(R). Luego A To (n) si y solo si Ax x para todo x R
n
.
Demostracion. Supongamos que Ax x para todo x. Sea c = e
1
, . . . , e
n
la base canonica
de C
n
. Para cada i I
n
, se tiene que Ae
i
e
i
. Esto implica que A0 y que
1 = tr e
i
= tr Ae
i
= tr C
i
(A) para todo i I
n
.
Por otra parte, tomemos e = (1, 1, . . . , 1). Usando el Ejemplo 4.1.2, como Ae e y todas
las coordenadas de e son iguales, deducimos que
e = Ae = (tr F
1
(A), . . . , tr F
n
(A) ).
57
Recprocamente, supongamos que A To (n) y llamemos y = Ax. Queremos probar que
y x. Se puede suponer que las coordenadas de x y de y est an ordenadas en forma
decreciente, porque si P, Q |(n) son matrices de permutaci on (ver Observacion 4.1.7),
entonces QAP To (n) (esto se formaliza facil usando el Ejercicio 4.1.4). Ademas, como
y = Ax,
k

j=1
y
j
=
k

j=1
n

i=1
a
ji
x
i
=
n

i=1
_
k

j=1
a
ji
_
x
i
para todo k I
n
. (4.3)
Si llamamos t
i
=
k

j=1
a
ji
, para i I
n
, entonces
0 t
i
tr C
i
(A) = 1 y
n

i=1
t
i
=
k

j=1
tr F
i
(A) = k .
Luego, aplicando la ecuaci on (4.3),
k

j=1
y
j

k

j=1
x
j
=
k

j=1
n

i=1
a
ji
x
i

i=1
x
i
=
n

i=1
t
i
x
i

i=1
x
i
=
n

i=1
t
i
x
i

i=1
x
i
+ (k
n

i=1
t
i
)x
k
=
k

i=1
t
i
x
i
+
n

i=k+1
t
i
x
i

i=1
x
i
+kx
k

k

i=1
t
i
x
k

n

i=k+1
t
i
x
k
=
k

i=1
(t
i
1)x
i
+
k

i=1
x
k

k

i=1
t
i
x
k
+
n

i=k+1
t
i
(x
i
x
k
)
=
k

i=1
(t
i
1)x
i
+
k

i=1
(1 t
i
)x
k
+
n

i=k+1
t
i
(x
i
x
k
)
=
k

i=1
(t
i
1)(x
i
x
k
) +
n

i=k+1
t
i
(x
i
x
k
) 0,
pues los dos terminos del ultimo rengl on son sumas de terminos no positivos. Por lo tanto
k

j=1
y
j

k

j=1
x
j
para todo k I
n
y adem as, cuando k = n, obtenemos la igualdad, usando la
ecuaci on (4.3) (para k = n, los t
i
= 1). As, y x.
Ejemplo 4.1.6. Como motivaci on del siguiente resultado, supongamos que
(y
1
, y
2
) (x
1
, x
2
), y
1
y
2
y x
1
x
2
.
58
Entonces x
2
y
2
y
1
x
1
y y
1
+ y
2
= x
1
+ x
2
. Sea 0 tal que y
1
= x
1
+ (1 )x
2
.
Entonces,
y
2
= y
1
+y
2
y
1
= x
1
+x
2
y
1
= x
1
+x
2

_
x
1
+ (1 )x
2
_
= (1 )x
1
+x
2
.
y por lo tanto (y
1
, y
2
) = (x
1
, x
2
) + (1 )(x
2
, x
1
).
Observaci on 4.1.7. Sea n N.
1. Llamaremos S
n
al n-esimo grupo simetrico, es decir
S
n
= : I
n
I
n
: es biyectiva ,
con el producto dado por la composicion de funciones.
2. Dados S
n
y x C
n
, llamaremos x

= (x
(1)
, . . . , x
(n)
).
3. Dada S
n
, llamaremos P

/
n
(C) al operador dado por
P

x = x

, x C
n
.
Observar que, si S
n
, entonces P

= P

. Por otra parte, P

opera en la base
can onica por P

(e
k
) = e

1
(k)
, k I
n
.
4. El grupo |
1
(n) = P

: S
n
est a incluido en |(n), dado que cada P

es claramente
isometrico. Por lo tanto, para cada S
n
, P

1 = P
1

= P

= P
T

.
5. Observar que |
1
(n) To (n). En efecto, dada S
n
,
C
k
(P

) = P

(e
k
) = e

1
(k)
y F
k
(P

) = C
k
(P
T

) = C
k
(P

1) = e
(k)
, (4.4)
para todo k I
n
. Mas adelante veremos que |
1
(n) es ni m as ni menos que el conjuntos
de puntos extremales de To (n).
Teorema 4.1.8. Sean x, y R
n
. Entonces, son equivalentes:
1. y x.
2. y es una combinacion convexa de permutaciones de x.
3. Existe A To (n) tal que y = Ax.
Demostracion. Como To (n) es convexo y |
1
(n) To (n), obtenemos que 2 3. Por el
Teorema 4.1.5 se tiene que 3 1. Luego, solo resta probar que 1 2. Lo haremos por
inducci on sobre la dimensi on n. Para n = 1 es trivial y el caso n = 2 fue probado en el
Ejemplo 4.1.6. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores
estan ordenados en forma decreciente. Luego, x
n
y
n
y
1
x
1
. Sea k > 1 tal que
59
x
k
y
1
x
k1
y 0 tal que y
1
= x
1
+ (1 )x
k
. Sea P
0
la matriz de permutacion que
verica
P
0
(x
1
, . . . , x
n
) = (x
k
, x
2
, . . . , x
k1
, x
1
, x
k+1
, . . . , x
n
).
Denamos z = x+(1)P
0
(x). Sean y
t
= (y
2
, . . . , y
n
) y z
t
= (z
2
, . . . , z
n
). Vamos a probar
que y
t
z
t
: Como tr(z
t
) = tr(z) y
1
= tr(x) y
1
y tr(y
t
) = tr(y) y
1
= tr(x) y
1
, se tiene
que tr(y
t
) = tr(z
t
). Si m k 1, entonces, como y
1
x
k1
,
m

i=2
z
i
=
m

i=2
x
i
(m1)x
k1
(m1)y
1

m

i=2
y
i
.
Por otro lado, si m k.
m

i=2
z
i
=
k1

i=2
x
i
+ (1 )x
1
+x
k
+
m

i=k+1
x
i
=
m

i=1
x
i
+x
1
(1 )x
k
=
m

i=1
x
i
y
1

m

i=1
y
i
y
1
=
m

i=2
y
i
.
Por hipotesis inductiva y
t
=
s

i=1

i
P

i
(z
t
) para ciertos
i
0 que suman uno, y para ciertas
permutaciones
i
S
n1
(pensadas como biyecciones del conjunto 2, 3, . . . , n). Llamemos
tambien
i
S
n
a la extension de la permutaci on
i
a I
n
, poniendo
i
(1) = 1. Luego, como
z
1
= y
1
, se tiene y =
s

i=1

i
P

i
(z). Pero entonces
y =
s

i=1

i
P

i
(z
t
) =
s

i=1

i
P

i
(x) +
s

i=1
(1 )
i
P

i
P
0
(x),
que es una combinaci on convexa de permutaciones de x.
Observaci on 4.1.9. Un error tpico al tratar de demostrar mayorizaci on entre dos vectores,
es olvidarse de ordenarlos antes de sumar sus primeras k coordenadas. De hecho, esto
sucede en la prueba anterior con el vector z
t
. Por suerte no es grave en este caso, porque z
t
est a del lado de los mayores, y lo grave es no reordenar del lado de los menores. Mas
explcitamente, si x, y R
n
, como
k

i=1
y
i

k

i=1
y

i
,
es imprescindible ordenar a y para vericar que y x, pero no para vericar que x y. En
la prueba de la relacion y
t
z
t
, el vector y
t
ya vena ordenado correctamente.
60
Corolario 4.1.10. Sean w, z R
m
tales que w z, y sean x, y R
k
tales que x y.
Entonces los vectores (x, w), (y, z) R
k+m
cumplen que (x, w) (y, z).
Demostracion. Por el Teorema 4.1.8, existen A To (k) y B To (m) tales que Ay = x y
Bz = w. Pero si consideramos
C =
_
A 0
0 B
_
/
k+m
(C),
es facil ver que C To (k +m) y que C(y, z) = (x, w).
Ejercicio 4.1.11. Sean x, u R
n
tales que x u, i.e., x
i
u
i
, para todo i I
n
.
1. Probar que tambien se cumple que x

.
2. Deducir que x
w
u.
Proposicion 4.1.12. Sean x, y R
n
. Entonces x
w
y si y solo si existe u R
n
tal que
x u y .
Demostracion. Antes que nada, es claro que si el tal u existe, entonces x
w
y (por el
Ejercicio 4.1.11 y la transitividad de
w
). Para probar la recproca, podemos asumir que
tr x < tr y, porque sin o basta tomar u = x. Asumiremos tambien que x e y est an ordenados
en forma decreciente, dado que una ves encontrado el u para este caso, luego se lo puede
reordenar igual que a x, lo que preserva la relacion x u y no afecta la relacion u y.
Se har a induccion sobre n. Si n = 1, el resultado es trivial (en ese caso signica
igualdad). Si n > 1, cosideramos dos casos:
Caso 1: Si existe k I
n1
tal que
k

i=1
x
i
=
k

i=1
y
i
, llamamos a = (x
1
, . . . , x
k
) y b =
(y
1
, . . . , y
k
) R
k
. Es claro que a b. Por otra parte, si llamamos w = (x
k+1
, . . . , x
n
) y
z = (y
k+1
, . . . , y
n
) R
nk
, es tambien claro que w
w
z, porque estan bien ordenados y, si
r I
nk
, entonces
r

i=1
z
i

i=1
w
i
=
k+r

i=1
y
i

k+r

i=1
x
i
0.
Ahora bien, por hipotesis inductiva, debe existir v R
nk
tal que wv z. Entonces basta
tomar u = (a, v) R
n
que cumple lo pedido, porque wv implica que x = (a, w) (a, v) =
u. Por otra parte, como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y.
Caso 2: Supongamos que d = min
kI
n
_
k

i=1
y
i

i=1
x
i
_
> 0, y que se realiza en cierto k
0
I
n
.
Tomemos v = x +de
1
, es decir que agrandamos en d la primera coordenada de x. Observar
que v est a ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que x v
y que v
w
y. Pero claramente v cae en el Caso 1 (sumando hasta k
0
, y si k
0
era n, bingo).
Entonces existe u R
n
tal que x v u y.
Ejercicio 4.1.13. Probar que, dados x, y R
n
, entoncecs x
w
y si y s olo si existe v R
n
tal que x v y.
61
4.2 Mayorizacion y funciones convexas
Dado I R, una funci on f : I R, y un vector x I
n
, notaremos por
f(x) = (f(x
1
), . . . , f(x
n
)) R
n
.
Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b I y
[0, 1], se cumple que
f
_
a + (1 )b
_
f(a) + (1 )f(b).
La funcion f se dice concava si f es convexa.
Teorema 4.2.1. Sean x, y R
n
. Sea I R un intervalo (semirrecta o todo R) tal que
x, y I
n
. Entonces, son equivalentes:
1. y x
2. tr f(y) tr f(x) para toda funcion convexa f : I R.
3.
n

i=1
[y
i
t[
n

i=1
[x
i
t[ para todo t R.
Analogamente, son equivalentes
1. y
w
x (submayorizacion)
2. tr f(y) tr f(x) para toda funcion f : R R convexa y no decreciente.
3.
n

i=1
(y
i
t)
+

i=1
(x
i
t)
+
para todo t R.
Demostracion. S olo probaremos la primer parte, puesto que los argumentos para probar
la segunda son similares (para 1 2, se aplica 1 2 y la Proposici on 4.1.12, que sera
util para funciones no decrecientes). Supongamos que y x. Entonces, por el Teorema
4.1.8, y =
s

i=1

i
P

i
(x) para ciertos
i
0 que suman uno, y para ciertas
i
S
n
. Luego
f
_
s
i=1

i
P

i
x
_

s
i=1

i
f
_
P

i
x
_
(en cada coordenada), y
tr f(y) = tr f
_
s

i=1

i
P

i
x
_
tr
s

i=1

i
f
_
P

i
x
_
=
s

i=1

i
tr P

i
_
f(x)
_
= tr f(x) .
La implicaci on 2 3 (respectivamente, 2
t
3
t
) se deduce de que la funci on x [x t[
(resp. x (x t)
+
) es convexa (resp. convexa no decreciente) para todo t R. Probemos
3 1. Supongamos que los vectores x e y est an ordenados de forma decreciente (ni 3
62
ni 1 depende del orden de las coordenadas). Sean M = maxx
1
, y
1
y m = minx
n
, y
n
.
Tomando t > M, se tiene que
n

i=1
[y
i
t[ =
n

i=1
t y
i
= kt
n

i=1
y
i
,
y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x tr y.
An alogamente, la desigualdad 3 para valores de t tales que t < m implica que tr y tr x.
Luego tr x = tr y. Por otro lado, dado x R, se tiene que 2x
+
= x +[x[. Luego
2
n

i=1
(y
i
t)
+
=
n

i=1
(y
i
t) +
n

i=1
[y
i
t[ = tr y nt +
n

i=1
[y
i
t[
tr x nt +
n

i=1
[y
i
t[ =
n

i=1
(x
i
t) +
n

i=1
[x
i
t[
= 2
n

i=1
(x
i
t)
+
.
Deducimos que basta probar 3 1. Fijemos k I
n
. Tomando t = x
k
, resulta que
n

i=1
(x
i
t)
+
=
k

i=1
(x
i
t)
+
=
k

i=1
x
i
kt .
Por lo tanto
k

i=1
y
i
kt =
k

i=1
(y
i
t)
k

i=1
(y
i
t)
+

i=1
(y
i
t)
+

i=1
(x
i
t)
+
=
k

i=1
x
i
kt,
lo cual muestra que
k

i=1
y
i

k

i=1
x
i
.
Corolario 4.2.2. Sea I R un intervalo. Sea g : I R una funcion convexa (resp. convexa
creciente). Entonces, dados x, y I
n
,
x y (resp. x
w
y) = g(x)
w
g(y).
En particualr x y = [x[
w
[y[, y tambien x
w
y = x
+

w
y
+
.
Demostracion. Sea f : R R convexa no decreciente. Es facil ver, entonces, que f g es
una funcion convexa. Por el Teorema 4.2.1, si x y, entonces
tr f(g(x)) = tr f g (x) tr f g (y) = tr f(g(y)).
63
Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R R
convexa no decreciente, deducimos que g(x)
w
g(y).
Si g es creciente y x
w
y, por el Corolario 4.1.12 existe u R
n
tal que x u y. Luego,
por el caso anterior, g(x) g(u)
w
g(y). Para concluir que g(x)
w
g(y) basta aplicar el
Ejercicio 4.1.11.
Corolario 4.2.3. Sean x, y R
n
, tales que x > 0 e y > 0. Entonces, se tiene que
x y =
n

i=1
x
i

n

i=1
y
i
.
Demostracion. Sea g(t) = log t, que es una funci on convexa (pero decreciente), denida
en I = (0, +). Por el Corolario 4.2.2, si x y, entonces g(x)
w
g(y). En particular,
log
n

i=1
x
i
=
n

i=1
log x
i

n

i=1
log y
i
= log
n

i=1
y
i
,
de lo que se concluye que

n
i=1
x
i

n
i=1
y
i
.
4.3 Birkho, Hall y los casamientos
Sean V = v
1
, . . . , v
n
y M = m
1
, . . . , m
n
dos conjuntos de n elementos. Pensaremos que
V es un conjunto de varones (humanos) y M de mujeres. Dada una relaci on C V M,
diremos que v
i
conoce a m
j
(puede usarse tambien tiene onda con, o gusta de) si
(v
i
, m
j
) C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones
sobre C que aseguren que exista f : V M biyectiva, tal que Gr(f) C. Si pensamos que
cada v se casa con f(v), el problema se traduce a poder casar todos los varones de V con
mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente).
Para describir esas condiciones pongamos un poco de notacion: Dado J I
n
, llamaremos
V
J
= v
j
: j J, y
M
J
= m
i
M : (v
j
, m
i
) C para alg un j J
= chicas conocidas por alg un muchacho de V
J
.
Observar que M
J
=
M
([V
J
M]C), donde
M
es la proyecci on sobre M. Como siempre, se
abrevia M
i
= M
i
. Es evidente que si el PC tiene soluci on, debe cumplirse que [M
J
[ [J[
para todo J I
n
, porque f(V
J
) debera estar incluido en M
J
. Pero mucho menos claro es
que vale la recproca:
Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene solucion para una
relacion C V M si y solo si
[M
J
[ [J[ para todo J I
n
. (4.5)
64
Demostracion. Probaremos la suciencia por inducci on sobre n. Todo es facil si n = 1 (ese
es el problema de la pareja de naufragos). Si n > 1, separemos dos casos:
Caso 1: Supongamos que tenemos una condicion mejor que (4.5), a saber,
[M
J
[ [J[ + 1 para todo J I
n
, , = J ,= I
n
. (4.6)
En tal caso jamos al vago v
n
de V y lo casamos con una chica que conozca (m
j
M
n
).
Veamos ahora que, si J = I
n1
, los conjuntos V
J
y M m
j
cumplen la condicion (4.5)
(para aplicarles la HI). En efecto, notar que si I J, entonces la ecuaci on (4.6) asegura
que [M
I
M m
j
[ [M
I
[ 1 [I[. En otras palabras, dados k muchachos, entre todos
deben conocer al menos k chicas todava solteras. Por HI, tenemos una biyeccion entre V
J
y M m
j
con graco contenido en C, que se puede extender, mandando n j, a todo V
sobre todo M.
Caso 2: Si existe un J I
n
tal que
, = J ,= I
n
y [M
J
[ = [J[ = k < n , (4.7)
por HI podemos denir una biyeccion f
1
: V
J
M
J
con Gr(f
1
) C. Por otra parte, por la
igualdad (4.7), es f acil ver que los conjuntos que quedan, V
J
c y M M
J
cumplen tambien la
condici on (4.5). En efecto, si I J
c
tiene [I[ = r, observemos que M
IJ
M
J
= M
I
M
J
(las que no conocen los de J deben conocerlas los de I). Pero
[M
IJ
M
J
[ [M
IJ
[ [M
J
[ (r +k) k = r .
Luego [M
I
M
J
[ r = [I[. Otra forma de verlo es la siguiente: casamos k pibes que conocan
justo k chicas. Dados r de los solteros, junto con los casados conocan al menos k +r chicas,
por lo que los r solteros conocan ellos a todas las solteras de este grupo (por lo menos r),
porque los k novios solo conocan a las k que se casaron con ellos. Aplicamos nuevamente la
HI para denir otra biyecci on f
2
: V
J
c MM
J
, tambien con graco dentro de C. Pegando
ambas funciones, encontramos la biyeccion buscada.
Denici on 4.3.2. Sea A /
n
(C).
1. Dada S
n
, llamamos al vector (a
1(1)
, . . . , a
n(n)
) una diagonal de A. Notar que las
diagonales tienen exactamente un elemento de cada la y uno de cada columna de A.
2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes denidas
tiene todas sus coordenadas no nulas.
Corolario 4.3.3 (K onig-Frobenius). Sea A /
n
(C). Entonces son equivalentes:
1. Toda diagonal de A tiene ceros.
2. Existe subconjuntos I, J I
n
tales que [I[ + [J[ > n y la submatriz A
IJ
0, es decir
que a
ij
= 0 para todo par (i, j) I J.
65
Demostracion. Coonsideremos los conjuntos M = V = I
n
y la relaci on
C = (i, j) I
n
I
n
: a
ij
,= 0.
Es claro que A tiene alguna diagonal sin ceros si y s olo si el PC tiene soluci on para la
relaci on C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que
exista I I
n
tal que [M
I
[ < [I[ = k. Observar que
K := I
n
M
I
= j I
n
: a
ij
= 0 para todo i I
es el mayor de los conjuntos J de ndices tales que A
IJ
0. Adem as, si [K[ = r, entonces
k +r > n si y s olo si n r = [M
I
[ < k. Y esto concluye la prueba.
Corolario 4.3.4. Si A To (n), entonces A debe tener alguna diagonal sin ceros.
Demostracion. Supongamos que no. Reordenando las y columnas de A (multiplicando por
matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r I
n
tales
que k + r > n y que a
ij
= 0 si i I
k
y j I
r
. En otras palabras, que existen P, Q |
1
(n)
tales que
PAQ =
_
0
kr
B
C D
_
To (n) ,
donde 0
kr
es la matriz nula de /
k,r
(C). En tal caso, las k las de B deben tener traza uno,
lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de PAQ
(las de D son no negativas) debera sumar estrictamente mas que n. Pero esto contradice el
hecho de que PAQ To (n).
Teorema 4.3.5 (Birkho). El conjunto de matrices doble estocasticas To (n) es convexo y
sus puntos extremales son el conjunto |
1
(n) de matrices de permutacion. Es decir que toda
A To (n) es combinacion convexa de matrices de permutacion.
Demostracion. Es f acil ver que si P |
1
(n), entonces es extremal en To (n). Luego basta
ver que toda A To (n) es combinacion convexa de matrices de permutaci on.
Sea A To (n). Notaremos k(A) =

(i, j) I
n
I
n
: a
ij
,= 0

. Probaremos el resultado
inducci on en k(A). Observar que n k(A) n
2
, y que k(A) = n si y solo si A |
1
(n),
por lo que lo armado es trivial en este caso. Supongamos que k(A) > n.
Por el Corolario 4.3.4 existe S
n
tal que a
i(i)
> 0, para todo i I
n
. Sea P = P


|
1
(n) la matriz asociada a la permutacion . Por la ecuaci on (4.4), P
ij
,= 0 si y s olo si
j = (i). Sea a = min
iI
n
a
i(i)
. Notar que, por el hecho de que k(A) > n, se debe cumplir que
0 < a < 1. Es f acil ver, entonces, que B =
A aP
1 a
To (n). Finalmente, se observa que
A = aP + (1 a)B, y se aplica la hip otesis inductiva, ya que k(B) < k(A). En efecto, si
a
ij
= 0, entonces P
ij
= 0, por lo que tambien b
ij
= 0. Esto dice que k(B) k(A). Por otra
parte, si a = a
i(i)
,= 0, entonces b
i(i)
= 0, con lo que k(B) < k(A) como se arm o.
66
4.4 Mayorizacion logartmica
Denici on 4.4.1. 1. Sean x, y R
n
+
. Escribiremos x
w
log
y si
k

i=1
x

i

k

i=1
y

i
para todo k I
n
. (4.8)
2. Si x, y R

n
+
, escribimos x
log
y si se cumple que x
w
log
y , y adem as
n

i=1
x
i
=
n

i=1
y
i
.
Observaci on 4.4.2. Sean x, y R

n
+
. Si x
log
y entonces, como en el caso de la mayorizacion
com un, se cumplen desigualdades invesas para las entradas mas peque nas de x e y. Es decir,
n

i=k
x

i

n

i=k
y

i
para todo k I
n
. (4.9)
Esto no vale si solo x
w
log
y, porque usa la igualdad de los productos hasta n.
Proposicion 4.4.3. Sean x, y R
n
+
.
1. Si x
w
log
y, entonces x
p

w
y
p
para todo p R
+
.
2. Si x, y R

n
+
, entonces x
log
y implica que x
p

w
y
p
para todo p R .
Demostracion.
2. Supongamos que x > 0 e y > 0. Luego x
log
y implica que log x log y. Como la
funci on t e
pt
es convexa para todo p R, deducimos lo armado en el item 2. a
partir del Corolario 4.2.2.
1. Si x, y R
n
+
y x
w
log
y, supongamos que x e y est an ordenados en forma decreciente.
Observar que, si k
1
= maxj I
n
: x
j
> 0, entonces la condici on (4.8) implica que
y
k
1
> 0 . Podemos suponer, entonces, que k
1
= n, porque las desigualdades que denen
la relaci on x
p

w
y
p
ser an automaticas para k > k
1
. Estamos casi en el caso anterior,
dado que la unica diferencia es que tenemos log x
w
log y en lugar de log x log y.
Pero esto es suciente si suponemos que p R
+
, porque en tal caso se tiene que la
funci on t e
pt
es convexa creciente, y se aplica nuevamente el Corolario 4.2.2.
Observaci on 4.4.4. 1. El caso m as usado de la Proposicion 4.4.3 es cuando p = 1. Es
decir que, si x, y R
n
+
, entonces x
w
log
y implica x
w
y. Esto ser a sumamente
util cuando se lo aplique a desigualdades con valores singulares de matrices, usando
tecnicas de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos
dice que, si hubese quedado x y, deba cumplirse que x
log
y .
67
2. Por otra parte, la Proposicion 4.4.3 se puede generalizar, sin cambiar la prueba, si
remplazamos las funciones f(t) = t
p
por cualquier funcion f : R
+
R tal que la
aplicaci on t f(e
t
) resulte convexa (o convexa creciente). Notar que, en el caso
demostrado, se usaba esa propiedad para la funci on t (e
t
)
p
= e
pt
.
68
Captulo 5
Mayorizaci on de autovalores y valores
singulares
5.1 Aplicaciones a matrices Hermitianas.
Teorema 5.1.1 (Teorema de mayorizacion de Schur).
Sea A H(n). Notamos d (A) = (a
11
, . . . , a
nn
) R
n
y (A) R
n
el vector de los autovalores
de A. Entonces,
d (A) (A).
Demostracion. Para demostrar que d (A) (A) vamos a probar que d (A) = B (A),
para cierta B To (n). Como A H(n), si D = diag ((A)), existe U |(n) tal que
A = U

DU. Mediante cuentas elementales de matrices, se puede vericar que cada entrada
de A tiene la forma: dados i, j I
n
,
a
ij
=
n

k=1
u
ki

k
u
kj
, en particular, a
ii
=
n

k=1

k
[u
ki
[
2
.
Consideremos ahora la matriz B = ([u
ji
[
2
)
ij
que, por ser U unitaria, cumple B To (n).
Adem as
B(A) =
_

_
[u
11
[
2
[u
n1
[
2
.
.
.
.
.
.
.
.
.
[u
1n
[
2
[u
nn
[
2
_

_
_

1
.
.
.

n
_

_
=
_

_
n

k=1
[u
k1
[
2

k
.
.
.
n

k=1
[u
kn
[
2

k
_

_
= d (A) .
Luego, el Teorema 4.1.8 completa la demostraci on.
Observaci on 5.1.2. Otra demostraci on del Teorema mayorizaci on de Schur puede hacerse
por inducci on, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reor-
denar la diagonal de A, conjugandola por una matriz de permutaci on, lo que no cambia sus
autovalores.
69
Como corolario de este teorema encontramos una nueva caracterizacion para los autovalores
de una matriz Hermitiana. En este caso, para la suma de los k-primeros autovalores.
Proposicion 5.1.3 (Principio del M aximo de Ky Fan). Sea A H(n). Entonces para todo
k I
n
, se tiene que
k

j=1

j
(A) = max
k

j=1
Ax
j
, x
j
),
donde el maximo se toma sobre todas las k-uplas ortonormales x
1
, ..., x
k
en C
n
.
Demostracion. Fijemos k I
n
. Sea x
1
, ..., x
k
una k-upla ortonormal cualquiera. Sea
U |(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U

AU. Luego
(B) = (A) y
k

j=1
b
jj
=
k

j=1
Be
j
, e
j
) =
k

j=1
AUe
j
, Ue
j
) =
k

j=1
Ax
j
, x
j
) .
Pero, por el Teorema de mayorizaci on de Schur 5.1.1,
k

j=1
b
jj

k

j=1

j
(B) =
k

j=1

j
(A).
Para ver la otra desigualdad, tomemos B = v
1
, ..., v
n
una BON de C
n
adaptada a (A).
Luego v
1
, ..., v
k
es una k-upla ortonormal y
max
k

j=1
Ax
j
, x
j
)
k

j=1
Av
j
, v
j
) =
k

j=1

j
(A) v
j
, v
j
) =
k

j=1

j
(A) ,
como queramos demostrar.
Ejercicios 5.1.4. Sea A H(n). Identicando las k-uplas ortonormales de C
n
con bases
de rangos de proyectores, y con columnas de isometras de C
k
en C
n
, probar que:
1. Si, para k I
n
, notamos T
k
(n) = P H(n) : P
2
= P y rk(P) = k, entonces
k

j=1

j
(A) = max
P1
k
(n)
tr PAP . (5.1)
2. Para todo k I
n
, se tiene que
k

j=1

j
(A) = max
U|
k
(n)
tr U

AU , (5.2)
donde |
k
(n) = U /
n,k
(C) : U

U = I
k
es el espacio de isometras de C
k
en C
n
.
Teorema 5.1.5. Sean A y B H(n). Entonces
(A +B) (A) +(B).
Es importante el hecho de que, en la suma (A) +(B), se asume que ambos vectores estan
ordenados de la misma forma.
70
Demostracion. Por la formula (5.1), para todo k I
n
podemos escribir
k

j=1

j
(A +B) = max
P1
k
(n)
tr P(A +B)P max
P1
k
(n)
tr PAP + max
P1
k
(n)
tr PBP
=
k

j=1

j
(A) +
k

j=1

j
(B).
La igualdad para k = n surge de que tr(A +B) = tr(A) + tr(B).
Recordar que en la Proposicion 3.6.5 probamos que, dada C /
n
(C), entonces si

C =
_
0 C
C

0
_
/
2n
(C) ,
se tiene que
_

C
_
= s
i
(C) (con las mismas multiplicidades). Es decir,
(

C) = (s
1
(C), , s
n
(C), s
n
(C), , s
1
(C)).
Corolario 5.1.6. Sean A, B H(n). Entonces
s(A +B)
w
s(A) +s(B).
Demostracion. Notar que

A +B =

A +

B. Por la observacion anterior, y las desigualdades
resultantes de la relacion (

A +B) (

A) + (

B) para k I
n
, se tiene que s(A + B)
w
s(A) +s(B).
Observaci on 5.1.7. Notar que el resultado anterior es necesario para vericar que las
normas | |
(k)
de Ky Fan, denidas en el Ejemplo 3.4.1, cumplen la desigualdad triangular.
5.2 Teorema de Schur-Horn
5.2.1. Sea x C
n
con |x| = 1 (a estos vectores los llamaremos unitarios). Entonces, como
vimos en 1.9.3, la matriz P
x
= x x = xx

= (x
i
x
j
)
ij
/
n
(C) es el proyector ortogonal
sobre el subespacio span x. Por lo tanto, si B = x
1
, . . . , x
n
es una BON de C
n
, vale que
z =
n

i=1
z, x
i
)x
i
para todo z C
n
= I =
n

i=1
x
i
x
i
. (5.3)

Proposicion 5.2.2. Sea A /


n
(C). Se tiene que A /
n
(C)
+
si y solo si existen
vectores unitarios x
1
, . . . , x
r
C
n
, y n umeros
1
, . . . ,
r
R
+
tales que
A =
r

i=1

i
x
i
x
i
, o sea que A =
r

i=1

i
P
x
i
. (5.4)
71
Demostracion. Por un lado es claro que si A cumple (5.4), entonces A 0. Recprocamente,
si A /
n
(C)
+
, sea B = x
1
, . . . , x
n
es una BON de C
n
adaptada a (A). Usando la
ecuaci on (5.3), para todo z C
n
se tiene que,
Az = A
_
n

i=1
z, x
i
)x
i
_
=
n

i=1
z, x
i
)Ax
i
=
n

i=1

i
(A)z, x
i
)x
i
=
_
n

i=1

i
(A) x
i
x
i
_
z .
Luego A cumple (5.4).
Observaci on 5.2.3. Notar que la mnima cantidad r de proyectores de rango uno que
puede usarse para obtener una representacion de A como en (5.4) es r = rk(A). Adem as, si
A /
n
(C)
+
cumple (5.4), deniendo y
i
=
1/2
i
x
i
, se tiene que las matrices y
i
y
i
no son
m as proyectores, pero s son positivos y se verica que A =
r

i=1
y
i
y
i
.
Es natural preguntarse, dado A /
n
(C)
+
y r rk(A), para que sucesiones
i
, . . . ,
r
en
R
+
se puede obtener para A una representacion como (5.4). Este problema est a ntimamente
relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A /
n
(C), lla-
mamos d (A) = (a
11
, . . . , a
nn
) C
n
.
Proposicion 5.2.4. Sean c R
n
+
y A /
n
(C)
+
. Son equivalentes:
1. Existen vectores unitarios x
1
, . . . , x
n
C
n
tales que A =
n

j=1
c
j
x
j
x
j
.
2. Existe B H(n) tal que d (B) = c y (B) = (A), o sea que B

= A.
Demostracion. Si se verica 1, sea X /
n
(C) denida por C
k
(X) = c
1/2
k
x
k
, k I
n
.
Veamos que XX

= A: Para cada k I
n
, notemos por X
k
/
n
(C) a la matriz tal que
C
k
(X
k
) = C
k
(X), pero C
j
(X
k
) = 0 si j ,= k. Luego, se tiene que
X =

kI
n
X
k
, X
k
X

j
= 0 si j ,= k y X
k
X

k
= c
k
x
k
x

k
= c
k
x
k
x
k
.
Es claro que todo esto implica que XX

= A. Por lo tanto (A) = (XX

) = (X

X).
Si B = X

X, es facil ver, adem as, que B


ii
= c
i
|x
i
|
2
= c
i
, i I
n
, lo que prueba 2.
Recprocamente, si B H(n) cumple (B) = (A) y d (B) = c, sea U |(n) tal que
U

AU = B (se puede hacer, pasando por diag ((A)) ). Consideremos la matriz X = A


1/2
U.
Entonces X

X = B y XX

= A
1/2
U U

A
1/2
= A, mientras que c
i
= B
ii
= |C
i
(X)|
2
. Basta
ahora denir x
i
=
C
i
(X)
|C
i
(X)|
, y se verica como antes que
A = XX

=
n

j=1
c
j
x
j
x

j
=
n

j=1
c
j
x
j
x
j
,
lo que prueba 1.
72
Teorema 5.2.5. Sean b, c R
n
Entonces son equivalentes:
1. c b.
2. Existe B H(n) tal que d (B) = c y (B) = b

.
Si, ademas, b y c tienen entradas no negativas, lo anterior equivale a
3. Existen vectores unitarios x
1
, . . . , x
n
C
n
tales que
diag (b) =
n

j=1
c
j
x
j
x

j
.
Demostracion. Antes que nada, notemos que se puede suponer que b = b

y c = c

, porque
las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, va conjugar con
matrices de permutaci on adecuadas). Notemos A = diag (b). El Teorema de Schur 5.1.1
muestra que 2 implica 1. La Proposici on 5.2.4 muestra que 2 y 3 son equivalentes, cuando b
y c tienen entradas no negativas.
Vericaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estric-
tamente positivas. Lo haremos por inducci on en n. Si n = 1 no hay nada que probar. Sea
n > 1. Como b
1
c
1
b
n
, sea k I
n
tal que b
k
c
1
b
k+1
.
Se arma: existe x
1
span e
k
, e
k+1
de norma uno, tal que A
1
= A c
1
x
1
x

1
tiene rango
a lo sumo n 1. En efecto, para ver que el tal x
1
existe, denimos
x(t) = cos
t
2
e
k
+ sin
t
2
e
k+1
y A(t) = A c
1
x(t)x(t)

, t [0, 1].
Entonces la curva d(t) = det A(t) es continua. Pero d(1) 0 d(0) porque A(0) y A(1) son
matrices diagonales, con un s olo elemento diagonal no positivo (es b
k+1
c
1
) en el caso de
A(1), y con todos no negativos (anche b
k
c
1
) en el de A(0). Luego basta tomar x
1
= x(t)
para alg un t [0, 1] tal que d(t) = 0.
Es claro que existe una BON y
1
, y
2
de span e
k
, e
k+1
tal que A
1
y
1
= (b
k
+ b
k+1
c
1
)y
1
y
A
1
y
2
= 0. Luego la matriz de A
1
en la bon B = y
2
, e
1
, . . . , e
k1
, y
1
, e
k+2
, . . . , e
n
queda
_
A
1
_
B
= diag (0, b
1
, . . . , b
k1
, (b
k
+b
k+1
c
1
), b
k+2
, . . . , b
n
) . (5.5)
Sean a, d R
n1
, dados por a = (c
2
, . . . , c
n
) y
d = (b
1
, . . . , b
k1
, (b
k
+b
k+1
c
1
), b
k+2
, . . . , b
n
).
Notar que, como b
k
c
1
b
k+1
, entoncecs d
k1
= b
k1
b
k
d
k
b
k+1
b
k+2
= d
k+1
.
Para aplicar la HI al asunto anterior, deberamos probar que a d. En efecto, si r k,
r1

i=1
a
i
=
r

i=2
c
i

r1

i=1
c
i

r1

i=1
b
i
=
r1

i=1
d
i
.
73
Si k + 1 r n 1,
r

i=1
c
i

r

i=1
b
i
=
r1

i=1
a
i
=
r

i=2
c
i

k1

i=1
b
i
+ (b
k
+b
k+1
c
1
) +
r

i=k+2
b
i
=
r1

i=1
d
i
y las trazas andan bien porque c b. En consecuencia, a d. Sean, por HI, n 1 vectores
unitarios z
2
, . . . , z
n
C
n1
tales que diag (d) =

n
j=2
c
j
z
j
z

j
/
n1
(C)
+
. Luego
n

j=2
c
j
(0, z
j
)(0, z
j
)

= diag (0, d) =
_
A
1
_
B
/
n
(C)
+
. (5.6)
Si denimos x
2
, . . . , x
n
C
n
tales que las coordenadas de cada x
j
en B sean (0, z
j
), resulta
que son tambien unitarios (los z
j
lo son y B es una bon). Traduciendo la ecuaci on (5.6)
(pensada en la base B) a coordenadas en la base can onica, obtenemos
A
1
=
n

j=2
c
j
x
j
x

j
/
n
(C)
+
y, por lo tanto,
A = A
1
+c
1
x
1
x

1
=
n

j=1
c
j
x
j
x

j
.
Conclumos que 1 implica 3, si b y c tienen entradas estricatamente positivas.
De lo anterior podemos deducir que 1 2 en ese caso (b, c > 0), porque 1 3 y 3 2. Pero
esto se generaliza sin dicultad al caso general (b, c R
n
) usando que, si e = (1, , . . . , 1) R
n
,
entonces para todo m R se tiene que x + me y + me si y s olo si x y. Y que dada
B H(n), entonces d (B +mI) = d (B) +me y (B +mI) = (B) +me.
Finalmente, probado 1 2 en general, ahora por la Proposici on 5.2.4, ya sabemos que 3 es
equivalente a ellas si b y c tienen entradas no negativas.
Teorema 5.2.6. Sea a = (a
1
, . . . , a
n
) R
n
y A H(n) tal que (A) = a

. Entonces,
_
d ( UAU

) : U |(n)
_
= x R
n
: x a.
Demostracion. Si B = UAU

, con U |(n), entoces (A) = (B) = a

. Luego por el
Teorema de mayorizacion de Schur 5.1.1, se tiene que d (B) a.
Recprocamente, si x R
n
cumple x a, por el Teorema 5.2.5 existe B H(n) tal que
d (B) = x y (B) = a

. Por lo tanto debe existir U |(n) tal que B = UAU

. Luego
x d (UAU

) : U |(n).
Corolario 5.2.7. Sean A /
n
(C)
+
y c R
m
+
, con m n. Entonces existen proyectores
autoadjuntos P
1
, . . . , P
m
de rango uno, tales que
A =
m

k=1
c
k
P
k
c ((A), 0, . . . , 0) := (A) R
m
+
.
74
Demostracion. Sea A
1
=
_
A 0
0 0
_
/
m
(C)
+
. Luego (A
1
) = (A). Por el Teorema
5.2.6, c (A) si y s olo si existe U |(m) tal que d (UA
1
U

) = c. Es claro que si
P =
_
I
n
0
0 0
_
/
m
(C)
+
, entonces UA
1
U

= UPA
1
PU

. Por lo tanto, si llamamos


U
1
/
m,n
(C) a la parte no nula de UP, entonces U
1
AU

1
= UA
1
U

. Notar que U

1
U
1
= I
n
.
Si denimos T = A
1/2
U

1
/
n,m
(C), y x
i
= C
i
(T) C
n
para i I
m
, se tiene que
UA
1
U

= T

T, por lo que |x
i
|
2
= c
i
, i I
m
. Por otro lado,
A = TT

=
m

k=1
x
k
x

k
=
m

k=1
c
k
P
k
,
donde P
k
= c
1
k
x
k
x

k
es proyector autoadjunto de rango uno, para k I
m
(si c
k
= 0, puede
tomarse como P
k
cualquier cosa). La recproca se prueba deniendo T /
n,m
(C) tal que
tenga columnas x
k
= c
1/2
k
y
k
, donde y
k
y

k
= P
k
, k I
m
. El hecho de que A = TT

implica que
existe una U
1
/
m,n
(C) que cumple T = A
1/2
U

1
, U

1
U
1
= I
n
y d (U
1
AU

1
) = d (T

T) = c.
Luego se extiende U
1
a una U |(m), con lo que U
1
AU

1
= UA
1
U

.
Observaci on 5.2.8. El resultado anterior resulve el problema planteado en el p arrafo an-
terior a la Proposicion 5.2.4, al menos para el caso r n. Es facil ver, usando el Teorema
5.2.5, que si A /
n
(C)
+
, rk(A) r < n y c R
r
+
, entonces la condicion necesaria y
suciente para que A pueda ser representado A =

r
k=1
c
k
P
k
para ciertos proyectores P
k
de
rango uno, es que (A) ~ (c, 0, . . . , 0) R
n
.
5.3 Normas unitariamente invariantes.
Denicion 5.3.1. Dada una norma N en /
n
(C), decimos que N es una norma unitaria-
mente invariante (NUI) , si cumple que
N(UAV ) = N(A) para toda A /
n
(C) y todo par U, V |(n) .
En tal caso, el Teorema 3.2.5 dice que N(A) = N((A) ) para toda A /
n
(C).
Denicion 5.3.2. Sea N una NUI en /
n
(C). Consideremos la funci on
g
N
: C
n
R
+
dada por g
N
(x) = N (diag (x) )
para todo x C
n
.
Proposicion 5.3.3. Sea N una NUI en /
n
(C). Entonces:
1. g
N
es una norma en C
n
.
2. g
N
(x
1
, . . . , x
n
) = g
N
([x
1
[, . . . , [x
n
[).
3. g
N
(x
1
, . . . , x
n
) = g
N
(x
(1)
, . . . , x
(n)
), para toda S
n
.
75
Observaci on 5.3.4. Una funci on f : C
n
R que cumple los tems 1, 2 y 3 de la Proposici on
anterior se denomina gauge simetrica.
Demostracion.
1. Se deduce de que la aplicaci on C
n
x diag (x) /
n
(C) es lineal e inyectiva.
2. Sea x
j
=
j
[x
j
[ donde w
j
= e
i
j
. Luego, como diag (
1
, . . . ,
n
) |(n),
g
N
([x
1
[, . . . , [x
n
[) = N(diag ([x
1
[, . . . , [x
n
[))
= N(diag (
1
, . . . ,
n
) diag ([x
1
[, . . . , [x
n
[))
= N(diag (x
1
, . . . , x
n
))
= g
N
(diag (x
1
, . . . , x
n
)).
3. Sea P

la matriz unitaria tal que


P

diag (x
1
, . . . , x
n
) P
1

= diag
_
x
(1)
, . . . , x
(n)
_
.
Entonces,
g
N
(x
(1)
, . . . , x
(n)
) = N(diag
_
x
(1)
, . . . , x
(n)
_
)
= N(P

diag (x
1
, . . . , x
n
) P
1

)
= N(diag (x
1
, . . . , x
n
))
= g
N
(diag (x
1
, . . . , x
n
)).

Lema 5.3.5. Si g es una funcion gauge simetrica, entonces, g es monotona, es decir, si


[x
i
[ [y
i
[ para todo i 1, . . . , n, entonces, g(x) g(y).
Demostracion. Sin perdida de generalidad, podemos suponer que x, y R
n
+
. Por un argu-
mento inductivo, es suciente vericar que si t [0, 1], entonces
g(y
1
, . . . , ty
k
, . . . , y
n
) g(y
1
, . . . , y
k
, . . . , y
n
).
En efecto,
g(y
1
, . . . , ty
k
, . . . , y
n
) = g
__
1 +t
2
y
1
, . . . ,
1 +t
2
y
k
, . . . ,
1 +t
2
y
n
_
+
_
1 t
2
y
1
, . . . ,
1 t
2
(y
k
), . . . ,
1 t
2
y
n
__

1 +t
2
g(y) +
1 t
2
g(y
1
, . . . , y
k
, . . . , y
n
)
=
1 +t
2
g(y) +
1 t
2
g(y) = g(y).

76
Teorema 5.3.6. Sea g es una funcion gauge simetrica en C
n
y sean x, y R
n
+
tales que
x
w
y. Entonces, g(x) g(y).
Demostracion. Como x
w
y, por la Proposici on 4.1.12, existe u R
n
tal que x u y.
Por el Lema anterior, g(x) g(u). Dado S
n
, notemos y

= (y
(1)
, . . . , y
(n)
). Por el
Teorema 4.1.8, existe A S
n
tal que u =

para ciertos

tales que

[0, 1] y

= 1. Luego
g(u) = g
_

g(y

) =

g(y) = g(y) .

Teorema 5.3.7.
1. Si N es una NUI, entonces, g
N
es una funcion gauge simetrica.
2. Si g es una funcion gauge simetrica, entonces,
|A|
g
= g(s
1
(A), . . . , s
n
(A)) , A /
n
(C)
es una NUI en /
n
(C).
Demostracion.
1. Esto es la Proposici on 5.3.3.
2. S olo demostraremos la desigualdad triangular. Las demas propiedades quedan como
ejercicio para el lector. Sean A, B /
n
(C). Luego
|A +B|
g
= g(s(A +B)) g(s(A) +s(B)) g(s(A)) +g(s(B)) = |A|
g
+|B|
g
,
ya que s(A +B)
w
s(A) +s(B) y podemos usar el Teorema 5.3.6.
Teorema 5.3.8. Sean A, B /
n
(C). Entonces son equivalentes:
1. N(A) N(B) para toda norma unitariamente invariante N.
2. |A|
(k)
|B|
(k)
para todo k I
n
.
3. s(A)
w
s(B).
Demostracion. Es consecuencia del Teorema 5.3.6 para funciones gauge simetricas, y del
Teorema 5.3.7. En efecto, si |A|
(k)
|B|
(k)
para todo k I
n
, entonces s(A)
w
s(B). Por
lo tanto g(s(A)) g(s(B)) para toda funci on gauge simetrica. La recproca es evidente.
Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1:
77
Corolario 5.3.9. Para todo n N y todo p [1 , ), la norma p de Schatten, dada por
|A|
p
=
_
n

i=1
s
i
(A)
p
_
1/p
= (tr [A[
p
)
1/p
para A /
n
(C) ,
es efectivamente una norma en /
n
(C), y ademas es NUI.
Demostracion. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en R
n
es una
funci on gauge simetrica.
Corolario 5.3.10. Sean A, B /
n
(C)
+
tales que A B. Entonces, N(A) N(B) para
toda norma unitariamente invariante N.
Demostracion. Aplicando el Corolario 2.3.6, obtenemos que
s
k
(A) =
k
(A)
k
(B) = s
k
(B) , para todo k I
n
.
Luego basta aplicar el Teorema 5.3.8.
Corolario 5.3.11. Sea N una NUI en /
n
(C). Dadas A, B /
n
(C), se tiene que
1. N(AB) |A|
sp
N(B).
Ademas, si N es normalizada (i.e., N(E
11
) = 1),
2. |A|
sp
N(A) |A|
1
= tr [A[.
3. N es una norma matricial.
Demostracion.
1. Se deduce de la desigualdad s
k
(AB) |A|
sp
s
k
(B) para todo k I
n
, vista en la
f ormula (3.3), y del Teorema 5.3.8.
2. Sea g la funcion gauge simetrica asociada a N. Como N est a normalizada, entonces
g(e
k
) = 1 para todo k I
n
. Luego,
|A|
sp
= s
1
(A) = g(s
1
(A), 0, . . . , 0) g(s(A)) = N(A).
An alogamente, N(A) = g(s(A))
n

k=1
s
k
(A)g(e
k
) =
n

k=1
s
k
(A) = |A|
1
.
3. Es claro usando lo anterior.
Proposicion 5.3.12. Sea g : R
n
R, una funcion convexa e invariante por permutaciones,
es decir que se x R
n
y P S
n
, entonces g(x) = g(Px). Entonces, dados x, y R
n
,
x y = g(x) g(y).
En particular, esto se verica si g es una funcion gauge simetrica.
78
Demostracion. Por el Teorema 4.1.8, si x y, existen P
1
, . . . , P
m
S
n
y R
m
tales que
e
1
R
m
y x =

m
i=1

i
P
i
y. Entonces
g(x) = g
_
m

i=1

i
P
i
y
_

i=1

i
g(P
i
y) = y.
Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT).
Corolario 5.3.13. Dadas A, B H(n). Entonces
(A) (B) = s(A)
w
s(B).
Demostracion. Como A H(n), se tiene que s(A) = [ (A)[

. Por lo tanto, si g es una


fgs, g(s(A)) = g((A)). Lo mismo pasa para B, y el resultado se deduce de la Porposici on
5.3.12, aplicado a las fgss g
k
(x) =

k
i=1
x

i
, k I
n
.
Corolario 5.3.14. Dadas A, B H(n), si (A) (B) entonces N(A) N(B) para toda
norma unitariamente invariante N.
Demostracion. Se deduce del Corolario 5.3.13 y del Teorema 5.3.7.
Ejercicio 5.3.15. Probar que, si x R
n
, entonces, para cada k I
n
,
k

i=1
x

i
= min
_
|y|
1
+k|z|

: x = y +z
_
.
5.4 Mayorizacion de matrices Hermitianas
Hasta el momento s olo hemos visto resultados relacionados con la mayorizaci on de vectores.
Pero a cada matriz A H(n) se le puede asociar el vector (A) R
n
formado por todos los
autovalores de A. Esto permite la siguiente denicion,
Denici on 5.4.1. Si A, B H(n), se dice que A est a mayorizada por B y se escribe A B
si se verica que (A) (B). Es decir, A B si
k

j=1

j
(A)
k

j=1

j
(B), 1 k n (5.7)
y tr A = tr B.
Denicion 5.4.2. 1. Sea P H(n) un proyector (o sea P = P
2
= P

) y A /
n
(C).
Se dene el pinching de A como la matriz
C
P
(A) := PAP + (I P)A(I P).
79
Por ejemplo, si P proyecta sobre las primeras k coordenadas en C
n
, entonces
A =
_
B C
D E
_
C
P
(A) =
_
B 0
0 E
_
,
donde los bloques tienen los tama nos adecuados (por ejemplo, B /
k
(C)). C
P
(A)
tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que empiece
generando R(P) y termine generando ker P.
2. M as generalmente, un sistema de proyectores en /
n
(C) es una conjunto
T = P
1
, . . . , P
r
H(n) ,
donde los P
i
son proyectores no nulos tales que
P
i
P
j
= 0 si i ,= j y
r

i=1
P
i
= I .
Notar que un proyector P H(n) dene un sistema de dos proyectores T = P, I P.
3. Dado un sistema de proyectores T = P
1
, . . . , P
r
en /
n
(C), se dene el pinching
asociado:
C
1
: /
n
(C) /
n
(C) , dado por C
1
(A) =
r

i=1
P
i
AP
i
, A /
n
(C),
que tambien puede verse como una compresi on a bloques diagonales (operando en una
BON adecuada). Notar que se tiene la siguiente factorizaci on:
C
1
= C
P
1
C
P
2
C
P
r
(5.8)
y lo mismo en cualquier otro orden entre los C
P
i
.
Ejercicios 5.4.3.
1. Si A H(n) y (A) =
1
, . . . ,
r
(todos distintos), entonces deniendo P
i
como el
proyector sobre ker(A
i
I), i I
r
, se obtiene un sistema de proyectores que verica
que A =

r
i=1

i
P
i
.
2. Dado un sistema de proyectores T en /
n
(C) y una matriz A /
n
(C), se tiene que
C
1
(A) = A si y s olo si A conmuta con todos los P
i
de T. O sea, si A es diagonal de
bloques. Vericar que eso sucede en el ejemplo anterior.
3. Probar que, dado un sistema de proyectores T en /
n
(C), el operador pinching C
1
verica las siguientes propiedades:
(a) Es lineal, idempotente (i.e., C
1
C
1
= C
1
) y R(C
1
) es el subespacio de matrices
que conmutan con todos los P
i
, i I
r
.
80
(b) Reduce normas y preserva trazas.
(c) Si A /
n
(C) es autoadjunto (resp. positivo) entonces C
1
(A) es autoadjunto
(resp. positivo). Por lo tanto, en general, C
1
(A

) = C
1
(A)

.
Proposicion 5.4.4. Sea A H(n) y T un sistema proyectores en H(n). Entonces
C
1
(A) A.
Demostracion. Por la ecuaci on (5.8), basta considerar el caso de pinchings de un solo proyec-
tor P H(n) (o sea, el sistema T = P, I P). Sea U = P (I P) |(n). Es f acil ver
que
2 C
P
(A) = A +UAU = A +UAU
1
.
Pero, como (UAU
1
) = (A), por el Teorema 5.1.5 se tiene
2 (C
P
(A)) (A) +(UAU
1
) = 2 (A),
por lo que C
P
(A) A.
Ejercicio 5.4.5. 1. Claricar en que sentido la Proposici on 5.4.4 es una generalizaci on
del Teorema de mayorizaci on de Schur.
2. Dados x, y, z, w R
n
tales que x = x

, y = y

, z = z

y w = w

, probar que
z w y x y = x +z y +w .
Es cierto si no estan ordenados?
3. Deducir del Teorema 5.1.5 (+ induccion) que, si A
1
, . . . , A
m
H(n), entonces

_
m

k=1
A
k
_

k=1
(A
k
).

Denici on 5.4.6. Dado un espacio vectorial V, si c V, llamaremos conv [c] a la capsula


convexa de c:
conv [c] =
_
m

k=1

k
b
k
: m N, b
k
c, R
m
y (1, 0, . . . , 0)
_
.
es decir, el conjunto de todas las combinaciones convexas de elementos de c.
El siguiente teorema da una caracterizacion, intrnseca de matrices, de la mayorizaci on ma-
tricial:
81
Teorema 5.4.7. Sea A H(n). Denotemos por
|(A) = UAU

: U |(n) = B H(n) : (B) = (A)


la orbita unitaria de A. Entonces,
T H(n) : T A = conv [|(A) ] . (5.9)
O sea que T A si y solo si T es combinacion convexa de conjugados unitarios de A.
Demostracion. Para k I
m
, sean U
k
|(n) y
k
[0, 1], tales que

k

k
= 1. Considere-
mos
T =
m

k=1

k
U
k
AU

k
conv [|(A) ] .
Por el Ejercicio 5.4.5,
(T)
m

k=1
(
k
U
k
AU

k
) =
m

k=1

k
(A) = (A) = T A.
Recprocamente, sea T H(n) tal que (T) (A). Notaremos a = (A). Entonces, por
el Teorema 4.1.8, existe c S
n
tal que, si notamos a

= (a
(1)
, . . . , a
(n)
), c, entonces
(T) =

para ciertos

[0, 1] tales que

= 1. Sea, para cada c, P

|
1
(n) la
matriz asociada (denida en la base can onica por P

(e
k
) = e

1
(k)
). Notemos D = diag (a).
Entonces P

DP

= diag (a

). Por lo tanto,
diag ((T)) =

DP

.
Finalmente, si V, W |(n) hacen que A = V

DV y T = W diag ((T)) W

, entonces
T = W diag ((T)) W

WP

DP

(WP

V ) A (V

).
Luego T conv [UAU

: U |(n)] = conv [|(A) ].


Observaci on 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en
el siguiente sentido: Si A, B H(n), por la formula (5.9) se tiene que
A B = N(A) N(B)
para toda norma N que verique N(UCU

) = N(C), C /
n
(C), U |(n). Estas normas
se llaman debilmente unitariamente invariantes (NDUI). Notar que, por ejemplo,
w(C) = max
_
[Cx, x)[ : |x| = 1
_
, C /
n
(C),
que se llama radio numerico de C, es una tal norma, pero no es NUI. Otro ejemplo de
este tipo es M(C) = N(C) + [ tr C[, que es NDUI para cualquier NUI N. Para el caso de
pinchings, se tiene un resultado mas general que la Proposici on 5.4.4:
82
Proposicion 5.4.9. Sean A /
n
(C) (no necesariamente autoadjunta) y T un sistema
proyectores en H(n). Entonces
N
_
C
1
(A)
_
N(A) , para toda norma N que sea NDUI en /
n
(C) . (5.10)
Demostracion. Por la ecuacion (5.8) basta probarlo para un solo proyector P H(n). En
tal caso, sea U = P (I P) |(n). Es f acil ver que, si R(P) = o,
U = P (I P) =
_
I 0
0 I
_
o
o

|(n) = 2 C
P
(A) = A +UAU

.
Con esto la desigualdad, al tomar N, es clara.
Observaci on 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se
verica que C
1
(A) conv [UAU

: U |(n)], aunque A no sea autoadjunta. Esto se


hace eligiendo las matrices unitarias y diagonales de bloques (para T), con I
R(P
i
)
en cada
bloque.
Proposicion 5.4.11. Sean A, B /
n
(C). Sea N una NUI. Entonces se tienen las de-
sigualdades
1
2
N
_
A +B 0
0 A +B
_
N
_
A 0
0 B
_
N
_
[A[ +[B[ 0
0 0
_
.
Demostracion. La primera desigualdad se deduce de que
_
B 0
0 A
_

=
_
A 0
0 B
_
, va la matriz
_
0 I
I 0
_
|(n) .
Para probar la segunda, notar que, si A = U[A[ y B = V [B[ con U, V |(n), entonces
_
A 0
0 B
_
=
_
U 0
0 V
_ _
[A[ 0
0 [B[
_
= N
_
A 0
0 B
_
= N
_
[A[ 0
0 [B[
_
,
por lo que podemos suponer que A, B /
n
(C)
+
. En tal caso, si C = A
1/2
, D = B
1/2
, y
T =
_
C 0
D 0
_
, entonces
_
A +B 0
0 0
_
= T

T .
Por otra parte, TT


= T

T, por lo que N(TT

) = N(T

T). Ademas,
TT

=
_
C
2
CD
DC D
2
_
=
_
A CD
DC B
_
.
Luego
_
A 0
0 B
_
es un pinching de TT

, y por la formula (5.10), en la Proposicion 5.4.9, se


tiene que N
_
A 0
0 B
_
N(TT

) .
83
5.5 Teoremas de Lindskii y sus aplicaciones.
Recordemos que, si B /
n
(C), llamamos s(B) = (s
1
(B), . . . , s
n
(B)) = ([B[), al vector
de valores singulares de B, ordenados en forma decreciente.
Teorema 5.5.1 (Lidskii 1). Sean A, B H(n). Entonces
(A) (B) (A B) (A) (B) .
Ejercicio 5.5.2. 1. Decir porque es incorrecta la siguiente prueba de la primera parte del
Teorema de Lidskii 1: Si A, B H(n), por el Teorema 5.1.5, (A) (AB) +(B).
Por lo tanto, para todo k I
n
,
k

j=1

j
(A)
j
(B)
k

j=1

j
(A B).
Deducimos entonces que (A) (B) (A B). La igualdad, para k = n, sale
tomando trazas.
2. Demostrar (bien) la otra parte del Teorema ( quien era (B)?).
Teorema 5.5.3 (Lidskii 2). Sean A, B /
n
(C). Entonces
[s(A) s(B)[
w
s(A B).

Una ves resuelto el Ejercicio 5.5.2, se entender a porque es necesaria (y suciente) la siguiente
versi on m as tecnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizacion
natural del Teorema de Weyl 2.3.4 (que, de hecho, es lo que se usa en su prueba).
Teorema 5.5.4 (Lidskii 3). Sean A, B H(n), k I
n
y J I
n
con [J[ = k. Entonces

j J

j
(A) +
k

i=1

i
(B)

j J

j
(A +B)

j J

j
(A) +
k

i=1

i
(B) . (5.11)
Demostracion. Probaremos, en principio, la desiguadad de la derecha en (5.11). Sin perdida
de generalidad podemos suponer que
k
(B) = 0. En efecto, si probaramos el resultado para
B
k
(B)I (que cumple lo pedido) y A, podramos deducir inmediatamente la desigualdad
de la derecha en (5.11), dado que

j
(A +B) =
j
(A +B
k
(B)I) +
k
(B) y
i
(B) =
i
(B
k
(B)I) +
k
(B) ,
para todo j J e i I
n
(sobrar a k
k
(B) en ambos terminos, y se puede cancelar). Sea
B = B
+
B

la descomposicion de B en partes positiva y negativa, denidas en la ecuaci on


(3.5) de la Secci on 3.3. Como
k
(B) = 0, aplicando la ecuacion (3.7) se tiene que

j
(B
+
) = max
j
(B) , 0 , para todo j I
n
= tr(B
+
) =
k

j=1

j
(B) .
84
Por el teorema de Weyl, mas especicamente el Corolario 2.3.6, El hecho de que A + B
A +B
+
, implica que
j
(A +B)
j
(A +B
+
) para todo j I
n
. En consecuencia,

j J
_

j
(A +B)
j
(A)
_

j J
_

j
(A +B
+
)
j
(A)
_
.
Por el Corolario 2.3.6, tambien
j
(A +B
+
)
j
(A), para todo j I
n
. Por lo tanto

j J
_

j
(A +B
+
)
j
(A)
_

j=1
_

j
(A +B
+
)
j
(A)
_
= tr(A +B
+
) tr(A)
= tr(B
+
) =
k

j=1

j
(B) .
Esto prueba la desiguadad de la derecha en la ecuaci on (5.11). La otra desigualdad se deduce
de la anterior, pero aplicada al conjunto J
t
= n j + 1 : j J y las matrices A y B.
Se usa que

r
(C) =
nr+1
(C) =
r
(C) ,
para cualquier C H(n) y para todo r I
n
.
Observaci on 5.5.5. Una formulacion equivalente del Teorema 5.5.4 que tambien se usa
mucho es la siguiente: Dadas A, B H(n), k I
n
y J I
n
con [J[ = k, se tiene que

j J

j
(A)
j
(B)
k

i=1

i
(A B)

j J

j
(A)
j
(B) . (5.12)
En efecto, basta reemplazar en (5.11) A +B por A, A por B y B por A B.
Demostracion del Teorema de Lidskii 1. Usando la formulaci on (5.12) del tercer Teorema de
Lidskii, obtenemos
k

j=1
_
(A) (B)
_

j
= max
JI
n
[J[=k
_

j J

j
(A)
j
(B)
_

j=1

j
(A B) , (5.13)
para todo k I
n
. Entonces, (A) (B) (A B).
Demostracion del Teorema de Lidskii 2. Veamos en principio que, si k I
n
, entonces
max
JI
2n
[J[=k
_

j J

j
_

A
_

j
_

B
_
_
=
k

j=1

s(A) s(B)

j
.
En efecto, por la formula (3.12) de Proposici on 3.6.5, si j I
n
se tiene que

j
_

A
_

j
_

B
_
= s
j
(A) s
j
(B) y
85

2nj+1
_

A
_

2nj+1
_

B
_
= (s
j
(A) s
j
(B)).
Por otro lado, aplicando la formula (5.13) a

A,

B y a

A B =

A

B, se tiene
max
JI
2n
[J[=k
_

j J

j
_

A
_

j
_

B
_
_

j=1

j
_

A B
_
=
k

j=1
s
j
(A B) ,
y podemos concluir que
k

j=1

s(A) s(B)

j

k

j=1
s
j
(A B) para todo k I
n
.
Corolario 5.5.6. Sean N una NUI en /
n
(C) y A, B /
n
(C). Entonces
N
_
(A) (B)
_
N(A B) .
Demostracion. Notar que s((A) (B) ) = [s(A) s(B)[

. Por lo tanto el Teorema de


Lidskii 2 implica que, para k I
n
,
|(A) (B)|
(k)
|A B|
(k)
.
Luego se aplica el Teorema 5.3.8.
Corolario 5.5.7. Sean N una NUI en /
n
(C) y A (l (n). Sea U la unica matriz unitaria
tal que A = U[A[ (i.e. U = A[A[
1
|(n)). Entonces
d
N
(A, |(n)) = N(A U) = N((A) I) .
Demostracion. Sea V |(n). Entonces (V ) = I y, por el Corolario 5.5.6, N(A V )
N((A) I). Por otra parte, sea W |(n) tal que [A[ = W(A)W

. Entonces
A U = UW(A)W

UWW

= UW((A) I)W

.
Dado que N es una NUI, resulta que N(A U) = N((A) I).
Ejercicio 5.5.8. Sea A /
n
(C), y sea /
n
(C)
1
el conjunto de matrices en /
n
(C) de
rango uno (o cero). Sea

1
(A) = diag (0, s
2
(A), . . . , s
n
(A)) .
Probar que si N es una NUI, d
N
(A, /
n
(C)
1
) = N(
1
(A)) y se alcanza en la matriz
A
1
= UWdiag (s
1
(A), 0, . . . , 0) W

,
donde A = UW(A)W

. Probar, aparte, que A


1
no depende de la matriz U |(n) elegida
para realizar la descomposicion polar de A, pero s puede depender de W (si s
1
(A) tiene
multiplicidad mayor que uno para [A[). Mostrar que otra manera de encontrar A
1
es tomando
A
1
= s
1
(A)yx

, donde x es un vector tal que |x|


2
= 1 y |Ax|
2
= |A|
sp
= s
1
(A), e y = Ux.
Generalizar el resultado al conjunto de matrices de rango a lo sumo k.
86
5.6 Ejercicios
Ejercicio 5.6.1. Dadas A, B /
n
(C)
+
, mostrar que
(A) (B) (AB) (A) (B) .
Si solo tenemos que A, B H(n), entonces mostrar que
(A) , (B) ) tr AB (A) , (B) ) .
Ejercicio 5.6.2. Sean A, B H(n). Entonces
1. (A) +(B) (A +B) (A) +(A).
2. Dados x, y R
n
, se tiene que
x

x y x

y x

+y

x +y x

+y

.
Por lo tanto g(x

) g(x y) para toda fgs.


3. Si, para C H(n), llamamos E
d
(C) = diag ((C)) y E
c
(C) = diag ((C)), entonces
N
_
E
d
(A) E
d
(B)
_
N(A B) N
_
E
d
(A) E
c
(B)
_
y
N
_
E
d
(A) +E
c
(B)
_
N(A +B) N
_
E
d
(A) +E
d
(B)
_
.
Ejercicio 5.6.3 (Homan-Weilandt). Sean A, B /
n
(C) matrices normales. Sean (A)
y (A) sus vectores de autovalores en alg un orden. Entonces existe S
n
tal que
n

k=1

i
(A)
(i)
(B)

2
|A B|
2
2
.
Ejercicio 5.6.4. Sea x R
n
. Probar que
k

i=1
x

i
= min
_
|y|
1
+k|z|

: x = y +z
_
para todo i I
n
.
Ejercicio 5.6.5. Dada A /
n
(C), probar que
1. |A|
(k)
= min
_
|B|
1
+k|C|
sp
: A = B +C
_
.
2. Usar lo anterior para dar una nueva demostracion del Teorema 5.5.3 (Lidskii 2),
mostrando previamente que, dadas A, B H(n),
(a) |(A) (B)|

|A B|.
(b) |(A) (B)|
1
|A B|
1
= |A B|
(n)
.
3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1).
87
Ejercicio 5.6.6. Sea A H(n)
1. Sea o C
n
un subespacio de dimensi on n-1. Si A
S
= P
S
AP
S
: o o es el comprimido
de A a o, entonces:
(a)
k
(A)
k
(A
S
)
k+1
(A), para todo k I
n1
.
(b) Sea v
1
, . . . , v
n
una BON de autovectores de A, asociados a
1
(A) , . . . ,
n
(A)
(respectivamente).
a. Si v
1
, . . . , v
k
o, entonces
i
(A) =
i
(A
S
) para i I
k
.
b. Si v
k
, . . . , v
n
o, entonces
i1
(A
S
) =
i
(A), k i n.
2. Probar el Teorema de Lidskii 3 (por inducci on sobre n) usando el ejercicio anterior, y
considerando independientemente los casos:
(a) i
k
< n ,
(b) 1 < i
1
,
(c) i
1
= 1, i
k
= n.
Ejercicio 5.6.7. Sean x, y R
n
. Demostrar las siguientes propiedades:
1. x y si y s olo si x
w
y junto con x
w
y.
2. Si > 0, entonces
x
w
y = x
w
y y x
w
y = x
w
y .
3. x
w
y x
w
y.
4. Para cualquier R no nulo, se tiene que x y x y.
Ejercicio 5.6.8. Una transformaci on lineal A en C
n
se dice que preserva positividad si lleva
vectores de coordenadas no negativas en vectores de coordenadas no negativas. Se dice que
preserva la traza si tr Ax = tr x para todo x. Se dice unital si Ae = e, donde e es el vector
cuyas coordenadas son todas 1. Probar que una matriz A es doble estocastica si y solo si la
transformaci on lineal A preserva positividad, preserva la traza, y es unital. Mostrar que A
preserva la traza si y s olo si A

es unital.
Ejercicio 5.6.9. Sea A una matriz doble estoc astica.
1. Sea x R
n
. Si [x[ = ([x
1
[, . . . , [x
n
[), demostrar que
[Ax[ A([x[) ( signica coordenada a coordenada) .
2. Demostrar que 1 (A) y que 1 admite un autovector de coordenadas positivas.
3. Demostrar que 1 = (A) = |A|
sp
.
88
Ejercicio 5.6.10. Sean x, y R
n
. Probar que
1. x

+y

x +y x

+y

.
2. Si x, y R
n
+
, entonces x


w
x y
w
x

.
3. Si x, y R
n
+
, entonces (x, y) (x +y, 0) en R
2n
.
4. Probar que son equivalentes
a. x
w
y
b. Existe w R
n
tal que x w y.
Ejercicio 5.6.11. Sea f : R
+
R
+
c oncava y tal que f(0) = 0. Probar que:
1. f es creciente (es continua?).
2. Si c, d R
+
, entonces f(c +d) f(c) +f(d).
3. Si x, y R
n
+
,
x y

ij
f(x
i
)

ij
f(y
i
).
M as a un, la misma desigualdad sigue valiendo si x
w
y.
4. Si x, y R
n
,

ij
f([x
i
+y
i
[)

ij
f([x
i
[) +

ij
f([y
i
[).
Ejercicio 5.6.12. Sean x, y, u R
n
tales que sus coordenadas estan ordenadas en forma
decreciente. Probar que:
1. x, u) y, u) si x y.
2. x, u) y, u) si x
w
y y u R
n
+
.
Ejercicio 5.6.13.
1. Dados x, y, z, w R
n
tales que sus coordenadas estan ordenadas en forma decreciente,
probar que
z w y x y = x +z y +w .
Es cierto si no estan ordenados?.
2. Si A
1
, . . . , A
m
H(n), demostrar que

_
m

k=1
A
k
_

k=1
(A
k
).
89
Captulo 6
Funciones monotonas y convexas de
operadores
6.1 Calculo funcional
Notaciones: Diremos que un subconjunto I R es un intervalo, cuando I es un conjunto
convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo
R). Dado un intervalo I R, llamaremos
H
I
(n) =
_
A H(n) : (A) I
_
.
Denici on 6.1.1. Sea I R un intervalo, y sea f : I C una funci on cualquiera. Fijada
A H
I
(n), se dene
f(A) = P(A),
donde P C[x] verica que P() = f() para todo (A). La denicion es buena,
porque si Q C[x] cumple lo mismo que P, entonces, por el Corolario 1.7.2,
(P(A) Q(A)) = ((P Q)(A)) = (P Q)( (A) ) = 0,
y esto, dado que P(A) Q(A) es normal, implica que P(A) = Q(A).
Observaci on 6.1.2. Sean I R un intervalo, f : I C una funcion y A H
I
(n). Es facil
ver que, si A es diagonl, es decir A = diag (x) para cierto x R
n
, entonces
f(A) = diag (f(x)) .
Y de esto puede deducirse que, si B H
I
(n) y U |(n) son tales que B = Udiag ((B)) U

,
f(B) = Udiag (f((B) ) ) U

.
Por otra parte, notar que este calculo no est a bien denido en matrices que nos son au-
toadjuntas (en realidad, si no son normales). Por ejemplo, si A =
_
0 1
0 0
_
, entonces los
polinomios P(t) = t y Q(t) = t
2
coinciden en (A) = 0, pero P(A) = A mientras que
Q(A) = 0.
90
Ejercicios 6.1.3. Vericar que el calculo funcional cumple las siguientes propiedades:
1. Extiende el calculo polinomial.
2. (f g)(A) = f(A) g(A) y fg(A) = f(A)g(A).
3. (f(A)) = f() : (A). Mas a un, (f(A)) = f((A))

.
4. f(A) siempre es una matrix normal.
5. f(t) R para todo t I si y s olo si f(A) H(n) para toda A H
I
(n).
6. f(A) 0 para toda A H
I
(n) si y s olo si f(t) 0 para todo t I.
7. Si U |(n), entonces f(UAU

) = Uf(A)U

.
8. Sea (A) =
1
, . . . ,
k
(sin repetici on), y sea T = P
1
, . . . , P
k
un sistema de proyec-
tores en H(n) tal que A =

k
i=1

i
P
i
. Entonces f(A) =

k
i=1
f(
i
) P
i
.
9. Si la matriz de A en alguna BON tiene la forma
A =
_
B 0
0 C
_
, entonces f(A) =
_
f(B) 0
0 f(C)
_
.
10. Si una sucesi on f
m
(m N) de funciones denidas en I, convergen puntualmente a
f : I R, entonces, para toda A H
I
(n), f
m
(A)
m
f(A).
11. Si tiene sentido la composici on g f, entonces g f(A) = g(f(A)).
Ejemplos 6.1.4.
1. Si f : R

+
R esta dada por f(t) = t
1
, entonces f(A) = A
1
para toda A (l (n)
+
.
2. Si A /
n
(C)
+
, entonces A
1/2
= f(A), donde I = R
+
, f(t) =

t y A
1/2
es la unica
raiz cuadrada positiva de A denida en la Proposici on 3.1.3.
3. Si A H(n), entonces e
A
:= exp(A) =

m=0
A
m
m!
.
4. Si A > 0, entonces existe B = log A, que es la unica matriz autoadjunta que verica
la formula e
B
= A. La unicidad se deduce del Ejercicio 6.1.3, 5 y 6.
Proposicion 6.1.5. Sea I un intervalo y f : I R una funcion. Entonces
1. Si I es es un intervalo abierto, entonces H
I
(n) es abierto en H(n).
2. Si > 0 y g : I R es otra funcion tal que
|f g|
I,
:= sup
_
[f(t) g(t)[ : t I
_
< ,
entonces |f(A) g(A)| < para toda A H
I
(n).
91
3. Si f es continua, dada una sucesion (A
m
)
mN
en H
I
(n) tal que A
m

m
A H
I
(n),
se tiene que f(A
m
)
m
f(A).
Demostracion.
1. Sea A H
I
(n), y sea > 0 tal que (
n
(A) ,
1
(A) + ) I. Si B H(n) y
|A B| < , entonces, para todo x C
n
con |x| = 1, se tiene que

Ax, x) Bx, x)

|A B| |x|
2
< .
Luego, por el Teorema 2.3.1, deducimos que

n
(A) <
n
(B) y
1
(B) <
1
(A) + ,
por lo que (B) I.
2. Notar que (f(A) g(A)) = (f g) (A) y |f(A) g(A)| = (f(A) g(A) ).
3. Sea (a, b) R un intervalo abierto tal que
(A) (a, b) I [a, b] I = J .
Por el item 1, existe m
0
N tal que A
m
H
(a,b)
(n) H
I
(n) H
J
(n), para todo
m m
0
. Por el teorema de Weierstrass (en el intervalo cerrado J), dado > 0, existe
P C[x] tal que |f P|
J,
< . Entonces, por el item 2, si m m
0
,
|f(A) f(A
m
)| |f(A) P(A)| +|P(A) P(A
m
)| +|P(A
m
) f(A
m
)|
2 +|P(A) P(A
m
)|
m
2 ,
porque el resultado es claro para polinomios. Luego |f(A) f(A
m
)|
m
0.

Observaci on 6.1.6. El item 1 de la Proposicion 6.1.5 se puede generalizar de la siguiente


forma: Dado un conjunto abierto 1 C, el conjunto
/
n
(C)
1
= A /
n
(C) : (A) 1
es abierto. M as a un, el mismo resultado es cierto cambiando /
n
(C) por L(H), para cualquier
espacio de Hilbert H, a un con dimesion innita. La demostracion se deja como ejercicio.
Observaci on 6.1.7. La noci on de calculo funcional para autoadjuntos que hemos presen-
tado, es una traduccion al caso matricial del c alculo funcional continuo para operadores
autoadjuntos en espacios de Hilbert. Las unicas diferencias en el caso general son:
1. Las funciones a evaluar deben ser continuas.
92
2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro
del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass
para denir f(A) (la buena denici on se prueba como en el item 2 de la Proposicion
6.1.5).
3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos
(notar que coinciden en conjuntos nitos).
Todos los dem as resultados y ejercicios presentados en esta seccion (salvo las menciones
especcas de vectores de autovalores, como la Observaci on 6.1.2) son ciertos en el caso
general, con las mismas pruebas, luego de adaptarlas mnimamente a operadores en espacios
de Hilbert. La unica que necesita m as cuidado es la identidad (f(A)) = f( (A)), que
es facil para polinomios, pero requiere argumentos especiales para funciones continuas en
general. Tambien son ciertos en general los resultados de las pr oximas dos secciones, dado
que las nociones de monotona y convexidad de operadores se reducen al caso de matrices
(siempre que valga para matrices de cualquier tama no).
6.2 Funciones monotonas de operadores
Denici on 6.2.1. Sea I R un intervalo y f : I R, una funcion. Diremos que f es
monotona de operadores (MOP) si, para todo n N y A, B H
I
(n), se tiene que
A B = f(A) f(B) .
Notar que, tomando n = 1, se ve que f debe ser mon otona en el sentido usual.
Ejemplos 6.2.2.
1. Dados a, b R, la funcion f(t) = a +bt es MOP si y s olo si b 0.
2. f(t) = t
2
no es mon otona de operadores (en ning un intervalo I [0, +) con m as de
un punto). En efecto, tomando A =
_
1 1
1 1
_
y B =
_
2 1
1 1
_
, se ve que A B, pero
A
2
=
_
2 2
2 2
_
,
_
5 3
3 2
_
= B
2
.
El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + A y
D = aI +B, para constantes a I

y > 0 convenientes. Notar que las entradas 2, 2


de C
2
y D
2
siguen coincidiendo.
3. f(t) = t
1
es MOP en I = (0, +). En efecto, si 0 < A B /
n
(C)
+
, entonces
0 < B
1/2
AB
1/2
I. Luego
1
(B
1/2
AB
1/2
) 1, o sea

n
((B
1/2
AB
1/2
)
1
) 1 = (B
1/2
AB
1/2
)
1
= B
1/2
A
1
B
1/2
I ,
por lo que A
1
B
1
.
93
Ejercicio 6.2.3. Probar que
1. La suma y la composici on (cuando tenga sentido) de MOPs es MOP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funci on
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es MOP en (
c
d
, +) si y s olo si det M 0. Notar que
f
M
(t) =
b
d
+
det M
cd +d
2
t
.
Por lo tanto, si det M < 0, entonces f
M
es composici on de MOPs. Pero si f
M
fuera
MOP y det M > 0, podra deducirse que t 1/t es MOP.
Proposicion 6.2.4. La funcion f(t) = t
1/2
es MOP en I = [0, +).
Demostracion. Sean A, B /
n
(C)
+
tales que A B. Supongamos, en principio, que
B > 0. Entonces, por la Proposicion 3.5.2,
1 |A
1/2
B
1/2
| (A
1/2
B
1/2
) = (B
1/4
A
1/2
B
1/4
) = I B
1/4
A
1/2
B
1/4
.
Por lo tanto B
1/2
A
1/2
. Si B no es inversible, se toma, para cada > 0, la matriz
B+I > 0. Luego A
1/2
(B+I)
1/2
para todo > 0. Como (t+)
1/2
puntualmente

0
t
1/2
= f(t),
_
(B +I)
1/2
x, x
_

0
B
1/2
x, x) A
1/2
x, x) , x C
n
.
Deducimos que A
1/2
B
1/2
.
Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposicion
6.2.4, que se basa en un resultado del Captulo 9: Suponemos que 0 < A < B. Entonces
denimos la funcion
C : [0, 1] (l (n)
+
, dada por C(t) = A +t(B A) , t [0, 1] .
Sea R(t) = C(t)
1/2
, t [0, 1]. Entonces
R(t)
2
= C(t) =

R(t)R(t) +R(t)

R(t) =

C(t) = B A > 0 , t [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observacion 9.1.5, como R(t) > 0 y

C(t) = S(R,

R) > 0, entonces,

R(t) > 0 para todo t [0, 1] . Luego R es creciente y, en
particular, A
1/2
= R(0) < R(1) = B
1/2
.
Teorema 6.2.6. Las funciones f(t) = t
r
son MOPs en I = [0, +), para todo r [0, 1].
En otras palabras, si 0 A B /
n
(C)
+
, entonces A
r
B
r
para todo 0 r 1.
94
Demostracion. Supongamos, en principio, que 0 < A B (l (n)
+
y que r es di adico,
es decir que r = k/2
m
, para k I
2
m . En este caso probaremos, por inducci on en m, que
A
r
B
r
. En efecto, si m = 1, ya lo sabemos por la Proposici on 6.2.4.
Si suponemos el hecho cierto para todo n umero j/2
m
, tomemos r = k/2
m+1
. Si k < 2
m
,
entonces k/2
m
< 1. Por la hip otesis inductiva y la Proposici on 6.2.4, se tiene que
A
r
= (A
k/2
m
)
1/2
(B
k/2
m
)
1/2
= B
r
.
Si k 2
m
, usaremos que B
1
A
1
. Por tanto, B
r
A
1
B
r
B
r
B
1
B
r
= B
2r1
. Luego,
como 0 2r 1 =
k 2
m
2
m
< 1, por la hipotesis inductiva tenemos que
(A
1/2
B
r
A
1/2
)
2
= A
1/2
B
r
A
1
B
r
A
1/2
A
1/2
B
2r1
A
1/2
A
1/2
A
2r1
A
1/2
= A
2(r1)
.
Aplicando la Proposicion 6.2.4, deducimos que A
1/2
B
r
A
1/2
A
r1
, y por ello B
r
A
r
.
Si r no es di adico, tomemos una sucesi on de diadicos r
m

m
r. Como las funciones
f
m
(t) = t
r
m
puntualmente

m
f(t) = t
r
, deducimos que B
r
A
r
, tambien en este caso.
Finalmente, si A ,> 0, como (A+
1
m
I)
r
(B+
1
m
I)
r
para todo m N y la funci on t t
r
es continua, aplicando la Proposici on 6.1.5 obtenemos que
A
r
= lim
m
_
A +
1
m
I
_
r
lim
m
_
B +
1
m
I
_
r
= B
r
,
lo que prueba la desigualdad en el caso general.
Lema 6.2.7. Sea A (l (n)
+
. Entonces
lim
h0
A
h
I
h
= log A .
Demostracion. Observar que, para todo t (0, +), se verica que
lim
h0
t
h
1
h
= lim
h0
e
h log t
1
h
= log t .
Por lo tanto las funciones
f
h
(t) =
t
h
1
h
puntualmente

h0
g(t) = log t
en todo (0, +). Aplicando el Ejercicio 6.1.3.8, se culmina la prueba.
Proposicion 6.2.8. La funcion f(t) = log t es MOP en I = (0, +). Es decir, si 0 < A
B (l (n)
+
, entonces log A log B.
Demostracion. Se deduce del Lema 6.2.7. En efecto, si 0 < A B (l (n)
+
, tomando h
con valores en (0, 1), se tiene, por el Teorema 6.2.6, que
log A = lim
h0
+
A
h
I
h
lim
h0
+
B
h
I
h
= log B .

95
6.3 Funciones convexas de operadores
6.3.1. Sea I R un intervalo. Como I es, etonces, convexo, se tiene que H
I
(n) es un
subconjunto convexo de /
n
(C). En efecto, si [0, 1] y A, B H
I
(n), por el Teorema
5.1.5,
x =
_
A + (1 )B
_
(A) + (1 )(B) = y .
Por lo tanto x
i
[y
n
, y
1
] I, para todo i I
n
.
Denici on 6.3.2. Sea I R un intervalo y f : I R, una funcion. Diremos que f es
convexa de operadores (OP) si, para todo n N, [0, 1] y A, B H
I
(n), se tiene
f(A + (1 )B) f(A) + (1 )f(B) . (6.1)
Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que
f es concava de operadores (OP) si f es OP.
Observaci on 6.3.3. Si f : I R es continua, para vericar que es convexa de operadores,
es suciente probar que
f
_
A +B
2
_

f(A) +f(B)
2
,
para todo par A, B H
I
(n) (y todo n N). En efecto, esta condicion implica que f cumple
la formula (6.1) para todo di adico en [0, 1]. Esto se prueba por inducci on. Por ejemplo,
f
_
1
4
A +
3
4
B
_
= f
_ A+B
2
+B
2
_

f
_
A+B
2
_
+f(B)
2

f(A)+f(B)
2
+f(B)
2
=
1
4
f(A) +
3
4
f(B) .
Por la Proposici on 6.1.5 y el hecho de que f es continua, la ecuaci on (6.1) se cumple para
todo [0, 1].
Ejemplos 6.3.4.
1. Dados a, b R, se tiene que la funcion f(t) = a +bt es OP (y OP).
2. f(t) = t
2
s es OP en I [0, +). En efecto, dados 0 A B /
n
(C)
+
, se tiene
que
A
2
+B
2
2

_
A +B
2
_
2
=
1
4
_
A
2
+B
2
AB BA
_
=
1
4
(A B)
2
.
Como f es continua, esto prueba que es OP.
96
3. f(t) = t
3
no es OP en I = [0, +). En efecto, Una cuenta elemental muestra que, si
A =
_
1 1
1 1
_
y B =
_
3 1
1 1
_
, entonces
A
3
+B
3
2

_
A +B
2
_
3
=
_
6 1
1 0
_
,
que no es positiva.
4. f(t) = t
1
es OP en I = (0, +). En efecto, si 0 < A B /
n
(C)
+
, entonces
A
1
+B
1
2

_
A +B
2
_
1
=
(A
1
B
1
)(A
1
+B
1
)
1
(A
1
B
1
)
2
0 .
En efecto, esto se deduce de la identidad
2(A +B)
1
= A
1
(A
1
+B
1
)
1
B
1
+B
1
(A
1
+B
1
)
1
A
1
.
Como f es continua, esto prueba que es OP.
Ejercicio 6.3.5. Probar que
1. La suma y la composici on (cuando tenga sentido) de OPs es OP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funci on
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es OP en I = (
c
d
, +) si y s olo si det M 0 . Por otra parte, f es
OP en I si y s olo si f es MOP en I si y s olo si det M 0 .
3. Sea I R un intervalo tal que 0 I. Sean f(t) = [t[ y g(t) = t 0, t I. Entonces f
no es OP y g no es OP ni MOP.
Denici on 6.3.6. Sean A /
n
(C) y P H(n) un proyector con R(P) = o. Llamaremos
compresion de A a o, al operador
A
S
: o o dado por A
S
(x) = PAx , x o .
Notar que A
S
= PAP

S
pensado en L(o). En coordenadas de una BON de C
n
tal que la
matriz de P en esa base sea P =
_
I 0
0 0
_
, se tiene que
PAP =
_
A
S
0
0 0
_
y C
P
(A) =
_
A
S
0
0 A
S

_
,
donde las matrices (grandes) viven, ahora, en /
n
(C).
97
Recordemos que, para 1 k n, notamos |
k
(n) = U /
n,k
(C) : U

U = I
k
, es decir, el
espacio de isometras de C
k
en C
n
.
Teorema 6.3.7. Sea I R un intervalo y f : I R, una funcion. Entonces son equiva-
lentes:
1. f es convexa de operadores.
2. Para todo n N y para todo sistema de proyectores T en H(n), se tiene que
f(C
1
(A)) C
1
(f(A))
para todo A H
I
(n).
3. Dados n N, A H
I
(n) y o C
n
un subespacio, se tiene que f(A
S
) f(A)
S
.
4. Dados k, n N, k n, A H
I
(n) y V |
k
(n), se verica
f(V

AV ) V

f(A)V .
Demostracion. Antes que nada, observar que C
1
(A) H
I
(n) por 6.3.1 y la Proposici on
5.4.4. De ahi se deduce que
L(S)
(A
S
) I, y tiene sentido calcular f(A
S
), anche si 0 / I.
1 2. Como otras veces, por la ecuaci on (5.8), podemos suponer (s.p.g.) que trabajamos
con un solo proyector P H(n). Como, dado A H
I
(n),
C
P
(A) =
A +UAU

2
, con U = 2P I |(n) ,
se tiene que, si f es OP, entonces
f
_
C
P
(A)
_

f(A) +f(UAU

)
2
=
f(A) +Uf(A)U

2
= C
P
_
f(A)
_
.
2 3. Basta mirar los bloques 1, 1 de la desigualdad f
_
C
P
S
(A)
_
C
P
S
_
f(A)
_
.
3 4. Observar que, dado A H
I
(n), si R(V ) = o C
n
y P = P
S
, entonces V

AV =
V

(PAP)V . Por lo tanto, si llamamos V


0
: C
k
o, al mismo V correstringido a su imagen,
tenemos que V
0
es unitario y V

AV = V

0
A
S
V
0
H
I
(k). Adem as
f(V

AV ) = f(V

0
A
S
V
0
) = V

0
f(A
S
)V
0
y V

f(A)V = V

0
f(A)
S
V
0
,
por lo que
f(V

AV ) V

f(A)V f(A
S
) f(A)
S
.
4 1. Dados A, B H
I
(n), consideremos el operador T =
_
A 0
0 B
_
H
I
(2n). Dado
[0, 1], sea V =
_

1/2
I
n
(1 )
1/2
I
n
_
|
n
(2n). Entonces, una cuenta directa pueba que
V

TV = A + (1 )B .
98
Por la misma cuenta, usando que f(T) =
_
f(A) 0
0 f(B)
_
, tenemos que
V

f(T)V = f(A) + (1 )f(B) .


Por todo ello, si f cumple 4, se tiene que
f(A + (1 )B) = f(V

TV ) V

f(T)V = f(A) + (1 )f(B).


Es decir, f es OP.
Corolario 6.3.8. Sean A (l (n)
+
y P H(n), un proyector. Entonces
1. C
P
(A) (l (n)
+
y C
P
(A)
1
C
P
(A
1
).
2. Si o = R(P) entonces, A
S
1
(A
1
)
S
. Es decir que, pensados como operadores en
L(o), se tiene que
(PAP)
1
PA
1
P. (6.2)
Demostracion. Se deduce de que (l (n)
+
= H
(0,+)
(n) y del Teorema 6.3.7, dado que t t
1
es OP en (0, +), como se ha observado en el Ejemplo 6.3.4.4.
Observaci on 6.3.9. Una versi on m as detallada de la desigualdad (6.2) se vera usando la
teora de complementos de Schur, donde se computa explcitamente que, si o = R(P),
A =
_
a b
b

c
_
o
o

, = (A
1
)
S
1
= (PA
1
P)
1
= a bc
1
b

.
En particular, tambien as se vera que (PA
1
P)
1
a = A
S
.
Proposicion 6.3.10. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion.
Entonces son equivalentes:
1. f es convexa de operadores y f(0) 0.
2. Dados n N, A H
I
(n) y P H(n), un proyector, se cumple que
f(PAP) Pf(A)P ,
pensados como matrices en /
n
(C).
Demostracion. Sea o = R(P). Entonces, en coordenadas de una BON de C
n
tal que
P =
_
I 0
0 0
_
, se tiene que
PAP =
_
A
S
0
0 0
_
= f(PAP) =
_
f(A
S
) 0
0 f(0)I
S

_
.
Por otra parte, en la misma BON,
Pf(A)P =
_
f(A)
S
0
0 0
_
.
Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.7 (es
decir, que f(A
S
) f(A)
S
para todo el mundo, equivale a que f sea OP).
99
Ejercicio 6.3.11. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion.
Entonces son equivalentes:
1. f es convexa de operadores y f(0) 0.
2. Dados n N, A H
I
(n), se cumple que
f(C

AC) C

f(A)C.
para todo C /
n
(C) tal que |C| 1.
3. Dados n N, A, B H
I
(n) y C, D /
n
(C) tales que C

C +D

D I, se verica
f(C

AC) +f(D

BD) C

f(A)C +D

f(B)D.
Se sugiere usar las matrices unitarias construidas en 3.6.9.
Corolario 6.3.12. Las funciones f(t) = t
r
, para 1 r 2, son convexas de operadores en
I = [0, +).
Demostracion. Como f(0) = 0, por la Proposici on 6.3.10, bastara probar que
(PAP)
r
PA
r
P , n N, A /
n
(C)
+
y P un proyector en H(n) .
En efecto, como 0 P I, tenemos que 0 A
1/2
PA
1/2
A. Sea g(t) = t
r1
. Por el
Teorema 6.2.6, g es MOP (porque 0 r 1 1). Luego (A
1/2
PA
1/2
)
r1
A
r1
, por lo que
PA
1/2
_
A
1/2
PA
1/2
_
r1
A
1/2
P PA
1/2
A
r1
A
1/2
P = PA
r
P .
Finalmente, como para todo k N 0, se tiene que
PA
1/2
_
A
1/2
PA
1/2
_
k
A
1/2
P = (PAP)
k+1
y por lo tanto, para todo polinomio Q C[x], vale la igualdad
PA
1/2
Q
_
A
1/2
PA
1/2
_
A
1/2
P = Q(PAP) PAP ,
deducimos que una igualdad similar valdra para toda f : [0, +) R (eligiendo un poli-
nomio Q C[x] que coincida con f en
_
A
1/2
PA
1/2
_
= (PAP) ). En particular,
PA
r
P PA
1/2
_
A
1/2
PA
1/2
_
r1
A
1/2
P = (PAP)
r
,
lo que prueba el resultado.
Proposicion 6.3.13. Sea f : [0, +) [0, +) una funcion continua. Entonces f es
MOP si y solo si es concava de operadores ( i.e., f es OP ).
100
Demostracion. Sipongamos que f es MOP, y sea o C
n
un subespacio. Notemos P = P
S
.
Como f(0) 0 por hip otesis, basta probar que
Pf(A)P f(PAP) , A /
n
(C)
+
,
ya que, por la Proposicion 6.3.10, podramos deducir que f es OP. Para hacerlo, llamemos
Q = I P y tomemos las matrices U =
_
P Q
Q P
_
|(2n) y T =
_
A 0
0 0
_
/
2n
(C)
+
.
Como se vi o en 3.6.10, para todo > 0 existe > 0 tal que
UTU = UTU

=
_
PAP PAQ
QAP QAQ
_

_
PAP +I 0
0 I
_
.
Como f(0) 0, se tiene que T
t
=
_
f(A) 0
0 0
_

_
f(A) 0
0 f(0)I
_
= f(T) . Reemplazando
T por T
t
y usando que f es MOP, obtenemos que
_
Pf(A)P Pf(A)Q
Qf(A)P Qf(A)Q
_
= UT
t
U

Uf(T)U

= f(UTU

)
_
f(PAP +I) 0
0 f()I
_
.
En particular, se cumple que Pf(A)P f(PAP +I) para todo > 0. Como f es continua,
por la Proposici on 6.1.5 se tiene que Pf(A)P f(PAP).
Para probar la recproca, tomemos A, B /
n
(C)
+
tales que A B. Dado (0, 1),
podemos escribir
B = A + (1 )

1
(B A) .
Si f es concava (y con valores positivos), esto nos da que
f(B) f(A) + (1 )f
_

1
(B A)
_
f(A) , (0, 1) .
Tomando 1, como f es continua, deducimos que f(B) f(A).
Corolario 6.3.14. Sea f(t) = t
r
, denida en I = [0, +). Si r > 1, f no es MOP.
Demostracion. Si lo fuera, debera ser OP. Pero, como funci on escalar, es convexa.
Corolario 6.3.15.
1. Las funciones t t
r
, para r (0, 1), son OP en [0, +).
2. f(t) = log t es OP en (0, +).
Demostracion. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.13. Para probar la
concavidad de operadores del logaritmo, jemos un subespacio o de C
n
. Dada A (l (n)
+
,
por lo anterior sabemos que
(A
r
)
S
(A
S
)
r
, r (0, 1) .
101
Luego, por el Lema 6.2.7,
log(A
S
) = lim
r0
+
(A
S
)
r
I
S
r
lim
r0
+
(A
r
)
S
I
S
r
=
_
lim
r0
+
A
r
I
n
r
_
S
= (log A)
S
.
Por el Teorema 6.3.7, deducimos que log es OP.
102
Captulo 7
Productos tensoriales y alternados
7.1 Producto tensorial de a dos
Comenzaremos jando ciertas convenciones de notaci on adecuadas para esta teora:
1. Para cada n N, llamaremos H
n
= C
n
con el producto interno usual. Denotaremos
por e
(n)
1
, . . . , e
(n)
n
a los vectores de la base can onica de H
n
.
2. Llamaremos H
n
H
k
al espacio de funcionales F : H
n
H
k
C bilineales (i.e.,
lineales en cada coordenada), pensado como C-espacio vectorial de la forma natural.
3. Dada F H
n
H
k
, le asociamos la matriz F =
_
F(e
(n)
i
, e
(k)
j
)

/
n,k
(C). Luego
F(x, y) =
n

i=1
k

j=1
x
i
y
j
F
ij
= x
T
F y , x H
n
, y H
m
.
Esto muestra que podemos identicar naturalmente H
n
H
k
con /
n,k
(C).
4. Esto permite, ademas, denir el producto interno natural en H
n
H
k
. Dadas F, G
H
n
H
k
, las identicamos con sus matrices en /
n,k
(C), denimos
F, G) = tr G

F =

i,j
F
ij
G
ij
. (7.1)
5. Dados x H
n
e y H
k
, notaremos por xy H
n
H
k
, al llamado tensor elemental,
dado por
x y(u, v) = u, x)v, y) , u H
n
, v H
k
. (7.2)
Observar que u, x)v, y) = x
T
u y
T
v = u
T
_
xy
T
_
v. Por lo tanto, la matriz de x y es
xy
T
/
n,k
(C) . Por lo tanto, no toda F H
n
H
k
es elemental, pero s sucede que
toda F es suma de tensores elementales, porque las matrices del tipo xy
T
son todas
las de rango uno. Observar que la aplicacion
H
n
H
k
(x, y) x y H
n
H
k
103
es bilineal. Ademas, a partir de la ecuacion (7.1), vemos la f ormula
x y , u v) = tr
_
(uv
T
)

xy
T
_
= tr
_
u

x y
T
v
_
= x, u) y, v) , (7.3)
para x, u H
n
, y, v H
k
.
6. Se puede deducir que el conjunto
c
n,k
= e
(n)
i
e
(k)
j
: i I
n
, j I
k
E
ij
/
n,k
(C) : i I
n
, j I
k

es una base ortonormal de H


n
H
k
, que llamaremos base canonica. La consideraremos
ordenada alfabeticamente (leyendola por filas).
7. Dados A L(H
n
) y B L(H
k
), podemos denir el operador A B L(H
n
H
k
),
a traves de la f ormula A B(F) = AFB
T
, para F H
n
H
k
, pensado como una
matriz en /
n,k
(C). En particular,
A B(x y) Axy
T
B
T
= (Ax) (By)
T
Ax By , x H
n
, y H
k
.
Observar que esta ecuaci on no dene a AB en todos los elementos de H
n
H
k
, pero
s lo caracteriza completamente.
8. El producto tensorial de matrices verica las siguientes propiedades:
(a) Sean I
n
/
n
(C) y I
k
/
k
(C). Entonces I
n
I
k
es la identidad de H
n
H
k
.
(b) (A
1
+A
2
) B = (A
1
B) +A
2
B, para todo C.
(c) (A B)

= A

.
(d) (A
1
B
1
)(A
2
B
2
) = A
1
A
2
B
1
B
2
.
(e) Si existen A
1
y B
1
, entonces A
1
B
1
= (AB)
1
. En particular, si A |(n)
y B |(k), entonces A B |(nk).
(f) A B 0 si A 0 y B 0. M as a un, [A B[ = [A[ [B[. Se usa el Teorema
3.1.3 y la unicidad de la raiz cuadrada positiva.
Observaci on 7.1.1. Dados A L(H
n
) y B L(H
k
), la matriz de AB en la base can onica
de H
n
H
k
(ordenada por las) es el llamado producto de Kronecker de A y B que se dene
como la matriz por bloques
A B =
_

_
a
11
B . . . a
1n
B
.
.
.
.
.
.
.
.
.
a
n1
B . . . a
nn
B
_

_
/
nk
(C).
La vericaci on es sumamente tediosa, pero podemos dar un esbozo: La base canonica de
H
n
H
k
se ordena as:
e
(n)
1
e
(k)
1
, . . . , e
(n)
1
e
(k)
k
, e
(n)
2
e
(k)
1
, . . . , e
(n)
2
e
(k)
k
, . . . . . . , e
(n)
n
e
(k)
1
, . . . , e
(n)
n
e
(k)
k
.
104
Luego, el vector e
(n)
i
e
(k)
r
se ubica en el lugar k(i 1) + r de la base canonica. Fijemos
un par i, j I
n
. Como el bloque de k k ubicado en el jugar (i, j) involucra las las entre
k(i 1) + 1 y ki, y a las columnas k(j 1) + 1 y kj, se escribe
_

A B(e
(n)
j
e
(k)
s
) , e
(n)
i
e
(k)
r
_
_
r,sI
k
=
_
Ae
(n)
j
, e
(n)
i
) Be
(k)
s
, e
(k)
r
)
_
r,sI
k
= a
ij
B ,
como se armaba.
Proposicion 7.1.2. Sean A /
n
(C) y B /
m
(C). Si los autovalores de A son

1
, ...,
n
, y los de B son
1
, ...,
m
, entonces los autovalores de A B son

(i,j)

(i,j)I
n
I
m
, donde
(i,j)
=
i

j
,
todos contados con multiplicidad.
Demostracion. Aplicando el Teorema de Schur 1.6.1, si A = UT
1
U

y B = V T
2
V

, con U, V
unitarias y T
1
, T
2
triangulares superiores, entonces
A B = U V T
1
T
2
(U V )

,
por lo que (A B) = (T
1
T
2
) (con multiplicidades). Por la representaci on matricial de
T
1
T
2
como producto de Kronecker (que queda tambien triangular superior, pero con los
productos
i

j
en su diagonal), se obtiene la igualdad anunciada.
Corolario 7.1.3. Sean A /
n
(C) y B /
m
(C).
1. |A B|
sp
= |A|
sp
|B|
sp
.
2. Mas a un, los valores singulares de A B son
s(A B) = s
i
(A)s
j
(B)
(i,j)I
n
I
m
contados con multiplicidad, y ordenados en forma decreciente.
Demostracion. Se sigue de que [A B[ = [A[ [B[ y de la Proposicion 7.1.2.
7.2 Potencias tensoriales
Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorsmo natural
entre (H
n
H
k
) H
r
y H
n
(H
k
H
r
), identicando a ambos con las funciones trilineales
en H
n
H
k
H
r
. La clave es observar que, dados x H
n
, y H
k
y z H
r
, a los
tensores elementales (x y) z & x (y z) se los puede identicar con la misma
funcional trilineal, por una formula semejante a (7.2). Es decir, que el producto tensorial
es asociativo. Esto permite denir productos de varios espacios, sin necesidad de aclarar el
orden en que se los dene. Lamentablemente, en ese contexto se pierde la representaci on
de las funciones multilineales como matrices, a menos que se quiera pensar en matrices de
muchas dimensiones. Usaremos particularmente la asociatividad para denir potencias, en el
sentido tensorial, de un mismo espacio H
n
, y de operadores en H
n
. Damos, a continuaci on, el
listado de notaciones y resultados que se siguen naturalmente (y que se prueban planarmente
por induccion usando lo anterior y la asociatividad):
105
7.2.1. Sean n, k N.
1. Notaremos

k
H
n
, llamado espacio k-tensorial sobre H
n
, al producto tensorial de
H
n
por s mismo k veces. Los elementos de

k
H
n
se pueden pensar como funcionales
k-multilineales F : H
k
n
C.
2. Dados x
1
, , x
k
H
n
, se dene el k-tensor elemental x
1
x
2
x
k
por la f ormula
x
1
x
k
(u
1
, , u
k
) =
k

i=1
u
i
, x
i
) , (u
1
, , u
k
) H
k
n
. (7.4)
Luego todo elemento de

k
H
n
es suma de k-tensores elementales.
3. El producto interno sobre

k
H
n
, denido inductivamente en todo par de elementos
de

k
H
n
, esta determinado por el producto de k-tensores:

x
1
x
2
x
k
, y
1
y
2
y
k
_
=
k

i=1
x
i
, y
i
) , (7.5)
para x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
.
4. La aplicaci on H
k
n
(x
1
, . . . , x
k
) x
1
x
k

k

H
n
es k-multilineal.
5. La base canonica ortonormal de

k
H
n
es, por denici on,
_
e
(n)

1
e
(n)

2
e
(n)

k
: = (
1
,
2
, ,
k
) I
k
n
_
.
Luego dim

k
H
n
= n
k
.
7.2.2. Todo operador A : H
m
H
n
induce un operador de

k
A :

k
H
m


k
H
n
,
llamado potencia k-tensorial de A, determinado por la formula
k

A (x
1
x
2
x
k
) = Ax
1
Ax
2
Ax
k
, (7.6)
para x
1
, . . . , x
k
H
m
. Se tienen las siguientes propiedades:
a. Dados A L(H
m
, H
n
) y B L(H
n
, H
r
),
k

(AB) =
k

A
k

B . (7.7)
b. (

k
A)

k
A

.
c. Si A (l (n), entonces

k
A
1
= (

k
A)
1
. En particular

k
A es unitaria si
A |(n).
106
d. Si A /
n
(C)
+
, entonces

k
A 0, porque A = C

C para alg un C /
n
(C), y

k
A = (
k
C)

k
C.
e. M as generalmente, si A /
n
(C), se tiene que [

k
A[ =

k
[A[.
f. Si los autovalores de A son
1
, . . . ,
n
, los autovalores (resp. valores singulares) de

k
A son
_
k

j=1

i
j
: (i
1
, . . . , i
k
) I
k
n
_ _
resp.
_
k

j=1
s
i
j
(A) : (i
1
, . . . , i
k
) I
k
n
_ _
,
contados con multiplicidad. En particular se tiene que

_
k

A
_
= (A)
k
y
_
_
k

A
_
_
sp
= |A|
k
sp
.

7.3 Productos alternados y determinantes.


Sea S
k
el grupo simetrico de grado k, esto es el grupo de todas la permutaciones de I
k
.
Cada S
k
da lugar a un operador linear P
(n)

|(

k
H
n
), por la siguiente f ormula: Si
pensamos a los elementos de

k
H
n
como funcionales k- multilineales F : H
k
n
C, se dene
P
(n)

(F) (x
1
, x
2
, , x
k
) = F(x
(1)
, x
(2)
, , x
(k)
) , (x
1
, x
2
, , x
k
) H
k
n
.
Dados x
1
, . . . , x
k
H
n
, es f acil ver, usando la formula (7.4), que
P
(n)

(x
1
x
2
x
k
) = x

1
(1)
x

1
(2)
x

1
(k)
. (7.8)
Observaci on 7.3.1. El hecho de que P
(n)

sea unitario se puede probar mostrando primero


que (P
(n)

= P
(n)

1
(esto puede hacerse usando solo los k-tensores elementales). Despues,
ah si por denici on, se ve que (P
(n)

1
) = (P
(n)

)
1
.
Deniremos a continuaci on las nociones b asicas de productos alternados
Denici on 7.3.2. Sea n N y k I
n
. Llamaremos espacio k-alternado (o k-esimo Grass-
mann) sobre H
n
, al subespacio de

k
H
n
dado por

k
H
n
=
_
F
k

H
n
: P
(n)

F = sgn() F para toda S


k
_
,
donde sgn() = 1 de acuerdo a si es una permutaci on par o impar. Los elementos de

k
H
n
se llaman k-tensores alternados. Se considera a
k
H
n
como un espacio de Hilbert con
el producto interno de

k
H
n
.
107
Observaci on 7.3.3. Notaremos por P
n
k
a la proyecci on ortogonal de

k
H
n
sobre
k
H
n
.
Es facil ver que P
n
k
est a dada por la f ormula
P
n
k
=
1
k!

S
k
sgn() P
(n)

. (7.9)
En efecto, como cada P
(n)

|(

k
H
n
), entonces (P
(n)

= (P
(n)

)
1
= P
(n)

1
. Por lo tanto
(P
n
k
)

= P
n
k
, ya que al adjuntarlo tan solo se reordena la suma (se usa sgn(
1
) = sgn() ).
Por otro lado, como para todo par , S
k
se tiene que
sgn() = sgn()sgn() y P
(n)

= P
(n)

P
(n)

,
podemos deducir que R(P
n
k
)
k
H
n
. Finalmente, es claro, a partir de la denici on de

k
H
n
, que P
n
k
(F) = F para toda F
k
H
n
.
Denici on 7.3.4. Dados x
1
, . . . , x
k
H
n
, se dene el k-tensor alternado elemental:
x
1
x
2
x
k
:= P
n
k
(x
1
x
2
. . . x
k
) =
1
k!

S
k
sgn() x
(1)
x
(2)
x
(k)
,
tambien llamado producto alternado de la k-upla ordenada x
1
, x
2
. . . , x
k
.
Observaci on 7.3.5. Enumeraremos aqu algunas propiedades de los k-tensores elementales:
1. Notar que, como
k
H
n
= P
n
k
_
k
H
n
_
, y los k-tensores elementales generan

k
H
n
,
podemos asegurar que los k-tensores alternados elementales generan
k
H
n
.
2. Usando el tem 5 de 7.2.1 y el hecho de que P
n
k
es lineal, podemos deducir que la
aplicaci on (x
1
, . . . , x
k
) x
1
x
k
es k-multilineal.
3. Por otra parte, dados x
1
, x
2
. . . , x
k
H
n
y S
k
, se sigue de las deniciones que
x
(1)
x
(2)
x
(k)
= sgn() x
1
x
2
x
k
. (7.10)
En resumen, (x
1
, . . . , x
k
) x
1
x
k
es una aplicaci on k-multilineal alternada.
4. De la formula (7.10) puede deducirse que, si existen x
i
= x
j
con i ,= j, entonces
x
1
x
k
= 0 (usando la transposici on = (i, j) S
k
, cuyo sgn() = 1).
5. M as a un, esto implica que si el conjunto x
1
, . . . , x
k
es linealmente dependiente, su
produco alternado debe ser nulo. Esto se usar a en la subseccion siguiente.
108
Productos alternados y el determinante
En los captulos anteriores se hizo uso libre de la funci on determinante /
n
(C) A
det A, y de sus conocidas propiedades. Dar una exposici on completa y formal de dichos
resultados es algo que uno siempre trata de evitar, porque es una teora complicada y poco
amigable. Sin embargo, con la teora de productos alternados a mano, esto esta bastante
cerca, por lo que trataremos de dar las dos deniciones usuales, mostrar su equivalencia, y
dar pruebas de sus propiedades m as importantes. Por lo tanto, en esta secci on supondremos
que nos olvidamos lo que sabemos (y hemos usado) al respecto. Empecemos por una de
las deniciones. Asumimos conocida cierta teora b asica de grupos de permutaciones, como
hemos hecho hasta ahora.
Denici on 7.3.6. Sea A = (a
ij
)
i,jI
n
/
n
(C). Denimos su determinante por la f ormula
det A =

S
n
sgn()
n

j=1
a
j,(j)
C . (7.11)
Con la misma f ormula se dene el determinante de matrices a coecientes en cualquier anillo
(como en C[X], lo que se usa para denir el polinomio caracterstico de una matriz).
7.3.7. A continuacion enumeraremos una serie de propiedades que se siguen f acilmente de
esta denicion del determinante. Las pruebas que no esten escritas deben considerarse como
ejercicios: Sea A /
n
(C).
1. det A
T
= det A y det A

= det A. Aca se usa solamente que sgn(


1
) = sgn().
2. det I = 1, ya que el sumando

n
j=1
I
j,(j)
= 0 para toda ,= Id.
3. Si todas las diagonales de A tienen alg un cero (en el sentido de la Denici on 4.3.2),
entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una
submatriz nula de tama no k r con k +r > n.
4. En paerticular, si exite alguna F
i
(A) = 0 (o bien una columna), entonces det A = 0.
5. La funci on /
n
(C) A det A C es continua (m as a un, es de clase C

), debido a
que es un polinomio de grado n en los coecientes de A.
Para dar la segunda denici on y probar las principales propiedades del determinante, nece-
sitamos desarrollar un poco la teora de productos alternados. La relaci on clave entre estos
y la f ormula (7.11) para el determinante es lo siguiente:
Proposicion 7.3.8. Sean x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
. Entonces

x
1
x
2
x
k
, y
1
y
2
y
k
_
=
1
k!
det
_
x
i
, y
j
)
_
i,jI
k
(7.12)
109
Demostracion. Es consecuencia de la ecuaci on ecuacion (7.5), por la Denicion 7.3.6 para el
determinante. En efecto, si D = x
1
x
k
, y
1
y
k
), entonces
D =
_
1
k!

S
k
sgn()x
(1)
x
(k)
,
1
k!

S
k
sgn()y
(1)
y
(k)
_
=
1
(k!)
2

,S
k
sgn() sgn()
k

i=1

x
(i)
, y
(i)
_
como sgn() = sgn(
1
),
=
1
(k!)
2

,S
k
sgn(
1
)
k

j=1

1
(j)
, y
j
_
tomando j = (i)
=
1
k!

S
k
sgn()
k

j=1

x
(j)
, y
j
_
=
1
k!
det
_
x
i
, y
j
)
_
i,jI
k
,
donde la pen ultima igualdad surge de considerar la aplicacion S
k
S
k
S
k
dada por
(, ) =
1
. Notar que cada S
k
es imagen de k! elementos, a saber, los de la
forma (, ), parametrizados por S
k
.
Potencia alternada de una matriz
Observaci on 7.3.9. Por las ecuaciones (7.6) y (7.8), si A L(H
m
, H
n
), su k-potencia
tensorial mezcla P
(n)

y P
(m)

en el siguiente sentido:
P
(n)

_
k

A
_
=
_
k

A
_
P
(m)

para toda S
k
.
Luego, por la formula (7.9),

k
A mezcla las proyecciones P
n
k
y P
m
k
:
P
n
k
_
k

A
_
=
_
k

A
_
P
m
k
. (7.13)
Por lo tanto
k

A
_

k
H
m
_

k
H
n
.
Denici on 7.3.10. Sea A L(H
n
, H
m
). La restriccion de

k
A al espacio alternado
k
H
n
es llamada la k-potencia exterior de A, y denotada por

k
A L(
k
H
n
,
k
H
m
) .
Por la ecuaci on (7.6) y la Observaci on 7.3.5, la k-potencia exterior
k
A est a determinada
por la f ormula:

k
A (x
1
x
2
x
k
) = Ax
1
Ax
2
Ax
k
, (7.14)
para toda k-upla x
1
, . . . , x
k
en H
n
.
110
Observaci on 7.3.11. Si I
n
es la identidad de H
n
, entonces
k
I
n
= I

k
H
n
. Por otra parte,
se sigue de la ecuacion (7.7) que, si A L(H
n
, H
m
) y B L(H
m
, H
r
), entonces

k
(AB) =
k
A
k
B y (
k
A)

=
k
A

. (7.15)
Cuando n = m, i.e. A L(H
n
), la ecuaci on (7.13) dice que
k
H
n
reduce a

k
A, por lo que
se tiene una identidad matricial del tipo

k
A =
_

k
A 0
0
_

k
H
n
_

k
H
n
_

. De ahi se dedcen
f acilmente las siguientes propiedades:
a. Si A (l (n),
k
A
1
= (
k
A)
1
.
b.
k
A es unitaria si A |(n).
c.
k
A 0 si A 0. Adem as [
k
A[ =
k
[A[.
Denici on 7.3.12. 1. Sea n N y k I
n
. Notamos por Q
k,n
al conjunto de sucesiones
estrictamente crecientes de k enteros elegidos en I
n
:
Q
k,n
=
_
= (
1
,
2
, ,
k
) I
k
n
: 1
1
<
2
< <
k
n
_
.
Otra manera de verlo es Q
k,n
=
_
J I
n
: [J[ = k
_
, si pensamos a los conjuntos J
ordenados en forma creciente. Luego [Q
k,n
[ =

n
k

.
2. Sean A /
n,m
(C), Q
k,n
y Q
l,m
. Entonces denotaremos por A[[] a la
submatriz de k l de A dada por
A[[] =
_
A

j
_
(i,j)I
k
I
l
/
k,l
(C) .
Cuando = , A[[] se abreviar a como A[]. Si = I
n
(resp. = I
m
), notaremos
A[[] = A[[] (resp. A[[] = A[[]).
3. Dada Q
k,n
, usaremos la abreviaci on:
e

= e
(n)

:= e
(n)

1
e
(n)

2
e
(n)

k

k
H
n
.
A continuaci on veremos que forman una BON de
k
H
n
.
Proposicion 7.3.13. El conjunto
c

k,n
=

k! e

: Q
k,n
(7.16)
es una BON de
k
H
n
. Por lo tanto, tenemos que dim
k
H
n
= [Q
k,n
[ =

n
k

.
Demostracion. El hecho de que c

k,n
genera
k
H
n
se deduce de los tems 1, 2 y 3 de la
Observacion 7.3.5 (la ecuacion (7.10) permite ordenar las coordenadas). Por otro lado, si
, Q
k,n
no son iguales, es facil ver que la matriz
_
e

i
, e

j
_ _
i,jI
k
debe tener una la
nula (la de alg un
i
/ ). Luego, por la Proposici on 7.3.8 y el tem 4 de 7.3.7, se tiene que
e

, e

) = 0. Finalmente, como det I


k
= 1, llegamos a que c

k,n
es una BON.
111
Proposicion 7.3.14. Sea A /
n,m
(C). Identiquemos
k
A L(
k
H
m
,
k
H
n
) con su
matriz en las bases c

k,m
y c

k,n
. Dados Q
k,n
y Q
k,m
, se tiene que
_

k
A
_
,
= det A[[] . (7.17)
Demostracion. De acuerdo a las ecuaciones (7.12) y (7.16), se tiene que
_

k
A
_
,
=
_

k
A

k! e
(m)

k! e
(n)

_
= k!
_

k
A e
(m)

, e
(n)

_
= det
_
Ae

j
, e

i
_
i,jI
k
= det A[[] ,
donde la ultima igualdad se sigue de que Ae

j
, e

i
) = A

j
.
Determinantes
Miremos que es
n
H
n
, o sea el caso k = n. Como I
n
es el unico elemento de Q
n,n
, la
Proposicion 7.3.13 asegura que el vector e
n
=

n! e

I
n
=

n! e
1
e
2
e
n
es una BON de

n
H
n
. O sea que
n
H
n
= C e
n
. Dados x
1
, . . . , x
n
H
n
, si tomamos la matriz X /
n
(C)
dada por F
i
(X) = x
i
, queda

n! x
1
x
2
x
n
= det X e
n
. (7.18)
En efecto, si abreviamos a = x
1
x
n
, entonces a = a, e
n
) e
n
. Ah podemos aplicar
la Proposicion 7.3.8, ya que x
i
, e
j
) = X
ij
, para todo par i, j I
n
.
La formula (7.18) es la segunda denicion para el det X, en el sentido de que X det X
es la unica funci on n-multilineal alternada tal que det I
n
= 1 (esto vale porque la matriz X
asociada a e
1
e
n
es X = I
n
). La Proposicion 7.3.8 muestra que es equivalente a la de
diagonales y permutaciones.
Si en la Proposicion 7.3.14 consideramos el caso k = n = m, e identicamos L(
n
H
n
) con C
(va zI z), tenemos que

n
A = det A para toda A /
n
(C) . (7.19)
Proposicion 7.3.15. Sean A, B /
n
(C), Entonces se tiene que
1. det AB = det A det B.
2. det A ,= 0 si y solo si A (l (n).
Demostracion. Lo primero se deduce de que
n
AB =
n
A
n
B va la f ormula (7.19).
Si A (l (n), tenemos que det A det A
1
= det I
n
= 1 ,= 0. Si A / (l (n), entonces
sus columnas deben ser un conjunto linealmente dependiente (porque ker A ,= 0). Luego
se aplica la ecuacion (7.18) y el ultimo punto de la Observacion 7.3.5 (en particular que
det A = det A
T
).
112
Corolario 7.3.16. Sean k, n N.
1. Un conjunto x
1
, x
2
, . . . , x
k
H
n
es linealmente independiente si y solo si el producto
alternado x
1
x
2
x
k
,= 0.
2. El espacio
k
H
n
,= 0 si y solo si k n.
Demostracion. Sea X /
n,k
dada por C
i
(X) = x
i
, i I
k
. Luego x
1
, x
2
, . . . , x
k

es linealmente independiente si y s olo si ker X = 0. Esto, a su ves, equivale a que


X

X (l (k) (porque ker X

X = ker X). Pero, por la Proposicion 7.3.8, tenemos que


X

X =
_
x
j
, x
i
)
_
i,jI
k
=
_
x
i
, x
j
)
_
i,jI
k
= det X

X = k! |x
1
x
2
x
k
|
2
.
Luego aplicamos la Proposicion 7.3.15. La segunda parte se deduce inmediatamente de la
primera, porque en H
n
puede haber, a lo sumo, n vectores linealmente independientes.
Observaci on 7.3.17. Recordemos que, si A /
n,m
(C) decimos que
rkA = dimR(A) = dimspan C
1
(A), . . . , C
m
(A) ,
es el rango columna de A. Como
k
A(e

) = C

1
(A) C

k
(A), para todo Q
k,m
,
el Corolario 7.3.16 muestra que
rk A = maxk N :
k
A ,= 0 (7.20)
(ver tambien el Corolario 7.4.3 de mas adelante). Usando que
k
A

= (
k
A)

, la f ormula
(7.20) da otra prueba de que rk A

= rk A.
El siguiente resultado generaliza la Proposicion 7.3.15 a determinantes de submatrices:
Corolario 7.3.18 (F ormula de Cauchy Binnet). Dadas A /
n,r
(C) y B /
r,m
(C) , sea
k minn, r, m. Luego, para cada par Q
k,n
, Q
k,m
se tiene que
det(AB)[[] =

Q
k,r
det A[[] det B[[] . (7.21)
Demostracion. Por la ley de multiplicaci on (7.15) y la Proposici on 7.3.14, tenemos que
det(AB)[[] = (
k
AB)

=
_

k
A
k
B
_

Q
k,r
_

k
A
_

k
B
_

Q
k,r
det A[[] det B[[] ,
lo que prueba lo armado.
113
Observaci on 7.3.19. La versi on mas cl asica de la F ormula de Cauchy Binnet es la siguiente:
Sean A /
k,r
(C) y B /
r,k
(C) , con k r. Luego,
det AB =

Q
k,r
det A[[] det B[[] , (7.22)
que resulta de operar con todas las submatrices cuadradas de tama no m aximo de A (eligiendo
columnas) y de B (eligiendo las mismas las). Es claro que (7.22) se deduce del Corolario
7.3.18. Tambien vale la recproca, porque dadas A y B como en el Corolario 7.3.18, las
matrices A
0
= A[, ] /
k,r
(C) y B
0
= B[, ] /
r,k
(C) cumplen que
A
0
B
0
= (AB)[[] , A
0
[[] = A[[] y B
0
[[] = B[[] , Q
k,r
;
por lo que (7.21) para A y B se reduce a (7.22) para A
0
y B
0
.
7.4 Propiedades utiles de los productos alternados
El siguiente resultado, si bien es algo tecnico, es la llave para la caracterizacion completa de
los autovalores de un producto alternado:
Lema 7.4.1. Sea T T o(n), con los n umeros
1
, . . . ,
n
en su diagonal. Sea k I
n
.
1. En terminos de la BON c

k,n
de la ecuacion (7.16), ordenada lexicogracamente, la
matriz de
k
T es, tambien, triangular superior.
2. Para cada J Q
k,n
, se tiene que (
k
T)
JJ
=

i J

i
.
Demostracion. Sean I, J Q
k,n
tales que I > J. Debemos probar que
(
k
T)
IJ
= det T[I, J] = 0 ,
donde la primea igualdad sabemos que es cierta por la Proposici on 7.3.14. Si I = (
1
, ,
k
)
y J = (
1
, . . . ,
k
) (vectores ordenados en forma creciente), debe existir alg un j I
k
tal que

j
>
j
(sino valdra que I J en el lexicogr aco). Por lo tanto,

i
>
r
para todo par (i, r) tal que 1 r j i k .
Como T T o(n), tenemos que T

r
= 0 para todos esos pares. Es decir que T[I, J] tiene
una submatriz nula de tama no (kj +1) j. Aplicando K onig-Frobenius (Corolario 4.3.3),
deducimos que T[I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T[I, J] = 0,
como se arm o. Por otra parte, si J Q
k,n
, por la Proposicion 7.3.14 sabemos que
(
k
T)
JJ
= det T[J] =

i J

i
,
puesto que T[J] T o(k).
114
Teorema 7.4.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
(A), . . . ,
n
(A) ).
Sea k I
n
. Entonces los autovalores de
k
A estan dados por

J
(
k
A) =

i J

i
(A) , J Q
k,n
,
contados con multiplicidad.
Demostracion. Es similar al caso de los productos tensoriales (Proposici on 7.1.2). Se aplica
el Teorema dede Schur 1.6.1 y el hecho de que
k
U es unitaria si U |(n), pero usando
ahora el Lema 7.4.1.
Corolario 7.4.3. Sea A /
n
(C). Sea k I
n
. Entonces los valores singulares de
k
A son
s
_

k
A
_
=
_
s
J
_

k
A
_ _
JQ
k,n
=
_

i J
s
i
(A)
_
JQ
k,n
,
contados con multiplicidad, y ordenados en forma decreciente. Ademas, si ordenamos a los
autovalores
1
(A), . . . ,
n
(A) de A con modulos decrecientes, se tiene que

k
A
_
=
k

i=1
[
i
(A)[ y
_
_

k
A
_
_
sp
= s
1
_

k
A
_
=
k

i=1
s
i
(A) .
Demostracion. Se deduce del Teorema 7.4.2 y del hecho de que

k
A

=
k
[A[.
A continuaci on veremos algunas propiedades funtoriales de los productos alternados, que
ser an necesarias para las aplicaciones a desigualdades.
Proposicion 7.4.4. Sea A /
n
(C) y k I
n
.
1. Si A
m

m
A, entonces
k
A
m

m

k
A.
2. Si A /
n
(C)
+
entonces, para todo r R
+
se tiene que
(
k
A)
r
=
k
(A
r
) .
3. Si A es alguna de estas cosas:
a. Idempotente (i.e., A
2
= A),
b. Proyector (i.e., A
2
= A = A

),
c. Isometra parcial (i.e., AA

y A

A son proyectores),
d. Autoadjunto, normal o unitario,
entonces
k
A es del mismo tipo.
115
4. Si A = U[A[ es una DP de A, entonces

k
A =
k
U
k
[A[ (7.23)
es una descomposicion polar de
k
A.
Demostracion.
1. Por la f ormula (7.17), para todo par , Q
k,n
, tenemos que
(
k
A
m
)

= det A
m
[[]
m
det A[[] = (
k
A)

.
Observar que el determinante de una matriz es un polinomio en sus entradas, por lo
que la funci on B det B es continua.
2. Como (
k
A)
2
=
k
(A
2
), la veracidad del enunciado cuando r N se deduce a traves
de una simple induccion. Recordando que (
k
A)
1
=
k
(A
1
), es claro que tambien
vale si r Z. Para extender el resultado a los r Q, basta notar que si m N 0
entonces:
(
k
A
1/m
)
m
=
k
[(A
1/m
)
m
] =
k
A .
Finalmente, el caso general se obtiene por continuidad (y el item 1.).
3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Ob-
servaci on 7.3.11.
4. Ya hemos visto (o podemos deducir de lo anterior) que [
k
A[ =
k
[A[. Como
k
U es
isometra parcial, y la igualdad (7.23) se tiene que cumplir a partir de que A = U[A[,
entonces (7.23) es una DP de
k
A.
116
Captulo 8
Producto de Hadamard
8.1 Propiedades basicas
Denici on 8.1.1. Dadas A, B /
n,m
(C) se dene el producto de Hadamard A B como
la matriz
A B = [a
ij
b
ij
]
ij
/
mn
(C) .
Notar que este producto tiene sentido tanto para matrices como para vectores.
Teorema 8.1.2 (Teorema de Schur). Sean A, B /
n
(C)
+
, entonces A B /
n
(C)
+
.
Ademas, si A > 0 y B > 0, entonces A B > 0.
Demostracion. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0,
existen n umeros a, b > 0 tales que A aI y B bI. Entonces, aplicando dos veces el caso
que a un no hemos probado, obtendramos
A B aI B aI bI = abI > 0. (8.1)
Supongamos entonces que A, B /
n
(C)
+
. Por la Observacion 5.2.3 (o por 1.9.3), deben
existir vectores v
i
, w
i
C
n
, i I
n
, tales que
A =
n

i=1
v
i
v

i
y B =
n

i=1
w
i
w

i
.
Notar que si x, y C
n
, entonces xx

yy

= (x
k
x
l
y
k
y
l
)
kl
= (x
k
y
k
x
l
y
l
)
kl
= (x y)(x y)

.
Por lo tanto,
A B =
n

i,j=1
v
i
v

i
w
j
w

j
=
n

i,j=1
(v
i
w
j
)(v
i
w
j
)

0.

Corolario 8.1.3. Sean A, B /


n
(C)
+
, entonces
1.
n
(A)
n
(B)
n
(A B).
117
2. |A B| =
1
(A B)
1
(A)
1
(B) = |A| |B|.
Demostracion. La primera desigualdad se deduce de la ecuaci on (8.1), porque A
n
(A)I
y B
n
(B)I. La segunda, de una cuenta an aloga, usando que A
1
(A)I y B
1
(B)I.

Proposicion 8.1.4. Sea o = span e


i
e
i
: i I
n
H
n
H
n
. Identicaremos L(o) con
/
n
(C) en la manera obvia. Denamos el operador lineal
: L(H
n
H
n
) /
n
(C) dado por (T) = T
S
, T L(H
n
H
n
) .
Entonces, dados A, B /
n
(C), se verica que (A B) = A B .
Demostracion. Representemos AB como producto de Kronecker, como en la Observaci on
7.1.1. Con las notaciones de submatrices de la Denici on 7.3.12, es f acil ver que, si tomamos
=
_
(1, 1), (2, 2), . . . , (n, n)
_
I
n
I
n
, entonces
(A B) = (A B)
S
= (A B)[] = A B ,
como se armaba.
Denici on 8.1.5. Dada A /
n,m
(C), llamaremos
C(A) = max
i I
m
|C
i
(A)|
2
y F(A) = max
i I
n
|F
i
(A)|
2
.
Notar que estos n umeros pueden, tambien, caracterizarse por las formulas
C(A)
2
= |A

A I
m
|
sp
y F(A)
2
= |AA

I
n
|
sp
.
Por lo tanto C(A) |A|
sp
y F(A) |A|
sp
.
Proposicion 8.1.6. Sean A, B /
n,m
(C). Entonces
|A B|
sp
C(A)F(B) |A|
sp
|B|
sp
.
Demostracion. Pero, para cada par x C
m
, y C
n
de vectores unitarios, se tiene que

A Bx, y)

2
=

i,j
a
ij
b
ij
x
j
y
i

2
=

i,j
(a
ij
x
j
) (b
ij
y
i
)

i,j
[a
ij
[
2
[x
j
[
2
__

i,j
[b
ij
[
2
[y
i
[
2
_
(por Cauchy-Schwarz)
=
_

j
[x
j
[
2

i
[a
ij
[
2
__

i
[y
j
[
2

j
[b
ij
[
2
_
C(A)
2
|x|
2
F(B)
2
|y|
2
= C(A)
2
F(B)
2
.
Como |A B|
sp
= max
_
[A Bx, y)[ : |x| = |y| = 1
_
, el resultado est a demostrado.
118
Proposicion 8.1.7. Sean A (l(k)
+
, C (l(m)
+
y B /
km
(C). Sea
P =
_
A B
B

C
_
n
m
/
k+m
(C) .
Entonces se verican las siguientes propiedades:
a. P > 0 B

A
1
B < C y P 0 B

A
1
B C.
b. Si P (l (n), entonces P
1
=
_

(C B

A
1
B)
1
_
.
Demostracion. Sea X = A
1
B /
km
(C). Entonces, haciendo cuentas elementales,
obtenemos que
_
I
k
0
X

I
m
_
P
_
I
k
X
0 I
m
_
=
_
A 0
0 C B

A
1
B
_
,
lo que prueba la parte a. Por otra parte, como
_
I
k
X
0 I
m
_
1
=
_
I
k
X
0 I
m
_
, deducimos que
_
I
k
X
0 I
m
_
P
1
_
I
k
0
X

I
m
_
=
_
A
1
0
0 (C B

A
1
B)
1
_
y, por lo tanto, que
P
1
=
_
I
k
X
0 I
m
_ _
A
1
0
0 (C B

A
1
B)
1
_ _
I
k
0
X

I
m
_
=
_

(C B

A
1
B)
1
_
lo que prueba la parte b.
Corolario 8.1.8. Sean P (l (n)
+
y J I
n
. Si llamamos P
J
= (p
ij
)
i,j J
a la submatriz
principal de P determinada por el conjunto J, se tiene que (P
1
)
J
(P
J
)
1
.
Demostracion. Si [J[ = m = n k y reordenamos la base canonica poniendo ultimos a los
elementos de J, obtenemos que 0 < P =
_
A B
B

C
_
J
c
J
, con C = P
J
. Por la Proposici on
8.1.7,
P
1
=
_

(C B

A
1
B)
1
_
.
Luego (P
1
)
J
= (C B

A
1
B)
1
C
1
= (P
J
)
1
. Otra prueba de este resultado puede
hacerse usando que la funcion t t
1
es OP en [0, +).
Proposicion 8.1.9. Sean A, B (l (n)
+
. Entonces se verica que
1. (A B)
1
A
1
B
1
.
2. A A
1
I (A A
1
)
1
.
Demostracion. Se deduce del Corolario 8.1.8 y de la Proposicion 8.1.4, ya que que A B es
una submatriz principal de AB, mientras que A
1
B
1
lo es de A
1
B
1
= (AB)
1
,
para los mismos ndices.
119
8.2 La norma de un multiplicador Hadamard.
Denici on 8.2.1. Fijemos A /
n
(C), y denamos el operador de multiplicaci on
M
A
: /
n
(C) /
n
(C) dado por M
A
(B) = A B , B /
n
(C) .
Fijada una norma N en /
n
(C), denotaremos K
N
(A) a la norma inducida para M
A
:
K
N
(A) = max
_
N(A B) : B /
n
(C) es tal que N(B) = 1
_
= min
_
k 0 : N(A B) k N(B) para toda B /
n
(C)
_
.
En el caso de que N sea la norma espectral, escribiremos K
A
en lugar de N
| |
sp
(A).
Observaci on 8.2.2. Sea A /
n
(C). Si N es una norma unitariamente invariante tal que
N(E
11
) = 1, entonces
max
i,j
[a
ij
[ K
N
(A) .
En efecto, notar que para todo i, j I
n
se tiene
N(A E
ij
) = [a
ij
[N(E
ij
) = [a
ij
[ y N(E
ij
) = 1 .
Por otra parte, para la norma espectral, de la Proposici on 8.1.6 se puede deducir que
K
A
min
_
C(A), F(A)
_
|A|
sp
.
En efecto, notar que para toda B /
n
(C), tenemos que
|A B| C(A)F(B) C(A)|B| y |A B| F(A)C(B) F(A)|B|,
ya que |C
i
(B)|
2
= |Be
i
| |B| para todo i I
n
. Analogamente, F(B) |B|.
Ejercicios 8.2.3.
1. Si N = | |
2
(la norma de Frobenius), entonces
K
N
(A) = max
i,j
[a
ij
[ , A /
n
(C) .
Notar que (/
n
(C), N) es un espacio de Hilbert, M
A
es un operador diagonal, y
K
N
(A) = |M
A
|
sp
.
2. Algo m as complicado es probar que, para cualquier A /
n
(C),
K
| |
1
(A) = K
A
.
Debe usarse que | |
1
es la norma dual de la espectral (esto es del mismo tipo que
(
1
)

, pensada en los valores singulares), y que el operador adjunto de M


A
es
el mismo M
A
. Esto ultimo se deduce de la identidad
tr
_
(A B)C
t
_
=

i,j
a
ij
b
ij
c
ij
= tr
_
B(A C)
t
_
,
donde se identica a /
n
(C) con su dual /
n
(C)
t
a traves de la aplicacion C
C
=
tr( C
t
).
120
Teorema 8.2.4. Sea A /
n
(C). Dada una factorizacion A = D

B, con B, D /
n
(C),
se verica que
K
A
C(D)C(B) .
Demostracion. Consideremos la siguiente matriz:
P =
_
D

0
B

0
_ _
D B
0 0
_
=
_
D

D A
A

B
_
/
2n
(C)
+
.
Fijemos M /
n
(C) tal que |M|
sp
1. Luego
_
I M
M

I
_
/
2n
(C)
+
, y por el Teorema
de Schur 8.1.2, tenemos que
P
M
= P
_
I M
M

I
_
=
_
I D

D M A
(M A)

I B

B
_
/
2n
(C)
+
.
Como (D

D)
ii
= |C
i
(D)|
2
, i I
n
, podemos deducir que ID

D C(D)
2
I, y an alogamente
se ve que I B

B C(B)
2
I. Por ende,
P
M

_
C(D)
2
I M A
(M A)

C(B)
2
I
_
= R
M
.
Conjugando con F =
_
C(D)
1
I 0
0 C(B)
1
I
_
, obtenemos que
FR
M
F =
_
I C(D)
1
C(B)
1
(M A)
C(D)
1
C(B)
1
(M A)

I
_
/
2n
(C)
+
.
Esto nos dice que |C(D)
1
C(B)
1
(M A)|
sp
= C(D)
1
C(B)
1
|M A|
sp
1, o sea
|M|
sp
1 = |M A|
sp
C(D)C(B) .
En otras palabras, K
A
C(D)C(B).
Corolario 8.2.5 (Schur). Sea A /
n
(C)
+
. Entonces K
A
= maxA
ii
: i I
n
.
Demostracion. Notemos M = maxA
ii
: i I
n
. Hemos visto que M K
A
(porque
A
ii
= |A E
ii
|). Por otra parte, como A /
n
(C)
+
, sabemos que existe B /
n
(C) tal
que A = B

B. Es f acil ver que, en tal caso, A


ii
= |C
i
(B)|
2
para todo i I
n
. Esto dice que
M = C(B)
2
. Por el Teorema 8.2.4 deducimos que K
A
C(B)
2
= M.
8.3 Funcionales positivas
El teorema de Haagerup (1983) dice que, dado A /
n
(C), existe una factorizaci on
A = D

B, como en el Teorema 8.2.4, tal que se obtiene la igualdad K


A
= C(D)C(B). Su
formulaci on y demostraci on original utilizaba profundas nociones y resultados de algebras
121
de operadores. Esto motivo que, desde el ambito de los especialistas en analisis matricial,
fueran apareciendo numerosas pruebas simplicadas del teorema de Haagerup. De todas
ellas hemos seleccionado la obtenida por Paulsen, Power y Smith en [22]. Necesitaremos,
sin embargo, adaptar al contexto de matrices ciertas nociones y resultados elementales de
algebras de operadores. Fundamentalmente, propiedades y criterios de existencia de fun-
cionales positivas.
Denici on 8.3.1. Sea o /
n
(C) un subespacio cerrado por adjunci on, es decir, T o
si y s olo si T

o. Una funcional en o es una aplicaci on lineal : o C. Se denen los


siguientes tipos de funcionales:
1. Notamos

(adjunta de ) a la funcional dada por

(A) = (A

), A o.
2. Decimos que es autoadjunta si

= . Es decir, si (A

) = (A), A o.
3. La funcional se llama positiva si (A) 0 cuando A o /
n
(C)
+
.
4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices.
Es decir || = max[(A)[ : A o , |A|
sp
= 1 .
Ejercicios 8.3.2. Sea o /
n
(C) un subespacio cerrado por adjunci on.
1. Sea una funcional en o. Probar que
(a) || = |

|.
(b) es autoadjunta si y solo si (A) R para toda A o H(n).
(c) Si es positiva, entonces es tambien autoadjunta.
(d) Toda funacional autoadjunta en o es resta de dos positivas.
Se usa que si A o, entonces Re A o e ImA o.
2. Dada B /
n
(C), se dene la siguiente funcional en /
n
(C):

B
: /
n
(C) C dada por
B
(A) = A, B) = tr(AB

) , A /
n
(C).
Vericar que
(a) Para toda funcional en /
n
(C) existe una unica matriz B /
n
(C) tal que
=
B
.
(b) Dados x, y C
n
consideremos la matriz x y = xy

/
n
(C) , denida en la
secci on 1.9. Se tiene que
B
(xy

) = x, By).
(c) (
B
)

=
B
, y por lo tanto
B
es autoadjunta si y s olo si B H(n).
(d)
B
es positiva si y s olo si B /
n
(C)
+
.
Proposicion 8.3.3. Sea B /
n
(C). Entonces
122
1. [ tr B[ tr [B[.
2. tr B = tr [B[ si y solo si B /
n
(C)
+
.
3. |
B
| = |B|
1
= tr [B[.
Demostracion.
1. Sea B = v
1
, . . . , v
n
una bon de vectores propios de [B[ asociada a s(B). Luego, si
B = U[B[ es la DP de B, con U |(n),
[ tr B[ =

k=1
U[B[v
k
, v
k
)

k=1
s
k
(B)

Uv
k
, v
k
)

k=1
s
k
(B) = tr [B[ .
2. Si tr B = tr [B[, entonces
n

k=1
s
k
(B) = tr [B[ = tr B =
n

k=1
Bv
k
, v
k
) =
n

k=1
s
k
(B)Uv
k
, v
k
) .
Dado que [Uv
k
, v
k
)[ 1 para todo k I
n
, por el caso en que se obtiene igualdad
en la desigualdad de Cauchy Schwarz, todos los n umeros complejos Uv
k
, v
k
) deben
tener el mismo argumento. Como la suma da un n umero positivo, se debe vericar que
Uv
k
, v
k
) = 1 para todo k I
n
. Pero un unitario con unos en la diagonal (en nuestro
caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I
y que B = [B[ /
n
(C)
+
. La recproca es obvia.
3. Notar que tr [B[ = tr(U[B[U

) = tr(UB

) =
B
(U) |
B
|. Por otro lado, por el
item anterior y el Corolario 5.3.11,
[ tr(AC)[ tr [AC[ |A|
sp
tr [C[ ,
para todo par A, C /
n
(C). Entonces
[
B
(A)[ = [ tr(A[B[U

)[ = [ tr(U

A[B[)[ |U

A|
sp
tr [B[ = (tr [B[) |A|
sp
,
para toda A /
n
(C). Por lo tanto |
B
| tr [B[.
Teorema 8.3.4. Sea o /
n
(C) un subespacio cerrado por adjuncion tal que I o. Sea
una funcional en o. Luego las siguientes condiciones son equivalentes:
1. es positiva.
2. || = (I).
3. Existe B /
n
(C)
+
tal que es la restriccion de
B
a o .
Demostracion.
123
1 2 Sea A o. Si A = A

, se tiene que |A|


sp
I A |A|
sp
I. Luego, si es positiva
en o, tenemos
|A|
sp
(I) (A) |A|
sp
(I) = [(A)[ |A|
sp
(I) .
Si A ,= A

, sea [0, 2) tal que (A) = e


i
[(A)[, o sea que (e
i
A) = [(A)[.
Llamenos A
0
= e
i
A. Como es autoadjunta y (A
0
) R, deducimos que (A
0
) =
(Re A
0
). Por todo esto,
[(A)[ = (A
0
) = (Re A
0
) | Re A
0
|
sp
(I) |A
0
|
sp
(I) = |A|
sp
(I) .
Luego || (I). La otra desigualdad es obvia (|I|
sp
= 1).
2 3 Sea una funcional en o tal que || = (I). Por el teorema de Hahn Banach (en
dimensi on nita se lo puede probar por inducci on con la prueba tradicional), existe una
extensi on de a todo /
n
(C) que tiene la misma norma. Luego existe B /
n
(C)
tal que =
B
. Por la Proposici on 8.3.3, deducimos que
tr [B[ = |
B
| = || = || = (I) =
B
(I) = tr B ,
y por lo tanto B /
n
(C)
+
.
3 1 Sea B /
n
(C)
+
tal que es la restricci on de
B
a o. Si A o /
n
(C)
+
, tenemos
que
(A) = tr AB = tr B
1/2
AB
1/2
0 ,
porque B
1/2
AB
1/2
/
n
(C)
+
y la funcional tr es positiva.
Corolario 8.3.5. Sea o /
n
(C) un subespacio cerrado por adjunci on tal que I o, y
una funcional positiva en o. Luego existe funcional positiva en /
n
(C), con la misma
norma, tal que es la restricci on de a o.
8.4 Matrices incompletas
Sea J I
n
I
n
. Una matriz incompleta asociada al conjunto J es un cacho de matriz
A = (a
ij
)
i,j J
. O sea que no se pone nada en las entradas (i, j) / J. Una matriz B /
n
(C)
es una completacion de A si b
ij
= a
ij
para todo (i, j) J.
Denici on 8.4.1. Sea J I
n
I
n
.
1. Llamaremos S
J
/
n
(C) al subespacio
S
J
=
_
C /
n
(C) : c
ij
= 0 para todo (i, j) / J
_
.
2. Si A est a denida solo en J, y C S
J
, denotaremos AC = BC, donde B /
n
(C)
es cualquier completaci on de A. Notar que, como C S
J
, la denici on no depende de
la completacion elegida.
124
3. Diremos que J cumple (P) si
(a) (i, j) J = (j, i) J,
(b) (i, i) J para todo i I
n
.
En otras palabas, si J es simetrico y contiene a la diagonal.
Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a pre-
guntas del tipo: que debe cumplir A para que se la pueda completar a una matriz que cumpla
una propiedad dada?
El siguiente teorema da una respuesta al problema de completar Apara que quede positiva
(semidenida). Observemos que si B /
n
(C)
+
es una completaci on de A (denida en J),
entonces, por el Teorema de Schur, debe cumplirse que
A C = B C /
n
(C)
+
para toda C S
J
/
n
(C)
+
. (8.2)
Esto nos da una condicion necesaria sobre A para que pueda existir una completacion pos-
itiva. Esta condicion sera muy pobre si J no cumple (P), porque en tal caso habra muy
pocas matrices en S
J
/
n
(C)
+
. Pero veremos que, si J cumple (P), entonces la condici on
es tambien suciente:
Teorema 8.4.2. Supongamos que J I
n
I
n
cumple (P). Sea A = (a
ij
)
i,j J
una matriz
denida solo en J. Luego las siguientes condiciones son equivalentes:
1. Existe una completacion B de A tal que B /
n
(C)
+
.
2. Para toda matriz C S
J
/
n
(C)
+
se verica A C /
n
(C)
+
.
Demostracion. En la ecuacion (8.2) vimos que la ida es consequencia del Teorema de Schur.
Supongamos entonces que A cumple 2. Sea
A
: S
J
C la funcional denida por

A
(C) =

(i,j) J
a
ij
c
ij
, C = (c
ij
) S
J
.
Veriquemos ahora que
A
es positiva en S
J
. En efecto, si C S
J
/
n
(C)
+
, luego tambien
C = C
T
S
J
/
n
(C)
+
. Por hipotesis A C /
n
(C)
+
. Si llamamos e = (1, . . . , 1) R
n
,
entonces
0 (A C) e, e) =

(i,j) J
a
ij
c
ij
=
A
(C) =
A
(C),
por lo que
A
es positiva. Observar que S
J
verica las hip otesis del Teorema 8.3.4 (es
cerrado por adjunci on e I S
J
), gracias a que J cumple (P). Luego, obtenemos una matriz
B /
n
(C)
+
tal que
B

S
J
=
A
. Notar que, si (i, j) J, entonces E
ij
S
J
. Por otra
parte, es f acil ver que tr (BE
ij
) = b
ji
= b
ij
. Luego,
b
ij
= tr (BE
ij
) =
B
(E
ij
) =
A
(E
ij
) = a
ij
, (i, j) J .
Eso dice que B es una completacion positiva de A.
125
8.5 El teorema de Haagerup
Lema 8.5.1. Sean T /
n
(C) y , R

n
+
. Notemos D
1
= diag () , D
2
= diag ()
(l (n)
+
y L /
n
(C) la matriz con entradas L
ij
=
1/2
i

1/2
j
. Entonces
M =
_
D
1
T
T

D
2
_
/
2n
(C)
+
|L T| 1 .
Demostracion. Observar que
_
D
1/2
1
0
0 D
1/2
2
_
M
_
D
1/2
1
0
0 D
1/2
2
_
=
_
I D
1/2
1
TD
1/2
2
D
1/2
2
T

D
1/2
1
I
_
.
Luego, por la Proposicion 3.6.6, M /
2n
(C)
+
si y solo si |D
1/2
1
TD
1/2
2
| 1. El
resultado queda probado con s olo observar que D
1/2
1
TD
1/2
2
= L T.
Teorema 8.5.2. Sea A /
n
(C). Luego las siguientes condiciones son equivalentes:
1. K
A
1, es decir |A C| |C| para todo C /
n
(C). .
2. Existen X, Y /
n
(C)
+
tales que
(a) X I I e Y I I.
(b) La matriz N =
_
X A
A

Y
_
/
2n
(C)
+
.
3. Existen B, D /
n
(C) tales que
(a) A = D

B.
(b) C(B) 1 y C(D) 1.
Demostracion. 1 2: Sea J I
2n
I
2n
dado por
J = (i, i) : i I
2n
(i, n +j) : i, j I
n
(n +i, j) : i, j I
n
.
Observar que J cumple (P). Consideremos la matriz P de tama no 2n 2n, denida solo en
J, dada por
P =
_
D A
A

D
_
, donde D =
_

_
1 ?
.
.
.
? 1
_

_
,
que es una matriz de tama no n n denida solamente en la diagonal.
Clamor: Si M S
J
/
2n
(C)
+
, entonces P M /
2n
(C)
+
.
En efecto, M =
_
D
1
T
T

D
2
_
, donde T /
n
(C), y D
1
= diag () , D
2
= diag () son matri-
ces diagonales positivas en /
n
(C). Si suponemos que D
1
, D
2
son estrictamente positivas, y
126
notamos L /
n
(C) la matriz con entradas L
ij
=
1/2
i

1/2
j
, el Lema 8.5.1 nos dice que,
como M /
2n
(C)
+
, entonces |L T| 1. Observar que
P M =
_
D
1
A T
(A T)

D
2
_
.
Como K
A
1, tenemos que |L (A T)| = |A (L T)| 1. Usando nuevamente el
Lema 8.5.1, deducimos que P M /
2n
(C)
+
. El caso general (sin suponer que D
1
y D
2
son inversibles) se deduce del anterior, tomando la sucesi on
M
m
= M +
1
m
I
2n
en S
J
. Entonces /
2n
(C)
+
P M
m

m
P M .
Como /
2n
(C)
+
es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que
existe una completacion N de P tal que
N =
_
X A
A

Y
_
/
2n
(C)
+
y, por lo tanto, X I = Y I = I .
Luego las matricecs X, Y /
n
(C)
+
cumplen lo pedido.
2 3: Como N /
2n
(C)
+
, por el teorema de Cholewsky (Corolario 3.1.5), existe una
matriz K /
2n
(C) triangular superior tal que N = K

K. Si la escribimos en bloques de
n n,
K =
_
D B
0 G
_
= K

K =
_
D

D D

B
B

D B

B +G

G
_
=
_
X A
A

Y
_
= N.
El resultado se sigue de que A = D

B y, como X I I e Y I I, entonces
C(D)
2
= |D

D I| = |X I| 1 y
C(B)
2
= |B

B I| |(B

B +G

G) I| = |X I| 1 .
La implicacion 3 1 fue probada en el Teorema 8.2.4.
Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A /
n
(C). Entonces
K
A
= min
_
C(B)C(D) : B, D /
n
(C) y A = D

B
_
.
Demostracion. Si K
A
= 0, entonces por la Observaci on 8.2.2, se tiene que A = 0 y el
resultado es trivial. Si K
A
> 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar
la otra, basta cambiar A por K
1
A
A y aplicar 1 3 del Teorema 8.5.2.
Corolario 8.5.4. Sea A /
n
(C). Notemos A
(k)
/
kn
(C) la matriz con k k bloques de
n n iguales a A. Entonces K
A
= K
A
(k) .
127
Demostracion. Es evidente que K
A
K
A
(k) (trabajando con matrices de n n rellenadas
con ceros). Recprocamente, si B, D /
n
(C) cumplen que A = D

B y K
A
= C(B)C(D),
entonces
A
(k)
=
_

_
A . . . A
A . . . A
.
.
.
.
.
.
.
.
.
A . . . A
_

_
=
_

_
D . . . D
0 . . . 0
.
.
.
.
.
.
.
.
.
0 . . . 0
_

_
B . . . B
0 . . . 0
.
.
.
.
.
.
.
.
.
0 . . . 0
_

_
= D

k
B
k
.
Pero es claro que C(B
k
) = C(B) y C(D
k
) = C(D), dado que tienen las mismas columnas
(salvo ceros). As, K
A
(k) C(B)C(D) = K
A
.
8.6 Determinantes
Teorema 8.6.1 (Desigualdad de Hadamard). Si A /
n
(C)
+
, entonces
det A det (A I) =
n

i=1
a
ii
.
La igualdad vale si y solo si A es diagonal.
Demostracion. Podemos suponer que A > 0, y entonces a
ii
> 0, para todo i I
n
. Consid-
eramos la matriz diagonal
D = diag
_
a
1/2
11
, . . . , a
1/2
nn
_
.
Entonces B = D
1
AD
1
= (a
1/2
ii
a
1/2
jj
a
ij
)
ij
tiene unos en la diagonal. Ademas,
det B = det A (det D)
2
= det A
n

i=1
a
1
ii
.
Por lo tanto, sera suciente mostrar que det B 1. Aplicando la desigualdad aritmetico-
geometrica
1
obtenemos,
det(B) =
n

i=1

i
(B)
_
1
n
n

i=1

i
(B)
_
n
=
_
tr
B
n
_
n
= 1 .
y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad
aritmetico-geometrica, entonces los n umeros involucrados deben ser todos iguales. Es decir
que todos los
i
(B) = 1. Pero entonces, como B 0, debe ser B = I, o sea A = D
2
.
1
Si a
1
, . . . , a
n
> 0, entonces (
n

i=1
a
i
)
1/n
1/n
n

i=1
a
i
. Se demuestra rapidamente usando que el log es una
funcion concava.
128
Corolario 8.6.2. Sea A /
n
(C). Entonces
[ det A[
n

i=1
|C
i
(A)|
2
. (8.3)
Demostracion. Se aplica la desigualdad de Haramard a la matriz B = A

A 0. Notar que
det B = [ det A[
2
y que B
ii
= |C
i
(A)|
2
2
, para todo i I
n
.
Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades.
1. Probar el Teorema 8.6.1 usando el Teorema 5.1.1 y el Corolario 4.2.3.
2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard.
3. Probar el Corolario 8.6.2 usando la descomposicion QR (Teorema 1.8.1) de A /
n
(C).
Observar que (8.3) es trivial para matrices triangulares.
4. Probar el Corolario 8.6.2 usando la interpretacion del determinante como un area o
volumen.
Lema 8.6.4. Sean A (l (n)
+
y (A) =
detA
detA
11
, donde A
11
= (a
ij
)
2i,jn
/
n1
(C). Sea
E
11
= e
1
e
t
1
/
n
(C). Entonces A tE
11
0 si y solo si t (A).
Demostracion. Es facil ver, desarrollando por la primera columna, que
det(A tE
11
) = det A t det A
11
. (8.4)
Luego, det(A tE
11
) 0 si y s olo si t (A). Por otro lado, todas las demas submatrices
principales de AtE
11
obtenidas con las ultimas i las y columnas, son las mismas que las
respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por
el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El
caso general sale tomando lmite.
Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B /
n
(C)
+
, entonces
det A
n

i=1
b
ii
= det A det B I det A B
Demostracion. Si det A = 0, el resultado se deduce del Teorema de Schur 8.1.2, que asegura
que A B 0. Supongamos, entonces, que A > 0. La demostraci on la realizaremos por
inducci on sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado
v alido para todas las matrices de dimensi on n 1. Entonces, con las notaciones del Lema
8.6.4, sabemos que
det A
11

n

i=2
b
ii
det A
11
B
11
.
129
Por el Lema 8.6.4, si = (det A
11
)
1
det A, entonces A E
11
0. El Teorema de Schur
8.1.2 dice que (A E
11
) B 0. Aplicando la f ormula (8.4), como E
11
B = b
11
E
11
y
(A B)
11
= A
11
B
11
, resulta que
0 det(A B E
11
B) = det A B b
11
det(A
11
B
11
).
Aplicando la hip otesis inductiva, obtenemos
det A B b
11
det A
11
B
11
b
11
det A
11
n

i=2
b
ii
= det A
n

i=1
b
ii
y el teorema queda demostrado.
Teorema 8.6.6 (Desigualdad de Fisher). Sea A /
n
(C)
+
, y sea T un sistema de proyec-
tores en H(n). Entonces
det A det(C
1
(A)).
Recordamos que C
1
(A) =

r
i=1
P
i
AP
i
, si T = P
1
, . . . , P
r
.
Demostracion. Por la ecuaci on (5.8), basta probar el caso T = P, I P, para P H(n)
un proyector. Supongamos que dimR(P) = k. Conjugando a P y a A con alguna matriz
unitaria (lo que no cambia los determinantes), podemos suponer que R(P) es el subespacio
generado por los primeros k elementos de la base canonica de C
n
. O, lo que es lo mismo,
que P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k.
Dado r N, llamemos E
r
/
r
(C)
+
a la matriz con todas sus entradas iguales a 1.
Notar que E
r
0 porque 0 E

r
E
r
= E
2
r
= rE
r
. Consideremos la matriz de bloques
B =
_
E
k
0
0 E
nk
_
/
n
(C)
+
,
que verica que A B = C
P
(A). Aplicando la desigualdad de Oppenheim, tenemos que
det A = det A
n

i=1
b
ii
det A B = det C
P
(A).
Observaci on 8.6.7. Otra demostraci on del Teorema anterior puede hecerse usando las
Proposiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como (C
1
(A)) (A),
si
n
(A) > 0, entonces tambien
n
(C
1
(A)) > 0 y
det A =
n

i=1

i
(A)
n

i=1

i
(C
1
(A)) = det C
1
(A) .
Si
n
(A) = 0, entonces det A = 0, pero C
1
(A) 0, por lo que det C
1
(A) 0.
De los resultados anteriores obtenemos la siguiente relaci on para el determinante del producto
convencional de matrices y el producto de Hadamard.
130
Teorema 8.6.8. Si A, B /
n
(C)
+
, entonces
det A B det A B.
Demostracion. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim.
En efecto, det A B = det A det B det A
n

i=1
b
ii
det A B.
Proposicion 8.6.9. Sean A, B (l (n)
+
y [0, 1]. Entonces
det
_
A + (1 )B
_
(det A)

(det B)
1
.
Es decir, la aplicacion (l (n)
+
A log det A es concava.
Demostracion. Sea C = B
1
A. Como (C) =
_
B
1/2
AB
1/2
_
(con multiplicidades),
podemos llamar (C) = (B
1/2
AB
1/2
) R

n
+
. Ademas,
det
_
A + (1 )B
_
= det B
_
B
1
A + (1 )I
_
= det B det
_
C + (1 )I
_
.
Luego basta probar que
det
_
C + (1 )I
_
(det A)

(det B)
1
det B
1
= (det A)

(det B)

= det C

.
En otras palabras, basta ver que
n

i=1
_

i
(C) + 1
_

i=1

i
(C)

.
Finalmente, veremos que
_

i
(C)+1
_

i
(C)

para cada i I
n
, con lo cual el resultado
quedara probado. En efecto, dado c > 0, la funci on f(t) = c
t
es convexa en todo R. Notar
que f(0) = 1 y f(1) = c. Por lo tanto
_
c + 1
_
= f(1) + (1 )f(0) f(1 + (1 )0) = f() = c

.
Aplicando lo anterior a cada c =
i
(C), obtenemos el resultado.
Ejercicio 8.6.10. 1. Sea H (l (n)
+
(en principio real). Entonces,
_

n
det H
=
_
R
n
e
Hx,x)
dx .
Para probarlo, hacer un cambio de variables y = Ux, para U |(n) tal que UHU

=
diag ((H)). Como U es unitaria, la integral no cambia. Luego usar que
_
R
n
e
at
2
dt =

1/2
a
1/2
. De paso, esto prueba que e
Hx,x)
es integrable en R
n
(notar que el cambio
de variables manda bolas en bolas). Vale lo mismo para matrices complejas?
2. Probar la Proposicion 8.6.9 usando lo anterior (y la desigualdad de Holder ! ).
131
Captulo 9
Algunas desigualdades de matrices.
9.1 Partes reales
Denici on 9.1.1. Si A /
n
(C), se llama parte real de A a
Re A =
A +A

2
H(n).
Si x C
n
, notaremos Re x R
n
al vector de las partes reales de sus coordenadas.
Proposicion 9.1.2 (Fan-Homan). Sea A /
n
(C). Entonces
1.
k
(Re A)
k
([A[) = s
k
(A), para todo k I
n
.
2. Existe U |(n) tal que Re A U[A[U

.
Demostracion. Sean x
1
, . . . , x
n
y w
1
, . . . , w
n
bases ortonormales de C
n
, formadas por au-
tovectores de Re A (resp. A

A) asociadas a (Re A) (resp. (A

A) ). Fijemos k entre 1 y
n. Sea
x span x
1
, . . . , x
k
span w
k
, . . . , w
n
,
un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el
Teorema de Courant-Fisher 2.3.2 y la Proposici on 3.2.6,

k
(Re(A)) Re Ax, x) = ReAx, x) [Ax, x)[
|Ax| = A

Ax, x)
1/2

k
(A

A)
1/2
=
k
([A[) = s
k
(A).
La segunda parte se deduce de la primera, dado que diag ((Re A) ) (A).
Proposicion 9.1.3 (Ky Fan). Dada A /
n
(C), sea (A) C
n
el vector de autovalores
de A en alg un orden. Entonces
Re (A) (Re A)
132
Demostracion. Ordenemos al vector (A) de tal modo que
Re
1
(A) Re
2
(A) . . . Re
n
(A) .
Sea x
1
, . . . , x
n
una base ortonormal respecto a la cual A es una matriz triangular superior,
y tal que Ax
i
, x
i
) =
i
(A) (que existe por el Teorema 1.6.1). Dado k I
n
, por el Principio
del maximo de Ky Fan (Proposicion 5.1.3), se tiene que
k

j=1
Re
j
(A) =
k

j=1
Re Ax
j
, x
j
) =
k

j=1
(Re A) x
j
, x
j
)
k

j=1

j
(Re A) .
Para k = n hay igualdad porque Re tr(A) =
tr A + tr A
2
= tr
A +A

2
= tr Re A.
Corolario 9.1.4. Si A /
n
(C) cumple que A +A

> 0, entonces
(A) z C : Re z > 0 .
En realidad, se puede cambiar Re z > 0 por
n
(Re A) Re z
1
(Re A).
Observaci on 9.1.5. Sean A, B H(n). Se llama producto simetrizado de A y B a
S = S(A, B) = AB +BA H(n).
Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A
1/2
BA
1/2
,
0 < A
1/2
SA
1/2
= A
1/2
BA
1/2
+A
1/2
BA
1/2
= Re C .
Por el Corolario 9.1.4, se tiene que (C) = (B) R

+
. Como B H(n), debe ser B > 0.
Si A /
n
(C)
+
no es inversible, notar que dado > 0 bien chico, se tiene que
S(A +I, B) = S(A, B) + 2B > 0 (porque (l (n)
+
es abierto en H(n) ) .
Luego se aplica el caso anterior, y tambien A 0 + S(A, B) > 0 = B > 0.
Ejercicio 9.1.6. Sean A, B H(n).
1. Probar que, para cada x C
n
, se tiene Sx, x) = 2 ReAx, Bx).
2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) , 0.
Proposicion 9.1.7 (Kittaneh 95). Sean A, B /
n
(C) tales que AB H(n). Entonces,
| [ AB | [ | [ Re(BA) | [
para toda NUI | [ | [ en /
n
(C).
133
Demostracion. Comencemos notando que los autovalores de BA son los mismos que los de
AB y por ende son todos reales. Mas a un, en la Proposici on 1.5.5 vimos que (AB) = (BA).
Luego, usando la Proposici on 9.1.3, obtenemos que
(AB) = (BA) = Re((BA)) (Re(BA)).
Por el Corolario 5.3.14 (notar que AB y Re(BA) H(n) ), podemos deducir que | [ AB | [
| [ Re(BA) | [ para toda NUI.
Proposicion 9.1.8 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S es
inversible. Entonces,
| [ STS
1
+S
1
TS | [ 2 | [ T | [
para toda NUI | [ | [ en /
n
(C).
Demostracion. Aplicar la desigualdad de Kittaneh a A = TS
1
y B = S.
Ejercicios 9.1.9. 1. Usando el famoso truco de las matrices de 2 2, extender la de-
sigualdad CPR a cualquier T /
n
(C), no necesariamente autoadjunta. Se sugiere
usar las matrices
T
1
=
_
0 T
T

0
_
/
2n
(C)
y una adecuada S
1
H(2n) invertible. Ojo con los s
k
(T
1
), que son los de T, pero
repetidos dos veces cada uno.
2. Con el mismo truco, probar tambien que, si T /
n
(C) y S H(n) es inversible,
entonces
| [ STS +S
1
TS
1
| [ 2 | [ T | [
para toda NUI | [ | [ en /
n
(C).
3. Vericar, ademas, que la constante 2 es optima en el primer caso (jando S y moviendo
todos los T /
n
(C) o H(n) ), pero no siempre lo es en el segundo. Para que matrices
S lo ser a? (esto ultimo es difcil, pero es f acil encontrar familias razonablemente grandes
de ejemplos donde vale, al menos para la norma espectral).
4. Otra manera de probar la desigualdad CPR (la original) es
(a) Primero reducir al caso en que S es diagonal.
(b) Despues escribir STS
1
+S
1
TS como un producto de Hadamard.
(c) Vericar que la matriz que multiplica Hadamard, luego de pasarla dividiendo,
es semi denida positiva.
(d) Aplicar el siguiente resultado: Si A 0, entonces para toda B /
n
(C) y para
toda nui | [ | [ en /
n
(C), se tiene que
| [ A B | [ max a
ii
: i I
n
| [ B | [ .
Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5).
134
Desigualdad de Thompson
Observaci on 9.1.10. A diferencia del modulo de n umeros, el de matrices no cumple la
desigualdad triangular. O sea que existen matrices A, B tales que [A + B[ , [A[ + [B[
(Ejercicio: encontrar un par as en /
2
(C) ). Esto sucede porque sus partes unitarias pueden
mezclar tama nos en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente
resultado, donde uno corrige ese problema:
Teorema 9.1.11 (Thompson). Dadas A, B /
n
(C), existen U, V |(n) tales que
[A +B[ U[A[U

+V [B[V

.
Demostracion. Hagamos la descomposici on polar A + B = W[A + B[, con W |(n).
Entonces
[A +B[ = W

(A +B) = Re
_
W

(A +B)
_
= Re W

A + Re W

B .
Por otra parte, por la Proposicion 9.1.2 (Fan-Homan), existen U, V |(n) tales que
Re W

A U[W

A[U

= U[A[U

y Re W

B U[W

B[U

= U[B[U

,
porque (W

A)

A = A

WA = A

A y entonces [W

A[ = [A[ (lo mismo para B).


9.2 Desigualdad aritmetico-geometrica en matrices
Proposicion 9.2.1. Sean A, B /
n
(C). Entonces
s
i
(A

B)
1
2
s
i
(AA

+BB

) para todo i I
n
.
Demostracion. Sea X =
_
A B
0 0
_
/
2n
(C). Cuentas elementales muestran que
XX

=
_
AA

+BB

0
0 0
_
y X

X =
_
A

A A

B
B

A B

B
_
.
Sean P =
_
I 0
0 0
_
y U =
_
I 0
0 I
_
= 2P I
2n
|(2n). Luego

B =
_
0 A

B
B

A 0
_
= X

X C
P
(X

X) =
1
2
_
X

X UX

XU

_
.
Tomemos la descomposici on

A

B =

A

B
+

. Observar que ambas matrices X

X y
UX

XU

/
2n
(C)
+
. Luego, la ecuaci on (3.7) y el tem 5.b de la Secci on 3.3 aseguran que
s
i
(A

B) =
i
_

B
_
=
i
_

B
+_

1
2

i
(X

X) =
1
2

i
(XX

) =
1
2
s
i
(AA

+BB

) ,
para todo i I
n
.
135
Proposicion 9.2.2. Sean A, B, X /
n
(C). Entonces se tiene que
| [ AXB

| [
1
2
| [ A

AX +XB

B | [ (9.1)
para toda NUI | [ | [ en /
n
(C).
Demostracion. Debemos dividir la prueba en tres pasos:
Paso 1: Supondremos que A = B H(n) y tambien X H(n). Por la Proposici on 9.1.7,
| [ AXA | [ | [ Re XA
2
| [ =
1
2
| [ A
2
X +XA
2
| [ .
Paso 2: Ahora X es cualquiera, pero A, B H(n): Tomemeos
T =
_
A 0
0 B
_
H(2n) e Y =
_
0 X
X

0
_
H(2n) .
Por el Paso 1, s(TY T)
w
1
2
s(T
2
Y +Y T
2
). Pero cuentas faciles muestran que
TY T =
_
0 AXB
BX

A 0
_
=

A

XB y analogamente T
2
Y +Y T
2
=

A
2
X +

XB
2
.
Luego podemos deducir que s(AXB)
w
1
2
s(A
2
X +XB
2
) = s
_
1
2
[A
2
X +XB
2
]
_
.
Paso 3: El caso general. Tomemos descomposiciones polares A = U[A[ y B = V [B[, con
U, V |(n). Notar que AA

X +XBB

= [A

[
2
X +X[B

[
2
, mientras que
| [ AXB

| [ = | [ U [A[ X [B[ V

| [ = | [ [A

[ X [B

[ | [ ,
con lo que la desigualdad (9.1) queda demostrada en general a partir del Paso 2.
9.3 La tecnica alternativa
En esta secci on repasaremos y mezclaremos una serie de deniciones y resultados de los
Captulos 4 y 7 que usaremos seguido en el resto de este Captulo. Primero enunciamos los
relativos a las propiedades espectrales de los productos alternados de matrices (Seccion 7.3):
Teorema 9.3.1. Sea A /
n
(C) con autovalores
1
(A), . . . ,
n
(A). Sea k I
n
. Entonces
los autovalores de
k
A est an dados por

J
(
k
A) =

i J

i
(A) , J Q
k,n
,
contados con multiplicidad.
136
Corolario 9.3.2. Sea A /
n
(C). Sea k I
n
. Entonces los valores singulares de
k
A son
s
_

k
A
_
=
_
s
J
_

k
A
_ _
JQ
k,n
=
_

i J
s
i
(A)
_
JQ
k,n
,
contados con multiplicidad, y ordenados en forma decreciente. Adem as, si ordenamos a los
autovalores
1
(A), . . . ,
n
(A) de A con modulos decrecientes, se tiene que

k
A
_
=
k

i=1
[
i
(A)[ y
_
_

k
A
_
_
sp
= s
1
_

k
A
_
=
k

i=1
s
i
(A) .

Ahora vienen los resultados que relacionan la mayorizaci on logartmica con la usual (ver
Secci on 4.4): Recordemos que, dados x, y R
n
+
, escribimos x
w
log
y si
k

i=1
x

i

k

i=1
y

i
para todo k I
n
. (9.2)
Si x > 0 e y > 0, escribimos x
log
y si x
w
log
y y, adem as,
n

i=1
x
i
=
n

i=1
y
i
.
Observaci on 9.3.3. Sean x, y R
n
tales que x > 0 e y > 0. Si x
log
y entonces, como en
el caso de la mayorizacion com un, se cumplen desigualdades invesas para las entradas mas
peque nas de x e y. Es decir que
n

i=k
x

i

n

i=k
y

i
para todo k I
n
. (9.3)
Tener cuidado, que esto no vale si s olo se tiene que x
w
log
y, porque se usa la igualdad de los
productos hasta n.
Proposicion 9.3.4. Sean x, y R
n
+
.
1. Si x
w
log
y, entonces x
p

w
y
p
para todo p R
+
.
2. Si x > 0 e y > 0, entonces x
log
y implica que x
p

w
y
p
para todo p R .
Observaci on 9.3.5. 1. El caso m as usado de la Proposicion 9.3.4 es cuando p = 1. Es
decir que, si x, y R
n
+
, entonces x
w
log
y implica x
w
y. Esto ser a sumamente
util cuando se lo aplique a desigualdades con valores singulares de matrices, usando
tecnicas de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos
dice que, si hubese quedado x y, deba cumplirse que x
log
y .
2. Por otra parte, la Proposicion 9.3.4 se puede generalizar, sin cambiar la prueba, si
remplazamos las funciones f(t) = t
p
por cualquier funcion f : R
+
R tal que la
aplicaci on t f(e
t
) resulte convexa (o convexa creciente). Notar que, en el caso
demostrado, se usaba esa propiedad para la funci on t (e
t
)
p
= e
pt
.
137
9.4 Primeras aplicaciones
En esta seccion veremos tres desigualdades importantes que se prueban en forma directa
usando la tecnica de extrapolar una desigualdad conocida, pero aplicada a los productos
alternados, y luego deducir una mayorizaci on va la Proposici on 9.3.4:
Desigualdad de Weyl
Proposicion 9.4.1 (Mayorante de Weyl). Sea A /
n
(C). Entonces, si (A) denota el
vector de autovalores de A, se tiene que
1. [(A)[
log
s(A).
2. Para todo p 0 se tiene que [(A)[
p

w
s(A)
p
.
Demostracion. Veriquemos las desigualdades de la f ormula (9.2) para los vectores [(A)[ y
s(A). Para k = 1, basta notar que (A) |A|. El caso k 1 se obtiene considerando la
desigualdad anterior para los tensores alternados
k
(A). En efecto, por el Corolario 9.3.2,
tenemos que
k

i=1
[(A)[

i
= (
k
A) |
k
A|
sp
=
k

i=1
s
i
(A) , para todo k I
n
.
La igualdad para k = n se deduce de que [ det A[ = (det A

A)
1/2
= det [A[ . La segunda
parte se deduce de la Proposici on 9.3.4.
Desigualdad de B. Simon
La que sigue es una variante de la Proposicion 9.1.7 (desigualdad de Kittaneh 95):
Proposicion 9.4.2. Sean A, B /
n
(C) tales que AB es normal. Entonces
| [ AB | [ | [ BA | [
para toda NUI | [ | [ en /
n
(C).
Demostracion. Como AB es normal, se tiene que |AB|
sp
= (AB). Luego
s
1
(AB) = |AB|
sp
= (AB) = (BA) |BA|
sp
= s
1
(BA) .
Aplicando esta desigualdad a
k
AB (1 k n), que tambien es normal, obtenemos que
s(AB)
w
log
s(BA) , i.e.
k

i=1
s
i
(AB)
k

i=1
s
i
(BA) , k I
n
.
Por la Proposici on 9.3.4, deducimos que s(AB)
w
s(BA).
138
Desigualdad de Horn
Proposicion 9.4.3 (Teorema de Horn). Sean A, B (l (n). Sea (AB) el vector de auto-
valores de AB ordenado con modulos decrecientes, i.e. [(AB)[ = [(AB)[

. Entonces
[(AB)[
log
s(AB)
log
s(A)s(B) = (s
1
(A)s
1
(B), . . . , s
n
(A)s
n
(B) ) .
En particular, si A, B (l (n)
+
, para todo k I
n
se tiene que
k

i=1

i
(AB)
k

i=1

i
(A)
i
(B) y
n

i=k

i
(AB)
n

i=k

i
(A)
i
(B) . (9.4)
Demostracion. Las relaci on [(AB)[
log
s(AB) se deduce de la Proposici on 9.4.1. Por otro
lado, el Corolario 9.3.2 asegura que, para todo k I
n
,
k

i=1
s
i
(AB) = |
k
AB|
sp
= |
k
A
k
B|
sp
|
k
A|
sp
|
k
B|
sp
=
k

i=1
s
i
(A) s
i
(B) .
Adem as, como [ det C[ = det [C[ para cualquier C /
n
(C), se tiene que
n

i=1
s
i
(AB) = det [AB[ = [ det AB[ = [ det A[ [ det B[ = det [A[ det [B[ =
n

i=1
s
i
(A) s
i
(B) .
La ecuaci on (9.4) se deduce de lo anterior y de la Observaci on 9.3.3, ya que (AB) =
(A
1/2
BA
1/2
) R

n
+
, (A) = s(A) y (B) = s(B).
Ejercicio 9.4.4. Dadas A, B (l (n)
+
, probar que (A
1/2
BA
1/2
)
2

log
(AB
2
A). Comparar
con el Teorema 9.6.4 de m as adelante.
9.5 La exponencial
Generalidades
Sea A /
n
(C). Recordemos que la exponencial de A es la matriz
e
A
= exp(A) =

m=0
A
m
m!
. (9.5)
La serie converge absolutamente, porque

m=0
|A
m
|
m!

m=0
|A|
m
m!
= e
|A|
< .
139
Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema de Schur 1.6.1),
se puede ver que, si (A) = (
1
(A) , . . . ,
n
(A) ), entonces
(e
A
) = e
(A)
:= (e

1
(A)
, . . . , e

n
(A)
) . (9.6)
En particular, esto dice que
_
e
A
_
= e
(A)
y que e
A
(l (n) para toda A /
n
(C).
Observaci on 9.5.1. Sean A, B /
n
(C). Por la teora general de series de potencias (con
variables que conmutan, para usar el binomio de Newton), se puede ver que
si AB = BA = e
A+B
= e
A
e
B
.
Entre otras cosas, esto sirve para probar que (e
A
)
1
= e
A
, porque e
A
e
A
= e
AA
= I. En
forma similar puede verse que, si A H(n), entonces
e
A
(l (n)
+
y (e
A
)
1/2
= e
A
2
. (9.7)
M as a un, cuando A H(n), se tiene que e
A
= f(A), donde f(t) = e
t
, t R, en el
sentido del calculo funcional para autoadjuntas visto en el Captulo 6. Esto puede probarse
diagonalizando a A o bien tomando lmite de polinomios en la f ormula (9.5). Aplicando
los resultados conocidos para dicho calculo (en particular 6.1.3), se tienen las siguientes
propiedades: Si A H(n), entonces
1. e
A
(l (n)
+
y A = log e
A
.
2. (e
A
)
r
= e
rA
para todo r R.
3. Si A > 0, entonces A = e
log A
.
4. M as a un, A
r
= e
r log A
para todo r R.
F ormula de Lie-Trotter.
Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho mas brava, y es muy
dicil encontrar las propiedades de e
A+B
en funci on de las de A y B. La unica herramienta
que se tiene, y que se usa sistematicamente para este problema, es la famosa formula de
Lie-Trotter que mostraremos a continuaci on.
Teorema 9.5.2. Dadas A y B /
n
(C), se tiene la siguiente formula:
e
A+B
= lim
m
_
e
A
m
e
B
m
_
m
. (9.8)
140
Demostracion. Dadas X, Y /
n
(C), mediante una tpica cuenta telesc opica puede verse
que X
m
Y
m
=
m1

j=0
X
m1j
(X Y )Y
j
para todo m N. Luego,
|X
m
Y
m
| = |
m1

j=0
X
m1j
(X Y )Y
j
|

m1

j=0
|X
m1j
| |X Y | |Y
j
| (9.9)
|X Y |
m1

j=0
M
m1j
M
j
= m |X Y | M
m1
,
donde M = max(|X|, |Y |). Consideremos ahora las matrices
X
m
= e
A+B
m
, Y
m
= e
A
m
e
B
m
, para cada m N .
Observar que M
m
= max(|X
m
|, |Y
m
|) e
A+B
m
. Por la desigualdad (9.9),
|X
m
m
Y
m
m
| m|X
m
Y
m
| e
m1
m
(|A|+|B|)
m|X
m
Y
m
| e
|A|+|B|
, m N.
Luego del desarrollo en series de la funcion exponencial, obtenemos que X
m
Y
m
=
= 1 +
A +B
m
+

k=2
(A +B)
k
m
k
k!

__
1 +
A
m
+

k=2
A
k
m
k
k!
__
1 +
B
m
+

k=2
B
k
m
k
k!
__
=
1
m
2
_

k=2
(A +B)
k
m
k2
k!
AB
_
I +
A
m
_

k=2
B
k
m
k2
k!

k=2
A
k
m
k2
k!
e
B
m
_
=
1
m
2
C
m
(A, B) .
Por lo tanto, si mostr aramos C(A, B) = sup
mN
|C
m
(A, B)| < , entonces tendramos que
|X
m
m
Y
m
m
| m|X
m
Y
m
| e
|A|+|B|

C(A, B) e
|A|+|B|
m

m
0 .
Afortunadamente, las constantes |C
m
(A, B)| se pueden acotar con las series de las normas.
Aparecen varios sumandos, todos ellos elementales. Por ejemplo, |e
B
m
| e
|
B
m
|
e
|B|
y
_
_
_
_
_

k=2
A
k
m
k2
k!
_
_
_
_
_

k=2
|A
k
|
m
k2
k!

k=2
|A
k
|
k!
e
|A|
para todo m N .
Por lo tanto, |e
A+B
(e
A
m
e
B
m
)
m
| = |X
m
m
Y
m
m
|
m
0 = lim
m
(e
A
m
e
B
m
)
m
= e
A+B
.
141
Otras f ormulas relacionadas
Sean A, B /
n
(C). Conjugando la f ormula (9.8) con la sucesion e
B
2m
(que tiende a I),
obtenemos esta otra versi on de Lie-Trotter
e
A+B
= lim
m
e
B
2m
_
e
A
m
e
B
m
_
m
e

B
2m
= lim
m
_
e
B
2m
e
A
m
e
B
2m
_
m
, (9.10)
que es mucho m as adecuada en caso de que A, B H(n), para que la cosa pase entre matrices
positivas.
Ejercicios 9.5.3.
1. Si suponemos que A, B H(n), puede obtenerse la siguiente nueva f ormula:
e
A+B
= lim
t 0
_
e
tB
2
e
tA
e
tB
2
_
1
t
. (9.11)
Observar que e
tB
2
e
tA
e
tB
2
(l (n)
+
por lo que
_
e
tB
2
e
tA
e
tB
2
_
1
t
tiene sentido para todo
t ,= 0. Ademas,
_
e
tB
2
e
tA
e
tB
2
_
1
= e
tB
2
e
tA
e
tB
2
, por lo que el caso t < 0 no crea
problemas.
Sug: Desarrollar el producto de las tres series asociadas a e
tB
2
e
tA
e
tB
2
y aplicarles la
serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la
prueba del Teorema 9.5.2.
2. Extendiendo el argumento que utilizamos para probar el Teorema 9.5.2 probar que,
dadas A
1
, A
2
, ... , A
k
/
n
(C), se tiene que
exp
_
k

i=1
A
i
_
= lim
m
_
e
A
1
m
e
A
2
m
... e
A
k
m
_
m
. (9.12)
9.6 Desigualdades de Araki y Cordes.
Proposicion 9.6.1. Sean A, B (l (n)
+
. Entonces, para todo r (0, 1)

1
(A
r
B
r
)
1
(AB)
r
.
Demostracion. Podemos asumir que
1
(AB) = 1, porque si
2
=
1
(AB), basta cambiar
A, B por
1
A y
1
A, dado que ,= 0 y la desigualdad a probar es homogenea. Luego
debemos vericar que
1
(A
r
B
r
) 1. En efecto,

1
(AB) =
1
_
A
1/2
BA
1/2
_
= 1 = A
1/2
BA
1/2
I = B A
1
.
Como r (0, 1), el Teorema 6.2.6 dice que f(x) = x
r
es monotona de operadores. Luego
B
r
A
r
= A
r/2
B
r
A
r/2
I =
1
(A
r
B
r
) =
1
_
A
r/2
B
r
A
r/2
_
1 ,
como se asevero.
142
Proposicion 9.6.2 (Cordes 87). Sean A, B /
n
(C)
+
. Entonces
|A
r
B
r
|
sp
|AB|
r
sp
para todo r [0, 1] .
Demostracion. Como antes, supondremos que |AB|
sp
= 1. En tal caso
1 = |AB|
sp
= |AB
2
A|
sp
= AB
2
A 1 = B
2
A
2
= B
2r
A
2r
(por el Teorema6.2.6)
= A
r
B
2r
A
r
1 = |A
r
B
2r
A
r
|
sp
1
= |A
r
B
r
|
sp
1 .
El caso general sale por homogeneidad.
DadasA, B H(n), recordar que escribimos A B en lugar de (A) (B) para notar la
mayorizacion entre los autovalores de A y los de B.
Denici on 9.6.3.
1. Sean A, B /
n
(C)
+
. Escribiremos A
w
log
B si (A)
w
log
(B). Es decir, si
k

i=1

i
(A)
k

i=1

i
(B) para todo k I
n
. (9.13)
2. Si A, B (l (n)
+
, decimos que A
log
B si det A = det B y A
w
log
B.
Observar que, A
log
B log A log B , ya que la funci on t e
t
es creciente.
Teorema 9.6.4 (Araki). Sean A, B /
n
(C)
+
. Para todo r (0, 1) se tiene que
(A
r/2
B
r
A
r/2
)
1/r

log
A
1/2
BA
1/2
Demostracion. Fijemos un r (0, 1). Como
(A
r/2
B
r
A
r/2
) = (A
r
B
r
) y (A
1/2
BA
1/2
) = (AB) ,
basta ver que
k

j=1

j
(A
r
B
r
)
1/r

j=1

j
(AB) , k I
n
y
n

j=1

j
(A
r
B
r
)
1/r
=
n

j=1

j
(AB) .
Aplicando la Proposici on 9.6.1 a
k
A y
k
B, y usando la Proposicion 7.4.4 se obtiene

1/r
1
((
k
A)
r
(
k
B)
r
) =
1/r
1
(
k
A
r

k
B
r
)
1
(
k
A
k
B) .
Como (
k
A)(
k
B) =
k
(AB), podemos deducir que
k

j=1

1/r
j
(A
r
B
r
) =
1/r
1
(
k
(A
r
B
r
))
1
(
k
(AB)) =
k

j=1

j
(AB) .
La igualdad en el caso k = n se obtiene tomando determinantes.
143
Corolario 9.6.5. Sea | [ | [ una NUI en /
n
(C). Dados A, B /
n
(C)
+
, se tiene que
| [ A
r
B
r
A
r
| [ | [ (ABA)
r
| [ para todo r (0, 1) .
Demostracion. Aplicando el Teorema 9.6.4 a las matrices A
2
y B y la Proposicion 4.4.3,
obtenemos
k

j=1
s
j
(A
r
B
r
A
r
)
k

j=1
s
j
(ABA)
r
(k I
n
) = s(A
r
B
r
A
r
)
w
s( (ABA)
r
) . (9.14)
Se usa que s
i
( (ABA)
r
) =
i
( (ABA)
r
) =
i
(ABA)
r
= s
i
(ABA)
r
, para todo i I
n
.
Observaci on 9.6.6. En las Proposiciones 9.6.1 y 9.6.2, el Teorema 9.6.4 y el Corolario 9.6.5,
valen las desigualdades inversas si uno considera exponentes t 1. En efecto, basta aplicar
lo conocido a las matrices A
t
y B
t
, con el exponente r = t
1
. En el caso del Corolario 9.6.5,
se puede corregir el exponente externo en la ecuacion (9.14)
Proposicion 9.6.7. Dadas A, B (l (n)
+
, se cumple que
log A + log B log(A
1/2
BA
1/2
) . (9.15)
Demostracion. Por la formula de Lie-Trotter, en la version dada por la formula (9.11),
e
log A+log B
= lim
r0
(A
r/2
B
r
A
r/2
)
1/r
Por el Teorema de Araki, (A
r/2
B
r
A
r/2
)
1/r

log
(A
1/2
BA
1/2
) para todo r (0, 1). Aplicando el
Corolario 2.3.7, obtenemos que
e
log A+log B

log
(A
1/2
BA
1/2
) = log A + log B log(A
1/2
BA
1/2
) ,
como se quera demostrar.
Ejercicio 9.6.8. Usando el Corolario 9.6.5 para las NUIs |A|
p
= (tr [A[
p
)
1/p
, mostrar la
famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B (l (n)
+
, se tiene que
tr
_
(B
1/2
AB
1/2
)
st

tr
_
(B
t/2
A
t
B
t/2
)
s

,
para todo par de n umeros s, t 1.
9.7 Desigualades entre exponenciales
Si z C, uno tiene que [e
z
[ = e
Re z
= [e
Re z
[. Veamos que pasa en matrices:
Proposicion 9.7.1. Sea | [ | [ una NUI en /
n
(C). Para toda A /
n
(C), se tiene que
| [ e
A
| [ | [ e
Re A
| [ .
144
Demostracion. Usando que |B
m
|
sp
|B|
m
sp
y que s
1
(B)
2
= |B|
2
sp
= |B

B|
sp
, obtenemos
que
s
1
(B
m
)
2
s
1
(B)
2m
= s
1
( (B

)
m
B
m
) s
1
(B

B)
m
,
para todo m N y toda B /
n
(C). Aplicando esto a
k
B, tenemos m as:
k

i=1
s
i
( (B

)
m
B
m
)
k

i=1
s
i
(B

B)
m
para todo k I
n
y todo m N .
Eligiendo ahora B = exp
A
m
y aplicando Lie-Trotter llegamos a que
k

i=1
s
i
( e
A

e
A
)
k

i=1
s
i
_
[e
A

m
e
A
m
]
m
_

m
k

i=1
s
i
_
e
A

+A
_
para todo k I
n
.
Tomando raices cuadradas, llegamos a que s(e
A
)
w
log
s(e
Re A
). Usando ahora la Proposicion
4.4.3, estamos demostrando nalmente que s(e
A
)
w
s(e
Re A
).
Ejercicio 9.7.2. Encontrar A /
2
(C) tal que | [ e
A
| [ < | [ e
Re A
| [ para toda NUI.
Recordemos que si C, D /
n
(C)
+
, entonces (CD) R
+
y mas a un, al vector de auto-
valores (CD) = (D
1/2
CD
1/2
) R
n
+
, se lo puede pensar ordenado en forma decreciente.
En particular, se tiene que tr CD R
+
.
Lema 9.7.3. Dadas A, B /
n
(C), se tiene que
[(e
A+B
)[
w
(e
Re A
e
Re B
) y [ tr e
A+B
[ tr (e
Re A
e
Re B
) .
Demostracion. Fijado k I
n
, denamos las siguiente funci on continua:
f
k
: /
n
(C) R
+
dada por f
k
(X) =
k

i=1
[(X)[

i
, para X /
n
(C) .
Notar que todas estas f
k
cumplen que, para todo par X, Y /
n
(C) y todo m N,
f
k
(XY ) = f
k
(Y X) y f
k
(X
2m
) f
k
([X

X]
m
) . (9.16)
En efecto, observar que para todo r I
n
y todo m N, se tiene que
(
r
X
2m
) = (
r
X)
2m
|
r
X|
2m
sp
= |
r
X

X|
m
sp
= (
r
[X

X]
m
) .
Por la Proposicion 9.3.4, deducimos que [(X
2m
)[
w
([X

X]
m
), o sea la desigualdad de
(9.16) para todo k I
n
. La igualdad vale porque (XY ) = (Y X). Por lo tanto,
f
k
_
(XY )
2
m
_
f
k
_
[ (XY )

(XY ) ]
2
m1
_
= f
k
_
[ Y

XY ]
2
m1
_
= f
k
_
[ (X

X) (Y Y )

]
2
m1
_
.
145
donde la ultima igualdad vale porque [ Y

XY ]
2
m1
diere de [ X

XY Y

]
2
m1
tan solo en
pasar el primer Y

al nal. Repitiendo esto, se llega a que


f
k
_
(XY )
2
m
_
f
k
_
[ (X

X)
2
(Y Y

)
2
]
2
m2
_
f
k
_
(X

X)
2
m1
(Y Y

)
2
m1
_
Pongamos ahora X = exp
A
2
m
, Y = exp
B
2
m
y M
m
= 2
m
. Queda
f
k
_
(e
A
M
m
e
B
M
m
)
M
m
_
f
k
_
(e
A

M
m
e
A
M
m
)
1
2
M
m
(e
B
M
m
e
B

M
m
)
1
2
M
m
_
.
Tomando lmite m , y usando Lie-Trotter (y que las f
k
son continuas), tenemos que
f
k
(e
A+B
) f
k
(e
A

+A
2
e
B+B

2
) = f
k
(e
Re A
e
Re B
) .
Como esto vale para todo k I
n
, llegamos a que [(e
A+B
)[
w
(e
Re A
e
Re B
). La otra
desigualdad se prueba usando que la funcion f(X) = [ tr X[ tambien cumple las condiciones
de (9.16) (sale usando que f(Y ) f
n
(Y ), pero coinciden si Y /
n
(C)
+
), y haciendo el
resto de la cuenta igual.
Observaci on 9.7.4. Si una funci on f : /
n
(C) R es continua y cumple las condiciones
f(XY ) = f(Y X) y [f(X
2m
)[ f([XX

]
m
) (9.17)
para todo m N y todo par X, Y /
n
(C), decimos que f es de la clase T. La sutil
diferencia con la ecuacion (9.16) es que aca no pedimos que f sea positiva, pero no ponemos
m odulo el el ultimo termino de (9.17). Toda la cuenta del Lema 9.7.3 puede rehacerse para
una tal funci on, con lo que se obtiene la desigualdad mas general: Si f es de la clase T,
f(e
A+B
) f(e
Re A
e
Re B
) ,
para todo par A, B /
n
(C).
Proposicion 9.7.5. Sea | [ | [ una NUI en /
n
(C). Dadas A, B H(n), se tiene que
| [ e
A+B
| [ | [ e
A
e
B
| [ .
Demostracion. Por el Lema 9.7.3 y el hecho de que A, B H(n), tenemos que
s(e
A+B
) = (e
A+B
) = [(e
A+B
)[
w
(e
A
e
B
)
w
s(e
A
e
B
) ,
donde la ultima mayorizaci on sale de la Proposici on 9.4.1 (mayorante de Weyl).
Proposicion 9.7.6 (Desigualdad de Golden-Thompson). Si A, B H(n), entonces
tr e
A+B
tr e
A
e
B
. (9.18)
Demostracion. Es consecuencia directa del Lema 9.7.3.
Ejercicio 9.7.7. Usando la Proposici on 9.7.5, mostrar que
tr e
A+B
tr
_ _
e
B
e
2A
e
B

1/2
_
para A, B H(n) .
Esto es mejor o peor que Golden-Thompson?
146
9.8 Desigualdad de Johnson-Bapat
Logritmos
Proposicion 9.8.1. Sean A (l (n)
+
y B (l (m)
+
. Entonces se verica que
log(A B) = (log A) I
m
+I
n
(log B) .
Demostracion. Supongamos que A =

k
i=1

i
P
i
y que B =

h
j=1

j
Q
j
. Luego
A B =
k

i=1
h

j=1

j
P
i
Q
j
.
Notemos que (P
i
Q
j
)
(i,j)
es un sisitema de proyectores para C
n
C
m
. Luego, si u v
C
n
C
m
y abreviamos L = log(A B)(u v), se tiene que
L =
k

i=1
h

j=1
log(
i

j
)[P
i
Q
j
(u v)]
=
k

i=1
_
log(
i
)
h

j=1
P
i
(u) Q
j
(v)
_
+
h

j=1
_
log(
j
)
k

i=1
P
i
(u) Q
j
(v)
_
=
k

i=1
log(
i
)
_
P
i
(u)
_
h

j=1
Q
j
(v)
__
+
h

j=1
log(
j
)
__
k

i=1
P
i
(u)
_
Q
j
(v)
_
=
k

i=1
log(
i
)[P
i
(u) v] +
h

j=1
log(
j
)[u Q
j
(v)]
=
_
k

i=1
log(
i
)P
i
(u)
_
v +u
_
h

j=1
log(
j
)Q
j
(v)
_
= [(log A) I
m
] (u v) + [I
n
(log B)] (u v) .
La igualdad en el resto de los elementos de C
n
C
m
se obtiene por linealidad.
Corolario 9.8.2. Sean A, B (l (n)
+
. Entonces
log(A B) (log A + log B) I
n
.
Demostracion. Consideremos la aplicacion : L(H
n
H
n
) /
n
(C) denida en la
Proposici on 8.1.4. Recordar que (T) = T
S
(T L(H
n
H
n
) ) para cierto subespacio
o H
n
H
n
, y que (A B) = A B, para A, B /
n
(C). Adem as, por el Coro-
lario 6.3.15, la funci on t log T es OP en (0, +). Luego, aplicando el Teorema 6.3.7
deducimos que
(log X) = (log X)
S
log(X
S
) = log (X) para todo X (l(H
n
H
n
)
+
.
147
Ahora bien, por la Proposici on 9.8.1, log A B = (log A) I
n
+I
n
(log B), as que
log(A B) = log (A B)
_
log(A B)

=
_
(log A) I
n
+I
n
(log B)

= (log A) I
n
+I
n
(log B) ,
como se armaba.
La desigualdad
Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos a nos conjetura
de Johnson-Bapat:
Teorema 9.8.3. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(AB) para todo k I
n
.
Demostracion. Por el Corolario 9.8.2 sabemos que
log(A B) (log A + log B) I
n
.
Por el Teorema de Weyl 2.3.4, para todo k I
n
, tenemos que
log
_
n

i=k

i
(A B)
_
=
n

i=k

i
(log(A B) )
n

i=k

i
( (log A + log B) I
n
) .
De acuerdo al Teorema de Schur 5.1.1,
(log A + log B) I
n
log A + log B,
y entonces
n

i=k

i
( (log A + log B) I
n
)
n

i=k

i
(log A + log B) , k I
n
.
Por la Proposici on 9.6.7, log A + log B log(A
1/2
BA
1/2
). Luego
n

i=k

i
(log A + log B)
n

i=k

i
(log(A
1/2
BA
1/2
)) = log
_
n

i=k

i
(AB)
_
, k I
n
.
Combinando estos resultados obtenemos que
n

i=k

i
(A B)
n

i=k

i
(AB) , k I
n
,
como se quera demostrar.
148
Observaci on 9.8.4. Este teorema mejora el resultado de Bapat-Sunder:
n

i=k

i
(A B)
n

i=k

i
(A)
i
(B) para todo k I
n
.
pues, de acuerdo al Teorema de Horn (Proposici on 9.4.3), se tiene que
n

i=k

i
(AB)
n

i=k

i
(A)
i
(B) para todo k I
n
.
Tambien vericaremos la siguiente variante del Teorema 9.8.3:
Teorema 9.8.5. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(AB
t
) para todo k I
n
.
Demostracion.
Como log B
t
= (log B)
t
, tenemos que
(log B
t
) I = (log B)
t
I = (log B) I.
Por lo tanto, en la demostracion anterior podemos reemplazar log A+log BI por log A+
log B
t
I y queda demostrado el teorema.
De los Teoremas 9.8.3 y 9.8.5 se deducen los cl asicos teoremas de Fiedler que aseguran que,
para A, B (l (n)
+
,
A B
n
(AB)I y A B
n
(AB
t
)I
9.9 Medias de operadores positivos
Denici on 9.9.1. Cuando 0 1, la -media de A, B > 0 se dene y se nota por medio
de
A#

B = A
1/2
(A
1/2
BA
1/2
)

A
1/2
.
En particular, la media geometrica A#B es la
1
2
-media, o sea,
A#B = A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
.
Proposicion 9.9.2. Sean A, B (l (n)
+
. Entonces A
1/2
(A#B)B
1/2
|(n).
Demostracion. Sea T = A
1/2
B
1/2
. Consideremos su descomposici on polar a derecha T =
[T

[U, con U |(n). Luego


A
1/2
(A#B)B
1/2
= A
1/2
(A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
)B
1/2
= (A
1/2
BA
1/2
)
1/2
A
1/2
B
1/2
= (TT

)
1/2
T
1
= [T

[ T
1
= U |(n) ,
como queramos demostrar.
149
Lema 9.9.3. Sean A (l (n)
+
, B /
n
(C)
+
y C /
n
(C). Entonces
_
A C
C

B
_
0 B C

A
1
C .
Demostracion. Para abreviar llamemos X = A
1
C. Entonces
_
I X
0 I
_
es inversible. Un
c alculo sencillo nos muestra que
_
I 0
X

I
__
A C
C

B
__
I X
0 I
_
=
_
A 0
0 B C

A
1
C
_
. (9.19)
Entonces de aqu resulta claro el enunciado.
Proposicion 9.9.4. Dados A, B (l (n)
+
, la media geometrica A#B es la mayor matriz
autoadjunta del siguiente conjunto:
=
_
C H(n) :
_
A C
C B
_
0
_
.
Demostracion. Observemos que como (A#B)A
1
(A#B) = A
1/2
(A
1/2
BA
1/2
)A
1/2
= B,
entonces por el Lema 9.9.3, la matriz
_
A A#B
A#B B
_
es semidenida positiva. Luego, A#B . Para demostrar que es efectivamente el m aximo
tomemos C arbitrario. Entonces el Lema 9.9.3 nos dice que B CA
1
C. Por lo tanto,
(A
1/2
CA
1/2
)
2
= A
1/2
(CA
1
C) A
1/2
A
1/2
BA
1/2
y por el Teorema 6.2.6, tenemos
A
1/2
CA
1/2
[ A
1/2
CA
1/2
[ (A
1/2
BA
1/2
)
1/2
.
Luego
C A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
= A#B,
lo cual demuestra que A#B es el m aximo del conjunto .
Corolario 9.9.5. Sean A, B (l (n)
+
. Entonces
_
A A#B
A#B B
_
0 y
_
B A#B
A#B A
_
0 .
Demostracion. Es inmediato a partir de la Proposici on 9.9.4.
150
Observaci on 9.9.6. Puede probarse que (A#B)
2

log
A
1/2
BA
1/2
, lo que implica que
n

i=k

i
(A#B)
2

i=k

i
(AB) para todo k I
n
.
En consecuencia, el siguiente resultado mejora el Teorema 9.8.3.
Teorema 9.9.7. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(A#B)
2
para todo k I
n
.
Demostracion. Por la Proposici on 9.9.5 y el Teorema de Schur 5.1.1
_
A A#B
A#B B
_

_
B A#B
A#B A
_
=
_
A B A#B A#B
A#B A#B A B
_
0 .
Ahora, usando 3.6.8, se deduce que A B (A#B) (A#B) y por ende
n

i=k

i
(A B)
n

i=k

i
[(A#B) (A#B)] para todo k I
n
.
Finalmente, aplicando el Teorema 9.8.3 al miembro de la derecha se obtiene
n

i=k

i
[(A#B) (A#B)]
n

i=k

i
(A#B)
2
para todo k I
n
.
completanto la demostracion.
151
Captulo 10
Rango y Radio Numericos
10.1 Deniciones y propiedades basicas
En este captulo consideraremos espacios de Hilbert H nito deimensionales (con su producto
interno y la norma eucldea). Por lo tanto, puede pensarse que H = C
n
, e identicar el
algebra de operadores L(H) con /
n
(C). La mayora de los resultados de este captulo valen
tambien para el caso innitodimensional, salvo el hacho de que en varias de las igualdades
e inclusiones que aparecen, el rango numerico (o las capsulas convexas) deberan cambiarse
por sus clausuras. Una versi on general aparece en el tomo II de este libro.
Denici on 10.1.1. Sea A L(H).
1. El Rango numerico de A es el conjunto
W(A) = Ax, x) : x H, |x| = 1 .
2. Recordemos que el radio numerico de A se dene como
w(A) = max
W(A)
[[ = max [Ax, x)[ : x H, |x| = 1
y que dene una norma en L(H) (si el cuerpo es C).
Propiedades elementales de W(A) y w(A):
1. Sea A L(H). Se cumplen las siguientes desigualdades:
(A) w(A) |A| .
La segunda se deduce de Cauchy-Schwarz. La primera se deduce de la formula (10.1)
de un poco mas abajo.
152
2. Tomando A =
_
0 0
2 0
_
, se ve que las desiguadades pueden ser estrictas. En efecto, es
claro que (A) = 0 y |A|
sp
= 2. Por otra parte, como la funcion
f : z C : [z[ 1 R dada por f(z) = 2[z[ (1 [z[
2
)
1/2
alcanza el m aximo f(z) = 1 cuando [z[
2
= 1/2, podemos deducir que w(A) = 1.
3. Dado B L(H) se cumple que W(A +B) W(A) +W(B).
4. Dado C, se tiene que W(A +I) = W(A) + y W( A) = W(A).
5. Si U |(H), entonces W(UAU

) = W(A) y w(UAU

) = w(A).
6. W(A) es compacto (por serlo la cascara de la bola unidad de H).
Proposicion 10.1.2. Sea A L(H). Entonces
(A) W(A) . (10.1)
Demostracion. Si es autovalor de A, es claro que = Ax, x) W(A) para cualquier
autovector unitario x asociado a .
Es un hecho standard que, si A es normal, entonces
(A) = w(A) = |A| .
Veremos que, en ese caso, W(A) = conv [ (A)].
Ejercicio 10.1.3. Sea A /
n
(C). Recordemos que w(A) = max[Ax, x) : |x| = 1 es el
radio numerico de A. Probar:
1. w(A) |A|
sp
2 w(A).
2. |A|
1
= tr [A[ n w(A). (Sug: Tomar la DP A = [A

[U, asumir que [A

[ es diagonal,
y tomar una bon de autovectores de U).
3. Si N
t
es una NUI en /
n
(C) tal que w(T) N
t
(T) para todo T /
n
(C), entonces
tambien |T|
sp
N
t
(T) para todo T /
n
(C).
4. Si denimos la norma
N(T) = max
_
|T|
sp
2
,
|T|
1
n
_
para T /
n
(C) ,
probar que es una NUI, y que es la mayor NUI en /
n
(C) tal que N(T) w(T) para
todo T /
n
(C).
Sug: si no le sale, chusmear el paper de T. Ando: Unitarily invariant norms related to
the numerical radius, Linear Algebra and its Applications, In Press, Corrected Proof,
Available online 22 April 2005. O seguir hasta el nal del Captulo.
153
10.2 El Teorema de Hausdor Toeplitz
El Teorema de Hausdor T oeplitz dice que, para todo A L(H), se cumple que W(A) es
convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta
probarlo para matrices en /
2
(C) (esto lo veremos en la prueba del Teorema). Pero a un
entre ellas, necesitamos dos reducciones especiales:
Lema 10.2.1. Dada A /
2
(C), existe U |(2) tal que,
B = U

AU =
_
c a
b c
_
, con c =
trA
2
.
Demostracion. Cambiando A por A
tr A
2
I, podemos suponer que tr A = 0 y tratar de
hacer que la diagonal de B sea nula. Si (A) = 0, esto es f acil (por el Teorema de Schur).
Sin o, (A) = , con ,= 0. Sean x
1
y x
2
autovectores unitarios asociados a y
, respectivamente. Tomemos la curva x(t) = e
it
x
1
+ x
2
, para t [0, 2]. Observar que
x(t) ,= 0, por que x
1
y x
2
son LI. Entonces,
Ax(t), x(t)) = +e
it
Ax
1
, x
2
) +e
it
Ax
2
, x
1
)
= e
it
x
1
, x
2
) e
it
x
2
, x
1
) = 2iIm(e
it
x
1
, x
2
)) .
Eligiendo t
0
[0, 2] tal que e
it
0
x
1
, x
2
) R, tenemos que Ax(t
0
), x(t
0
)) = 0, con x(t
0
) ,= 0.
Normalizando a x(t
0
), completando a una BON de C
2
, y tomando U |(2) tal que tenga
a esa BON en sus columnas, obtenemos
B = U

AU =
_
0 a
b 0
_
, con a, b C ,
donde B
22
= 0 porque B
11
= 0 = tr B.
Lema 10.2.2. Dada B /
2
(C) con diagonal nula, existen V |(2) y w C con [w[ = 1
tales que,
w V BV

=
_
0 a
b 0
_
, con a 0 y b 0 .
Demostracion. Si B =
_
0 a
b 0
_
, tomando V =
_
u 0
0 1
_
|(2) y w C con [w[ = 1,
tenemos que
w V B
1
V

=
_
0 wu a
wu b 0
_
.
Si a = e
i
1
[a[ y b = e
i
2
[b[, tomando u = e
i
2
(
2

1
)
y w = e
i
2
(
2
+
1
)
, se obtiene que
w V B
1
V

=
_
0 [a[
[b[ 0
_
,
como deseabamos.
154
Teorema 10.2.3 (Hausdor-T oeplitz). Sea A L(H). Entonces W(A) es convexo.
Demostracion. Sean , W(A) distintos, y sean x, y H unitarios tales que Ax, x) =
y Ay, y) = . Tomemos B
0
= v
1
, v
2
una BON de o = span x, y. Consideremos la
compresi on A
S
L(o). La matriz de A
S
en la base B
0
es B = (Av
j
, v
i
))
i,jI
2
/
2
(C).
Dado z = (z
1
, z
2
) C
2
, se tiene que
w = z
1
v
1
+z
2
v
2
o , |w| = |z|
2
y Bz, z) = Aw, w) ,
por lo que , W(B) y, para probar que las combinaciones convexas de y est an en
W(A), basta vericar que est an en W(B). En otras parabras, alcanza con probar el teorema
en el caso de que A /
2
(C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que
A =
_
0 a
b 0
_
, con a 0 y b 0 ,
puesto que W(C +I) = W(C) + y W(u V CV

) = u W(C) para cualquier C /


2
(C),
C, V |(2) y u C con [u[ = 1. Obervar que los cambios inducidos por las
reducciones anteriores (translaciones y rotaciones) no perturban el hecho de que W(A) sea
convexo. Veremos que en este caso,
W(A) =
_
t
_
(a +b) cos +i(a b) sin
_
: t [0, 1/2] y [0, 2]
_
, (10.2)
que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto
convexa. En efecto, dado z C
2
con |z| = 1, como
Az, z) =

Ae
i
z, e
i
z
_
para todo R ,
podemos suponer que z = (t, (1 t
2
)
1/2
e
i
) para t [0, 1] y [0, 2]. En tal caso, cuentas
elementales muestran que
Az, z) = t(1 t
2
)
_
(a +b) cos +i(a b) sin

.
Observar que los n umeros t(1t
2
) recorren el intervalo [0, 1/2] cuando t [0, 1]. Esto prueba
la formula (10.2).
Corolario 10.2.4. Sea A L(H).
1. En general se cumple que conv [ (A) ] W(A).
2. Si A es normal, entonces conv [ (A) ] = W(A).
Demostracion. La inclusion (A) W(A) ya fue vista en la Proposici on 10.1.2. Pero por
el Teorema 10.2.3, sabemos que esa incus on arrastra a la c apsula convexa. Si A es normal,
sea x
1
, . . . , x
n
una BON de H formada por autovectores de A asociados a sus autovalores

1
, . . . ,
n
. Si x H tiene |x| = 1, entonces
Ax, x) =
_
A
n

k=1
x, x
k
) x
k
,
n

k=1
x, x
k
) x
k
_
=
n

k=1
[ x, x
k
) [
2

k
conv [ (A) ] ,
porque

n
k=1
[ x, x
k
) [
2
= |x|
2
= 1. Por lo tanto W(A) conv [ (A)].
155
Denici on 10.2.5. 1. Dados dos espacios de Hilbert H y K, notamos
HK = (x, y) : x H , y K ,
que es un espacio de Hilbert con el producto (x
1
, y
1
), (x
2
, y
2
)) = x
1
, x
2
) +y
1
, y
2
).
2. Dados A L(H) y B L(K), se dene el operador
A B L(HK) dado por A B(x, y) = (Ax, By), (x, y) HK .
3. Matricialmente tenemos que
A B :=
_
A 0
0 B
_
H
K
L(HK) .
4. En forma similar se denen sumas directas de muchos espacios de Hilbert y de muchos
operadores en ellos.
Corolario 10.2.6. Sean A L(H) y B L(K). Entonces
W(A B) = conv [W(A) W(A) ] y w(A B) = maxw(A), w(B) . (10.3)
Idem con muchos bloques diagonales.
Demostracion. La inclusi on W(A) W(A) W(A B) se testea inmediatamente usando
vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la c apsula convexa
de W(A) W(A). Recprocamente, dados x H e y K no nulos tales que |(x, y)|
2
=
|x|
2
+|y|
2
= 1, tenemos que
A B(x, y), (x, y) ) = Ax, x) +By, y)
= |x|
2
_
A
x
|x|
,
x
|x|
_
+|y|
2
_
B
y
|y|
,
y
|y|
_
,
quien claramente pertenece a conv [W(A) W(A) ].
Corolario 10.2.7. Sea A /
n
(C). Entonces existe U |(n) tal que, si B = U

AU, luego
B
ii
=
tr A
n
para todo i I
n
.
Demostracion. Cambiando A por A
tr A
n
, lo que debemos probar es que, si tr A = 0,
entonces podemos conseguir U |(n) tal que la diagonal de U

AU sea nula. Lo probaremos


por induccion en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si
n > 2, aplicando el Corolario 10.2.4 obtenemos que
0 =
tr A
n
conv [ (A)] W(A) .
156
Luego existe un vector unitario x C
n
tal que Ax, x) = 0. Completando x a una BON
de C
n
que lo tenga como primer elemento, y tomando U
1
|(n) la matriz con esa BON en
sus columnas, obtenemos que
C = U

1
AU
1
=
_
0
D
_
1
n 1
,
porque C
11
= Ax, x) = 0. Como D /
n1
(C) cumple que tr D = 0, podemos aplicar
la hip otesis inductiva y encontrar V |(n 1) tal que la diagonal de V

DV sea nula.
Deniendo U
2
= 1 V |(n) y U = U
1
U
2
|(n), se ve que
U

AU = U

2
CU
2
=
_
1 0
0 V

_ _
0
D
_ _
1 0
0 V
_
=
_
0 V
V

DV
_
,
que tiene la diagonal nula.
Observaci on 10.2.8. Sea W C un conjunto convexo compacto, y sea z
0
/ W. Entonces
existe un unico w
0
W tal que
d(z
0
, W) = [z
0
w
0
[ = d > 0 .
El tal w
0
existe (y es unico) por la teora usual de espacios de Hilbert, usando que W es
convexo y cerrado. Mas a un, si x = z
0
w
0
, entonces Re (w
0
x) +d = Re (z
0
x) y
Re (zx) Re (w
0
x) para todo z W .
Esto se deduce de que w
0
es la proyeccion ortogonal de z
0
sobre W, y de que el producto
escalar en C pensado como R
2
es la parte real del producto escalar usual. Observar que la
recta z C : Re [(z w
0
)x] = 0 es ortogonal a z
0
w
0
y pasa por w
0
.
Teorema 10.2.9. Sea A L(H). Entonces
W(A) =
_
z C : [z [ w(A I) para todo C
_
=
_
z C : [z [ |A I| para todo C
_
.
Demostracion. Notemos W = W(A), X =
_
z C : [z [ w(A I) , C
_
e
Y =
_
z C : [z [ |A I| , C
_
. Es claro, por las deniciones, que X Y .
Usando que W(A) = W(A I), es f acil ver que W X. En lo que sigue probaremos
que Y W: Supongamos que z
0
/ W, y sea w
0
la proyeccion ortogonal de z
0
sobre W
(como en la Observacion 10.2.8). Sean
d = [z
0
w
0
[ = D(z
0
, W) > 0 , y B = e
i
(A w
0
I) ,
donde z
0
w
0
= e
i
d. Luego W
B
= W(B) = e
i
(W(A) w
0
) y, si
Y
B
=
_
z C : [z [ |B I| , C
_
, entonces Y
B
= e
i
(Y w
0
) .
157
Por lo tanto, para ver que z
0
/ Y , alcanza probar que d = e
i
(z
0
w
0
) / Y
B
. Observar que,
como la funci on x e
i
(x w
0
) preserva distancias, la proyecci on de d a W
B
es, ahora,
e
i
(w
0
w
0
) = 0. Adem as, como d = d 0 > 0, si z W
B
,
Re (z d ) = d Re z 0 = Re z 0 ,
por la Observacion 10.2.8. Ahora, si |x| = 1 y m N, entonces
|(B +mI)x|
2
=

(B +mI)x , (B +mI)x
_
= |Bx|
2
+m
2
+ 2mRe Bx, x)
|B|
2
+m
2
,
porque Bx, x) W
B
. Es decir que |B + mI| (|B|
2
+ m
2
)
1/2
. Es facil ver que (|B|
2
+
m
2
)
1/2
m
m
0. Por lo tanto, debe existir m N tal que
|B +mI| m (|B|
2
+m
2
)
1/2
m < d .
En otras palabras, para ese m se tiene que
|B +mI| < d +m = [d +m[ ,
por lo que d / Y
B
y entonces z
0
/ Y . Resumiendo, vimos que si z
0
/ W, entonces z
0
/ Y , o
sea que Y W.
10.3 Comparaci on con NUIs
Proposicion 10.3.1. Sea A L(H). Entonces
1
2
|A| w(A) |A| .
Admas, las constantes 1 y 1/2 son optimas para la desigualdad anterior.
Demostracion. Tomemos partes real e imaginaria: A = Re A +i ImA. Luego
w(A) |A| | Re A| +| ImA| = w(Re A) +w(ImA) 2 w(A) ,
donde la ultima desigualdad se deduce de que W(Re A) = Re z : z W(A), por lo que
w(Re A) w(A), y lo mismo para ImA. La optimalidad de las constantes 1 y 1/2 se ve
tomando las matrices E
11
y 2E
21
.
Proposicion 10.3.2 (Marcus-Sandy 1985). Sea A /
n
(C). Entonces
1
n
n

i=1
s
i
(A) w(A)
n

i=1
s
i
(A) = |A|
1
.
Admas, las constantes 1 y 1/n son optimas para la desigualdad anterior.
158
Demostracion. Tomemos la descomposicion polar A = U[A[, con U |(n). Conjugando
con otra matriz unitaria (lo que no cambia ni w(A) ni |A|
1
), podemos suponer que que U es
diagonal. Observar que [V AV

[ = V [A[V

, si V |(n). Pongamos U = diag (w


1
, . . . w
n
),
con [w
i
[ = 1, i I
n
. Veremos que, en este caso, el n umero
1
n
n

i=1
s
i
(A) es superado por
alguno de los m odulos de los elementos diagonales de A. En efecto, si notamos e
1
, . . . , e
n

a la base can onica de C


n
, y llamamos P = [A[, dado k I
n
tenemos que
[A
kk
[ = [ Ae
k
, e
k
) [ = [ UPe
k
, e
k
) [ = [ Pe
k
, U

e
k
) [ = [w
k
Pe
k
, e
k
) [ = [P
kk
[ = P
kk
,
donde la ultima igualdad surge de que P /
n
(C)
+
. Por otra parte,
n

k=1
P
kk
= tr P = tr [A[ =
n

i=1
s
i
(A) .
Por ende, debe existir alg un k I
n
tal que
1
n
n

i=1
s
i
(A) P
kk
= [ Ae
k
, e
k
) [ w(A) .
Para ver que las constantes 1 y 1/n son optimas, tomar las matrices E
11
e I.
Denici on 10.3.3. Llamemos A =
_
0 0
2 0
_
/
2
(C) y V =
_
0 1
1 0
_
|(2). Dado
n N, si n = 2m consideremos las matrices diagonales de bloques
C
n
= A A A =
m

k=1
2E
2k,2k1
/
n
(C) y
U
n
= V V V =
m

k=1
E
2k,2k1
+E
2k1,2k
|(n) .
Si n = 2m + 1 e I
1
denota a la matriz [ 1 ] /
1
(C),
C
n
= A A I
1
= E
n,n
+
m

k=1
2E
2k,2k1
/
n
(C) y
U
n
= V V I
1
= E
n,n
+
m

k=1
E
2k,2k1
+E
2k1,2k
|(n) .
Observar que, como w(A) = w(I
1
) = 1, la ecuaci on (10.3) asegura que w(C
n
) = 1 para todo
n N.
Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [14] para calcular, para
N una NUI ja en /
n
(C), las mejores constantes m y M tales que
m N(T) w(T) M N(T) para todo T /
n
(C) .
159
Proposicion 10.3.4 (Johnson-Li 1988). Sea N una NUI en /
n
(C). Luego
N(C
n
)
1
N(T) w(T) N(E
11
)
1
N(T) para toda T /
n
(C) .
Ademas, las constantes N(C
n
)
1
y N(E
11
)
1
son optimas.
Demostracion. Fijemos T /
n
(C). Si T = 0, el resultado es claro. Si no, sea A =
w(T)
1
T, que tiene w(A) = 1. Por las Proposiciones 10.3.1 y 10.3.2, si s(A) = (s
1
, . . . , s
n
),
se tiene que
1 s
1
2 y n
n

k=1
s
k
.
Observar que s(E
11
) = e
1
y s(C
n
) = v
n
, donde
v
n
=
_

_
(2, . . . , 2, 0, . . . , 0) =
m

k=1
2e
k
si n = 2m
(2, . . . , 2, 1, 0, . . . , 0) =
m

k=1
2e
k
+e
m+1
si n = 2m + 1 .
(10.4)
Por lo tanto, s(E
11
)
w
s(A)
w
s(C
n
). Como N es una NUI, el Teorema de Ky Fan
(Teorema 3.3.8 del Libro 1) dice que que
N(E
11
) N(A) =
N(T)
w(T)
N(C
n
) .
Invirtiendo y multiplicando por N(T), se obtienen las desigualdades buscadas. Tomando
T = C
n
y T = E
11
y observando que w(C
n
) = w(E
11
) = 1, podemos deducir que las
constantes dadas son optimas.
Proposicion 10.3.5. Sea N es una NUI en /
n
(C). Entonces
w(T) N(T) , T /
n
(C) = |T|
sp
N(T) , T /
n
(C) .
Demostracion. Observar que |T|
sp
= | [T[ |
sp
= w([T[) N([T[) = N(T).
El siguiente teorema es el contenido del paper de T. Ando [4]:
Teorema 10.3.6 (Ando 2005). Si denimos la norma
N
0
(T) = max
_
|T|
sp
2
,
|T|
1
n
_
para T /
n
(C) ,
se tiene que
1. N
0
es una NUI.
160
2. N
0
(T) w(T) para todo T /
n
(C).
3. N
0
es la mayor NUI en /
n
(C) tal que N(T) w(T) para todo T /
n
(C). Es
decir, si N es una NUI en /
n
(C),
N(T) w(T) , T /
n
(C) = N(T) N
0
(T) , T /
n
(C) .
Demostracion. Los dos primeros items son claros de lo anterior. Fijemos T /
n
(C).
Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir
que T = (T) = diag (s
1
(T), . . . , s
n
(T)). Mas a un, supongamos que
N
0
(T) = max
_
s
1
(T)
2
,
1
n
n

i=1
s
i
(T)
_
= 1 .
En este caso deberamos probar que N(T) 1. Las desigualdades resultantes de la igualdad
anterior implican que s(T)
w
v
n
, donde v
n
es el vector denido en la ecuaci on (10.4).
Tomemos C
n
y U
n
las matrices de la Denicion 10.3.3. Notar que U
n
C
n
= B
n
, donde
B
n
= diag (2, 0, 2, 0, . . . , 2, 0) o bien B
n
= diag (2, 0, 2, 0, . . . , 2, 0, 1) .
Observar que s(B) = v
n
. Luego, como s(T)
w
v
n
= s(B
n
) y N es una NUI, el Teorema de
Ky Fan (Teorema 3.3.8 del Libro 1) nos dice que que N(T) N(B
n
), con lo que bastara
probar que N(B
n
) 1. Por otra parte, en la Denici on 10.3.3 se ve que w(C
n
) = 1 para
todo n N. Como U |(n) y N es una NUI, tenemos que
N(T) N(B
n
) = N(U
n
C
n
) = N(C
n
) w(C
n
) = 1 = N
0
(T) .
Observar que recien al nal usamos la hipotesis sobre N.
10.4 Ejercicios
Ejercicio 10.4.1. Sea A /
n
(C), A > 0 (positiva denida). Sean r
i
= tr(F
i
(A)), 1 i
n y sea s = r
1
+ +r
n
= Ae, e), donde e = (1, . . . , 1).
1. Probar que
s
n
per(A) n!

ij
[r
i
[
2
.
2. Si A DE(n), per(A) n! n
n
.
Ejercicio 10.4.2. Sea | | una NUI y A /
n
(C). Probar que si (A) es el vector de los
autovalores de A y Eig(A) = diag((A) ) /
n
(C), entonces
|Eig(A)| = inf|SAS
1
| : S (l (n).
Que matrices A verican que el nmo es un mnimo para toda NUI? Observar que la
conclusi on anterior no vale para cada NUI sola. Diga algunas en las que s vale y otras
donde no ().
161
Ejercicio 10.4.3. Sean A, B /
n
(C). Probar:
1. (s(A), s(B)) (s([A[ +[B[), 0) en R
2n
.
2. (s(A), s(B))
w
(s(A +B), 0) en R
2n
.
3. Sea F : /
n
(C) R
+
dada por F(C) =

i
f(s
i
(C)), para una f : R
+
R
+
c oncava
tal que f(0) = 0. Probar que F es subaditiva, o sea
F(A +B) F(A) +F(B).
4. Si z C, det(I +zA) =

n
k=0
z
k
tr(
k
A).
5. det(I +[A +B[) det(I +[A[) det(I +[B[).
6. [ det(I +A)[ det(I +[A[).
7. [ det(I +A +B)[ det(I +[A[) det(I +[B[).
Ejercicio 10.4.4. Sean A, B, C /
n
(C). Demostrar:
1. e
A+B
= lim
r0
(e
rA/2
e
rB
e
rA/2
)
1/r
2. Si A, B 0 y r (0, 1), entonces (A
r/2
B
r
A
r/2
)
1/r
A
1/2
BA
1/2
3. Nuevamente bajo el supuesto que A, B 0, se tiene que para toda norma unitariamente
invariante | [ | [ :
| [ A
r/2
B
r
A
r/2
| [
1/r

r0
| [ e
A+B
| [ ,
en forma decreciente.
4. Si A, B > 0, entonces | [ log(A) + log(B) | [ | [ log(A
1/2
BA
1/2
) | [ para toda norma
unitariamente invariante | [ | [ .
5. Si A, B H(n), entonces tr(e
A+B
) tr(e
A
e
B
).
6. Dar un ejemplo que muestre que la desigualdad tr(e
A+B+C
) tr(e
A
e
B
e
C
) es falsa.
Ejercicio 10.4.5. Sean A, B /
n
(C) matrices normales con autovalores
1
, . . . ,
n
y

1
, . . . ,
n
respectivamente.
1. Demostrar que existe una matriz doble estocastica D tal que
|A B|
2
2
=

i,j
[
i

j
[
2
d
ij
.
162
2. Probar la siguiente desigualdades:
min
S
n
_
n

i=1
[
i

(i)
[
2
_
1/2
|A B|
2
max
S
n
_
n

i=1
[
i

(i)
[
2
_
1/2
.
3. Sea B /
n
(R) diagonal y denamos
|(B) = UBU

: U |(n) H(n).
Demostar que dada C /
n
(C), la distancia d(C, |(B)) calculada en norma 2 (Frobe-
nius), se realiza en una matriz diagonal D |(B).
Ejercicio 10.4.6. Sean A, B, C /
n
(C) tal que |A|
sp
1. Se denen
D
A
= (I A

A)
1/2
y D
A
= (I AA

)
1/2
.
1. Suponiendo que |A|
sp
< 1, vericar:
(a) Si K = D
1
A
C

y L = D
1
A
B, entonces
KK

1 (resp. LL

1) A

A +C

C 1 (resp. AA

BB

1).
(b) Demostrar que
_
I A
A

I
_
1
=
_
D
2
A
D
1
A
AD
1
A
D
1
A
AD
1
A
D
2
A
_
.
(c) Sea X /
n
(C). Demostar que las matrices
_
_
_
_
I 0 A B
0 I C X
A

I 0
C

0 I
_
_
_
_
y
_
_
_
_
I A 0 B
A

I C

0
0 C I X
B

0 X

I
_
_
_
_
son conjugadas y ambas positivas.
2. Demostrar que las siguientes armaciones son equivalentes:
(a) Existe X /
n
(C) tal que
_
_
_
_
_
A B
C X
__
_
_
_
sp
1.
(b)
_
_
_
A B
__
_
sp
1 y
_
_
_
_
_
A
C
__
_
_
_
sp
1.
Ejercicio 10.4.7. Dadas X, Y /
n,m
(R) decimos que
X ~
s
Y si existe D To (n) tal que DX = Y
163
X ~ Y si Y v Xv (mayorizacion usual en R
n
) para todo v R
m
X ~
w
Y si existe D estocastica por las tal que DX = Y .
Esta es una manera compacta de describir lo que podramos llamar mayorizacion conjunta
(fuerte, mediana y debil) de m vectores de R
n
; a saber, las columnas de X y de Y .
1. Probar que X ~
w
Y si y solo si las las de Y son combinaciones convexas de las de
X.
2. Probar que ~
s
= ~ = ~
w
, pero no valen las recprocas (el contraejemplo de
~ = ~
s
es opcional, porque es bastante complicadito).
3. Si n = 2 (solo dos las, o mejor dicho, muchos vectores de R
2
), o m = n y las matrices
son inversibles (esto signica bases), entonces s vale que ~ = ~
s
.
4. Supongamos que m = n y X ~
w
Y . Entonces [ det X[ [ det Y [. Adem as, si [ det X[ =
[ det Y [ , = 0, entonces existe una matriz P $
n
tal que Y = PX.
164
Captulo 11
Teora de Perron-Frobenius.
11.1 Matrices de entradas positivas.
A lo largo de este captulo, usaremos la siguiente notaci on: dadas A, B /
n
(C) y x C
n
:
1. A0 , si A
ij
0 para todo i, j I
n
.
2. A > 0 , si A
ij
> 0 para todo i, j I
n
.
3. [A[ = ([a
ij
[)
i,jI
n
y analogamente [x[ = ([x
1
[, . . . , [x
n
[).
4. AB, si a
ij
b
ij
para todo i, j I
n
.
5. El vector (1, 1, . . . , 1) R
n
ser a denotado por medio de e.
El objetivo de este captulo es la demostracion del Teorema de Perron, para matrices de
entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.
Teorema 11.1.1 (Teorema de Perron). Sea A > 0. Entonces vale:
1. (A) > 0 y (A) (A).
2. x > 0 tal que Ax = (A)x.
3. Si y 0, y ,= 0 y Ay = y, entonces, = (A) e y > 0.
4. (A) es raz simple del polinomio caracterstico de A.
5. Si (A) y ,= (A), entonces, [[ < (A).
6. Si (A) = 1, entonces, A
n

n
L = xy
t
donde x, y > 0 son vectores tales que
x, y) = 1, Ax = x, y A
t
y = y.
Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para
matrices A0, su radio espectral y los autovectores correspondientes.
165
Proposicion 11.1.2. Si 0 AB, entonces, (A) (B).
Demostracion. Como 0 AB, entonces, para todo n 1 se tiene que 0 A
n
B
n
. Por
lo tanto |A
n
|
1/n
2
|B
n
|
1/n
2
y, tomando lmite, se obtiene la desigualdad buscada .
Corolario 11.1.3. Si 0 < A, entonces (A) > 0.
Demostracion. Si 0 < A, existe > 0 tal que I A. As (A) (I) = > 0.
Corolario 11.1.4. Sean A0, J 1, . . . , n y A
J
= (a
ij
)
i,j J
. Entonces (A
J
) (A).
Demostracion. Basta extender A
J
a /
n
(C) poniendo ceros en las entradas que le faltan, y
aplicar la Proposici on 11.1.2.
Observaci on 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A /
n
(C),
| [ A | [

= max
|x|

=1
|Ax|

= max
1in
|F
i
(A)|
1
.
Si A0, entonces |F
i
(A)|
1
= tr(F
i
(A)).
A continuacion vienen tres Lemas que sirven para ubicar el radio espectral de una matriz
A0 usando la Observacion anterior:
Lema 11.1.6. Sea A0. Si tr(F
i
(A)) es constante, entonces, (A) = | [ A | [

.
Demostracion. La desigualdad (A) | [ A | [

vale siempre. En nuestro caso, como Ae =
| [ A | [

e, se tiene que | [ A | [

(A).
Lema 11.1.7. Sean A0,
= max
1in
tr(F
i
(A)) = | [ A | [

y = min
1in
tr(F
i
(A)).
Entonces (A) .
Demostracion. La desigualdad (A) es conocida, por lo tanto s olo vericaremos que
(A). Podemos suponer que > 0. Denamos entonces la matriz B /
n
(C) cuyas
las son:
F
i
(B) =

tr(F
i
(A))
F
i
(A).
De este modo, tr(F
i
(B)) = para todo i 1. En consecuencia, usando el Lema 11.1.6 y la
Proposici on 11.1.2, = (B) (A), ya que, por su construcci on, 0 BA.
Lema 11.1.8. Sea A0, x > 0 e y = Ax. Notemos
= min
1in
y
i
x
i
y = max
1in
y
i
x
i
.
Entonces (A) .
166
Demostracion. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que
D
1
AD = (x
1
i
x
j
a
ij
)
ij
.
Adem as D
1
AD0 y (D
1
AD) = (A). Por otro lado se tiene que
tr(F
i
(D
1
AD)) = x
1
i
n

j=1
a
ij
x
j
=
(Ax)
i
x
i
=
y
i
x
i
.
Luego basta aplicar el Lema 11.1.7.
Teorema 11.1.9. Sean A0 y x > 0.
1. Si existen , R tales que x Ax x, entonces (A) .
2. Si x es un autovector de A (y es x > 0), entonces Ax = (A)x.
Demostracion. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos
que Ax = x. Como Ax 0, debe cumplirse que 0, en particular R. Luego se
verican las hipotesis de la primera parte con = = .
Observaciones: 11.1.10.
1. Las desigualdades anteriores (para y para ) son independientes.
2. Adem as, si x > 0, x < Ax implica < (A) y Ax < x implica (A) < . En
efecto, si en los Lemas 11.1.7 y 11.1.8 se toma estrictamente menor que los mnimos
correspondientes, se obtiene < (A).
A partir de este momento A > 0. Notar que esto implica que si 0 x y x ,= 0, entonces
Ax > 0. Este hecho se usar a reiteradas veces.
Proposicion 11.1.11. Sea A > 0 y (A) tal que [[ = (A). Si y ,= 0 cumple que
Ay = y, entonces:
1. [y[ > 0
2. A[y[ = (A)[y[
Demostracion. Sea x = [y[, entonces por la desigualdad triangular,
(A)x = [[x = [y[ = [Ay[ A[y[ = Ax.
Sea z = Ax(A)x 0. Supongamos que z ,= 0. Entonces Az > 0. Si llamamos u = Ax > 0,
Az = Au (A)u > 0. Por lo tanto, Au > (A)u y, por la Observaci on 11.1.10, se obtiene
la contradicci on (A) > (A). Dado que esta provino de suponer que z ,= 0, se tiene que
z = 0 y por ende Ax = (A)x. Notar que esto implica que [y[ = x > 0.
Corolario 11.1.12. Si A > 0, entonces, (A) (A) y existe x > 0 tal que Ax = (A)x.
167
Proposicion 11.1.13. Sean A > 0 y (A) tales que [[ = (A). Si y ,= 0 cumple que
Ay = y, entonces, existe [0, 2) tal que [y[ = e
i
y.
Demostracion. Por la Proposici on 11.1.11 A[y[ = (A)[y[. Adem as [Ay[ = [y[ = (A)[y[.
En consecuencia, [Ay[ = A[y[. Luego, existe [0, 2) tal que y
j
= e
i
[y
j
[ para todo j,
porque vale la igualdad en la desigualdad triangular (basta mirar las primeras coordenadas
de [Ay[ y A[y[).
Corolario 11.1.14. Si A > 0, entonces (A) es el unico autovalor de modulo maximo.
Corolario 11.1.15. Sea A > 0. Entonces dimker(A (A)I) = 1.
Demostracion. Sean x, y ker(A (A)I). Probaremos que son linealmente dependientes.
Por la Proposici on 11.1.13 se puede suponer que x > 0 e y > 0. Sea = min
i
x
i
/y
i
, y
denamos z = x y. Como x
i
y
i
x
i
(x
i
/y
i
)y
i
= 0, se tiene que z 0.
Dado que Az = (A)z, si z ,= 0, entonces, z > 0. Pero, si = x
k
/y
k
, entonces, la
coordenada k-esima de z es cero. El absurdo, proviene de suponer que z ,= 0, por lo tanto,
z = 0 y x = y.
Corolario 11.1.16. Sea A > 0 y x R
n
tal que x 0, x ,= 0 y Ax = x. Entonces,
= (A) y x > 0.
Demostracion. Como Ax > 0, y por ende x > 0, se puede aplicar el Teorema 11.1.9.
Teorema 11.1.17. Sea A > 0 tal que (A) = 1. Sean x, y R
n
tales que x, y) = 1,
x, y > 0, Ax = x y A
t
y = y. Entonces, A
m

n
xy
t
.
Demostracion. Sea L = xy
t
= (x
i
y
j
)
ij
1. L
2
= L
m
= L: En efecto, L
2
= xy
t
xy
t
= x x, y) y
t
= xy
t
= L.
2. AL = LA = L: Axy
t
= xy
t
= xy
t
A.
3. (A L)
m
= A
m
L: Razonemos por inducci on sobre m. Para m = 1 trivial.
(A L)
k+1
= (A L)(A L)
k
= (A L)(A
k
L)
= A
k+1
AL LA
k
+L = A
k+1
L L +L
= A
k+1
L.
4. (A L) 0 (A) 1 (En particular, (A L) < 1.): Sea C ,= 0 y
z C
n
z ,= 0 tales que (A L)z = z. Como L(L A) = 0, se tiene que
Lz =
1

L(z) =
1

L(L A)z = 0.
Luego, Az = z y por lo tanto (A). Si = 1, entonces, z = x y por lo tanto
(A L)x = x. Pero Ax = x y Lx = xy
t
x = x, en consecuencia, (A L)x = 0 = x,
absurdo.
168
5. Como el unico (A) con [[ = 1 es = 1, se tiene que (A L) < 1 y por ende
A
m
L = (A L)
m
0 cuando m .

Final de la demostracion del Teorema de Perron. S olo falta vericar que (A) es raz simple
del polinomio caracterstico de A. Supongamos, sin perdida de generalidad, que (A) = 1.
En cierta base de C
n
, es decir, para cierta S (l (n),
SAS
1
=
_
_
_
J
1
0 0
.
.
.
.
.
.
.
.
.
0 0 J
r
_
_
_
,
donde J
1
es el bloque de Jordan asociado al autovalor 1 de A. Entonces J
1
= I
k
+N
k
, donde
I
k
es la matriz identidad de /
k
(C) y N
k
/
k
(C) es cierta matriz extrictamente triangular
superior. Luego
J
m
1
=
_
_
_
_
_
_
_
1
0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
0 0 0 1
_
_
_
_
_
_
_

m
SLS
1
,
pero SLS
1
tiene rango 1. En consecuencia, J
1
= 1.
Denicion 11.1.18. Sea A > 0. El unico vector x R
n
tal que
Ax = (A)x , x > 0 y tr x = 1 ,
se llamara vector de Perron de A.
11.2 Matrices de entradas no negativas.
El Teorema de Perron falla en general si A0 pero A ,> 0. Por ejemplo, si
A =
_
0 1
1 0
_
,
entonces A
m
= A o I, seg un m sea impar o par. Adem as, (A) = 1, 1. En este caso
el autovector asociado al 1 es positivo estricto (es e). Pero eso no pasa para la matriz A =
_
1 0
0 0
_
. Es mas, todas las partes del Teorema (salvo una) pueden hacerse fallar tomando
matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente:
Proposicion 11.2.1. Sea 0 A /
n
(R). Entonces
1. (A) (A) y
169
2. existe x R
n
tal que 0 x ,= 0 y Ax = (A)x.
Demostracion. Sea E /
n
(R) con todas sus entradas iguales a 1. Dado > 0, tenemos
que A

= A +E > 0. Adem as, por la Proposici on 11.1.2, si 0 <


t
< , entonces
(A) (A

) (A

).
Denominemos x

> 0 al vector de Perron de A

, normalizado para que tr x

= 1. Como
la bola de R
n
(con la norma uno) es compacta, se puede tomar una sucesi on decreciente

n

n
0 tal que, si llamamos A
n
= A

n
y x
n
= x

n
, entonces existe 0 x R
n
tal que
(A
n
) (A
n+1
)
n
M (A) y x
n

n
x .
Observar que tr x = 1, por lo que x ,= 0. Ademas, A
n
x
n
= (A
n
)x
n

n
Mx y, como
A
n

n
A, entonces A
n
x
n

n
Ax. Por lo tanto deducimos que Ax = Mx, con M (A).
Luego M = (A) y x 0 es un autovector.
Matrices primitivas
Denici on 11.2.2. Sea A /
n
(C) tal que A0. Diremos que A es una matriz primitiva
si existe un m 1 tal que A
m
> 0.
Teorema 11.2.3. Sea A0 una matriz primitiva. Entonces valen:
1. (A) > 0 y (A) (A).
2. x > 0 tal que Ax = (A)x.
3. Si y 0, y ,= 0 y Ay = y, entonces, = (A) e y > 0.
4. (A) es raz simple del polinomio caracterstico de A.
5. Si (A) y ,= (A), entonces, [[ < (A).
6. Si (A) = 1, entonces, A
m
L = xy
t
donde x, y > 0 son vectores tales que x, y) = 1,
Ax = x y A
t
y = y.
Demostracion. Sea m N tal que A
m
> 0. Por el Corolario 1.7.2,
(A
m
) =
m
: (A).
Por el Teorema 11.1.1 aplicado a A
m
, concluimos que (A) = (A
m
)
1/m
> 0. Sea (A)
tal que [[ = (A) y x C
n
tal que Ax = x. Entonces A
m
x =
m
x y [[
m
= (A
m
). Por
lo tanto,
m
= (A
m
) y A
m
x = (A
m
)x. De ah podemos deducir que alg un m ultiplo y de x
cumple que y > 0, y por ello = (A) y Ay = (A)y.
Adem as, cada
m
(A
m
) posee una multiplicidad en el polinomio caracterstico de A
m
mayor o igual que la de en el de A (esto se ve facil triangulando con el Teorema 1.6.1).
170
Por lo tanto (A) posee multiplicidad algebraica uno como autavalor de A. Razonamientos
similares permiten concluir que (A) es el unico autovalor de m odulo m aximo, y tambien la
condici on 3.
S olo falta probar la condici on 5: Supongamos sin perdida de generalidad que (A) = 1.
Dado que en la demostraci on del Teorema de Perron no se us o que A fuera estrictamente
positiva para obtenerlas, siguen valiendo las sigientes relaciones:
(A L)
m
= A
m
L (11.1)
(A L) 0 (A) 1 (11.2)
De (11.2) se deduce que (AL) < 1, por lo tanto (AL)
m

m
0, mientras que usando
(11.1) se deduce que A
m
L.
Matrices irreducibles
Denici on 11.2.4. Sea A /
n
(C). Decimos que:
1. A es reducible si existe P |
1
(n), una matriz de permutaci on, tal que
PAP
1
=
_
B C
0 D
_
k
n k
,
donde 1 k n 1 y B /
k
(R). Se dice que A es irreducible si no es reducible.
2. Decimos que el par 1 p, q n, p ,= q, se conecta por A, si existen p = i
0
, i
1
, . . . , i
m
=
q en I
n
tales que a
i
k
i
k+1
,= 0 para 0 k m1.
Observar que se puede suponer que todos los i
k
son distintos entre s, porque si hubiera
repeticiones, una parte de la sucesion se podra borrar, quedando otra sucesi on (mas
corta) que seguira conectando a p y q. Por lo tanto, puede suponerse que m n 1.
3. A es fuertemente conexa (FC) si todo par p, q I
n
, p ,= q, se conecta por A.
4. Recordar que, si A0, decimos que A es primitiva si existe m 0 tal que A
m
> 0.
Lema 11.2.5. Sea 0 A /
n
(R). Dados p ,= q I
n
, son equivalentes:
1. El par p, q se conecta por A.
2. Existe 1 m n 1 tal que A
m
p q
> 0.
Demostracion. Basta notar que
A
m
p q
=
n

i
1
,...,i
m1
=1
a
p i
1
a
i
1
i
2
. . . a
i
m1
q
y que todos estos terminos son no negativos.
171
Proposicion 11.2.6. Sea 0 A /
n
(R). Entonces son equivalentes:
1. A es irreducible.
2. A es FC.
3. (I +A)
n1
> 0.
4. I +A es primitiva.
En particular se tiene que, si A es primitiva, entonces es irreducible y FC.
Demostracion. 2 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por
A es lo mismo que conectar por I + A, dado que los elementos de la diagonal no se usan
para las conexiones. Recprocamente, por el teorema del binomio de Newton, se tiene que
(I +A)
n1
es combinaci on lineal, a coecientes positivos, de las potencias A
k
, 0 k n1.
Luego, nuevamente por el Lema 11.2.5, si A es FC, todas las entradas de (I + A)
n1
deben
ser estrictamente positivas.
1 2: Si A no es FC, existe un par p, q I
n
, p ,= q que no se conecta por A. Sean
J
1
= i I
n
p : A conecta al par p, i p y J
2
= I
n
J
1
.
Entonces p J
1
y q J
2
, que son, entonces, no vacos. En particular, a
ij
= 0 si i J
1
y
j J
2
(sino el par p, j sera conectado por A). Si reordenamos I
n
poniendo primero a J
2
y
luego a J
1
, encontraremos una matriz P |
1
(n) de permutacion tal que
PAP
1
=
_

0
_
J
2
J
1
.
3 4: Obvio.
4 1: Si A es reducible, sea P |
1
(n) tal que PAP
1
=
_
B C
0 D
_
. Entonces, para todo
m N,
P(I +A)
m
P
1
= (I +PAP
1
)
m
=
_

0
_
,> 0.
Por lo tanto (I +A)
m
,> 0, y I +A no es primitiva.
Teorema 11.2.7 (Teorema de Perron-Frobenius). Sea A /
n
(R) irreducible tal que
0 A. Entonces se verica:
1. (A) > 0 y (A) (A).
2. Existe x > 0 tal que Ax = (A)x.
3. (A) es raz simple del polinomio caracterstico de A.
172
Demostracion. Notar que por ser A ireducible, no puede tener ninguna la nula, porque
pas andola al nal de la matriz, quedara triangular superior. Por lo tanto = min
i
tr F
i
(A) >
0. Pero por el Lema 11.1.7, deducimos que (A) > 0.
Por otra parte, por la Proposicion 11.2.1, (A) (A). Adem as, (I +A) = 1 + (A).
Por lo tanto (I + A) = 1 + (A) (porque el m aximo est a a la derecha). Como I + A es
primitiva, si x es al vector de Perron de I + A, entonces x > 0 y Ax = (A)x. Por ultimo,
la forma de Jordan de A es la misma que la de I + A (sumando unos en la diagonal), en la
misma base. Por lo tanto la multiplicidad algebr aica de (A) para A es uno (por serlo la de
1 +(A) para A).
Observaci on 11.2.8. Sea A /
n
(R) irreducible tal que 0 A. En este caso, (A) no es,
necesariamente, el unico autovector de m odulo m aximo. En efecto, tomando A =
_
0 1
1 0
_
,
se tiene que A es irreducible porque I +A > 0, pero (A) = 1, 1. Se demuestra que los
otros autovectores de m odulo m aximo son
1
(A), . . . ,
k1
(A), donde los
i
son las races
k-esimas de la unidad, para cierto k n (ver los libros de A. Benedek y R. Panzone [7] o de
Horn y Johnson [12]).
Corolario 11.2.9. Sea A /
n
(R) irreducible tal que 0 A. Sea x R
n
tal que 0 x ,= 0
y Ax (A)x. Entonces x > 0 y Ax = (A)x.
Demostracion. Como A es irreducible, tambien A
t
lo es. Por el Teorema de Perron-Frobenius
existe un vector y > 0 tal que A
t
y = (A)y, o sea y
t
A = (A)y
t
. Ahora bien, Ax(A)x 0,
pero si fuera Ax (A)x ,= 0, entonces, como y
t
> 0,
0 ,= y
t
(Ax (A)x) = y
t
Ax (A)y
t
x = (A)y
t
x (A)y
t
x = 0.
En consecuencia, Ax = (A)x. El hecho de que x > 0 puede deducirse ahora del Teorema
de Perron-Frobenius.
Proposicion 11.2.10. Sean A, B /
n
(R) tales que A es irreducible y 0 BA. Si
B ,= A, entonces (B) < (A).
Demostracion. Sea, por la Proposici on 11.2.1, 0 ,= x 0 tal que Bx = (B)x. Si (B) =
(A), entonces, Ax Bx = (B)x = (A)x. Por el Corolario 11.2.9, deducimos que Ax =
(A)x y x > 0. Luego, como 0 ,= AB0, debera pasar que (AB)x ,= 0, aunque sabemos
que Ax = (A)x = (B)x = Bx. La contradicci on provino de suponer que (B) = (A).
Luego (B) < (A).
Ejercicio 11.2.11. Sea A /
n
(R) tal que 0 A. Probar que:
1. A es primitiva si y s olo si A es irreducible y (A) es el unico autovector de m odulo
m aximo de A.
2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A0),
entonces A es primitiva.
173
Ejercicio 11.2.12. Sean A, B /
n
(C) y A irreducible.
1. Supongamos que [B[ A, (A) = (B) y = e
i
(B) es un autovalor de B de m odulo
m aximo. Entonces, existen n umeros reales
1
, . . . ,
n
tales que
B = e
i
D A D
1
donde D = diag
_
e
i
1
, . . . , e
i
n
_
.
2. Sea o =
1
, . . . ,
k
el conjunto de autovalores (distintos) de A de m odulo (A) = 1.
(a) Sea o, = e
i

(A). Demostrar que (A) sii e


i

(A).
(b) Concluir a partir del item anterior que o es un grupo abeliano.
(c) Probar que o = e
2ip/k
: p = 1, . . . , k 1 y que la multiplicidad algebraica de
cada
i
es uno.
(d) Mostrar que si A es no singular y n primo, entonces, (A) es el unico autovalor
de modulo m aximo, o bien, A posee n autovalores distintos.
Ejemplo 11.2.13. Sea J
n
/
n
(R) el bloque de Jordan de tama no n n (con n 2). Es
decir que J
n
e
1
= 0 y J
n
e
k
= e
k1
, para 2 k n. Llamemos
A = J +J
t
=
_
_
_
_
_
_
_
_
_
_
_
0 1 0 0 .. .. 0
1 0 1 0 .. .. 0
0 1 0 1 .. .. 0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 .. .. 1 0 1 0
0 .. .. 0 1 0 1
0 .. .. 0 0 1 0
_
_
_
_
_
_
_
_
_
_
_
H(n) ,
que act ua en R
n
por Ax = (x
2
, x
1
+x
3
, x
2
+x
4
, . . . , x
n2
+x
n
, x
n1
), x R
n
.
No es difcil vericar que A es irreducible, ya sea mostrando que (I +A)
n1
> 0, o viendo
que satisface la denici on de ser FC (con la diagonal de arriba si p < q y con la de abajo
si q < p). Tambien puede probarse sin dicultad que A (l (n) si y solo si n es par.
Esta matriz es muy famosa y es, tal ves, la primera matriz a la que se le calcularon todos
los autovalores y autovectores. Esto lo hizo Lagrange en 1759, para resolver un sistema
de ecuaciones diferenciales ordinarias asociado al problema de la cuerda que vibra. Sus
autovalores son, en orden decreciente,

k
(A) = 2 cos
k
n + 1
, 1 k n ,
por lo que |A| = (A) = 2 cos

n+1
. Notar que
n
(A) =
1
(A), luego A no es primitiva.
Adem as, si n + 1 = 2k (es decir, si n es impar), entonces
k
(A) = 2 cos /2 = 0, lo que
prueba lo antedicho. Los autovectores asociados son, respectivamente,
x
k
=
_
sin
k
n + 1
, sin
2k
n + 1
, . . . , sin
nk
n + 1
_
, 1 k n .
174
Notar que el unico con entradas positivas es x
1
, porque
n
n + 1
no lleg o a un a . La vericacion
de lo anterior es tediosa pero elemental. Se basa en las f ormulas del seno y coseno de sumas
y restas, y en que sin( t) = sin t y cos( t) = cos t.
Veamos que Ax
1
=
1
(A)x
1
, lo que nos dir a que (A) = 2 cos

n+1
y que x
1
es el vector
de Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n:
A(x
1
)
1
= sin
2
n+1
= 2 cos

n+1
sin

n+1
y
A(x
1
)
n
= sin
(n1)
n+1
= cos

n+1
sin
n
n+1
cos
n
n+1
sin

n+1
= 2 cos

n+1
sin
n
n+1
.
Para las entradas 1 k n 1, A(x
1
)
k
= (x
1
)
k+1
+ (x
1
)
k1
. Pero
sin
(1+k)
n+1
= cos

n+1
sin
k
n+1
+ cos
k
n+1
sin

n+1
y
sin
(k1)
n+1
= cos

n+1
sin
k
n+1
cos
k
n+1
sin

n+1
.
Sumando se obtiene la f ormula buscada. Los n umeros c
m
= 2 cos(/m) para m 3, que
aparececn como normas de las matrices anteriores, son muy importantes en varias ramas
de la matem atica. Por ejemplo, aparecen en la teora del ndice de V. Jones. Tienen la
siguiente particularidad: Sea ^(Z) R el conjuntos de normas de matrices de cualquier
tama no (incluso rectangulares) con entradas en Z. Entonces
^(Z) (0, 2) = c
m
: m 3.
Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo,
se los puede realizar con matrices m as peque nas. En efecto, si n = 2k, sea B /
k
(Z) dada
por B = I
k
+J
k
. Entonces la matriz

B =
_
0 B
B
t
0
_
H(n)
diere de la matriz A del principio solo en una reordenacion de la base canonica (poniendo
los pares primero y los impares al nal). Es decir que existe una matriz P |
1
(n) de
permutaci on tal que PAP
1
=

B. Por lo tanto
|B| = s
1
(B) =
1
(

B) = |

B| = |A| = c
n+1
.
Por eso era que
nj+1
(A) =
j
(A) = s
j
(B), para 1 j k (ver Proposicion 3.6.5). Algo
similar puede hacecrse si n = 2k + 1, tomando B
t
= (B, e
k
) /
k,k+1
(Z).
175
Captulo 12
Complementos de Schur y
determinantes
12.1 Notaciones y deniciones.
Recordemos las notaciones asociadas a submatrices vistas en Captulos anteriores:
1. Sea n N y k I
n
. Notamos por Q
k,n
al conjunto de sucesiones estrictamente
crecientes de k enteros elegidos en I
n
:
Q
k,n
=
_
= (
1
,
2
, ,
k
) I
k
n
: 1
1
<
2
< <
k
n
_
.
Otra manera de verlo es Q
k,n
=
_
J I
n
: [J[ = k
_
, si pensamos a los conjuntos J
ordenados en forma creciente. Luego [Q
k,n
[ =

n
k

.
2. Sean A /
n,m
(C), Q
k,n
y Q
l,m
. Entonces denotaremos por A[[] a la
submatriz de k l de A dada por
A[[] =
_
A

j
_
(i,j)I
k
I
l
/
k,l
(C) .
Cuando = , A[[] se abreviar a como A[]. Si = I
n
(resp. = I
m
), notaremos
A[[] = A[[] (resp. A[[] = A[[]).
3. Dada Q
k,n
, usaremos la abreviaci on:
e

= e
(n)

:= e
(n)

1
e
(n)

2
e
(n)

k

k
H
n
.
Luego, por la multilinealidad de la funci on H
k
n
(x
1
, . . . , x
k
) x
1
x
k
(ver 7.2.1,
item 3 y Denici on 7.3.4), y por la ecuaci on (7.16), el conjunto
c

k,n
=

k! e

: Q
k,n

es una base ortonormal de


k
H
n
, y se la llama base canonica. Por lo tanto, tenemos
que dim
k
H
n
= [Q
k,n
[ =

n
k

.
176
El complemento de Schur
Denici on 12.1.1. Sea A /
n
(C), k I
n
y , Q
k,n
.
1. Supongamos que A[[] es inversible. En tal caso denimos el complemento de Schur
de A[[] en A, como la matriz
A/[[] = A([) A([]A[[]
1
A[[) /
nk
(C) , (12.1)
indexada por
t
y
t
.
2. Si = , escribiremos A/ en lugar de A/[[].
Observaci on 12.1.2. Sean A /
n
(C)
+
y Q
k,n
. Si A[] (l (k)
+
y consideramos el
subespacio o = span e
j
: j , entonces
OOJJOO
_
A/ 0
0 0
_
o
o

= SC(A, o) ,
por la f ormula clasica del complemento de Schur.
Denici on 12.1.3. Sea Q
k,n
.
1. Llamaremos tr =
k

i=1

i
.
2. Llamaremos sgn() al signo de la permutacion

S
n
dada por

(
i
) = i para
i I
k
, y

(
t
j
) = k +j para j I
nk
. Por lo tanto,
sgn() =
k

i=1
(1)

i
i
= (1)
r
, con r = tr
k(k + 1)
2
. (12.2)
En efecto, se puede ver que

= (k, . . . ,
k
)(2, . . . ,
2
)(1, 2, . . . ,
1
),
donde (a
1
, . . . , a
r
) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo
(que consta de
1
1 trasposiciones) manda
1
al lugar 1. El segundo (que consta
de
2
2 trasposiciones) manda
2
al lugar 2 (observar que (1, 2, . . . ,
1
) no movi o a

2
). Se sigue as hasta mandar
k
al lugar k . Lo demas (los valores que toma en
t
)
queda armado para producir la permutaci on

, porque se mantuvo su orden interno,


y van a donde deben ir.
3. Sea T

|
1
(n), la matriz de permutacion asociada a

, dada por
_
T

e
i
= e

i
si i = 1, . . . , k
T

e
k+j
= e

j
si j = 1, . . . n k .
(12.3)
Tenemos entonces que det T

= sgn(

) = sgn().
177
Teorema 12.1.4. Sea A /
n
(C), k I
n
y , Q
k,n
. Si A[[] (l (k), entonces
det A = sgn() sgn() det A[[] det(A/[[]). (12.4)
Si tambien A (l (n), entonces A/[[] (l (n k) y
_
A/[[]
_
1
= A
1
([) . (12.5)
Demostracion. Empecemos con el caso particular = = I
k
. Como A admite la factor-
izaci on
A =
_
I
n
[] 0
A([]A[]
1
I
n
()
_ _
A[] 0
0 A/
_ _
I
n
[] A[]
1
A[[)
0 I
n
()
_
, (12.6)
la ecuacion (ecuaci on (12.4)) es inmediata, porque los factores de la derecha y de la izquierda
en el lado derecho de ecuaci on (12.6) tienen determinante 1, mientras que el factor central
tiene determinante igual a det A[] det(A/). Tambien, ecuaci on (12.5) sale de ecuaci on
(12.6), tomando inversas a ambos lados.
Para probar el caso general, consideremos las matrices T

, T

denidas en ecuacion (12.3).


Luego, se sigue inmediatamente de la ecuacion (12.3) que, con una identicacion de ndices
adecuada,
(T
1

AT

)[I
k
] = A[[] , (T
1

AT

)(I
k
) = A([), (12.7)
(T
1

AT

)(I
k
[I
k
] = A([], y (T
1

AT

)[I
k
[I
k
) = A[[); (12.8)
de donde
(T
1

AT

)/I
k
= A/[[]. (12.9)
Veamos ecuaci on (12.7), y las demas igualdades se muestran de manera analoga: dados
i, j I
k
, tenemos que
( (T
1

AT

)[I
k
] )
ij
= T
1

AT

e
j
, e
i
) = AT

e
j
, T

e
i
)
=

Ae

j
, e

i
_
= A

j
= A[[]
ij
.
Ahora, la ecuaci on (12.4) se sigue del caso particular probado arriba, usando que det T

=
sgn(). Finalmente, la ecuacion (12.5) resulta de la relacion:
A
1
([) = (T
1

A
1
T

)(I
k
) = (T
1

A
1
T

)
1
(I
k
) , (12.10)
y del caso particular citado.
Corolario 12.1.5. Con las notaciones del Captulo 12, si A (l (n)
+
y o _ C
n
, entonces
tambien SC(A, o) > 0 (pensado en L(o) ). M as a un, si
A
1
=
_
(A
1
)
11
(A
1
)
12
(A
1
)
21
(A
1
)
22
_
o
o

,
entonces (A
1
)
11
= SC(A, o)
1
.
178

En el siguiente enunciado veremos que toda matriz A /


n
(C) puede ser aproximada tanto
como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto
ser a usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4.
Lema 12.1.6. Dada A /
n
(C) y > 0, existe B /
n
(C) tal que
1. |A B| < , donde | | es una norma en /
n
(C).
2. Todas las submatrices cuadradas de B son inversibles.
Demostracion. La cantidad total de submatrices cuadradas de A es M =
n

k=1
_
n
k
_
2
. Con-
sideremos la funcion : /
n
(C) C
M
que asigna a cada B /
n
(C) la lista de los
determinantes de todas sus submatrices cuadradas, en alg un orden prejado. Notar que
es una funci on continua. Llamemos
=
1
_
_
a C
M
: a
i
,= 0 para todo i I
M
_
_
.
Para probar el Lema, basta ver que es denso en /
n
(C). Llamemos, para cada i I
M
,

i
=
1
_
_
a C
M
: a
i
,= 0
_
_
.
Es claro que todos estos conjuntos son abiertos y que =
M

i=1

i
. Por otra parte, cada
i
es denso en /
n
(C), porque (l (k) es denso en /
k
(C) para todo k N. Por ejemplo, si
(A)
1
= det A, entonces
1
= (l (n). El resultado se sigue de que una interseccion nita de
abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces
Z U es un abierto no vaco. Entonces (Z U) V = Z (U V ) ,= para todo abierto
Z. Por lo tanto U V es denso. Por induccion, quien dice 2, dice M.
12.2 Identidades asociadas a determinantes.
Teorema 12.2.1 (Identidad de Jacobi). Sea A (l (n). Entonces
det A
1
[[] = sgn()sgn()
det A([)
det A
para , Q
k,n
. (12.11)
Demostracion. Se sigue de las ecuaciones (12.5) y (12.4), aplicadas a
t
y
t
:
det A
1
= sgn()sgn() det A
1
[[] det A
1
/[[] =
= det A
1
[[] =
sgn()sgn()
det A
(det A
1
/[[])
1
=
sgn()sgn()
det A
det A([) ,
lo que culmina la prueba.
179
Observaci on 12.2.2. Cuando k = 1, la ecuacion (12.13) induce la identidad:
(A
1
)
ij
= (1)
i+j
det A(j[i)
det A
, i, j I
n
, (12.12)
conocida como la regla de Cramer.
12.2.3. Sean J
n
= diag (1, 1, 1, 1, . . . , (1)
n1
) |(n), y , Q
k,n
. Luego
det J
n
[[] =

sgn()(1)
k(k1)/2
,
donde
,
= 1 o 0 de acuerdo a si = o ,= . En efecto, si ,= , en J
n
[[] hay una
columna de ceros, y por lo tanto su determinante es cero. Cuando = tenemos que, si p

denota al n umero de elementos pares de , entonces


p

i=1
(
i
1) = tr k (m odulo 2) .
Luego
det J
n
[] = (1)
p

= (1)
tr k
= sgn() (1)
k(k+1)/2k
= sgn()(1)
k(k1)/2
,
lo que culmina la prueba. Si A (l (n), suele notarse A
#
= J
n
A
1
J
n
a la llamada inversion
de A. La siguiente igualdad se sigue de la ecuaci on (12.11), usando (7.21):
det(J
n
A
1
J
n
)[[] =
det A([)
det A
para , Q
k,n
, (12.13)
dado que det J
n
[] sgn() = det J
n
[] sgn() = (1)
k(k1)/2
.
12.2.4. La siguiente igualdad es v alida para toda A /
n
(R): dados , Q
k,n
,

Q
k,n
sgn() det A[[] det A([) =
,
sgn() det A . (12.14)
De hecho, cuando A es inversible, por ecuacion (12.11), el lado izquierdo de la ecuaci on
(12.14) es igual a
sgn() det A

Q
k,n
det A[[] det A
1
([) .
que coincide con el lado derecho por ecuaci on (7.21).
12.2.5. Dados , Q
k,n
y, adem as, , Q
l,n
tales que
t
,
t
, sean
= = (
1
,
2
, . . . ,
k+l
) y = = (
1
,
2
, . . . ,
k+l
) Q
k+l,n
.
Existen entonces y Q
k,k+l
tales que
i
=

i
y
i
=

i
, i I
k
. Luego denimos
sgn


= sgn() = (1)
tr k(k+1)/2
, sgn


= sgn() . (12.15)
180
Con estas notaciones, se tiene la siguiente versi on local del Teorema 12.1.4:
det A[[] det
_
(A/[[])[[]
_
= sgn


sgn


det A[ [ ] (12.16)
En efecto, consideremos la matriz B = (a

j
)
i,jI
k+l
/
k+l
(R). Entonces vemos que
ecuaci on (12.16) coincide con ecuaci on (12.4) para B, , en lugar de A, , , respectiva-
mente. De hecho, como B = A[[] = A[ [ ], entonces B[[] = A[[] y, por otra
parte,
B/[[] = B([) B([] B[[]
1
B[[)
= A([)[[] A([] A[[]
1
A[[)[[]
= (A/[[])[[] .
Una consecuencia inmediata es la siguiente caracterizacion de las entradas de un comple-
mento de Schur: Dados , Q
k,n
, se tiene
A/[[]
(

i
,

j
)
= sgn


t
i

sgn


t
j

det A[
t
i
[
t
j
]
det A[[]
(12.17)
Corolario 12.2.6. Sea A /
n
(R) y sea r I
n
tal que A
rr
,= 0. Entonces, para todo
Q
k,n
tal que r / , se tiene que
(A/[r])[] = A[r ]/[r] .
Demostracion. Dados i, j , la f ormula (12.17) asegura que
_
(A/[r])[]
_
ij
=
_
(A/[r]
_
ij
= sgn(r/i, r) sgn(r/j, r)
det A[i, r[j, r]
A
rr
=
_
A[r ]/[r]
_
ij
,
por lo ambas matrices coinciden.
12.2.7 (Identidad de Sylvester). Dados A /
n
(R) y , Q
k,n
, se cumple que
det
_
_
det A[
t
i
[
t
j
]
_
i,jI
nk
_
= det A det A[[]
nk1
(12.18)
De hecho, con

i
= sgn(/
t
i
) y

j
= sgn(/
t
j
), i, j I
nk
, se sigue de
ecuaci on (12.17) que el lado izquierdo de ecuacion (12.18) es igual a
det
_
det A[[] (A/[[])
ij

j
_
=
det A[[]
nk
det[diag(

1
,

2
, . . . ,

nk
)A/[[]diag(

1
,

2
, . . . ,

nk
)] =
181
det A[[]
nk1
det A[[] det(A/[[])
nk

i=1
sgn(/
t
i
)
nk

i=1
sgn(/
t
i
) .
La formula ecuaci on (12.18) se sigue de ecuaci on (12.4) y el siguiente resultado:
Lema 12.2.8. Sea Q
k,n
. Entonces
nk

i=1
sgn


t
i

= sgn() . (12.19)
Demostracion. Para cada i I
nk
, sea
i
Q
k,k+1
, denido como en 12.2.5 para y
t
i
.
Luego sgn (/
t
i
) = sgn(
i
) = (1)
tr
i
k(k+1)/2
. Entonces
Si
t
i
<
1
, entonces tr
i
= 2 + +k + (k + 1) =
(k + 2)(k + 1)
2
1.
Si
1
<
t
i
<
2
, tr
i
= 1 + 3 + +k + (k + 1) =
(k + 2)(k + 1)
2
2.
.........
Si
k1
<
t
i
<
k
, tr
i
= 1 + 2 + + (k 1) + (k + 1) =
(k + 2)(k + 1)
2
k.
Si
k
<
t
i
, tr
i
= 1 + 2 + +k =
k(k + 1)
2
.
Resumiendo tenemos que, llamando
0
= 0 y
k+1
= ,
tr
i

k(k + 1)
2
=
(k + 2)(k + 1)
2

k(k + 1)
2
j = k j + 1 , si
j1
<
t
i
<
j
.
Como #i :
t
i
<
1
= (
1
1), #i :
j1
<
t
i
<
j
= (
j

j1
1) (para todo
2 j k), y #i :
k
<
t
i
= n
k
, entonces
nk

i=1
_
tr
i

k(k + 1)
2
_
=
k

j=1
(k j + 1)(
j

j1
1) + 0 (n
k
)
=
k

j=1

j

k

j=1
(k j + 1) = tr
k(k + 1)
2
,
lo que prueba la formula (12.19).
Teorema 12.2.9. Sea A /
n
(C) y supongamos que A[[] es inversible para ciertos
, Q
k,n
. Sean , Q
r,n
, tales que
t
y
t
. Entonces
1. (A/[[])[[] (l (r) si y solo si A[ [ ] (l (n k r).
182
2. En este caso se cumple:
_
A/[[]
_
/[[] = A/[ [ ]. (12.20)
Demostracion. La primera armaci on es inmediata de la ecuacion (12.16). La f ormula
(12.20) es equivalente a la relaci on
det((A/[[])/[[])[[] = det(A/[ [ ])[[]. (12.21)
para cualquier , Q
p,n
tales que ( )
t
y ( )
t
. Pero, nuevamente, por
ecuaci on (12.16), el lado izquierdo de ecuaci on (12.21) es igual a

det A[ [ ]
det A[ [ ]
,
donde = sgn(

)sgn(

)sgn(

)sgn(

)sgn(

)sgn(

), mientras que el lado


derecho es igual a
sgn
_


_
sgn
_


_
det A[ [ ]
det A[ [ ]
.
Por lo tanto, basta vericar que
= sgn
_


_
sgn
_


_
. (12.22)
Veremos, usando la ecuacion (12.15), que
sgn
_


_
sgn
_


_
sgn
_


_
= sgn
_


_
y
sgn
_


_
sgn
_


_
sgn
_


_
= sgn
_


_
,
lo que probara la igualdad (12.22). Veamos que la primera de estas igualdades es cierta (la
otra es analoga). Probaremos que la suma de los exponentes de 1 de ambos terminos es
par, esto es, congruente a 0 m odulo 2. Llamemos

al exponente de 1 correspondiente
al signo de este elemento y hagamos lo mismo para los demas. Queremos ver entonces que:

0 (modulo 2)
183
Adem as, si

= tr k(k 1)/2, como en 12.2.5, notaremos tr =

1
. Supongamos
que Q
n,N
, Q
m,N
, Q
l,N
. Entonces valen

m(m + 1)
2
,

1
+

1
,

1
.
Sumando,

1
+

1
+

m(m + 1)
2
. (12.23)
Ahora,

1
=
m

i=1
#
j
:
j
<
i

=
m

i=1
(#
j
<
i
+ 1) =
m

i=1
#
j
:
j
<
i
+
m(m + 1)
2
.
Por lo tanto, (12.23) 0 (2).
184
Captulo 13
Matrices totalmente positivas
Este captulo est a basado en un trabajo de T. Ando [5], aparecido en 1987, y esta escrito
utilizando como punto de partida un trabajo de A. Iglesias. Las herramientas fundamentales
para las demostraciones son los intrincados resultados del Captulo anterior.
13.1 Deniciones y criterios de positividad total.
En esta secci on introducimos las nociones de regularidad de signo y positividad total.
Denici on 13.1.1. 1. Llamremos sucesion de signatura a una sucesi on
= (
i
)
iN
0, 1
N
, es decir, tal que [
i
[ = 1 para todo i N .
2. Dado R con [[ = 1, notaremos a la sucesi on de signatura = (
i
)
iN
.
3. Si es otra sucesi on de signatura, llamaremos = (
i

i
)
iN
.
Denici on 13.1.2. Sean A /
n,m
(R) y una sucesi on de signatura. Sea r = minn, m.
1. Decimos que A es de signo regular con signatura , y abreviaremos diciendo que A es
-RS, si

k

k
A0 para todo k I
r
, (13.1)
La regularidad de signo de A es equivalente a la condici on

k
a

1
a

2
a

k
0, para Q
k,m
k I
r
, (13.2)
o, por la ecuacion (7.17), en forma de determinantes,

k
det A[[] 0 para Q
k,n
, Q
k,m
k I
r
, (13.3)
2. A se dice estrictamente de signo regular con signatura (A es -ERS) si, en la ecuaci on
(13.1) (o, equivalentemente, en la ecuaci on (13.2) o la ecuacion (13.3)), reemplazamos
por >.
185
3. Decimos que A es totalmente positiva (y abreviaremos TP) si es -RS respecto de la
sucesi on 1, es decir, si

k
A0, k I
r
, (13.4)
o equivalentemente si
a

1
a

2
a

k
0, para Q
k,m
k I
r
, (13.5)
o equivalentemente si
det A[[] 0 para Q
k,n
, Q
k,m
k I
r
. (13.6)
4. A se dice estrictamente totalmente positiva (ETP) si es reemplazado por > en las
ecuaciones (13.4), (13.5) o (13.6).
Para la regularidad de signo de A se requiere chequear los signos de un n umero muy grande de
determinantes. Pero si el rango de A es conocido, en particular si A es inversible, el n umero
necesario de determinantes a chequear puede ser considerablemente reducido. La prueba de
este resultado, que es bastante complicada, se posterga a un Apendice al nal del Captulo.
Esto se debe a que su aplicaci on es clave en el desarrollo de la teora y la construcci on
de ejemplos, pero estas aplicaciones son de un grado mucho menor de dicultad. Una ves
apreciado el efecto devastador del siguiente Teorema, tal ves el lector afronte con mayor
entusiasmo la difcil lectura de su demostraci on.
Teorema 13.1.3. Sea A /
n,m
(R) con rk A = r, y sea una sucesion de signatura.
1. Para que A sea -RS, es suciente que las ecuaciones (13.2) o (13.3) se veriquen en
los casos en que d() mr.
2. En particular, si las ecuaciones (13.5) o (13.6) son validas en esos casos, entonces A es
TP.
Ahora pasemos a los criterios para la regularidad de signo estricta. El n umero de deter-
minantes se reduce a un m as. La prueba de este criterio tambien se dara en el Apendice
nal.
Teorema 13.1.4. Sean A /
n,m
(R) y una sucesion de signatura.
1. Para que A sea -ERS es suciente que, para todo k I
min(n,m)
,

k
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .
2. En particular A es ETP si
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .

186
Ejemplo 13.1.5 (Vandermonde). Sea t = (t
1
, . . . , t
n
) R
n
. Se llama matriz de Vander-
monde de t a V (t) /
n
(R) dada por V (t)
ij
= t
j1
i
. O sea que
V (t) =
_

_
1 t
1
. . . t
n1
1
1 t
2
. . . t
n1
2
.
.
.
.
.
. . . .
.
.
.
1 t
n
. . . t
n1
n
_

_
. Es conocido que det V (t) =

i<j
(t
j
t
i
) . (13.7)
La prueba es un ejercicio tradicional de inducci on. Supongamos que 0 < t
1
< < t
n
.
Entonces V (t) es ETP. En efecto, observar en principio que V (t) (l (n). Luego, para
probar que V (t) es ETP, el Teorema 13.1.4 nos dice que basta ver que det V (t)[[ ] > 0
para los pares , Q
k,n
, tales que d() = d() = 0. Si = (r + 1, r + 2, . . . , r + k) y
llamamos t

= (t

1
, . . . , t

k
), entonces se ve f acilmente que
det V (t)[[ ] =
k

i=1
t
r

i
det V (t

) > 0 .
El argumento clave es que, gracias a que d() = 0, la submatriz V (t)[[ ] tiene en sus
las, potencias consecutivas de los t

i
, por lo que, dividiendo por V (t)[[ ]
i,1
= t
r

i
a
cada la, se obtiene la matriz V (t

) que es tambien una matriz de Vandermonde de una


k-upla ordenada. La positividad del determinante en este caso se deduce de la f ormula
(13.7). Observar que la ETPcidad se mantendra si uno inventara matrices de Vandermonde
rectangulares (donde no coincidan necesariamente el n umero de potencias y de n umeros t
i
)
pero siempre pidiendo que el vector t tenga entradas estrictamente crecientes.
Corolario 13.1.6. Una matriz A (l (n) triangular inferior es totalmente positiva si
det A[[1, 2, . . . , k] 0 para cada k I
n
y cada Q
k,n
.
Demostracion. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.3,
basta mostrar que detA[[] 0, para , Q
k,n
, con d() = 0. Si
1
<
1
, entonces
det A[[] = 0 por ser A triangular inferior. Si
1

1
, sea = 1, 2, . . . ,
1
1. Por ser
A triangular inferior, es claro que A([] 0. Entonces, por hip otesis,
0 det A[ [1, 2, . . . ,
k
] = det A[ ]
= det A[] det A[[] =

1
1

i=1
a
ii
det A[[].
Como detA =

n
i=1
a
ii
,= 0, y cada a
ii
0, se sigue que detA[[] 0.
La prueba del Teorema 13.1.4, combinada con el Corolario 13.1.6, genera el siguiente criterio
alternativo:
Corolario 13.1.7. Sea A /
n
(R) triangular inferior. Entonces es TP si se verica que
det A[[1, 2, . . . , k] > 0 para cada k y Q
k,n
, con d() = 0.
Demostracion. Ejercicio (hace falta ver la prueba del Teorema 13.1.4).
187
Denici on 13.1.8. Una matriz A /
n
(C) es llamada una matriz de Jacobi (o tridiagonal )
si a
ij
= 0 siempre que [i j[ > 1.
Teorema 13.1.9. Sea A /
n
(R) una matriz de Jacobi. Supongamos que
1. A0.
2. Para todo k I
n
y Q
k,n
tal que d() = 0, se tiene que det A[] 0.
Entonces A es TP y, para cualquier t = (t
1
, t
2
, . . . , t
n
) R

n
+
,
det
_
A + diag ( t )
_
det A +
n

i=1
t
i
. (13.8)
Demostracion. Por inducci on en n. La armacion es trivial para n = 1. Supongmos que el
Teorema es v alido para n1 en lugar de n. Consideremos primero el caso en que det A > 0.
Por el Teorema 13.1.3, tenemos que chequear
det A[[] 0 , para , Q
k,n
con d() = 0.
Para k = n, esto es la hip otesis. Para k n 1, usaremos la hipotesis inductiva, que
asegura que las matrices A(1) y A(n) son TP. Supongamos que 1 / . Si 1 / , entonces
A[[] es submatriz de A(1) y det A[[] 0. Si 1 , entonces la primera la de A[[]
es (a
1,
1
, 0, . . . , 0). Luego
det A[[] = a
1,
1
det A
_

2
, . . . ,
k
[
2
, . . . ,
k

0 ,
porque la ultima matriz tambien vive dentro de A(1). El an alisis es similar si 1 , porque
en tal caso, como d() = 0, debe vericarse que n / , y puede usarse que A(n) es TP. Por
lo anterior, deducimos que A es TP en este caso (i.e., det A > 0).
Volvamos al caso general, pero suponiendo que a
11
> 0 (es f acil ver que este caso es suciente).
Entonces A/1 cumple las hip otesis del Teorema. En efecto, es f acil ver que A/1 diere
de A(1) s olo en la entrada 2, 2 (es decir la 1,1 si la numer aramos de corrido). Dado
2, . . . , n con d() = 0, si 2 / , entonces det (A/1[]) = det (A(1)[]) 0. Si 2 ,
por la ecuaci on (12.16) se tiene que
det (A/1[]) = det (A/1[2, 3, . . . , k]) =
det A[1, 2, . . . , k]
a
11
0 .
La hipotesis inductiva nos asegura que A/1 es TP y
det
_
A/1 + diag(t
2
, . . . , t
n
)
_
det A/1 +
n

i=2
t
i
.
188
Por lo tanto, por el Teorema 12.1.4 y el hecho de que A0, se tiene que
det
_
A + diag(t)
_
= (a
11
+t
1
) det
_
(A + diag(t) )/1
_
= (a
11
+t
1
) det
_
A/1 + diag(t
2
+
a
12
a
21
a
11

a
12
a
21
a
11
+t
1
, . . . , t
n
)
_
a
11
det A/1 +
n

i=1
t
i
= det A +
n

i=1
t
i
.
Resta ver que A es TP. Para ello basta observar que, para todo > 0, la matriz A + I
tiene det(A + I)
n
> 0 y cumple las hip otesis del Teorema (para ambas cosas se usa
la f ormula (13.8), que fue probada para A, y vale para los los A[] con d() = 0 por la
hip otesis inductiva). Luego A + I es TP por el argumento del principio. Como estas
matrices convergen a A, ella tambien debe ser TP.
Corolario 13.1.10. Sea A /
n
(R) de Jacobi y TP. Entonces, dado t R
n
+
, se tiene que
A + diag (t) es tambien TP.
Demostracion. Se sigue del Teorema 13.1.9, aplicado a las submatrices principales, que
A + diag (t) es una matriz de Jacobi positiva con menores principales no negativos.
Corolario 13.1.11. Sea A /
n
(R) de Jacobi tal que A0. Entonces exite R tal que
I +A es TP.
Demostracion. Ejercicio.
Conclumos esta secci on con un teorema de aproximacion de una matriz TP con otras ETPs.
Teorema 13.1.12. Toda matriz -RS puede ser aproximadada arbitrariamente cerca por
matrices -ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada
arbitrariamente cerca por matrices estrictamente TPs.
Demostracion. Sea A /
n,m
una matriz -RS. Podemos asumir que n = m, considerando
[A, 0] o [
0
A
] si es necesario. Como veremos en la Seccion 8, existe una sucesion G
p
de
matrices n-cuadradas ETPs tales que G
p
I
n
, cuando p . Ahora procedamos por
inducci on hacia atr as en k = rk A. Notemos que la ecuaci on (7.15) implica

i

i
(G
p
AG
p
) > 0 si i rk A y
i
(G
p
AG
p
) = 0 si i > rk A . (13.9)
Esto se deduce de que, dadas matrices X, Y, Z /
n
(R) tales que X > 0, Z > 0 pero
0 ,= Y 0, entonces XY Z > 0. Cuando rk A = n, la armaci on se sigue inmediatamente de
la ecuaci on (13.9). Asumamos que la armaci on es cierta para todas las matrices regulares de
signo de rango k+1. Si rk A = k, tomemos un p para el que B := G
p
AG
p
est a sucientemente
cerca de A. De acuerdo a las ecuaciones (13.9) y (7.21), B tiene la propiedad

i
det B[[] > 0 para Q
i,n
i I
k
. (13.10)
189
Sea
= min
1ik
min
_
[ det B[[][ : , Q
i,n
_
max
_
[ det B[[][ : , Q
i1,n
_ , donde det B[] = 1 .
Fijemos 0 < t < y consideremos la matriz C = B + t
k

k+1
E
11
. Dados , Q
r,n
,
desarrollando por la columna i-esima se tiene que
det C[[] = det B[[] +t
k

k+1
det B[ 1[ 1] si 1 ,
y det C[[] = det B[[] en otro caso .
Puede verse sin dicultades (considerando tres casos: submatrices de tama nos k , = k +1
o > k+1) que C es -RS. Por ejemplo, tomando , Q
k+1,n
tales que 1 , se ve que

k+1
det C[[] > 0, porque det B[[] = 0 pero
k
det B[1[ 1] > 0, por la ecuacion
(13.10). En particular, esto muestra que rk C = k +1. Para t chicos, C est a sucientemente
cerca de B, y por lo tanto de A. Ahora, por hip otesis inductiva C puede ser aproximada
arbitrariamente cerca por matrices estrictamente regulares de signo con signatura . Esto
completa la induccion.
13.2 Permanencia de la positividad total.
Esta seccion est a dedicada a metodos can onicos de producci on de matrices TP nuevas a
partir de otras dadas. Es claro que si A es de -RS, tambien lo son su adjunta A

y su
conversion A
#
.
Teorema 13.2.1. Si A /
n,m
(R) es
A
-RS y B /
m,l
(R) es
B
-RS, entonces:
1. El producto AB es -RS, con =
A

B
.
2. En este caso, AB se convierte en -ERS si A es
A
-ERS y rk B = min(m, l), o si
rk A = min(n, m) y B es
B
-ERS.
3. En particular, si A y B son ETP, tambien lo es AB.
Demostracion. La primera parte es una consecuencia inmediata de las ecuaciones (7.15) o
(7.21). La segunda se deduce de los siguientes hechos:
* Si C > 0 y D0 no tiene columnas nulas (y tienen tama nos multiplicables), entonces
CD > 0.
* Si rk B = r = min(m, l) y, para k r, tomamos Q
k,l
, debe existir un Q
k,m
tal que det A[[] ,= 0.
El otro caso se muestra analogamente.
La suma de dos matrices TPs no es en general TP. Por lo tanto una matriz cuadrada A
puede pocas veces generar un semigrupo TP de un parametro. Esto signica que exp(tA)
sea TP para todo t > 0. La excepci on la dan las matrices de Jacobi TP:
190
Teorema 13.2.2. Sea A /
n
(R). Son equivalentes:
1. exp(tA) es TP para todo t > 0.
2. A = I
n
+B para alg un R y una matriz de Jacobi TP B.
Demostracion. Supongamos primero que A es de la forma mencionada. Entonces, como
exp(tA) = e
t
exp(tB) = e
t
lim
p
_
I
n
+
t
p
B
_
p
,
la positividad total de exp(tA) resulta del Teorema 13.2.1, ya que, para la matriz de Jacobi
TP B, I
n
+
t
p
B es nuevamente TP por el Corolario 13.1.10.
Supongamos recprocamente que exp(tA) es TP para todo t > 0. Por el Corolario 13.1.11,
basta mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la
diagonal. Como
A = lim
t0
exp(tA) I
n
t
,
todas las entradas fuera de la diagonal de A son no negativas porque exp(tA) 0. Veamos
que a
ij
= 0 si [i j[ > 1. Por ejemplo, si i + 1 > j, entonces
det
_
exp(tA)[i, i + 1[i + 1, j]
_
0 para todo t > 0 ,
lo que implica que
0 lim
t0
I +tA
t
_
i, i + 1[i + 1, j

= lim
t0
ta
i,i+1
a
i+1,j
(1 +ta
i+1,i+1
)a
ij
= a
ij
.
El caso j + 1 > i es analogo.
Teorema 13.2.3. Sea A /
n,m
(R) -RS. Sean Q
k,n
y Q
k,m
. Entonces,
1. A[[] es -RS.
2. Si n = m, d() = 0 y A() (l (n k), entonces A/
t
es

-RS, donde

=
(
nk

nk+i
)
i
.
3. Si n = m y A es inversible, entonces A
#
= J
n
A
1
J
n
es
J
-RS, donde
J
= (
n

ni
)
i
,
con la convencion
j
= 1 si j 0.
En particular, si A es TP, tambien lo son A[[], A/
t
y J
n
A
1
J
n
. Ademas, los mismos
resultados valen reemplazando regular de signo por estrictamente regular de signo (o TP
por ETP) en todos los casos.
Demostracion. Fijemos , Q
p,n
tale que , .
1. Es trivial, ya que

p
det A[[][[] =
p
det A[[] 0 (resp. > 0) .
191
2. Se sigue de la la ecuacion (12.16) que
det
_
A/
t
_
[[] = sgn

t

t

sgn

t

t


det A[
t
[
t
]
det A[
t
]
.
Notar que det A[
t
[
t
] tiene signo
nk+p
y detA() tiene signo
nk
. Pero como
d() = 0, se ve f acilmente que sgn(
t
/
t
) = sgn(
t
/
t
) (ambos dependen solo
de cuantos elementos de
t
estan despues del bloque ).
3. Observar que
n
det A > 0 y, por la ecuaci on (12.13), tenemos que
det
_
J
n
A
1
J
n
_
[[] =
det A([)
det A
,
donde
nk
det A([) =
nk
det A[
t
[
t
] 0 (resp > 0).
Proposicion 13.2.4 (Pinching). Sea B /
m
(R) una matriz TP. Entonces
det B det B[1, 2, . . . , k] det B[k + 1, k + 2, . . . , m] para k I
m1
. (13.11)
Demostracion. Probaremos la ecuacion (13.11) por induccion en m. Cuando m = 2, esto es
cierto porque b
12
0, b
21
0 implica
det B = b
11
b
22
b
12
b
21
b
11
b
22
.
Asumamos que la armaci on es cierta para todos los casos de orden menor que m. Puede
asumirse que b
11
> 0, por reordenacion. Por lo tanto, si k > 1, por la ecuacion (12.4),
tomando A = B[1, 2, . . . , k],
det B[I
k
] det B[k + 1, . . . , m] = b
11
det
_
B[I
k
]/1
_
det B[k + 1, . . . , m]
= b
11
det
_
B/1[2, . . . , k]
_
det B[k + 1, . . . , m] ,
donde la ultima igualdad se deduce del Corolario 12.2.6, que deca que
B/1[] = B[1 ]/1 para todo tal que 1 / .
Como la matriz B[1, k + 1, k + 2, . . . , m] es de orden menor que m y es TP, la hip otesis
inductiva nos asegura que
b
11
det B[k + 1, k + 2, . . . , m] det B[1, k + 1, k + 2, . . . , m]
= b
11
det
_
B[1, k + 1, k + 2, . . . m]/1
_
= b
11
det(B/1[k + 1, k + 2, . . . m]) ,
Usando nuevamente la hip otesis inductiva en la matriz B/1 que es de orden m 1, y es
TP por el Teorema 13.2.3, obtenemos
det B[I
k
] det B[k + 1, . . . , m] = b
11
det
_
B/1[2, . . . , k]
_
det B[k + 1, . . . , m]
b
11
det
_
B/1[2, . . . , k]
_
det
_
B/1[k + 1, . . . m]
_
b
11
det(B/1)[2, . . . , m] = det B .
192
Si k = 1, asumiendo ahora que b
mm
> 0, tenemos que
det B = b
mm
det(B/m) b
mm
det(B/m[1]) det(B/m[2, . . . , m1])
Ahora, det(B/m[1]) = b
11

b
1m
b
m1
b
mm
b
11
por ser B0. Adem as, por el Corolario 12.2.6,
tenemos que B/m[2, . . . , m1] = (B[2, . . . , m])/m. As,
det B b
11
b
mm
det B[2, . . . , m]/m
= b
11
det B[2, . . . , m] = det B[1] det B[2, . . . , m] ,
lo que completa la prueba.
Corolario 13.2.5. Si A (l (n) es TP, entonces
det A[] > 0 para cada k I
n
y cada Q
k,n
. (13.12)
En particular, en este caso siempre existen los complementos de Schur A/[].
Demostracion. Por inducci on en n. El caso n = 1 es trivial. Asumamos que la armacion vale
para n1. Si
1
> 0, entonces la desigualdad det A[] > 0 se sigue de la hip otesis inductiva
aplicada a A(1), la cual es TP e inversible por la Proposici on 13.2.4. La misma Proposicion
dice que a
11
> 0. Si
1
= 1, el Corolario 12.2.6 aplicado a A[] = A[( 1) 1],
muestra que
det A[] = a
11
det(A/1)[ 1].
Entonces la desigualdad detA[] > 0 se deduce de la hip otesis inductiva aplicada a A/1,
que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3.
13.3 Factorizaciones LU y UL
Una factorizaci on A = BC es llamada una LU-factorizacion (resp, UL-factorizaci on) si B
(resp. C) es triangular inferior y C (resp. B) es triangular superior.
Teorema 13.3.1. Sea A /
n,m
(R) TP con n m. Entonces A admite una LU-
factorizacion A = A
L
A
U
y una UL-factorizacion A =

A
L

A
U
, donde A
L
,

A
U
/
n
(R)
y A
U
,

A
L
/
n,m
(R) son TPs.
Para demostrar el Teorema necesitamos dos largos Lemas tecnicos:
Lema 13.3.2. Sea A = (a
ij
) = [a
1
, a
2
, . . . , a
n
] /
n
(R) una matriz TP. Si a
1k
,= 0,
entonces tambien es TP la matriz B = [b
1
, b
2
, . . . , b
n
] denida por
b
i
= a
i
si i I
k
y b
i
= a
i

a
1i
a
1k
a
k
, si i I
n
I
k
.
193
Demostracion. Por el Teorema 13.1.12 podemos asumir que detA > 0. Como obviamente
det A = det B, de acuerdo al Teorema 13.1.3 basta mostrar que
b
i
b
i+1
b
j
0 para 1 i j n, (13.13)
i.e., la positividad para los tales que d() = 0. Si j k o i k j, entonces
b
i
b
i+1
b
j
= a
i
a
i+1
a
j
,
y la ecuaci on (13.13) es valida porque A es TP. Si k < i, consideremos la matriz C =
[a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] /
n
(R). Se ve f acilmente de la denici on de C/1 que
[b
k+1
, b
k+2
, . . . , 0, . . . , 0] =
_
0
C/1
_
.
En efecto, si 1 j n k, entonces
(C/1)
ij
= c
i+1j+1

c
i+11
c
1j+1
c
11
= a
i+1k+j

a
i+1k
a
1k+j
a
1k
.
En los dem as casos, debe ser (C/1)
ij
= 0. Entonces
_
0
C/1
_
ij
= (C/1)
i1j
= a
ik+j

a
ik
a
1k+j
a
1k
si 1 j n k y = 0 en otro caso.
y esto es [b
k+1
, . . . , b
n
, 0, . . . , 0]
ij
. Ahora la ecuacion (13.13) se deduce de la positividad total
de C/1 por el Teorema 13.2.3
Lema 13.3.3. Sea A /
n
(R) una matriz TP. Entonces existen C y S /
n
(R), ambas
TP, tales que C[1, 1) 0, S es triangular superior y A = CS.
Demostracion. Sean
T
j
:= [e
1
, e
2
, . . . , e
j1
, 0, e
j
, e
j+1
, . . . , e
n1
], j I
n1
.
Es claro que cada T
j
es una matriz de Jacobi positiva y triangular superior. Luego las T
j
son TP por el Teorema 13.1.9. Estas matrices nos permitir an correr hacia la izquierda las
columnas no nulas de A. Si a
1
= a
2
= . . . = a
k1
= 0 pero a
k
,= 0, entonces
A = [a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] T
k1
1
,
y la matriz A
1
= [a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta a
k+p
y a
k+p+r
es la primera columna no nula de las que quedan, como antes obtenemos que
[a
k+p+1
, . . . , a
n
, 0, . . . , 0] = [a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
1
o, mirando como dan las cuentas,
A
1
= [a
k
, . . . , a
k+p
, a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
p+2
.
194
Es decir,
A = [a
k
, . . . , a
k+p
, a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
p+2
T
k1
1
.
Observar que todo queda TP, y T
r1
p+2
T
k1
1
es triangular superior. Aplicando entonces este
procedimiento nitas veces, obtenemos que A = BT, donde T triangular superior y TP y
B = [b
1
, b
2
, . . . , b
n
] es una matriz TP tal que b
i
= 0 implica que b
j
= 0, para j > i . Si
B[1[1) ,= 0, tomemos el mayor i para el cual b
1i
,= 0. Armamos que b
1,i1
,= 0. En efecto,
si b
1,i1
= 0, para todo j I
n
, tendramos
det B[1, j[i 1, i] = b
1i1
b
ji
b
1i
b
ji1
= b
1i
b
ji1
0 ,
lo que implicara que todos los b
j,i1
= 0, o sea b
i1
= 0, lo que contradice que b
i
,= 0.
Entonces B admite una factorizacion B = DU, donde
D := [b
1
, . . . , b
i1
, b
i

b
1,i
b
1,i1
b
i1
, b
i+1
, . . . , b
n
]
y
U
1
:= [e
1
, . . . , e
i1
,
b
1,i
b
1,i1
e
i1
+e
i
, e
i+1
, . . . , e
n
] .
Notemos que ahora D
1i
= 0. Por otro lado, U
1
es una matriz de Jacobi positiva, triangular
superior, y por lo tanto TP por el Teorema 13.1.9. La positividad total de D se sigue del
Lema 13.3.2, porque, como b
1,j
= 0 si j > i, entonces
b
j
= b
j

b
1,j
b
1,i1
b
i1
, para j = i + 1, i + 2, . . . , n .
Repitiendo este procedimiento, llegamos a una factorizaci oin B = CU
p
U
p1
U
1
, donde
cada U
i
es triangular superior y TP mientras que C es una matriz TP tal que C[1[1) = 0,
como se buscaba. Ahora basta tomar S = U
p
U
p1
U
1
T que es como se peda.
Demostracion del Teorema 13.3.1: Considerando la matriz [A, 0] /
n
(R), podemos
connar la prueba al caso n = m. Adem as, usando conversiones, basta tratar s olo la factor-
izaci on LU. Cuando n = 1, es trivial. Asumamos que la armaci on es cierta para n 1 en
lugar de n. Para conseguir hacer el paso inductivo, alcanzara con probar que existen R, F
y S /
n
(R), todas TP, con S es triangular superior, R es triangular inferior y
F =
_
f
11
0
0 F(1)
_
, tales que A = RFS ,
porque en tal caso se factoriza F(1) por hip otesis inductiva, y se agrandan las matrices
triangulares (y TP) obtenidas, poniendoles (f
11
)
1/2
en el lugar 1, 1. Recordar que producto
de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1).
Pero por el Lema 13.3.3, existen S como antes y C /
n
(R) tal que C es TP, C[1[1) 0
y A = CS. Y por el mismo Lema, existen R como arriba y F /
n
(R) tal que F es TP,
F(1[1] 0 y C
T
= F
T
R
T
. Observar que multiplicar por una triangular superior a derecha,
solo cambia la primera columna multiplic andola por un escalar, asi que F hereda lo bueno
que tena C (ceros en la primera la) pero gana ceros en la primera columna, quedando como
queramos.
195
Corolario 13.3.4. Toda A (l (n) triangular superior (inferior) y TP es producto de un
cierto n umero de matrices de Jacobi triangulares superiores (inferiores) y TPs.
Demostracion. Por inducci on en n. El caso n = 1 es trivial. Asumamos que la armaci on
es cierta para n 1, y sea A (l (n) triangular superior (inferior) y TP. Por el Lema 13.3.3
(y su prueba), tenemos una factorizacion A = DS con S un producto de matrices de Jacobi
triangulares superiores, todas ellas TP, y D tambien TP, con D[1, 1) 0. Pero como A es
triangular superior, tambien se da que D(1, 1] 0. Luego
D =
_
d
11
0
0 D(1)
_
y D(1) (l (n 1) es totalmente positva y triangular superior, por hip otesis inductiva
tenemos D(1) =

W
1

W
2


W
s
para algunas matrices de Jacobi TPs y triangulares superiores

W
i
(l (n 1), i I
s
. Sean
W
i
=
_
d
1/s
11
0
0

W
i
_
, i I
s
.
Entonces A = W
1
W
2
W
s
S es una factorizacion como la buscada.
Denici on 13.3.5. Adem as de la relaci on de orden usual AB entre matrices en /
n
(R),
introduzcamos una m as fuerte: Diremos que A
t
B si
k
A
k
B para todo k N. En
otras palabras, si
det A[[] det B[[] para todo k N y , Q
k,n
. (13.14)
En esta notaci on, A
t
0 signica que A es TP.
Observaci on 13.3.6. Es claro que la relaci on A
t
B implica que A[[]
t
B[[] para
cualquier par , Q
k,n
, pero no que A B
t
0, como puede verse con las matrices
A =
_
2 1
1 1
_
y B =
_
1 0
0 1
_
.
Tampoco A
t
B
t
0 implica que A/1
t
B/1 o que J
n
B
1
J
n

t
J
n
A
1
J
n
.
Teorema 13.3.7. Si A /
n
(R) es TP, y = I
k
o = k, k + 1, . . . , n, entonces, si
A() es inversible, se cumple que
A[]
t
A/
t
, (13.15)
Demostracion. Prueba para el caso = I
k
= 1, 2, . . . , k: Fijemos , Q
l,n
tales que
y . Deberamos probar que det
_
A[]
_
[[] det A/
t
[[]. Observar que la
ecuaci on (12.16) nos dice que
det A/
t
[[] =
A[
t
[
t
]
det A()
,
196
porque los dos signos que intervienen en la ecuacion (12.16) son iguales en este caso, por ser

t
quien es. Por lo tanto, bastara probar que
det A[
t
[
t
] det
_
A[]
_
[[] det A() = det A[[] det A() .
Consideremos A[
t
[
t
] /
nk+l
(R) con su numeraci on de corrido en I
nk+l
. Como
, = I
k
, entonces
A[[] = A[
t
[
t
] [1, . . . , l] y A() = A[
t
[
t
] [l + 1, . . . , n k +l] ,
y el resultado se deduce de la Proposicion 13.2.4.
La aplicacion de las factorizaciones LU y UL en el Teorema 13.3.1 da lugar a otras desigual-
dades.
Teorema 13.3.8. Si A /
n
(C) es TP, y = I
k
o = I
n
I
k
, entonces, si A() es
inversible,
A[] A/
t

t
0 (13.16)
Demostracion. Prueba para el caso = I
n
I
k
= k + 1, k + 2, . . . , n: Sea A = A
L
A
U
una
factorizaci on LU con A
L
y A
U
TP, garantizada por el Teorema 13.3.1. Entonces, por las
propiedades de A
L
y A
U
, se tiene que A() = A
L
()A
U
() (por lo que ambas submatrices
son inversibles), A([] = A
L
()A
U
([] y A[[) = A
L
[[)A
U
(). Por lo tanto,
A[] A/
t
= A[[)A()
1
A([]
= A
L
[[)A
U
()(A
L
()A
U
())
1
A
L
()A
U
([]
= A
L
[[)A
U
([],
Como A
L
[[) y A
U
([] son TPs, tambien lo es su producto A
L
[[)A
U
([]. La prueba
para el caso = I
k
se hace usando una factoriacion UL.
13.4 Matrices oscilatorias.
Una matriz n-cuadrada A se dice oscilatoria (abreviaremos OSC) si es TP y una cierta
potencia A
p
es ETP. En esta secci on presentaremos un criterio simple para que una matriz
TP sea OSC.
Observemos que una matriz OSC es inversible, y su adjunta es tambien OSC. por lo tanto,
por el Corolario 13.2.5, si A /
n
(R) es OSC, entonces det A[] > 0 para Q
k,n
.
Teorema 13.4.1. Sea A /
n
(R) una matriz OSC. Entonces
1. A
#
= J
n
A
1
J
n
es OSC.
2. A[] y A/
t
son OSCs para cada Q
k,n
con componentes consecutivas, i.e., tal que
d() = 0
Demostracion. Supongamos que A es TP y A
p
es ETP.
197
1. J
n
A
1
J
n
es TP y (J
n
A
1
J
n
)
p
= J
n
(A
p
)
1
J
n
es ETP por el Teorema 13.2.3. As,
J
n
A
1
J
n
es OSC.
2. Probemos primero que A[] es OSC para el caso = 1, 2, . . . , n 1. Sea B =
A[1, 2, . . . , n1] = A(1). Tomemos , Q
k,n1
, y sea := n y := n. Por
la ecuacion (7.21), det A
p
[[] > 0 implica que existe una sucesion
(i)
Q
k+1,n
, i =
0, 1, . . . , p, tal que
0
= ,
(p)
= , y
p

i=1
det A[
(i1)
[
(i)
] > 0
Llamemos
(i)
Q
k,n1
a la k-upla obtenida eliminando la ultima componente de
(i)
.
Como A[
(i1)
[
(i)
] es TP con determinante positivo, por la ecuacion (13.11)
det B[
(i1)
[
(i)
] > 0, i = 1, 2, . . . , p.
Entonces nuevamente, por la positividad total de B y la ecuaci on (7.21),
det B
p
[[]
p

i=1
det B[

(i1)
[
(i)
] > 0,
lo que prueba la positividad total estricta de B. El caso A[2, 3, . . . , n] se trata de
manera analoga. El resto de los casos (con Q
k,n
con k < n 1 y d() = 0) se
prueba por induccu on en n, dado que I
n1
o I
n
1.
Veamos que A/
t
es OSC: Por los casos anteriores, sabemos que
J
n
A
1
J
n
es OSC = J
m
A
1
[]J
m
= J
n
A
1
J
n
[] es OSC
= (A
1
[])
1
es OSC .
Pero la ecuacion (12.5) dice que A/
t
= (A
1
[])
1
.
Lo siguiente da un criterio para la oscilatoriedad.
Teorema 13.4.2. Sea A = (a
ij
) /
n
(R) una matriz TP. Entonces A es OSC si y solo si
es inversible y
a
i,i+1
> 0 y a
i+1,i
> 0 , para todo i I
n1
. (13.17)
Demostracion. Supongamos que A es OSC. Por el Teorema 13.4.1,
B := A[i, i + 1] =
_
a
ii
a
ii+1
a
i+1i
a
i+1i+1
_
debe ser OSC. Luego B
p
> 0 para alg un p. Pero esto es posible s olo cuando a
i,i+1
> 0 y
a
i+1,i
> 0, ya que si alguno de los dos se anula, entonces B y todas sus potencias serian
triangulares. La otra implicacion sera probada como consecuencia de un resultado mas
general, hacia el n de la secci on.
198
Corolario 13.4.3. Sean A, B /
n
(R), ambas TP. Si A es OSC y B es inversible, entonces
AB y BA son OSC.
Demostracion. Observar que A (l (n), por se OSC. Luego AB y BA (l (n). Adem as,
como B es inversible y TP, entonces b
ii
> 0 para todo i I
n
. Por lo tanto AB y BA
satisfacen la condicion (13.17), ya que
(AB)
i,i+1
=
n

j=1
a
i,j
b
j,i+1
> 0 a
i,i+1
b
i+1,i+1
> 0 para todo i I
n1
.
La prueba para (AB)
i+1,i
y las entradas correspondientes de BA es analoga.
El siguiente teorema presenta una extensi on de la condicion (13.17) para matrices OSCs.
Proposicion 13.4.4. Supongamos que A (l (n) y es TP. Si A satisface la ecuacion
(13.17), entonces det A[[] > 0 para cada par , Q
k,n
tal que
[
i

i
[ 1 y max
i
,
i
< min
i+1
,
i+1
para todo i I
k
, (13.18)
donde usamos la convencion
k+1
=
k+1
= .
Demostracion. Haremos la prueba por inducci on en k. El caso k = 1 se sigue del Corolario
13.2.5 (si = ) y la suposicion (13.17). Fijemos k > 1, y supongamos que la armaci on
es cierta para cada par en Q
k1,n
que satisface las hip otesis. Tomemos un par , Q
k,n
que cumpla la ecuacion (13.18). Si d() = d() = 0, entoces la ecuaci on (13.18) impica que
= . Luego det A[[] = det A[[] > 0, nuevamente por el Corolario 13.2.5. Ahora,
asumiendo que d() > 0, sea B = A[[] = [b

1
, b

2
, . . . b

k
], donde cada b

i
es un k-vector.
Supongamos que det B = 0. Luego, se sigue de la hipotesis inductiva que
det B[
1
,
2
, . . . ,
k1
[
1
,
2
, . . . ,
k1
] > 0 y
det B[
2
,
3
, . . . ,
k
[
2
,
3
, . . . ,
k
] > 0
lo que implica, junto con la positividad total,
0 ,= b

1
b

2
. . . b

k1
0 y 0 ,= b

2
b

3
. . . b

k
0 . (13.19)
Entonces el hecho de que det B = 0 garantiza que para ciertos
i
R
b

k
=
k1

i=1

i
b

i
con
1
,= 0 . (13.20)
Ahora sustituyamos la expresi on (13.20) por b

k
en la ecuaci on (13.19) para obetener
(1)
k2

1
b

1
b

2
b

k1
0. (13.21)
Como d() > 0, el conjunto ordenado := j / :
1
< j <
k
es no vaco. Mostremos
que, para cada j , la -proyeccion b
j
de C
j
(A) cumple que b
j
span
_
b

1
, b

2
, . . . , b

k1
_
.
Es decir que
b
j
b

1
b

2
. . . b

k1
= 0 (13.22)
199
Para esto, tomemos i tal que
i
< j <
i+1
. Entonces, como A[[ j] es TP,
b

1
. . . b

i
b
j
b

i+1
. . . b

k1
0 y b

2
. . . b

i
b
j
b

i+1
. . . b

k
0. (13.23)
Ahora sustituyamos la expresi on (13.20) para b

k
en la ecuaci on (13.23) para obtener
(1)
k1

1
b

1
. . . b

i
b
j
b

i+1
. . . b

k1
0. (13.24)
es claro que las ecuaciones (13.19) y (13.21) versus (13.23) y (13.24) son consistentes s olo
si la igualdad se da en la ecuacion (13.24). Pero como
1
,= 0, solo queda que la ecuaci on
(13.22) sea v alida. El argumento muestra que rk
_
A[[ ]
_
= k 1. Consideremos el
conjunto ordenado := i / :
1
< i <
k
. El argumento anterior, aplicado a los
vectores las, dice que rkA[ [ ] = k 1.
Por ultimo, se sigue de la ecuaci on (13.18) y de que d() > 0, que existe alg un Q
k,n
tal que d() = 0, , y . Pero, como rkA[ [ ] = k 1, se debe
cumplir que det A[] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en
todos los casos.
La ida del Teorema 13.4.2 se ver a como consecuencia del siguiente resultado m as general.
Teorema 13.4.5. Sean A
1
, . . . , A
p
/
n
(R), inversibles y TPs, con p n 1. Si cada A
i
satisface la ecuacion (13.17), entonces el producto A
1
A
2
A
p
es ETP.
Demostracion. Por el Teorema 13.1.4 basta mostrar que
det(A
1
A
2
A
p
)[[] > 0 para , Q
k,n
tales que d() = d() = 0 .
Asumamos que
1

1
y sea
(0)
= y
(p)
= . Denamos
(l)
Q
k,n
, para l I
p1
,
como

(l)
i
= min
_

i
,
i
+ max(l +i k, 0)
_
, i I
k
.
Entonces puede verse que cada par
(l1)
,
(l)
satisface la ecuacion (13.18). Usando la
Proposici on 13.4.4, podemos deducir que det A
l
[
(l1)
[
(l)
] > 0, para todo l I
p
. Por
lo tanto, se sigue de la ecuaci on (7.21) (Cahuchy-Binnet) y la positividad total que
det(A
1
A
2
A
p
)[[]
p

l=1
det A
l
[
(l1)
[
(l)
] > 0 ,
lo que prueba el Teorema.
Corolario 13.4.6. Sea A /
n
(R).
1. Si A es OSC, entonces A
n1
es ETP.
2. Si A es -RS, es inversible y cumple que
a
ii
,= 0 para i I
n
y a
i,i+1
a
i+1,i
> 0 , para i I
n1
,
entonces A
2(n1)
es ETP.
200
Demostracion.
1. Se sigue inmediatamente del Teorema 13.4.5.
2. A
2
es TP por ser A -RS y (A
2
)
ii+1
, (A
2
)
i+1i
por hip otesis. Entonces satisface la
ecuaci on (13.17). Finalmente, usamos la ecuacion (1).

201
13.5 Variacion de signos.
En esta seccion est a dedicada a caracterizaciones de la regularidad de signo de una matriz
en terminos de algunas propiedades de disminucion de variacion del operador lineal que esta
induce.
Denici on 13.5.1. Sea x R
n
. Dada una sucesi on de signatura .
1. Decimos que es una sucesion de signo de x si para todo i I
n
se cumple que

i
x
i
= [x
i
[.
2. El n umero de cambios de signo de x asociado a , denotado por C(), es el n umero de
ndices i I
n
tales que
i

i+1
< 0, 1 i n 1. Es decir,
C() =
1
2
n1

i=1
(1
i

i+1
).
3. La maxima (mnima) variacion de signos V
+
(x) (respectivamente V

(x)) es el m aximo
(resp. mnimo) de los valores C(), cuando recorre todas las sucesiones de signo de
x. Vemos que
0 V

(x) V
+
(x) n 1 para todo x R
n
.
Si ninguna componente de x se anula, x tiene una unica sucesi on de signo, y por lo
tanto V

(x) = V
+
(x). Este valor com un es llamado la variaci on de signo exacta y
denotado por V (x).
Observaci on 13.5.2. Sea x R
n
.
1. Ojo que x puede tener variacion de signo exacta, aunque tenga coordenadas nulas. Por
ejemplo si x = (1, 0, 1), entonces V

(x) = V
+
(x) = 1.
2. Pero si x tiene variaci on de signo exacta, es f acil ver que
(a) x
1
,= 0 ,= x
n
.
(b) Si x
i
= 0, entonces x
11
x
i+1
< 0.
(c) En particular, x no puede tener dos coordenadas nulas seguidas.
3. Si Q
k,n
y x

es la -proyeccion de x a R

, entonces V

(x

) V

(x) y V
+
(x

)
V
+
(x). En efecto, si es una sucesi on de signo de x, entonces

lo ser a para x

(y
todas se consiguen as). Pero es facil ver que C(

) C().
Proposicion 13.5.3. Sean a
1
, a
2
, . . . , a
m
R
n
, linealmente independientes, con n > m.
Entonces son equivalentes:
(1) V
+
(b) m1, para todo b span a
1
, a
2
, . . . , a
m
0.
202
(2) a = a
1
a
2
a
m
es estrictamente denido (como vector), i. e. a > 0.
Demostracion. Sea A = [a
1
, a
2
, . . . , a
m
] /
n,m
(R). Es claro que la condicion a > 0 equivale
a que det A[[] > 0 para todo Q
m,n
. Para ver la suciencia, supongamos que a > 0
y que existe b span a
1
, a
2
, . . . , a
m
0 tal que V
+
(b) m. Es f acil ver que existe
Q
m+1,n
tal que la -proyeccion de b tiene variacion m axima m. Como det A[[] > 0
para todo Q
m,n
, en particular aquellos , deducimos que las -proyecciones a
t
i
de
a
i
, i I
m
tambien cumplen a
t
1
a
t
2
a
t
m
> 0. Por lo tanto, considerando la -proyeccion
si es necesario, podemos suponer que
n = m + 1 y que (1)
i1
b
i
0 , para todo i I
n
.
Como los e

(i)
= e
1
e
i1
e
i+1
e
n
, i I
n
forman una base completa ortogonal
de
m
R
n
, tenemos que
a
1
a
2
a
m
=
n

i=1

i
e

(i)
donde
i
= det A(i[] > 0, i I
n
.
Como b span a
1
, a
2
, . . . , a
m
y, adem as, b =

n
i=1
b
i
e
i
, tenemos que
0 = b a
1
a
2
a
m
=
_
n

i=1
(1)
i1

i
b
i
_
e
1
e
2
e
n
,
porque e
i
e

(j)
=
ij
(1)
i1
e
1
e
2
e
n
. Pero las condiciones (ya vericadas)
i
> 0 y
(1)
i1
b
i
0, i I
n
implican entonces que b
i
= 0, i I
n
, o sea b = 0, una contradicci on.
Esto completa la prueba de la suciencia.
Probemos ahora la necesidad. Como vimos al principio, bastara vericar que
det A[[] det A[[] > 0 para todo par , Q
m,n
.
Fijados y , podemos unirlos por una sucesi on =
(0)
,
(p)
, . . . ,
(k)
= en Q
m,n
que
verica la siguiente propiedad: para cada i I
k
existe

(i)
Q
m+1,n
tal que
(i1)

(i)
y
(i)

(i)
.
Observar que la desigualdad det A[[] det A[[] > 0 se sigue de las desigualdades
det A[
(i1)
] det A[
(i)
[] > 0 , 1 i k , (13.25)
dado que
sgn (det A[[] det A[[]) = sgn
_
k

i=1
det A[
(i1)
] det A[
(i)
[]
_
.
Considerando, en el caso i-esimo de la ecuaci on (13.25), la proyecci on sobre
(i)
, podemos
asumir nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de
(i)
203
y, sobre todo, porque la hip otesis V
+
(b) m 1, para todo b span a
1
, a
2
, . . . , a
m
0
se preserva al proyectar sobre
(i)
, por la Observaci on 13.5.2. Ahora, como antes,
a
1
a
2
a
m
=
n

i=1

i
e

(i)
con
i
= det A(i[] .
Si
i
= 0 para alg un i, entonces e
i
span a
1
, a
2
, . . . , a
m
. Pero en tal caso tendramos que
V
+
(e
i
) = n 1 = m, lo que contradice la condici on (1). Adem as, si no todos los
j
tienen
el mismo signo, entonces
l

l+1
< 0 para alg un l. Entonces, si b =
l+1
e
l
+
l
e
l+1
, tenemos
como antes que
b a
1
a
2
a
m
=
_
(1)
li

l+1

l
+ (1)
l

l+1
_
e
1
e
2
. . . e
n
= 0 ,
por lo que b span a
1
, a
2
, . . . , a
m
. Pero como
l

l+1
< 0, tenemos V
+
(b) = n 1 = m, lo
que tambien contradice la condicion (1). Luego todos los signos de
i
son iguales, es decir,
se cumple (2).
Lema 13.5.4. Sea x R
n
. Entonces
V
+
(x) +V

(J
n
x) = V

(x) +V
+
(J
n
x) = n 1 . (13.26)
Demostracion. Cuando recorre todas las sucesiones de signo de x, J
n
recorre todas las
sucesiones de signo de J
n
x. Observar que
C() +C(J
n
) =
1
2
n1

i=1
(1
i

i+1
) +
1
2
n1

i=1
(1 (J
n
)
i
(J
n
)
i+1
)
=
1
2
_
n1

1=1
(1
i

i+1
) + (1 (1
i1
)
i
(1)
i

i
)
_
=
1
2
n1

i=1
(1
i

i+1
) + (1 +
i

i+1
) = n 1 ,
lo que muestra la ecuaci on (13.26).
Teorema 13.5.5. Sea / un subespacio de R
n
tal que 0 < dim / < n. Entonces, las
siguientes dos condiciones son equivalentes:
(1) V
+
(x) dim/1 para todo x / 0.
(2) V

(y) dim/ para todo y /

0.
Demostracion. Tomemos bases completas ortonormales
a
1
, a
2
, . . . , a
m
para /, y a
m+1
, a
m+2
, . . . , a
n
para /

.
204
Si A = [a
1
, a
2
, . . . , a
n
], entonces A es unitaria y podemos asumir que detA = 1. Por la
Proposici on 13.5.3 (y su prueba), la condicion (1) es equivalente a que detA[[I
m
] sea no
nulo y tenga el mismo signo para todo Q
m,n
. Como A |(n) y det A = 1,
det(J
n
AJ
n
)([I
m
) = det(J
n
(A

)
1
J
n
)([I
m
) = det A

[I
m
[]
= det A[[I
m
] ,
por la ecuaci on (12.13). Luego det(J
n
AJ
n
)[[m + 1, . . . , n] es no nulo y tiene el mismo
signo para todo Q
nm,n
. Llamemos b
i
= J
n
AJ
n
e
i
= (1)
i
J
n
a
i
, para i > m. La
condici on anterior es equivalente a que b
m+1
b
m+2
b
n
> 0 (o bien < 0). Por lo tanto,
tambien J
n
a
m+1
J
n
a
m+2
J
n
a
m
es estrictamente denida. Entonces, nuevamente
por la Proposici on 13.5.3, obtenemos que V
+
(J
n
y) n m 1 para todo y /

0.
Aplicando el Lema 13.5.4, deducimos la condicion (2). La implicaci on (2) (1) se prueba
de manera similar.
Una version local del Teorema 13.5.5 da la siguiente caracterizacion de la regularidad de
signo estricta en terminos de una propiedad de disminucion de variaci on.
Teorema 13.5.6. Sea A /
n,m
(R), con n m. Entonces A es -ERS si y solo si el
operador lineal A : R
m
R
n
disminuye la variacion de signos, en el sentido de que
V
+
(Ax) V

(x) para todo x R


m
0 (13.27)
Demostracion. Supongamos que A = [a
1
, a
2
, . . . , a
m
] es -ERS. Tomemos x R
m
0, y
llamemos k = V

(x). Entonces existen , Q


k+1,m
tales que

i

i
<
i+1
para todo i I
k
y
k
<
k+1

k+1
,
que describen los signos de x de la siguiente manera:

1
= minj I
n
: x
j
,= 0 y
k+1
= maxj I
n
: x
j
,= 0.
Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre

i
y
i
.
x
j
= 0 si
i
< j <
i+1
para alg un i.
Para cada i I
k
, hay un cambio de signo entre x

i
y la siguinete entrada no nula de
x, que es x

i+1
.
Si, para cada i I
k+1
, llamamos
b
i
=

i
j
i
x
j
a
j
= Ax =
k+1

i=1
b
i
, ya que Ax =
n

i=1
x
i
a
i
,
y x
j
= 0 para aquellos j que no aparecen en alg un b
i
. Ahora la regularidad estricta de signo
de A implica que, si vamos eligiendo k + 1-tuplas (j
1
, . . . , j
k+1
) tales que
i
j
i

i
, i
I
k+1
, tenemos que

k+1
a
j
1
a
j
2
a
j
k+1
> 0 .
205
Por lo tanto, si =
k+1
sgn
_
k+1

i=1
x

i
_
, se tiene que
b
1
b
2
b
k+1
> 0 ,
dado que es una suma de vectores tales que todas sus coordenadas tienen signo . Entonces
el Lema 13.5.3 dice que
V
+
(Ax) = V
+
_
k+1

i=1
b
i
_
k = V

(x),
lo que prueba la ecuacion (13.27).
Supongamos recprocamente que A = [a
1
, a
2
, . . . , a
m
] satisface la condicion (13.27). Sean
Q
k,m
y x R
m
tales que x

k
i=1
x
i
e

i
,= 0. Obsevar que Ax

k
i=1
x
i
a

i

span a

1
, . . . , a

k
. Es claro que V

(x

) k 1, de donde por hip otesis, V


+
(Ax

)
V

(x

) k 1. Esto dice que


V
+
(y) k 1 para todo y span a

1
, . . . , a

k
0 .
Entonces se sigue del Lema 13.5.3 que a

1
a

2
a

k
es estrictamente denida. Por lo
tanto, A ser a -ERS si el signo a

1
a

2
a

k
depende solo de k. Para k = m esto es
trivial. Fijemos 1 k m1 y tomemos , Q
k,m
. Como en la prueba del Lema 13.5.3,
existe una sucesion =
(0)
,
(p)
, . . . ,
(r)
= en Q
k,n
que verica la siguiente propiedad:
para cada i I
r
, existe

(i)
Q
k+1,n
tal que
(i1)

(i)
y
(i)

(i)
.
Por lo tanto, para nuestro prop osito, basta probar que, para cada Q
k+1,m
e i I
k+1
, se
cumple que
a

1
a

i1
a

i+1
a

k+1
y a

1
a

i
a

i+2
a

k+1
tienen el mismo signo. Mediante un argumento de continuidad esto ser a establecido si
a

1
a

i1
(1 t)a

i
+ta

i+1
a

i+2
a

k+1
es estrictamente denido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, va la
ecuaci on (13.27), porque, si x R
k
0, entonces
V

_
i1

j=1
x
j
e

j
+x
i
((1 t)e

i
+te

i+1
) +
k+1

j=i+2
x
j1
e

j
_
k 1 ,
puesto que los signos de las coordenadas
i
y
i+1
son iguales.
Lema 13.5.7. Sea x R
n
. Si una sucesion x
p

p
x, entonces
V

(x) liminf
p
V

(x
p
) y limsup
p
V
+
(x
p
) V
+
(x) . (13.28)
206
Demostracion. Si llamamos J = i I
n
: x
i
,= 0, debe existir alg un p
0
N tal que
[(x
p
)
j
x
j
[ < min[x
i
[ : i J para todo j J y p p
0
.
Entonces, sgn(x
p
)
j
= sgn(x
j
) para j J. Luego, si p p
0
, toda sucesion de signo
p
para
x
p
es tambien una sucesion de signo para x, porque los signos (de x y x
p
) coinciden en J,
mientras que en los i / J no hay problemas, porque x
i
= 0. Resumiendo, para todo p p
0
debe cumplirse que V

(x) V

(x
p
) para p p
0
(porque x tiene mas sucesiones de signo
que x
p
). O sea que V

(x) liminf
p
V

(x
p
). La otra desigualdad se prueba igual.
La regularidad de signo esta caracterizada por una propiedad de variaci on de signo m as
debil.
Corolario 13.5.8. Sea A /
n,m
(R) con rkA = m. Entonces A es -RS si y solo si
V

(Ax) V

(x) para todo x R


m
0 . (13.29)
Demostracion. Como veremos en la Seccion 7, existe una sucesi on (G
p
)
pN
en (l (n) de
matrices ETPs , tales que G
p

p
I
n
. Supongamos primero que A es -RS. Como rkA = m,
el Teorema 13.2.1 asegura que G
p
A es -ERS para todo p N. Ademas G
p
A
p
A.
Entonces el Teorema 13.5.6 garantiza que
V
+
(G
p
Ax) V

(x) para todo x R


m
0 .
Luego, por la ecuaci on (13.28), tenemos que
V

(Ax) lim
p
V

(G
p
Ax) V
+
(G
p
0
Ax) V

(x) ,
lo que muestra la ecuaci on (13.29). Supongamos ahora que la ecuaci on (13.29) es v alida.
Por el Teorema 13.5.6, aplicado a G
p
, como A es inyectiva,
V
+
(G
p
(Ax) ) V

(Ax) V

(x) para todo p N y x R


m
0 ,
El Teorema 13.5.6 (al reves) muestra que G
p
A debe ser -ERS para todo p N. Tomando
lmite, vemos que A debe ser -RS.
Usando la relacion de dualidad (13.26), podemos hablar de algunas propiedades de aumento
de signo.
Corolario 13.5.9. Sea A /
n,m
(R) con rkA = m. Entonces J
n
AJ
m
es ERS (respectiva-
mente, RS) si y solo si
n m +V
+
(x) V

(Ax) ( resp. V
+
(Ax) ) ,
para todo x R
m
0.
Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes.
207
Teorema 13.5.10. Sea A (l (n). Entonces las siguientes condiciones son equivalentes:
1. A es regular de signo.
2. V
+
(Ax) V
+
(x) para todo x R
n
0.
3. V

(Ax) V
+
(x) para todo x R
n
0.
4. V

(Ax) V

(x) para todo x R


n
0.
Demostracion.
1 2: Si A es regular de signo (e inversible), tambien lo es J
n
A
1
J
n
por el Teorema 13.2.3.
Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A
1
(en nuestro caso, n m = 0).
2 3: Trivial.
3 4: Uusaremos la sucesi on G
p
que aparece en la prueba del Corolario 13.5.8. El mismo
argumento de la prueba de 1 2, muestra que,
V
+
(G
p
Ax) V

(x) para todo p N y x R


n
0 ,
porque G
p
A es ERS. Luego, como G
p
Ax
p
Ax, el Lema 13.5.7 nos da que
V

(Ax) liminf V

(G
p
Ax) liminf V
+
(G
p
Ax) V

(x) , x R
n
0 .
4 1: Se sigue del Corolario 13.5.8.
13.6 Totalmente Perron-Frobenius
En esta secci on estudiaremos propiedades espectrales de las matrices regulares de signo o
totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobe-
nius para matrices positivas. Recordemos la parte mas elemental del teorema de Perron-
Frobenius:
Observaci on 13.6.1. Sea A /
n
(R) tal que A0.
1. Llamaremos
1
(A), . . . ,
n
(A) a sus autovalores, ordenados de forma que
[
1
(A)[ [
2
(A)[ [
n
(A)[ .
2. El mayor autovalor de A es real y no negativo, i.e., (A) =
1
(A) 0, y hay un
autovector positivo u
1
0 correspondiente a
1
(A).
208
3. Si A > 0, entonces

1
(A) > [
2
(A)[ y ker(A
1
(A)I) = span u
1
,
para cierto u
1
> 0.
Teorema 13.6.2. Sea A /
n
(R) una matriz -ERS. Entonces todos los autovalores de A
son reales y distintos. Mas a un,

m1

m
(A) > [
m+1
(A)[ , para todo m I
n
, (13.30)
donde usamos la convencion
0
= 1 y
n+1
(A) = 0. Ademas, los correspondientes autovec-
tores u
1
, u
2
, . . . , u
n
pueden ser elegidos en R
n
, y de modo tal que
u
1
u
2
u
m
> 0 (como vector) , para todo m I
n
. (13.31)
Demostracion. La prueba se hara por inducci on en m. El caso m = 1 es consecuencia de
la Observaci on 13.6.1 porque
1
A > 0 por hip otesis. Supongamos que el resultado es cierto
para 1 i m1. Como
m

m
A > 0 por hipotesis, se sigue nuevamente de la Observacion
13.6.1 que
0 < (
m

m
A) =
1
(
m

m
A) =
m
m

i=1

i
(A) .
Por la hipotesis inductiva, que en particular nos dice que

i

i1

i
(A) = [
i
(A)[ > 0, para
i < m, y del hecho de que (
m

m
A) es el unico autovalor de
m

m
A de m odulo maximo,
deducimos que

m
m

i=1

i
(A) =
m

i=1

i1

i
(A) =

m

m1

m
(A)
m1

i=1
[
i
(A)[ > [
m+1
(A)[
m1

i=1
[
i
(A)[ .
Luego la ecuacion (13.30) se cumple para m. Ahora, como
m
(A) es real, u
m
puede ser
elegido real. Por lo tanto tenemos que u
1
u
2
u
m
es autovector no nulo de
m

m
A
correspodiente a
1
(
m

m
A), y tiene coordenadas reales. Entonces, por la Observacion
13.6.1, tomando = 1 o bien = 1, tenemos que u
1
u
2
u
2
u
m
> 0. Ahora,
reemplazando a u
m
por u
m
en caso de que sea necesario, obtenemos la ecuaci on (13.31)
para todo m I
n
.
El conjunto de autovalores reales u
1
, u
2
, . . . , u
n
conseguidos en el Teorema 13.6.2 posee
propiedades oscilatorias interesantes. Para sus formulaciones, necesitamos algunas deni-
ciones.
Denici on 13.6.3. Sea x R
n
.
1. Notaremos por x(t) : [1, n] R
n
a la funci on linear a trozos
x(t) = (k + 1 t)x
k
+ (t k)x
k+1
si k t k + 1 , k I
n1
. (13.32)
Observar que x(t) es continua, lineal a trozos, y que x(j) = x
j
para todo j I
n
.
209
2. Los nodos de x(t) son las races de la ecuaci on x(t) = 0, ordenados de manera creciente
(si son nitos, i.e., si no hay dos coordenadas nulas consecutivas de x).
3. Dos sucesiones ordenadas
1
<
2
< <
k
y <
2
<
k+1
se dicen entrelazadas
si

k
<
k
<
k+1
, para todo k I
k
.

Teorema 13.6.4. Sea A /


n
(R) una matriz -ERS. Sean u
1
, . . . , u
n
sus autovectores
reales, correspondientes a los autovalores
k
(A), k I
n
(ordenados con modulos decre-
cientes). Entonces
1. La variacion de signo de cada u
k
es exacta. Mas a un,
V (u
k
) = k 1 , para todo k I
n
. (13.33)
2. Ademas, los nodos de u
k
(t) y los de u
k+1
(t) estan entrelazados.
Demostracion. Fijemos k I
n
. Por el Teorema 13.6.2 podemos asumir que u
1
u
2

u
k
> 0. Luego, por el Lema 13.5.3, sabemos que V
+
(u
k
) k 1. Consideremos
J
n
A
1
J
n
, la cual es nuevamente ERS por el Teorema 13.2.3. Como J
n
u
k
es un autovector
de J
n
A
1
J
n
correspondiente a 1/
k
(A) =
nk+1
(J
n
A
1
J
n
), el argumento anterior da que
V
+
(J
n
u
k
) n k. Por la ecuacion (13.26), deducimos que
V

u
k
= n 1 V
+
(J
n
u
k
) k 1 V
+
(u
k
) ,
lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos:
Clamor 1: Para todo k I
n1
y todo (, ) R
2
0, se cumple que
V
+
(u
k
+u
k+1
) 1 V

(u
k
+u
k+1
) . (13.34)
En efecto, como u
1
u
k
u
k+1
> 0 (o < 0), la Proposici on 13.5.3 garantiza que, si
llamamos z = u
k
+u
k+1
, entonces V
+
(z) (k+1)1 = k. Aplicando el mismo argumento
a J
n
u
n
, . . . , J
n
u
k+1
, J
n
u
k
, que son los primeros n k + 1 autovectores de las matriz ERS
J
n
A
1
J
n
, obtenemos, va la ecuaci on (13.26), que
V
+
(J
n
z) n k = V

(z) k 1 V
+
(z) 1 ,
lo que termina de mostrar la ecuaci on (13.34).
Sean x(t) = u
k
(t) e y(t) = u
k+1
(t). Por la ecuaci on (13.33) y la Observaci on 13.5.2, si un
nodo de e x(t) o de y(t) es entero, la coordenada correspondiente de u
k
o u
k+1
es nula, no
es ni la primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo
tanto, x(t) tiene k 1 nodos e y(t) tiene k nodos.
210
Clamor 2: Sean (, ) R
2
0 y j I
n
1, n. Si x(j) +y(j) = 0, entonces
_
x(j 1) +y(j 1)
_ _
x(j + 1) +y(j + 1)
_
< 0 . (13.35)
En efecto, como en la Observaci on 13.5.2, si z R
n
cumple que V
+
(z) 1 V

(z), entonces
z
j
= 0 implica que j = 1, j = n, o z
j1
z
j+1
< 0. Luego basta aplicar lo anterior y la ecuaci on
(13.34) al vector z = u
k
+u
k+1
.
Ahora vamos a por el item 2: Sean t
1
< t
2
< < t
k
los nodos de y(t). Entonces bastara
probar que, para todo l I
k1
, hay al menos un nodo de x(t) en el intervalo abierto (t
l
, t
l+1
).
Clamor 3: Supongamos que x(t) > 0 para todo t (t
l
, t
l+1
). Entonces
x(t
l
) ,= 0 ,= x(t
l+1
) y, por ende, 0 < = minx(t) , t [t
l
, t
l+1
] .
Supongamos, por ejemplo, que x(t
l
) = 0. Tomemos i N tal que i 1 < t
l
< i (o bien j 1
y j + 1 si t
l
= j es entero). Como x(t) es lineal en [i 1, i], tenemos que x(i 1)x(i) < 0
(resp. x(j 1)x(j + 1) < 0, en este caso por la ecuacion (13.35) ). Tomando
=
y(i)
x(i)
_
resp. =
y(j + 1)
x(j + 1)
_
,
se tiene que x(t)+y(t) se anula en el intervalo [i1, i], ya que x(i)+y(i) = x(t
l
)+y(t
l
) = 0,
y es una funci on lineal en [i 1, i] (resp. se anula en [j, j +1] por las mismas razones). Pero
esto contradice la ecuaci on (13.35).
Recta nal: Por la denicion de nodos, y(t) es denido, supongamos que 0, en el intervalo
[t
l
, t
l+1
]. Sea el mnimo de los > 0 para los cuales z

(t) = x(t) y(t) tiene un nodo


s [t
l
, t
l+1
]. Observar que s ,= t
l
porque y(t
l
) = 0 ,= x(t
l
). Por lo mismo s ,= t
l+1
. Ahora,
por la minimalidad de , tenemos que z

(t) 0 en [t
l
, t
l+1
]. Pero como z

(t) = (u
k
u
k+1
)(t)
es lineal en los intervalos [j, j +1], j I
n1
, esto es posible solo cuando s N, o cuando z

(t)
se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades
produce una contradiccion con la ecuacion (13.35), en el primer caso porque z

(t) no cambia
de signo, en el otro porque z

(t) tiene dos ceros enteros consecutivos.


Si A /
n
(R) es estrictamente regular de signo, su adjunta A

es tambien estrictamente
regular de signo. Por el Teorema 13.6.2, los autovectores reales v
1
, v
2
, . . . , v
n
de A

pueden
ser elegidos de forma tal que
v
1
v
2
v
k
> 0 , para todo k I
n
.
Las propiedades (13.31) y (13.36) de los autvectores de A y A

caracterizan en alg un sentido


la regularidad de signo estricta.
Teorema 13.6.5. Si A /
n
(R) es inversible, tiene n autovalores reales de distinto modulo,
y los autovectores reales u
k
de A y v
k
de A

, correspondientes a
k
(A) =
k
(A

), son elegidos
de forma tal que satisfagan las ecuaciones
u
1
u
2
u
k
> 0 y v
1
v
2
v
k
> 0, para todo k I
n
, (13.36)
entonces alguna potencia de A es estrictamente regular de signo.
211
Demostracion. Notemos
k
=
k
(A), para k I
n
. Sean
U = [u
1
, u
2
, . . . , u
n
] y V = [v
1
, v
2
, . . . , v
n
] .
Entonces U y V son inversibles. Si notamos = diag(
1
,
2
, . . . ,
n
), entonces
A = U U
1
y A

= V V
1
. (13.37)
Es facil ver que u
i
, v
j
) = 0 para i ,= j. Esto dice que V

U es diagonal. Sea = (
1
, . . . ,
n
)
C
n
tal que
diag ()
1
= V

U = U
1
= diag () V

. (13.38)
Se tiene que > 0 (es decir que sus entradas son positivas), ya que para todo k I
n
,
0 < k! u
1
u
2
u
k
, v
1
u
2
v
k
) = det V

U[I
k
] =
k

i=1

1
i
.
Por las ecuaciones (7.21), (13.37) y (13.38), y varias reducciones elementales, podemos ver
que, para todo p N y para todo par , Q
k,n
,
det A
p
[[] = det(U
p
U
1
)[[] =

Q
k,n
det U[[]
_
k

i=1

i
_
p
det U
1
[[]
=

Q
k,n
det U[[]
_
k

i=1

i
_
p

_
k

i=1

i
_
det V [[]
=
_
k

i=1

i
_
p

_
k

i=1

i
_
det U[[I
k
] det V [[I
k
] +
+

Q
k,n
,= I
k
det U[[]
_
k

i=1

i
_
p
_
k

i=1

i
_
det V [[].
Notar que, como [
1
[ > [
2
[ > > [
n
[ > 0, entonces
k

i=1
[
i
[ >
k

i=1
[

[ para todo Q
k,n
I
k
,
mientras que las ecuaciones de (13.36) implican que
U[[I
k
] > 0 y V [[I
k
] > 0 para todo k N y , Q
k,n
.
Entonces para un p sucientemente grande, det A
p
[[] es no nulo y tiene el mismo signo
que
_

k
i=1

i
_
p
para cada , Q
k,n
. Entonces A
p
es ERS.
Ahora compararemos los autovalores de A con los de A[], para un adecuado. El siguiente
Teorema generaliza un hecho que sabamos para A H(n) y Q
n1,n
(entrelace de
Cauchy) y que habamos mencionado para tambien para Q
k,n
(ver Teorema 2.4.2).
212
Teorema 13.6.6. Sea A /
n
(R) una matriz ETP. Dados k N y Q
k,n
con compo-
nentes consecutivas (i.e., tal que d() = 0), se tiene que, para todo j I
k
,

j
(A) >
j
(A[]) >
n+jk
(A) (13.39)
y

j
(A) >
j
(A/
t
) >
n+jk
(A) . (13.40)
Demostracion. El caso que concentra la diculatad es cuando k = n 1, donde =
I
n1
o bien = I
n
1. Supongamos que = I
n1
, y llamemos B = A[]. Observar
que (A) consta de las n raices distintas del polinomio caracterstico d
A
(t) = det(tI A).
An alogamente (B) consta de las n 1 raices distintas del polinomio caracterstico d
B
(t) =
det(tI B). Llamemos
i
=
i
(A), i I
n
y notemos A
t
= tI
n
A y B
t
= tI
n
B, t R.
Para mostrar la ecuaci on (13.39) para este , basta ver que
d
B
(
i
)d
B
(
i+1
) < 0 , para todo i I
n1
. (13.41)
Consideremos los vectores x
t
, con par ametro real t, denidos por
x
t
:=
_
(1)
n+i
det A
t
[[i)

iI
n
.
Entonces la Regla de Cramer (12.12) muestra que, para todo t / (A), se tiene la igualdad
x
t
= d
A
(t)A
1
t
e
n
. Luego, A
t
x
t
= d
A
(t)e
n
para esos t, pero por continuidad,
A
t
x
t
= 0 si t (A) = Ax

j
=
j
x

j
, para j I
n
. (13.42)
La n-esima componente x
t
(n) de x
t
coincide con d
B
(t), mientras que la primera componente
x
t
(1) admite la representaci on
x
t
(1) =
n

j=2
t
nj

Q
j,n

1
=1,
j
=n
det A[ n[ 1]. (13.43)
Esto ultimo sale del hecho de que
A
t
[I
n1
[2, . . . , n] =
_

_
a
12
a
23
. . . a
1,n1
a
1,n
t a
22
a
23
. . . a
2,n1
a
2,n
a
32
t a
33
. . . a
3,n1
a
3,n
.
.
.
.
.
.
a
n1,2
a
n1,3
. . . t a
n1,n1
a
n1,n
_

_
y viendo que subdeterminantes le correponden a cada potencia de t.
Clamor: Se cumple que x
t
(1) > 0 para todo t > 0.
En efecto, como A es TP, la ecuacion (13.43) muestra que x
t
(1) es un polinomio en t con
coecientes no negativos. Luego bastara mostrar que existe un > 0 tal que x

(1) ,= 0
213
(as ya sabramos que alg un coeciente no se anula). Para ello usaremos que, como d
B
(t)
tiene s olo n 1 raices, existe j I
n
tal que x

j
(n) = d
B
(
j
) ,= 0. Por la ecuaci on (13.42),
x

j
es un autovector vector no nulo (porque x

j
(n) ,= 0) de A, que es ETP. Luego, por el
Teorema 13.6.4, x

j
tiene variacion exacta, por lo que su primer componente x

j
(1) no puede
anularse.
Aplicando el Clamor a los otros
i
, junto con la ecuacion (13.42), concluimos que x

i
es el
i-esimo autovector de A con x

i
(1) > 0, para todo i I
n
. Luego se sigue del Teorema 13.6.4
que la n-esima componente tiene signo (1)
i1
. Esto establece la ecuacion (13.41), porque
x

i
(n) = d
B
(
i
), i I
n
.
Para = 2, 3, . . . , n, tomamos nuevamente B = A[] y ahora
y
t
=
_
(1)
1+i
det A
t
[[i)

iI
n
.
En este caso tenemos A
t
y
t
= d
A
(t)e
1
, lo que tambien implica que Ay

j
=
j
y

j
. Aqu,
y
t
(1) coincide con d
B
(t), mientras que la ultima admite un representacion como la anterior.
Entonces la primera tiene signo (1)
i1
y obtenemos as la ecuaci on (13.39) para este .
El caso k < n 1 se probar a por inducci on descendente. Supongamos que la ecuaci on
(13.39) es cierta para cierto k > 1 y tomemos Q
k1,n
con d() = 0. Supongamos que
= i, i + 1, . . . , i +k 2 con i +k 1 n. Llamemos = i +k 1. Aplicando el
caso anterior a la matriz ETP A[] /
k
(R), obtenemos que

j
(A[]) >
j
(A[]) >
j+1
(A[]) , para todo j I
k1
.
Por otro lado, la hip otesis inductiva asegura que

j
(A) >
j
(A[]) >
n+jk
(A) , para todo j I
k
.
Combinando estas desigualdades, se obtien la ecuaci on (13.39) para el caso k 1, lo que
completa la inducci on. Resta ver el caso en que i +k 2 = n, i. e. = i, i +1, . . . , n, que
se obtiene de manera analoga, aplicando el segundo argumento a la matriz A[ i 1].
Veamos ahora la ecuacion (13.40): Sabemos que J
n
A
1
J
n
es tambien ETP por el Teorema
13.2.3. Ademas, por el Teorema 12.1.4, se ve f acilmente que (J
n
A
1
J
n
)[] = J

(A/
t
)
1
J

.
Observemos que (J
n
A
1
J
n
) = (A)
1
. Luego,
1

j
(A)
=
nj+1
(J
n
A
1
J
n
) y
1

j
(A/
t
)
=
kj+1
((J
n
A
1
J
n
)[]) .
Aplicando la ecuacion (13.39) a J
n
A
1
J
n
, tenemos que

j
(J
n
A
1
J
n
) >
j
(J
n
A
1
J
n
[]) >
n+jk
(J
n
A
1
J
n
) .
Luego

j
(A) =
nj+1
(J
n
A
1
J
n
)
1
>
kj+1
(J
n
A
1
J
n
[])
1
=
j
(A/
t
)
>
j
(J
n
A
1
J
n
)
1
=
n+jk
(A) ,
lo que completa la prueba.
Con la ayuda del Teorema de aproximaci on 13.1.12, algunos de los resulatdos anteriores
pueden ser genarlizados al caso en que A es regular de signo o TP.
214
Corolario 13.6.7. Si A /
n
(R) es regular de signo con signatura , entonces todos sus
autovalores son reales, y

k1

k
(A) > 0 , para todo k = 1, 2, . . . , rkA .
Si A es TP, entonces para cada k I
n
y cada Q
k,n
tal que d() = 0, se tiene que

j
(A)
j
(A[])
n+jk
(A) ,
para todo j I
n
.
Dado x = (x
i
) R
n
, denotemos por x

a su reordenaci on decreciente:
x

1
x

2
x

n
y x

i
= x
(i)
para alguna S
n
. (13.44)
Teorema 13.6.8. Sea A /
n
(R) una matriz TP. Entonces
diag (A) (A) .
Demostracion. Dada una matriz L /
m
(R), llamemos

(L) = diag (L)

, a su diagonal
reordenada. Probaremos el teorema por inducci on en n. El caso n = 1, es trivial. Asumamos
que el teorema es cierto en /
n1
(R). Como tr (A) = tr A = tr diag (A), y
i
(A) =

i
(A),
i I
n
, basta mostrar que
k

i=1

i
(A)
k

i=1

i
(A) para k I
n1
. (13.45)
Sean p, q I
n
tales que A
11
=

p
(A) y A
nn
=

q
(A). Tomando la conversi on de A en
caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como
B, C /
n1
(R) son ambas TP, la hip otesis inductiva determina que
k

i=1

i
(B)
k

i=1

i
(B) y
n1

i=k

i
(C)
n1

i=k

i
(C) , k I
n1
. (13.46)
Observar que

i
(B) =

i
(A) para 1 i p (aca se usa que p > q). Por el Corolario 13.6.7,

i
(A)
i
(B), para i I
n1
. Luego, las desigualdades de (13.46) implican la ecuaci on
(13.45) para los casos 1 k p. Veamos ahora que
n

i=k+1

i
(A)
n

i=k+1

i
(A) , para k > p . (13.47)
En efecto, como

i
(A) =

i
(C) si p +1 i n, y
i1
(C)
i
(A), para todo i I
n1
(por
el Corolario 13.6.7 ), observamos que la ecuacion (13.46) implica (13.47), y por ende tambien
la ecuacion (13.45) para estos valores de k.
215
13.7 Algunos ejemplos.
En esta secci on presentamos algunos ejemplos de matrices TPs y la caracterizaci on de estas
matrices.
13.7.1 (N ucleos totalmente positivos). La mayor parte de las matrices TPs no triviales
surgen de la restriccion de n ucleos totalemnte positivos a conjuntos nitos adecuados. Estas
son algunas f ormulas de produccion de n ucleos totalmente positivos. Sean , conjuntos
totalmente ordenados (en general, subconjuntos de R o Z). Una funci on a valores reales
K(s, t) para s , t es un n ucleo totalmente positivo (TP) si la matriz [K(s
i
, t
j
)]
i,j=1,2,...,n
es TP para toda elecci on s
1
< s
2
< . . . < s
n
y t
1
< t
2
< . . . < t
n
. La positividad total
estricta de un n ucleo se dene analogamente.
Si K(s, t) es TP y f(s), g(t) son funciones positivas en y respectivamente, entonces
el n ucleo f(s)K(s, t)g(t) es TP. Si K(s, t) es TP y (s) es un operador mon otonamente
creciente de un conjunto totalmente ordenado
1
a , y (t) es un operador mon otonamente
creciente de un conjunto totalmente ordenado
1
a , entonces K((s), (t)) es un n ucleo
TP en
1

1
. Si dos n ucleos L(s, t) y M(s, t) son TPs y d() es una medida en , entonces
el n ucleo
K(u, v) :=
_
T
L(s, u)M(s, v)d(s), u, v , (13.48)
es TP en , si la integral existe. Esto es s olo una modicaci on del Teorema 13.2.1.
Pasemos ahora a la construcci on de ejemplos concretos
1. Para cualesquiera
k
, k = 1, 2, . . . , n, el n ucleo K(s, t) :=

n
k=0

k
s
k
t
k
es TP en
R
+
R
+
. De hecho, K(s, t) es una composicion del tipo (13.48), con L(k, t) = M(k, t) =
t
k
en Z
+
R
+
. La positividad total del n ucleo L(k, t) es una consecuencia de la
positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.5.
2. Para cualquier > 0 el n ucleo K(s, t) = exp(st) es TP en R
+
R
+
, como lmite de
n ucleos del tipo 1. este n ucleo es ETP en RR tambien. En consecuencia exp[(s
t)
2
] es ETP en R R porque
exp
_
(s t)
2

= exp(s
2
) exp(2st) exp(t
2
).
3. Para p = 1, 2, . . ., las matrices n-cuadradas
G
p
=
_
det
_

(i j)
2
p
__
son ETPs por 2., y G
p
I
n
cuando p . Esta sucesion ha sido usada varias veces
en secciones anteriores.
4. Para cada 0 < < 1 y 0 ,= p R, consideremos el promedio pesado en R
+
R
+
M
,p
:= s
p
+ (
o
)t
p

1/p
. (13.49)
216
Entonces M
,p
(s, t) o 1/M
,p
(s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue
de la observacion de que para cualquier > 0
1
(s +t)

=
1
()
_
0

e
us
e
ut
du
[u[
1
, (13.50)
donde () es la funci on gamma, y el n ucleo exp(us) es TP en R
+
R
+
.
5. El n ucleo K(s, t) := min(s, t) es TP en R
+
R
+
, porque
K(s, t) = lim
p
M
,p
(s, t) (13.51)
6. Si f(t), g(t) son funciones positivas en R
+
tales que h(t) := f(t)/g(t) es no decreciente,
entonces el n ucleo
K(s, t) := f(min(s, t))g(max(s, t))
es TP en R
+
R
+
, porque
K(s, t) = minh(s), h(t)g(min(s, t))g(max(s, t)) = g(s) minh(s), H(t) g(t).
Para > 0, con g(t) = exp(t) y h(t) = exp(2t), el n ucleo exp([s t[) es TP en
R
+
R
+
.
7. Sean b
i

i=1,2,...,n
y c
i

i=1,2,...,n
sucesiones positivas. Entones la matriz n-cuadrada
[b
min(i,j)
c
max(i,j)
] es TP si y solo si b
1
/c
1
b
2
/c
2
. . . b
n
/c
n
. esto se sigue inmedi-
atamente de la ecuaci on (6), ya que podemos considerar las funciones f(t) = b
i
, si
i 1 t < i y g(t) = c
i
, si i 1 t < i. Una matriz de este tipo es llamada matriz
de Green.
13.7.2 (Matriz de Hurwitz). Es un conocido teorema de A. Hurwitz que un polinomio
p(z) = d
0
z
n
+ d
1
z
n1
+ . . . + d
n
a coecientes reales (d
0
> 0) tiene todos sus ceros en
semiplano abierto Re z < 0 si y solo si la matriz n-cuadrada
H := [d
2j1
] =
_

_
d
1
d
3
d
5
d
7
d
9
0
d
0
d
2
d
4
d
6
d
8
0
0 d
1
d
3
d
5
d
7
0
0 d
0
d
2
d
4
d
6
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 d
n
_

_
(13.52)
donde d
k
= 0 para k < 0 o > n, tiene menores principales positivos:
det H[1, 2, . . . , k] > 0, k = 1, 2, . . . , n. (13.53)
Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de
Hurwitz asociada a el.
217
Mostremos, por inducci on en n, que la matriz de Hurwitz es TP. Cuando n = 1 es trivial.
Supongamos que es cierto para n1. Como d
1
> 0 para una matriz de Hurwitz la ecuaci on
(13.52), se sigue de la la ecuacion (12.16) que la matriz (n 1)-cuadrada G := H/1,
indexada por 2, 3, . . . , n tiene tambien menores principales positivos:
det G[2, 3, . . . , k] > 0, k = 2, 3, . . . , n. (13.54)
Sean g
j
, j = 2, 3, . . . , n los n 1-vectores la de G y c = d
0
/d
1
. Entonces las matriz
(n 1)-cuadrada F, indexada por 2, 3, . . . , n, cuyos vectores la f
j
est an denidos por
f
2
:= g
2
, y f
2j1
:= g
2j1
, f
2j
:= g
2j
cg
2j1
para j 2, (13.55)
tambien tiene menores principales positivos. Haciendo la cuenta vemos que F es una matriz
de la forma (13.52) con n 1 en lugar de n, y d
t
j
en lugar de d
j
, donde
d
t
2j
= d
2j+1
y d
2j1
= d
2j
cd
2j+1
, j = 0, 1, 2, . . . (13.56)
Entonces de acuerdo a la hipotesis inductiva, F es TP, y tambien lo es

F :=
_
0 0
0 F
_
/
n
(R) .
Ahora se ve, haciendo la cuenta, de la ecuaci on (13.56) que
H[1, 2, . . . , n 2] = H(n 1, n) =
__
S +
c
2
(I
n
J
n
)
_
S

FS

_
(n 1, n), (13.57)
donde S = [0, e
1
, e
2
, . . . , e
n1
]. Las matrices S y S

son TPs, y lo es la matriz triangular


superior S +
c
2
(I
n
J
n
).
Ahora la positividad total de H sale de la ecuacion (13.57) por los Teoremas
13.2.1 y 13.1.3: De ah deducimos que todos los subdeterminantes de H que no involucran
a las las o columnas n 1, n son positivos. Por el Teorema 13.1.3 bastara con probar la
positividad para con d() = 0, pero de aqu no lo podramos probar, por ejemplo, para el
caso H(1).
13.7.3 (Matrices de Toeplitz). Para una sucesi on (bi-)innita a
n
: < n < , la
matriz (a
ij
)
i,j=1,2,...
es llamada su matriz de Toeplitz, y la funci on f(z) =

a
n
z
n
, su
funci on generadora. Un matriz de Toeplitz es TP si y s olo si su funci on generadora es de la
forma
f(z) = Cz
k
exp
_

1
z +

1
z
_

1
(1 +
n
z)

1
_
1 +

n
z
_

1
(1
n
z)

1
_
1

n
z
_ ,
donde k es un entero, C 0,
1
,
1
0 y
n
,
n
,
n
,
n
0 son tales que

1
(
n
+
n
+

n
+
n
) < .
Cuando a
n
= 0 para n < 0, la matriz de Toeplitz es TP si y solo si su funcion generadora es
de la forma
f(z) = Ce
z

1
(1 +
n
z)

1
(1
n
z)
,
218
donde C 0, 0, y
n
,
n
0 son tales que

1
(
n
+
n
) < . Las pruebas de estos
hechos, basadas fuertemente en la teora de funciones analticas est an mas all a del alcance
de este trabajo. Cuando es aplicada a un polinomio la caracterizaci on anterior implica que
un polinomio p(z) = d
0
z
n
+ d
1
z
n1
+ . . . + d
n
(d
0
> 0) tiene todos sus ceros en eje real no
negativo si y solo si la matriz innita (d
n+ji
)
i,j=1,2,...
es TP, donde d
k
= 0 para k < 0 o
> n. Notemos que la matriz de Hurwitz H introducida antes es una submatriz de T, m as
precisamente H = T[n + 1, n + 2, . . . , 2n[2, 4, . . . , 2n].
13.7.4 (Funcion de frecuencia de Polya). Una funcion f(t) en (, ) es llamada una
funcion de frecuencia de Polya si el n ucleo K(s, t) := f(s t) es TP. La siguiente caracteri-
zaci on se debe a Schoenberg (1953), f(t) es una funci on de frecuencia de P olya si y s olo si su
transformada bil atera de Laplace existe en una tira abierta que contenga al eje imaginario
y tiene la forma
_

e
st
f(s)ds = C exp(t
2
+t)

1
exp(
n
t)
1 +
n
t
,
donde C > 0, 0, y
n
son reales tales que 0 <

1
[
n
[
2
< . La prueba de este
resultatdo esta m as alla del alcance de este trabajo.
13.8 Apendice: La prueba del criterio clave
Las pruebas de los criterios de positividad total se basan en intrincados c alculos de deter-
minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los
resultados de la seccion 2 del Captulo 12. Pero adem as necesitamos el siguiente resultado
especco:
Lema 13.8.1. Sea A /
n
(R). Dados Q
n1,n
y Q
n2,n
tales que , se tiene
que
det A[[1, n) det A[[q) = det A[[1, q) det A[[n) + det A[[q, n) det A[[1) , (13.58)
para todo 1 < q < n.
Demostracion. Fijemos p y sean := p y := 1, q, n
t
. Adem as sea m =
y B := A[[]. Por las ecuaciones (12.16) y (12.17), dividiendo ambos lados de la ecuaci on
(13.58) por det A[[]
2
tenemos que el lado izquierdo de la (eventual) igualdad queda
det B[ p[ q] det B[ p, m[ 1, n]
det B[[]
2
=
y el derecho,
det B[ p[ n] det B[ p, m[ 1, q]
det B[[]
2
+
det B[ p[ 1] det B[ p, m[ q, n]
det B[[]
2
= .
219
Notar que
= (B/[[])
pq

1
det
_
_
B/[[]
_
[p, m[1, n]
_
,
donde
1
= sgn (/ p) sgn (/ q) sgn (/ p, m) sgn (/ 1, n). Por otra
parte,
= (B/[[])
pn

2
det B/[[][p, m[1, q] + (B/[[])
p1

3
det B/[[][p, m[q, n] ,
donde

2
= sgn (/ p) sgn (/ n) sgn (/ p, m) sgn (/ 1, q) y

3
= sgn (/ p) sgn (/ 1) sgn (/ p, m) sgn (/ q, n) .
Sacando como factor a sgn(/ p)sgn(/ p, m), se ve que ecuacion (13.58) es
equivalente a la siguiente relacion:
sgn(/ q)sgn(/ 1, n)b
pq
det B[p, m[1, n] =
sgn(/ n)sgn(/ 1, q)b
pn
det B[p, m[1, q] +
sgn(/ 1)sgn(/ q, n)b
p1
det B[p, m[q, n] .
Por otra parte, se sigue de ecuaci on (12.15) que
sgn(/ q)sgn(/ 1, n) = sgn(/ n)sgn(/ 1, q)
= sgn(/ 1)sgn(/ q, n)
= (1)
q1
.
En efecto, supongamos que = (
1
, . . . ,
n3
), con 2 <
1
,
n3
< n. Entonces
q = (
1
, . . . ,
q2
, q,
q1
, . . . ,
n3
), 1 = (1, ) ,
n = (, n) , 1, n = (1, , n) ,
1, q = (1,
1
, . . . ,
q2
, q,
q1
, . . . ,
n3
) y
q, n = (
1
, . . . ,
q2
, q,
q1
, . . . ,
n3
, n) .
As,
sgn(/ q) = 1 +. . . +q 2 +q 1 +. . . +n 2 (1 +. . . n 3)
= n 2 (q 1)
sgn(/ 1) = 2 +. . . +n 2 (1 +. . . +n 3) = n 2 1 = n 3
sgn(/ n) = 1 +. . . n 3 (1 +. . . +n 3) = 0
sgn(/ 1, n) = 2 +. . . +n 1 (1 +. . . +n 3)
= n 2 +n 1 1 = 2n 4
sgn(/ 1, q) = 2 +. . . +q 1 +q + 1 (1 + +n 3)
= n 2 +n 1 q = (2n 2) (q 1)
sgn(/ q, n) = 1 +. . . +q 2 +q +. . . +n 1 (1 +. . . +n 3)
= n 2 +n 1 (q 1) = (2n 3) (q 1) .
220
y de estas igualdades se deduce lo buscado. Por lo tanto ecuaci on (13.58) es nalmente
equivalente a la siguiente relacion :
b
pq
det B[p, m[1, n] = b
pn
det B[p, m[1, q] +b
p1
det B[p, m[q, n] ,
que se verica f acilmente (notar que son determinantes de matrices de 2 2).
Sean A /
n,m
(R) y una sucesi on de signatura. Sea r = minn, m. Recordemos las
deniciones:
1. A es -RS si

k
det A[[] 0 para Q
k,n
, Q
k,m
k I
r
, (13.59)
2. A es -ERS si

k
det A[[] > 0 para Q
k,n
, Q
k,m
k I
r
, (13.60)
Recordemos el enunciado del Teorema 13.1.3:
Teorema 13.1.3 Sea A /
n,m
(R) con rk A = r, y sea una sucesion de signatura.
1. Para que A sea -RS es suciente que, para todo k I
min(n,m)
y Q
k,n
,

k
det A[[] 0 para Q
k,m
tal que d() mr . (13.61)
2. En particular, A es TP si det A[[] 0 en esos casos.
Demostracion. Probaremos la la ecuacion (13.59) por induccion en k. Cuando k = 1, la
ecuaci on (13.59) es cierta porque d() = 0 para Q
1,m
. Supongamos que la ecuaci on
(13.59) es cierta con k 2, k 1 en lugar de k pero no para k. Tomemos Q
k,m
para el
cual hay un Q
k,n
tal que

k
det A[[] < 0 (13.62)
y que tiene un mnimo d() sobre el requerido. Supongamos primero que d() = 0. Entonces
la ecuacion (13.62) es posible solo si
l = d() > mr. (13.63)
Armamos que para todo p / tal que
1
< p <
k
, se cumple
a
p
a

2
a

k1
= 0 . (13.64)
Observar que, en tal caso, tendramos que dimspan a
j
:
1
j
k
k, y estamos con-
siderando k + l columnas. Por lo tanto r = rk A m l, lo que contradira la ecuaci on
(13.63). Esta contradicci on muestrara que la ecuaci on (13.59) es valida para k siempre que
d() = 0.
221
As que vamos a por la f ormula (13.64): Para esto jemos un p como antes, y llamemos
=
2
,
3
, . . . ,
k1
. Entonces la armaci on signica que rk(A[[ p] ) k 2.
Usemos el Lema 13.8.1 de la siguiente forma: Dado Q
k1,n
, con , entonces
det A[[ p] det A[[
1
,
k
] =
det A[[
k
] det A[[
1
, p] + det A[[
1
] det A[[ p,
k
] (13.65)
Como
1
,
k
= , d(
1
, p) l 1 y d( p,
k
) l 1, se sigue de la
ecuaci on (13.62), la hip otesis inductiva y la propiedad minimal de l que la identidad arriba
mencionada solo puede ser v alida cuando
det A[[ p] = 0, para todo Q
k1,n
, , (13.66)
pues el lado derecho de la igualdad (13.65) es 0 y en el izquierdo hay, por hip otesis, un
factor < 0 y otro (det A[[ p]), 0. Por otro lado, de acuerdo a la ecuaci on (12.14),
por la ecuaci on (13.62), existe Q
k2,n
, tal que y detA[[] ,= 0. Para probar la
armaci on, esto es, rankA[[ p] k 2, es suciente mostrar que todo vector la de
A[[ p] es una combinaci on lineal de los vectores la conndices en , o equivalentemente
que
det A[ q[ p] = 0, para todo q / . (13.67)
Cuando q , esto se deduce de la ecuaci on (13.66), ya que q Q
k1,n
. Fijemos
entonces q / , y sea =
1
,
2
,
3
:= ( ) q, y =
1
, p,
k
. Notemos que
d() = 0 implica que q =
1
o q =
3
. Consideremos la matriz B /
3
(R) dada por
b
ij
= det A[
i
[
j
], i, j = 1, 2, 3.
Entonces por hip otesis inductiva todos los b
ij
tienen el mismo signo
k1
y, por la Identidad
de Sylvester (12.18), todos los subdeterminantes de matrices 22 de B[[1) y B[[3) tienen
el mismo signo
k2

k
. Por otro lado, la ecuaci on (13.66) implica que b
i2
= 0 siempre que

i
,= q. La armaci on dice que b
2
= 0. Si b
2
,= 0, las condiciones superiores s olo son
consistentes cuando b
i1
= 0 siempre que
i
,= q o b
i3
= 0, siempre que
i
,= q de acuerdo a
que q =
1
o q =
3
. Ya que, por ejemplo, si
1
= q (es analogo para
3
), tenemos que
B =
_
_
det A[ q[
1
] det A[ q[ p] det A[ q[
k
]
det A[
2
[
1
] 0 det A[
2
[
k
]
det A[
3
[
1
] 0 det A[
3
[
k
]
_
_
Entonces, por ejemplo

k2

k
det B[1, 2[3) =
k2

k
det A[
2
[
1
] det A[ q[ p] > 0
y

k2

k
det B[1, 2[1) =
k2

k
det A[ q[ p] det A[
2
[
k
] > 0,
lo que determina una contradicci on. Aplicando nuevamente la ecuaci on (12.18) vemos que
cada caso lleva a la contradicci on detA[[] = 0, tomando A[[] y A[[][[] = A[[] en
222
lugar de A y A[[], respectivamente. As b
2
= 0, lo que establece la validez de la ecuacion
(13.64). Y habamos visto que ello muestra que la ecuacion (13.59) es v alida para k siempre
que d() = 0, lo que completa la inducci on en este caso. La restriccion d() = 0 puede ser
liberada apelando nuevamente a la ecuaci on (13.58).
Recordemos el enunciado del Teorema 13.1.4:
Teorema 13.1.4 Sean A /
n,m
(R) y una sucesion de signatura.
1. Para que A sea -ERS es suciente que, para todo k I
min(n,m)
,

k
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .
2. En particular, A es ETP si det A[[] > 0 es esos casos.
Demostracion. Probemos las desigualdades

k
det A[[] > 0 para Q
k,n
, Q
k,m
, k I
min(n,m)
, (13.68)
por induccion en k. Cuando k = 1, esto es trivial porque d() = d() = 0 para
Q
1,n
, Q
1,m
. Asumamos que la ecuaci on (13.68) es cierta con k1 en lugar de k. Primero
jemos un Q
k,n
, con d() = 0, y probemos la ecuacion (13.68) para este por induccion
en l = d(). Cuando l = 0, esto se sigue de la hip otesis del teorema. Supongamos que

k
det A[[] > 0 siempre que Q
k,m
, d() l 1. Sea Q
k,m
con d() = l Entonces
existe p tal que
1
< p <
k
, d(
1
, p) l 1, y d( p,
k
) l 1, donde
=
1
,
2
, . . . ,
k1
. Se sigue de la ecuaci on (13.58), como en la ecuaci on (13.65) de la
prueba del Teorema 13.1.3,
det A[[ p] det A[[
1
,
k
] =
det A[[
k
] det A[[
1
, p] + det A[[
1
] det A[[ p,
k
]
para cualquier Q
ki,n
, con . Entonces se sigue de las dos hip otesis inductivas
que el lado de la derecha de la identidad superior es no nulo con signo
k1

k
, mientras que
detA[[ p] en el lado izquierdo es no nulo con signo
k1
. Por lo tanto la igualdad es
consistente s olo cuando
k
det A[[] > 0. Esto prueba la ecuacion (13.68) para los Q
k,n
con d() = 0. Luego jamos cualquier Q
k,m
y hacemos una induccion similar sobre
l = d(), dado que el caso d() = 0 es lo que probamos antes. As podemos concluir que la
ecuaci on (13.68) es cierta en general.
223
Bibliografa
[1] W. N. Anderson Jr. and G. E. Trapp, Shorted operators II, SIAM J. Appl.
Math., 28 (1975), 60-71.
[2] W. N. Anderson Jr., T. D. Morley and G. E. Trapp, Positive solutions to X =
A BX
1
B

, Linear Algebra Appl. 134 (1990), 53-62


[3] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math
(Szeged) 34 (1973), 11-15.
[4] T. Ando; Unitarily invariant norms related to the numerical radius, Linear
Algebra and its Applications, In Press, Corrected Proof, Available online 22
April 2005.
[5] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219.
[6] R. Bhatia; Matrix Analysis, Springer, New York, 1997.
[7] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tecnico
interno No.86, INMABB, Baha Blanca, 2003.
[8] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hop-
kins Studies in the Mathematical Sciences, Johns Hopkins University Press,
Baltimore, MD, 1996.
[9] R. G. Douglas, On majorization, factorization and range inclusion of operators
in Hilbert space, Proc. Amer. Math. Soc. 17 (1966) 413-416.
[10] M. C. Gonz alez; Relaciones de Mayorizacion para el Producto de Hadamard,
Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuquen, 2003.
[11] K. Homan y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series,
Prentice-Hall, Inc., Englewood Clis, N.J. 1961.
[12] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cam-
bridge, 1985.
[13] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press,
Cambridge, 1991.
224
[14] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the
numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191.
[15] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition,
Classics in Mathematics, Springer-Verlag, Berlin, 1995.
[16] P. D. Lax, Linear Algebra, Springer Verlag, Berln, 1998.
[17] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963.
[18] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989.
[19] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York,
1970.
[20] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation,
Springer-Verlag, Berln, 1974.
[21] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its
Applications, Academic Press, New York, 1979.
[22] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix comple-
tions, J. Funct. Anal. 85 (1989), 151-178.
[23] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.
[24] B. Simon, Trace ideals and their applications, London Mathematical Society
Lecture Note Series, 35, Cambridge University Press, Cambridge-New York,
1979.
225

Anda mungkin juga menyukai