Anda di halaman 1dari 312

Fascculo 3

Cursos y
seminarios de
matemtica
Serie B
Jorge Antezana
Demetrio Stojanoff
Anlisis Matricial
Departamento de Matemtica
Facultad de Ciencias Exactas y Naturales
Universidad de Buenos Aires
2009
ISSN 1851-149X
Cursos y Seminarios de Matemtica Serie B

Fascculo 3




Comit Editorial:



Carlos Cabrelli (Director). Departamento de Matemtica, FCEyN, Universidad de
Buenos Aires. E-mail: cabrelli@dm.uba.ar

Claudia Lederman. Departamento de Matemtica, FCEyN, Universidad de Buenos
Aires. E-mail: clederma@dm.uba.ar

Gabriel Minian. Departamento de Matemtica, FCEyN, Universidad de Buenos Aires.
E-mail: gminian@dm.uba.ar














ISSN 1851-149X


Derechos reservados
2009 Departamento de Matemtica, Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires.



Departamento de Matemtica
Facultad de Ciencias Exactas y Naturales,
Universidad de Buenos Aires
Ciudad Universitaria- Pabelln I
(1428) Ciudad de Buenos Aires
Argentina.
http://www.dm.uba.ar
e-mail. secre@dm.uba.ar
tel/fax: (+54-11)-4576-3335
Jorge Antezana y Demetrio Stojano
Analisis Matricial
Buenos Aires, Octubre de 2008.
Prefacio
El analisis matricial (AM) es una continuacion natural del algebra lineal, pero considerando
que el cuerpo de escalares son los n umeros reales o los complejos, y con una mirada basada
en la problematica de las teoras de espacios de Hilbert y de sus operadores acotados.
Muchos problemas del analisis, la geometra diferencial, el analisis funcional, los sistemas
dinamicos, la fsica teorica y otras importantes teoras, pueden bajarse al caso de matrices.
Y eso sin mencionar todas las ramas de la matematica aplicada, que suelen tener a este tipo de
reducciones como herramienta principal. En general, poder reducir y reformular un problema
al caso matricial es un exito, porque es mucho mas viable resolver un problema de matrices
que el problema de origen.
Por todo lo anterior, mencionar aplicaciones del AM es innecesario. Cualquier matematico
quiere poder aplicarlo, y trata sistematicamente de hacerlo. Porque es un contexto donde las
cuentas se pueden hacer (o la mayora cree a priori que deberan poder hacerse). Mas a un,
cuando la reduccion a matrices de un problema P sigue siendo difcil, se puede concluir que
P tena una dicultad intrnseca. Pero con dicultad o sin ella, el tema es como resolver P en
matrices.
Para poder hacerlo, hay que desarrollar a fondo una teora de matrices, o al menos una
extensa serie de herramientas para trabajar con ellas, que pueda resolver los inmumerables
problemas que le caen de arriba. Podra decirse que eso es el AM.
Lo mas interesante del AM es que es el contexto mas basico (un alumno de segundo
a no de la licenciatura ya puede entender la mayora de los enunciados) en el que se pueden
plantear problemas matematicos bien difciles, muchos de ellos no resueltos a un. Pero para
entender a fondo este tipo de problemas, sus ramicaciones, y las tecnicas que se suelen
aplicar para resolverlos, hace falta hacer un curso especco de AM, que pueda ser atendido
tanto por matematicos formados como por estudiantes de la licenciatura. Otra particularidad
remarcable, es que con ese solo basamento, alcanza para leer y entender (y porque no hacer)
una gran cantidad de publicaciones actuales. Un tpico trabajo nal para un curso de AM, es
estudiar un paper de los ultimos 2 o 3 a nos del tema. Y en muchos casos, con los contenidos
de este texto se tienen (casi) todas las herramientas para poder entenderlo a fondo.
Por otra parte, como toda teora matematica, el AM tiene su problematica propia. El tema
mas tpicamente matricial son las desigualdades, que involucran normas, autovalores, valores
singulares, determinantes, trazas, etc. El estudio de desigualdades de matrices y operadores
iv
es de una gran sutileza y forma una especie de mundo aparte. Sus especialistas son unos tipos
especiales, una especie de gremio de artesanos. Las tecnicas que se usan suelen ser intrincadas
y de un gran ingenio. Se aplican ideas de toda la matematica, pero la teora tiene sus reglas
propias y toda una gama de herramientas y metodos espceccos. Una de esas herramientas,
fundamental y no muy conocida, es otro tema central para el AM: La teora de mayorizacion
(de vectores y matrices), y sus m ultiples ramicaciones. Esta teora, elemental pero difcil,
esta poco difundida entre los matematicos, por lo que ha sido y sigue siendo redescubierta
innumerables veces en distintas areas, muchas veces con terminologas ad hoc. Si bien la
mayorizaci on aparece como una forma de comparar vectores de R
n
, cuando se la piensa en
vectores de autovalores o de valores singulares, se percibe rapidamente que es una nocion
intrnsecamente relacionada con la teora de matrices. Estos dos aspectos: mayorizacion y
desigualdades, son desarrollados con profundidad en este texto.
Una rama muy diferenciada del AM, la de matrices de entradas no negativas, llamada
teora de Perron y Frobenuis, podra tener el rango de area independiente. De ella daremos
un captulo con las bases principales de la teora, y otro captulo exponiendo una de sus ramas:
las matrices totalmente positivas.
Este libro es el resultado de mas de una decena de cursos, dictados en diversos departa-
mentos de matematica (FCEN-UBA, FI-UBA, FCE-UNC y, sobre todo, en la FCE-UNLP) y
en varios congresos, en los ultimos a nos. Es importante aclarar que se asumen como conoci-
dos (y no se exponen en este texto) todos los contenidos de un curso inicial de algebra lineal.
Para comodidad del lector, y para jar notaciones y prerrequisitos, se enumeran al pricipio del
primer captulo todas las nociones y resultados especcos de un tal curso que seran usados
a lo largo del texto. Cualquier libro de algebra lineal (y hay miles) sirve como referencia
para los mismos. Si me dan a elegir, yo recomiendo el de K. Homan y R. Kuntze [6] para
algebristas, y el de P. D. Lax [10] para analistas.
Debo mencionar que este libro esta fuertemente basado en cuatro excelentes textos que
son la bibliografa basica en el tema: los dos tomos Matrix Analysis [7] y Topics of Matrix
Analysis [8] de R. Horn y C. Johnson, el reciente libro [4] y, sobre todo, el maravilloso libro
Matrix Analysis [3], ambos de R. Bhatia. Sin embargo, hay varios aspectos que lo diferencian.
Por un lado, el presente texto esta pensado como base para un curso elemental, y organizado
efectivamente para que todo el material pueda darse en un cuatrimestre. Por otro lado, hay
fuertes diferencias en la manera de encarar muchos de los temas, y se incluyen resultados mas
modernos y numerosas pruebas simplicadas de resultados clasicos, en base a publicaciones
recientes o al aporte de alumnos, ayudantes y profesores de todos los cursos antes mencionados.
Los temas elegidos son solo una peque na parte de la teora, pero son la base principal sobre
la que se edican la mayora de las areas no incuidas en el texto. Hay muchas tecnicas de
analisis, funciones analticas y geometra diferencial que suelen ser efectivas para problemas de
matrices. Ese tipo de interacciones no estan incluidos porque el texto esta pensado para una
audiencia no necesariamente experta. Una referencia escencial para esa clase de recursos son
los libros mencionado de R. Bhatia [3] y [4]. Otra teora aparte, poco desarrollada aqu, es la
de perturbaciones de matrices (autovalores, autovectores, etc). Sobre estos temas, se podran
mencionar varios captulos de [3], y tambien el monumental tratado de T. Kato [9]. Tampoco
se hace mucho incapie en este texto en los metodos algortmicos, que vendran a ser la otra pata
v
de la teora. Bajado un problema a matrices, hay dos alternativas: resolverlo teoricamente
(para ese lado va este texto) o resolverlo aproximando, dado que en matrices se puede (si no
son muy grandes). La bibliografa sobre aproximacion mediante algoritmos es inmensa, y nos
limitaremos a citar el excelente tratado Matrix computations [2] de G. Golub y C. F. Van
Loan, y la bibliografa que all aparece. La mayora de las herramientas necesarias para los
algoritmos mencionados, y muchos de los procedimientos especcos que ellos usan, s estan
expuestos en el texto; pero sin hacer hincapie en la optica de la velocidad de convergencia o la
robustez ante perturbaciones, sino en la problematica teorica que presentan. Otros temas que
no tratamos son los de matrices diagonalizables, polinomios minimales y formas canonicas,
en particular la forma de Jordan. Esto es porque ese tipo de resultados no se usaran en el
resto del texto, y porque suelen estar incluidos en un buen curso basico de algebra lineal. Los
dos libros antes mencionados ([6] y [10]) dan excelentes tratamientos de estos temas.
Muchos de los resultados que expondremos siguen siendo validos en contextos mas ge-
nerales que las matrices reales o complejas. Por ejemplo matrices a coecientes en cuerpos
generales o en anillos, algebras de Banach, operadores en espacios de Banach o de Hilbert,
agebras de operadores (C

y de von Neumann). Esto sucede particularmente con resultados


de los captulos 1 (en las secciones 5, 7 y 9), 3, 6, 7, 8 (seccion 3), 9, 10 y 12. La decision
que tomamos para presentarlos fue dar demostraciones especcas para el caso matricial y,
por lo general, mencionar luego los contextos donde siguen valiendo, y las tecnicas diferentes
para cada uno de ellos. La principal razon que justica este enfoque es que el libro busca ser
autocontenido en un nivel elemental, y que las teoras mencionadas son muy variadas, lo que
hara muy difcil dar las demostraciones generales sin largas secciones introductorias de cada
una de ellas. Ademas, las pruebas para el caso matricial suelen ser muchsimo mas simples
y breves, y brindan un manejo interesante de las tecnicas propias del AM. Por otra parte,
opinamos que es muy util el enfrentarse con una primera version de enunciados complicados en
un ambito menos complicado, para despues poder entender el signicado de esos enunciados
en los contextos mas especcos (ademas de su nueva demostracion).
Sin embargo, este enfoque tiene un lmite. Por lo tanto, una parte importante del AM
hemos decidido desarrollarlo en el ambiente mas general de operadores en espacios de Hilbert.
Se seleccionaron para esa parte aquellos resultados cuyas pruebas dieren poco al aumentar
la generalidad, y que forman una rama imporante de la teora de operadores, aunque man-
tengan un espritu claramente matricial. Sin embargo, ese trabajo se realizara en un segundo
volumen, dado que el contenido del presente libro ya es suciente para un curso cuatrimestral,
y porque la segunda parte requiere una introduccion especca de espacios de Hilbert que no
consideramos necesaria para este texto puramente matricial.
Los contenidos del libro estan sucientemente explicitados en los ttulos de las secciones
del ndice. A continuacion haremos algunos comentarios sobre el enfoque aplicado en cada
captulo. Como se dijo anteriormente, al principio del captulo 1 se enumera una serie de
notaciones y resultados del algebra lineal elemental. En la seccion 5 se presentan varias
formulas elemetales, pero no demasiado conocidas, para operar con matrices. De particular
importancia es el manejo de matrices de bloques y las tecnicas para operar con ellas. Luego
vi
se presenta el teorema de Schur que muestra la equivalencia unitaria de toda matriz con una
triangular superior. Este teorema, si bien suele estar incluido en los textos elementales, es
presentado en detalle porque sera de importancia clave para numerosos resultados a lo largo
de todo el libro. El captulo culmina con tres secciones de resultados elementales, que tambien
seran muy usados mas adelante: polinomios aplicados a matrices, descomposicion QR y las
propiedades basicas de las matrices de rango uno.
Los captulos 2 y 3, sobre matrices normales, autoadjuntas y positivas, empiezan con
material b asico, desarrollan en detalle las propiedades variacionales de los autovalores de
matrices autoadjuntas, y dan una version nitodimensional de los principales resultados de la
teora de operadores en espacios de Hilbert, pero con las notaciones tradicionales del AM. Se
propone un estudio exhaustivo de las propiedades y caracterizaciones de las matrices denidas
positivas, dado que suelen ser las protagonistas de las mas interesantes desigualdades que se
estudiaran mas adelante. Por otra parte, muchos problemas generales de matrices pueden
reducirse al caso positivo, a traves de yeites como tomar partes reales e imaginarias (ah se
cae en las autoadjuntas) y luego positivas y negativas, usando matrices de bloques de 2 2,
o bien usando la descomposicion polar.
Los captulos 4 y 5 tratan sobre mayorizacion, primero en su version vectorial, y despues
en sus primeras aplicaciones a las matrices. El tratamiento es muy detallado, porque con-
sideramos que es un tema poco difundido, y que es sumamente util en muchas ramas de la
matematica, ademas de ser escencial para el AM. El captulo 6, sobre monotona y convexi-
dad de operadores, incluye una introduccion al calculo funcional para matrices autoadjuntas,
en el estilo del de operadores en espacios de Hilbert, pero con pruebas ad hoc. Luego se
dan las principales caracterizaciones y propiedades de las funciones mencionadas, que son
herramientas escenciales para estudiar desigualdades de matrices y operadores. Este captulo
esta fuertemente basado en la exposicion de estos temas que se hace en el libro de Bhatia [3].
Sin embargo, hay importantes diferencias de enfoque, se presentan muchas pruebas diferentes,
y la selecci on de resultados presentados es distinta.
En el captulo 7 se da una introduccion basica a la teora de productos tensoriales y al-
ternados, como siempre con pruebas adecuadas al contexto matricial. Esta teora, por ser
bastante ardua de exponer, suele aparecer mencionada sin mucho detalle en los libros, en
funcion de poder aplicar los recursos que brinda (escenciales para entender las propiedades de
los determinantes y como herramienta para probar desigualdades) sin meterse en camisa de
once varas. Aqu intentamos dar una exposicion detallada y (casi) autocontenida, dado que
el contexto matricial lo permite sin que el esfuerzo sea excesivo, y porque en captulos poste-
riores necesitaremos trabajar con propiedades muy especcas del determinante de matrices
y submatrices. El tema es que una buena presentacion de los productos alternados permite
justicar completamente todas esas propiedades, trabajo que se inicia en la seccion 3, y se
contin ua en el captulo 12.
El captulo 8 trata sobre productos de Hadamard. Aqu tambien el tratamiento es muy
detallado, porque es un area que aparece poco en los tratados del tema, es un tema fuerte de
investigaci on dentro del AM, y tiene ademas muy intereantes aplicaciones en otras disciplinas.
Se presenta una pueba completa del teorema de Haagerup que caracteriza la norma del ope-
rador de multiplicacion (de Hadamard) por una matriz ja, relativa a la norma espectral de
matrices.
El captulo 9 presenta una serie de importantes desigualdades de matrices, y puede pen-
sarse como lugar en el que se concentran las tecnicas y desarrollos realizados en los captulos
anteriores. La lista no es exhaustiva, pero da una idea de las principales lneas de la teora, y
presenta la mayora de las tecnicas usuales que se utilizan para mostrar este tipo de desigual-
dades.
En el captulo 10 se estudian las principales propiedades del rango y del radio numericos
de matrices. Los teoremas mas importantes que desarrollamos son el de Hausdor-Toeplitz
sobre la convexidad del rango numerico, y el de T. Ando sobre caracterizaciones matriciales
del radio numerico.
Los ultimos tres captulos enfocan la teora de Perron-Frobenius sobre las matrices de
entradas positivas, y las totalmente positivas. En el 11 se exponen los resultados clasicos
sobre matrices estrictamente positivas, no negativas e irreducibles. En el 12 se introducen los
complementos de Schur y numerosas tecnicas con determinandtes que, ademas de tener un
interes propio, son la herramienta clave para desarrollar, en el captulo 13, una introduccion
a la teora de matrices totalmente positivas. Esta captulo se basa en un trabajo de T. Ando
[20], y esta escrito utilizando como punto de partida al trabajo nal de A. Iglesias para un
curso de AM dictado en La Plata.
Todos los captulos tienen una ultima seccion de ejercicios. Se proponen ademas numerosos
ejercicios a lo largo del texto de cada captulo. Al principio de las secciones nales se los
reenumeran, agreagandose a continuacion series de ejercicios nuevos.
Qerramos agradecer a Gustavo Corach por haber iniciado y habernos incluido en el trabajo
de investigacion de nuestro grupo del IAM en los temas de Analisis Matricial. Tambien va
nuestro agradecimiento a Celeste Gonzalez, a partir de cuyo trabajo [25] se comenzo a escribir
la primera version de este libro, a Pedro Massey, que nos aporto invalorables comentarios e
ideas (ademas de muchos ejercicios), y a Agustn Iglesias e Ivan Angiono, de quienes hemos
tomado algunos fragmentos de texto. Tambien agradecemos a los alumnos de los distintos
cursos que hemos dictado en estos a nos, que han aportado una innidad de sugerencias,
correcciones e ideas.
viii

Indice General
1 Preliminares 1
1.1 Generalidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 El espectro . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
1.4 Matrices triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Herramientas para operar con matrices . . . . . . . . . . . . . . . . . . . . . . . 11
1.6 El Teorema de Schur y sus corolarios . . . . . . . . . . . . . . . . . . . . . . . . 15
1.7 Polinomios y matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8 QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.9 Matrices de rango uno . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.10 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2 Matrices normales y Hermitianas 27
2.1 Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.3 Principio minimax . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Entrelace de Cauchy . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3 Matrices denidas positivas 39
3.1 Propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2 Descomposicion polar y valores singulares . . . . . . . . . . . . . . . . . . . . . 41
3.3 Parte positiva y parte negativa . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.4 Normas en /
n
(C) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.5 Algunas caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
3.6 El producto de Hadamard . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
x

INDICE GENERAL
3.7 El famoso truco 2 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.8 Cortocircuitos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
4 Mayorizacion 67
4.1 Deniciones y caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.2 Mayorizacion y funciones convexas . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.3 Birkho, Hall y los casamientos . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.4 Mayorizacion logartmica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
5 Mayorizacion de autovalores y valores singulares 83
5.1 Aplicaciones a matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . . 84
5.2 Teorema de Schur-Horn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
5.3 Normas unitariamente invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . 91
5.4 Mayorizacion de matrices Hermitianas . . . . . . . . . . . . . . . . . . . . . . . 94
5.5 Teoremas de Lindskii y sus aplicaciones . . . . . . . . . . . . . . . . . . . . . . 99
5.6 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
6 Funciones monotonas y convexas de operadores 109
6.1 C alculo funcional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
6.1.1 Continuidad del calculo funcional . . . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Diferenciabilidad del calculo funcional . . . . . . . . . . . . . . . . . . . 112
6.2 Funciones monotonas de operadores . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Funciones convexas de operadores . . . . . . . . . . . . . . . . . . . . . . . . . . 120
6.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126
7 Productos tensoriales y alternados 131
7.1 Producto tensorial de a dos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Potencias tensoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
7.3 Productos alternados y determinantes . . . . . . . . . . . . . . . . . . . . . . . 135
7.4 Propiedades utiles de los productos alternados . . . . . . . . . . . . . . . . . . . 143
7.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
8 Producto de Hadamard 151
8.1 Propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
8.2 La norma de un multiplicador Hadamard . . . . . . . . . . . . . . . . . . . . . 153

INDICE GENERAL xi
8.3 Funcionales positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.4 Matrices incompletas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
8.5 El teorema de Haagerup . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
8.6 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
8.7 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
9 Algunas desigualdades de matrices 167
9.1 Partes reales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 167
9.2 Desigualdad de Thompson . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3 Desigualdad aritmetico-geometrica en matrices . . . . . . . . . . . . . . . . . . 171
9.4 Desigualdades de Young para matrices . . . . . . . . . . . . . . . . . . . . . . . 172
9.5 Desigualdades tipo Holder para matrices . . . . . . . . . . . . . . . . . . . . . . 179
9.6 La tecnica alternativa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
9.7 Primeras aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184
9.8 La exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
9.9 Desigualdades de Araki y Cordes . . . . . . . . . . . . . . . . . . . . . . . . . . 189
9.10 Desigualades entre exponenciales . . . . . . . . . . . . . . . . . . . . . . . . . . 191
9.11 Desigualdad de Ando-Johnson-Bapat . . . . . . . . . . . . . . . . . . . . . . . . 194
9.12 Medias de operadores positivos . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
9.13 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10 Rango y Radio Numericos 203
10.1 Deniciones y propiedades basicas . . . . . . . . . . . . . . . . . . . . . . . . . 203
10.2 El Teorema de Hausdor Toeplitz . . . . . . . . . . . . . . . . . . . . . . . . . 204
10.3 Caracterizaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
10.4 Comparacion con NUIs . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 210
10.5 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 213
11 Teora de Perron-Frobenius 215
11.1 Matrices de entradas positivas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
11.2 Matrices de entradas no negativas . . . . . . . . . . . . . . . . . . . . . . . . . 222
11.3 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
12 Complementos de Schur y determinantes 231
12.1 Notaciones y deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
12.2 Identidades asociadas a determinantes . . . . . . . . . . . . . . . . . . . . . . . 235
12.3 Un poco mas de complementos de Schur . . . . . . . . . . . . . . . . . . . . . . 238
xii

INDICE GENERAL
12.4 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
13 Matrices totalmente positivas 243
13.1 Deniciones y criterios de positividad total . . . . . . . . . . . . . . . . . . . . 243
13.2 Permanencia de la positividad total . . . . . . . . . . . . . . . . . . . . . . . . . 248
13.3 Factorizaciones LU y UL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
13.4 Matrices oscilatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
13.5 Variacion de signos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
13.6 Totalmente Perron-Frobenius . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
13.7 Algunos ejemplos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274
13.8 Apendice: La prueba del criterio clave . . . . . . . . . . . . . . . . . . . . . . . 277
13.9 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 282
Bibliografa 284

Indice alfabetico 288


Notaciones y abreviaturas 288
Captulo 1
Preliminares
1.1 Generalidades
1.1.1. Para empezar, enumeraremos las notaciones y convenciones mas basicas, sobre vectores
y matrices, que usaremos a lo largo de todo el texto:
1. Usaremos a C o R como cuerpo de escalares.
2. Llamaremos R
+
al conjunto de n umeros reales no negativos, y R

+
al conjunto de
n umeros reales positivos.
3. Dado n N, usaremos el smbolo I
n
para denotar al conjunto 1, 2, . . . , n N.
4. Llamaremos /
n,m
(C) = C
nm
, al espacio de matrices rectangulares de n m.
5. Cuando n = m, notaremos /
n
(C) = /
n
= /
n,n
(C), a las matrices cuadradas de
n n sobre C.
6. Para matrices reales escribiremos /
n,m
(R) = R
nm
y /
n
(R) = /
n,n
(R).
7. Para denotar las entradas de una matriz A /
n,m
(C), usaremos indistintamente, por
conveniencia del contexto, las notaciones A = (A
ij
)
iIn
jIm
o A = (a
ij
)
iIn
jIm
.
8. Dada A /
n,m
(C), denotaremos por A
T
/
m,n
(C) a su matriz traspuesta, dada
por A
T
ij
= A
ji
, para i I
n
y j I
m
.
9. Dado n N, denotaremos por I /
n
(C), o bien I
n
, si es que hace falta aclarar su
tama no, a la matriz identidad, dada por I
ij
= 1 si i = j e I
ij
= 0 si i ,= j.
10. La suma y producto de matrices (cuando sus tama nos lo permitan) se hacen con las
deniciones usuales del algebra lineal. Por ejemplo, si A /
n,m
(C) y B /
m,r
(C),
2 Preliminares
entonces AB /
n,r
(C) y sus entradas son
(AB)
ij
=
m

k=1
A
ik
B
kj
, para todo i I
n
y todo j I
r
. (1.1)
11. Dada A /
n
(C), diremos que A es inversible si existe A
1
/
n
(C), la unica matriz
que cumple que AA
1
= A
1
A = I. Denotaremos por
(l (n) = A /
n
(C) : A es inversible ,
que es un grupo (de Lie) con la multiplicacion usual de matrices. Su neutro es I
n
.
12. Asumiremos como conocidas las propiedades del determinante, que denotaremos det :
/
n
(/) /, para cualquier n N y cualquier anillo conmutativo /. En el Captulo 7
sobre productos tensoriales, se daran deniciones precisas, y se demostraran la mayora
de dichas propiedades. En el Captulo 12 se profundizara ese estudio. Sin embargo,
usaremos desde ahora esas propiedades, ad referendum de sus pruebas (esperemos que
no haya crculos muy viciosos).
13. Dada A /
n
(C), consideremos la matriz xI
n
A /
n
(C[x]). El polinomio carac-
terstico de A esta dado por la formula P
A
(x) = det(xI A) C[x]. Es un polinomio
monico de grado n.
14. Dada A /
n
(C), su traza es el n umero tr A =
n

i=1
A
ii
. Usaremos el hecho conocido
de que, si B /
n
(C), entonces tr AB = tr BA.
15. Sea A /
n,m
(C). Las columnas de A se pueden pensar como vectores de C
n
, y
sus las, como vectores de C
m
. Se usara la notacion C
i
(A) C
n
(respectivamente
F
i
(A) C
m
) para denotar a la i-esima columna (resp. la) de A.
16. Los vectores de C
n
seran pensados como vectores columna, es decir que identicamos
C
n
con C
n1
. Sin embargo, a lo largo del texto los describiremos como una la (estilo
x = (x
1
, . . . , x
n
) C
n
), para ahorrar espacio. Por ejemplo, si A /
n
(C) e i I
n
,
entonces C
i
(A) = (a
1i
, a
2i
, . . . , a
ni
) C
n
.
17. Si a = (a
1
, . . . , a
n
) C
n
, denotaremos por diag (a) a la matriz diagonal
diag (a) = diag (a
1
, . . . , a
n
) =
_

_
a
1
0 0
.
.
.
.
.
.
.
.
.
0 0 a
n
_

_ /
n
(C) .
Por ejemplo, si tomamos 1 = (1, . . . , 1) C
n
, entonces diag (e) = I
n
.
18. Por otra parte, si A /
n
(C), llamaremos d(A) C
n
al la diagonal de A pensada como
vector, i.e. d(A) = (A
11
, . . . , A
nn
).
1.1 Generalidades 3
1.1.2 (Matrices y operadores). Enumeraremos a continuacion las propiedades de las matrices
cuando son vistas como transformaciones lineales:
1. Dados dos C-espacios vectoriales V y W, llamaremos L(V, W) al C-espacio vectorial de
transformaciones lineales T : V W. Si V = W, ponemos L(V) = L(V, V).
2. Dado un C-espacio vectorial V y un conjunto X V, denotaremos por Gen X
al subespacio de V generado por X. Si X = x
1
, . . . , x
m
, escribiremos tambien
Gen X = Gen x
1
, . . . , x
m
.
3. Si A /
n,m
(C), la pensaremos tambien como un elemento de L(C
m
, C
n
) actuando por
multiplicacion: si x C
m
= /
m,1
(C), entonces A(x) = A x C
n
, usando el producto
de la Eq. (1.1). En este contexto usaremos las notaciones conocidas:
ker A = x C
m
: Ax = 0 y R(A) = A(C
m
) = Im(A) .
4. Se denotara por c = e
1
, . . . , e
m
a la base canonica de C
m
. A veces seremos mas
explcitos, poniendo c
m
= e
(m)
1
, . . . , e
(m)
m
, para aclarar el contexto.
5. Si A /
n,m
(C), entonces se tiene que
Ae
(m)
i
= C
i
(A) C
n
, para todo i I
m
.
Por lo tanto, tenemos que R(A) = Gen C
1
(A), . . . , C
m
(A) .
6. Por el teorema de la dimension, si A /
n
(C) L(C
n
), entonces
A (l (n) ker A = 0 R(A) = C
n
.
7. El rango de A /
n,m
(C) es rk(A) = dimR(A) = dimGen C
1
(A), . . . , C
m
(A) . Mas
adelante, en la Observacion 3.7.4 (ver tambien el Ejercicio 1.1.15), veremos que coincide
con el rango la de A, que es la dimGen F
1
(A), . . . , F
n
(A) .
8. Algunas veces pensaremos a ciertas matrices como operando en espacios vectoriales mas
generales. Por ejemplo, si o C
n
es un subespacio y A /
n
(C) verica que A(o) o,
entonces se puede pensar a A (o su restriccion a o) como un operador en o. En tal caso
diremos que pensamos a A[
S
L(o).
Espacios de Hilbert nitodimensionales
1.1.3. En C
n
consideraremos el producto interno (o escalar) com un, dado por
x, y) =
n

k=1
x
k
y
k
, x, y C
n
. (1.2)
Es claro que , ) : C
n
C
n
C verica las propiedades que denen a un tal producto: Dados
v, v, w C
n
y C, entonces
4 Preliminares
1. v, v) 0 y v, v) = 0 si y solo si v = 0.
2. u, v) = v, u).
3. v, u +w) = v, u) +v, w).
4. u, v) = u, v), pero u, v) = u, v).
Dado x C
n
, deniremos su norma Eucldea, a la usual:
|x| = |x|
2
= x, x)
1/2
=
_
n

k=1
[x
k
[
2
_
1/2
.
A x se lo llama unitario, si |x| = 1. Muchas veces consideraremos otras normas de vectores
y matrices. Por ello damos una denicion general:
Denicion 1.1.4. Sea K = C o R y V un K-espacio vectorial. Una norma en V es una
funcion N : V R que verica las siguientes condiciones: Dados u, v V y K,
1. N(v) 0 y, ademas, N(v) = 0 si y solo si v = 0.
2. N(u +v) N(u) +N(v).
3. N(v) = [[ N(v).
Denicion 1.1.5. Sean V un K-espacio vectorial, con K = C o R, y N una norma en V.
1. Cuando N proviene de un producto interno , ), diremos que
el par (V, N) , o bien (V, , )) es un K-espacio de Hilbert .
Cuando K = C, tambien diremos que V es un espacio de Hilbert a secas. Ojo, aca se
asume que dimV < . Sino hay que pedir que V sea completo.
2. Usualmente usaremos letras H o K para tales espacios y notaremos por L(H, K) al
espacio de operadores lineales de H en K (acotados, si dimH = ).
3. Si H = K, escribimos L(H) en lugar de L(H, H).
4. Si A L(H, K) notaremos por ker A a su n ucleo y R(A) a su imagen.
Denicion 1.1.6. Sea H un espacio de Hilbert.
1. Dados x, y H, decimos que son ortogonales, y escribimos x y si x, y) = 0.
2. Sea X H. Denotaremos por X

= y H : y x para todo x X, al subespacio


ortogonal a X.
3. Los vectores x
1
, . . . , x
k
H forman un conjunto ortogonal cuando x
i
, x
j
) = 0, para
todo i ,= j.
1.1 Generalidades 5
4. Si ademas los vectores estan normalizados, es decir |x
i
|
2
= x
i
, x
i
) = 1 (i I
k
),
entonces el conjunto se dice ortonormal.
5. Usaremos las siglas BON para denotar a una base ortonormal de H. Por ejemplo, la
base canonica c
n
es una BON de C
n
con el producto interno de la Eq. (1.2).
Denicion 1.1.7. Sean H y K espacios de Hilbert y sea A L(H, K). Se llama adjunto de
A al unico operador A

L(K, H) que satisface


Ax, z)
K
= x, A

z)
H
, x H, z K. (1.3)
La demostracion de que A

existe es un resultado basico de la teora de espacios de Hilbert.


En el caso nitodimensional, se puede construir a A

usando BONes, como veremos.


1.1.8 (Propiedades de la adjunta). Sean A, B L(H). Usando la Eq. (1.3) (y la unicidad)
se verican facilmente las siguientes propiedades:
1. Supongamos que dimH = n. Si para cualquier BON ja B = v
1
, . . . , v
n
de H, se
identica a los operadores de L(H) con matrices en /
n
(C) va
A
ij
= Av
j
, v
i
) , i, j I
n
,
entonces la matriz de A

es A
T
, la traspuesta conjugada de la matriz de A. En otras
palabras, A

ij
= A
ji
, para todo par i, j I
n
.
2. (A

= A.
3. Dado C, se tiene que (A+B)

= A

+B

.
4. ker A = R(A

y, si dimH < , tambien R(A) = (ker A

.
5. (AB)

= B

e I

= I.
6. A es inversible si y solo si A

es inversible. En tal caso, (A

)
1
= (A
1
)

.
Denicion 1.1.9. Dado A L(H) un operador en un espacio de Hilbert, decimos que A es:
1. Hermitiano si A = A

.
2. anti-Hermitiano si A = A

.
3. unitario si AA

= A

A = I.
4. normal si AA

= A

A.
5. denido positivo si Ax, x) > 0 para todo x H. En tal caso de escribe A > 0.
6. semidenido positivo si Ax, x) 0 para todo x H. En tal caso de escribe A 0.
6 Preliminares
Los mismos nombres tendran las matrices de /
n
(C), al ser pensadas como operadores en
H = C
n
con el producto escalar y la norma usuales. En este contexto recordar que, si
A /
n
(C), entonces A

= A
T
. Ademas usaremos las siguientes notaciones:
1. H(n) = A /
n
(C) : A = A

.
2. |(n) = U /
n
(C) : U es unitaria .
3. ^(n) = N /
n
(C) : N es normal .
4. /
n
(C)
+
= A /
n
(C) : A 0.
5. (l (n) = A /
n
(C) : A es invertible y (l (n)
+
= (l (n) /
n
(C)
+
.
Lema 1.1.10 (Polarizacion). Sea H un C-espacio de Hilbert y sea A L(H). Entonces
Ax, y) =
1
4
4

k=1
i
k
_
A(x +i
k
y), (x +i
k
y)
_
para todo par x, y H . (1.4)
Demostracion. La cuenta es directa, y se deja como ejercicio.
Proposicion 1.1.11. Sea H es un C-espacio de Hilbert y sea A L(H). Luego, las siguientes
condiciones son equivalentes:
1. A = 0.
2. Ax, y) = 0 para todo par x, y C
n
.
3. Az, z) = 0 para todo z C
n
.
Demostracion. Es claro que 1 2 3. La implicacion 3 2 es consecuencia directa de
la formula de polarizacion (1.4). Si asumimos 2 y, para cualquier x H, tomamos y = Ax,
obtenemos que |Ax|
2
= Ax, Ax) = Ax, y) = 0, por lo que A = 0.
Observacion 1.1.12. Es importante se nalar que el tem 3 no implica a los otros en el caso
de que H sea solo un R-espacio de Hilbert. Observar que no puede valer la polarizacion.
Peor a un, tomando como A =
_
0 1
1 0
_
L(R
2
) (una rotacion de 90 grados), es claro que
Ax, x) = 0 para todo x R
2
. Veamos ahora una aplicacion a matrices:
Corolario 1.1.13. Sea A /
n
(C). Entonces
1. A H(n) si y solo si Az, z) R para todo z C
n
.
2. /
n
(C)
+
H(n).
1.2 El espectro 7
Demostracion. Si A H(n) y z C
n
, entonces Az, z) = z, Az) = Az, z). Si suponemos
que Az, z) R para todo z C
n
, entonces
Az, z) = Az, z) = z, Az) = A

z, z) , z C
n
= (AA

) z, z) = 0 , z C
n
.
Por la Proposicion 1.1.11, deducimos que A = A

. Por la denicion de /
n
(C)
+
, si se tiene
que A /
n
(C)
+
, entonces Az, z) R
+
R para todo z C
n
.
Ejercicio 1.1.14. Sean A, /
m,n
(C). Entonces se tiene que
A

A /
n
(C)
+
y (A

A)
i,j
= C
j
(A) , C
i
(A) ) , para todo par i, j I
n
.
En particular, tr(A

A) =
n

j=1
|C
j
(A)|
2
=
n

i,j=1
[a
ij
[
2
.
Ejercicio 1.1.15. Sean A, /
m,n
(C) L(C
m
, C
n
). Mostrar que entonces
ker A = Gen F
1
(A), . . . , F
n
(A)

C
n
.
Deducir que rk
F(A)
:= dimGen F
1
(A), . . . , F
n
(A) = rk(A), o sea que los rangos la y
columna de A coinciden.
1.2 El espectro
Denicion 1.2.1. Se llama espectro de una matriz A /
n
(C) al conjunto de todos los
autovalores de A:
(A) = C : es autovalor de A = C : ker(AI) ,= 0 ,
que es un subconjunto nito y no vaco de C.
1.2.2 (Propiedades del espectro de matrices). Sea A /
n
(C). Valen:
1. (A) si y solo si existe x C
n
tal que x ,= 0 y Ax = x.
2. Si C, entonces (A+I) = (A) + = + : (A).
3. A (l (n) si y solo si 0 / (A). Mas a un, / (A) si y solo si AI (l (n).
4. Sea P
A
(x) C[x] el polinomio caracterstico de A. Luego (A) si y solo si
P
A
() = 0, o sea que (A) es el conjunto de races de P
A
(x).
5. Como gr(P
A
) = n, se tiene que 0 < [(A)[ n.
6. (A

) = (A). En efecto, usando 1.1.8, tenemos que


AI / (l (n) (AI)

= A

I / (l (n) .
8 Preliminares
7. Si A (l (n), entonces
_
A
1
_
= (A)
1
=
1
: (A). En efecto, es conse-
cuencia de la igualdad ker(AI) = ker(A
1

1
I) (Ejercicio: probarla).
Observacion 1.2.3. Vimos que los autovalores de A /
n
(C) son las races del polinomio
caracterstico P
A
(x) = det(xI A) y que gr(P
A
) = n. Pero P
A
puede tener races m ultiples,
por lo que (A) puede tener menos de n elementos (en tanto conjunto, sus elementos solo
pueden contarse de a uno). Muchas veces es necesario usar a cada (A) tantas veces
como multiplicidad tiene como raz del caracterstico. Para hacer eso, factorizamos en C[x] a
P
A
(x) =
n

i=1
(x
i
) =
n

i=1
(x
i
(A) ), y diremos que
los autovalores de A son
1
, . . . ,
n
, o (A) = (
1
(A), . . . ,
n
(A) ) ,
donde estaremos repitiendo cada autovalor de A tantas veces como multiplicidad tiene como
raz de P
A
, y disponiendolos en alg un orden de C jado previamente (por ejemplo, el lex-
icograco en las coordenadas polares, con el cero al nal). Por eso quedan n. Al vector
(A) C
n
se lo llama vector de autovalores de A.
Observacion 1.2.4. Sean A, B /
n
(C) y S (l (n) tales que B = SAS
1
. Luego B
diere de A en un cambio de base. Se suele decir que A y B son similares y se nota A B.
Por las propiedades del determinante, se tiene que
P
B
(x) = det(xI SAS
1
) = det S(xI A)S
1
= det(xI A) = P
A
(x) ,
por lo que (A) = (B) y tambien (A) = (B).
Denicion 1.2.5. Sea A /
n
(C).
1. El radio numerico de A se dene como
w(A) = max [Ax, x)[ : x C
n
, |x| = 1 .
2. El radio espectral de A se dene como
(A) = max [[ : (A) .
3. La norma espectral de A es su norma como operador, inducida por la norma eucldea
de C
n
. Es decir,
|A|
sp
= max|Ax| : x C
n
, |x| = 1 = mnC 0 : |Ax| C|x| , x C
n
.
4. La norma 2 o norma Frobenius de A es su norma eucldea, si la pensamos como un
vector largo. Por el Ejercicio 1.1.14, tenemos que
|A|
2
2
=
n

i,j=1
[a
ij
[
2
= tr(A

A) . (1.5)
1.3 Matrices unitarias 9
Observar que, analizando los autovectores (unitarios) de A, se muestra facilmente que
(A) w(A) |A|
sp
. (1.6)
Tomando la matriz A =
_
0 1
0 0
_
, se ve que las desiguadades pueden ser estrictas. En efecto,
(A) = 0 , w(A) = 1/2 y |A|
sp
= 1 .
Ejercicio: vericarlo.
1.3 Matrices unitarias
Recordemos que U /
n
(C) es unitaria si UU

= U

U = I, y que |(n) denota al conjunto


de matrices unitarias en /
n
(C).
Teorema 1.3.1. Si U /
n
(C), las siguientes armaciones son equivalentes:
1. U |(n).
2. U

|(n).
3. U (l (n) y U
1
= U

.
4. U preserva el producto escalar, o sea que
Ux, Uy) = x, y) , para todo par x, y C
n
.
5. Si B es una BON de C
n
, entonces U(B) tamben lo es.
6. Las columnas de U forman una BON de C
n
.
7. Las las de U forman una BON de C
n
.
8. Para todo x C
n
, se tiene que |Ux| = |x| (o sea que U es una isometra).
Ademas, |(n) es un grupo con la multiplicacion de matrices.
Demostracion. Ejercicio. Se sugiere usar el Ejercicio 1.1.14 y, para probar que 8 implica todo
lo demas, usar la Proposicion 1.1.11.
Denicion 1.3.2. Dadas A, B /
n
(C), se dice que A es unitariamente equivalente a B y
se nota
A

= B si existe U |(n) tal que A = U

BU .
Observar que, como |(n) es un grupo, se tiene que

= es una relacion de equivalencia.
10 Preliminares
Teorema 1.3.3. Sean A y B /
n
(C) tales que A

= B. Entonces
(A) = (B) , |A|
2
= |B|
2
, |A|
sp
= |B|
sp
y A es si y solo si B es ,
donde puede signicar: Hermitiana, anti-Hermitiana, normal, denda positiva o unitaria.
Demostracion. La primera igualdad se sigue de la Observacion 1.2.4. Sea U |(n) tal que
B = UAU

. Entonces, por la Eq. (1.5),


|B|
2
2
= tr(B

B) = tr(UA

UAU

) = tr(UA

AU

) = tr(A

A) = |A|
2
2
,
donde la pen ultima igualdad se deduce del hecho de que tr(XY ) = tr(Y X) para todo par
X, Y /
n
(C). Con respecto a las normas espectrales,
|B|
sp
= max
|x|=1
|UA(U

x)| = max
|y|=1
|Ay| = |A|
sp
,
ya que U

_
x C
n
: |x| = 1
_
= y C
n
: |y| = 1, porque U y U

son isometras
sobreyectivas. Las armaciones sobre se prueban directamente de las deniciones, porque
B

= (UAU

= UA

, con la misma U |(n).


1.4 Matrices triangulares
Denicion 1.4.1. Sea T /
n
(C). Diremos que
1. T es triangular superior (abreviamos TS) si verica que T
ij
= 0 para i > j. Es decir
que T tiene ceros por debajo de su diagonal.
2. T es estrictamente TS si T
ij
= 0 para i j. Aca tambien d(T) = 0.
3. Analogamente se denen las matrices triangulares inferiores y estrictamente triangulares
inferiores.
4. Denotaremos por T o(n) = T /
n
(C) : T es triangular superior .
1.4.2 (Propiedades de las matrices triangulares). Tenemos las siguientes propiedades (enu-
meraremos los resultados, y las pruebas no escritas quedaran como ejercicio para el lector):
1. Sea c = e
1
, . . . , e
n
la base can onica de C
n
. Notemos H
k
= Gen e
1
, . . . , e
k
, para
cada k I
n
, y H
0
= 0. Dada T /
n
(C) se tiene que
T T o(n) T(H
k
) H
k
, para todo k I
n
, (1.7)
y T es estrictamente TS T(H
k
) H
k1
, para todo k I
n
.
2. Usando la Eq. (1.7) sale facil que T o(n) es un subanillo de /
n
(C). Es decir que
T
1
, T
2
T o(n) = T
1
+T
2
y T
1
T
2
T o(n) . (1.8)
Tambien son subanillos los otros conjuntos de matrices triangulares, pero las estricta-
mente triangulares no tienen uno.
1.5 Herramientas para operar con matrices 11
3. Ademas, dadas S, T T o(n), se tiene que
d (ST) = d (S) d (T) := (S
11
T
11
, . . . , S
nn
T
nn
) . (1.9)
Esto se muestra directamente calculando (ST)
ii
por la formula (1.1).
4. Si T /
n
(C) es estrictamente triangular, entonces T
n
= 0.
5. Si T T o(n), entonces su polinomio caracterstico cumple que
P
T
(x) = det (xI T) =
n

i=1
(x T
ii
) = (T) = d(T) (salvo el orden) . (1.10)
Lo mismo pasa para su transpuesta T
T
, que es una trianagular inferior generica. La
prueba es por induccion, desarrollando el determinante por la primera columna.
6. Si T T o(n), entonces tr T =
n

i=1
T
ii
y det T =
n

i=1
T
ii
. Para la parte del determinante,
se sugiere mirar la prueba de la Proposicion 1.5.4.
7. Si T T o(n) es inversible, entonces
T
1
T o(n) y d
_
T
1
_
= d (T)
1
:= (d
1
(T)
1
, . . . , d
n
(T)
1
) . (1.11)
En efecto, por la Eq. (1.7) y el hecho de que T (l (n), sabemos que
T(H
k
) = H
k
= T
1
(H
k
) = H
k
, para todo k I
n
= T
1
T o(n) .
La igualdad d
_
T
1
_
= d (T)
1
se deduce ahora de la Eq. (1.9).
1.5 Herramientas para operar con matrices
En esta seccion veremos varias estrategias para operar con matrices:
1.5.1. Sean A /
n, m
(C) y B /
m,r
(C). Enumeraremos los resultados, y las pruebas no
escritas quedaran como ejercicio para el lector.
1. La entrada (AB)
ij
es el producto de la F
i
(A) /
1, m
(C) , por la C
j
(B) /
m,1
(C).
2. Si x = (x
1
, . . . , x
m
) C
m
, entonces Ax = A
_
m

i=1
x
i
e
i
_
=
m

i=1
x
i
C
i
(A).
3. El producto AB /
n, r
(C) representa la composicion A B : C
r
C
n
, cuando se las
piensa como operadores. Sus columnas se describen por la accion de A en las columnas
de B:
C
i
(AB) = A C
i
(B) C
n
, para todo i I
r
. (1.12)
Esto se puede probar directamente por la formula (1.1) del producto, o bien observando
que C
i
(AB) = (AB)e
(r)
i
= A ( Be
(r)
i
) = A C
i
(B), lo que se sigue de pensar a AB
como una composicion.
12 Preliminares
4. Analogamente puede verse que
F
i
(AB) = F
i
(A) B C
r
, para todo i I
n
. (1.13)
5. Si alguna C
i
(B) = 0, entonces C
i
(AB) = 0 (con el mismo i). Analogamente, si se tiene
que F
i
(A) = 0, entonces F
i
(AB) = 0. Esto se usa para identicar los ideales (a izq. y
der.) del anillo /
n
(C), cuando n = m.
6. Fijemos una columna C
i
(A). Alguna entrada de C
i
(A) aparece al calcular cualquier
entrada de AB. Pero siempre multiplicada por alguna entrada de la F
i
(B) (recordar la
formula (1.1): (AB)
st
=
m

i=1
A
si
B
it
).
7. Por lo tanto, si F
i
(B) = 0, entonces podemos cambiar la C
i
(A) sin que ello afecte al
producto AB. Analogamente, si C
i
(A) = 0, se puede cambiar impunemente F
i
(B) .
8. Sean C
n
y C
m
. Si D
1
= diag () /
n
(C) y D
2
= diag () /
m
(C), entonces
D
1
A =
_

i
a
ij
_
iIn
jIm
, AD
2
=
_
a
ij

j
_
iIn
jIm
y D
1
AD
2
=
_

i

j
a
ij
_
iIn
jIm
. (1.14)
Bloques
1.5.2. Sea k I
n
, tal que 0 < k < n y llamemos I = I
k
y J = I
n
I
k
= k +1, . . . , n. Dada
A /
n
(C) notaremos su representacion en bloques como sigue:
A =
_
A
I
A
IJ
A
JI
A
J
_
C
k
C
nk
, donde A
IJ
= (A
rl
)
rI
lJ
/
k, nk
(C) ,
y en forma similar se denen A
I
/
k
(C), A
JI
/
nk, k
(C) y A
J
/
nk
(C). Mas
adelante (en la seccion 2.4 y, sobre todo en los Captulos 12 y 13) se usara una notacion mas
detallada, tipo A
IJ
= A[I[J] = A[I[I) y as. Para jar ideas observemos que, por ejemplo,
A T o(n) A
I
T o(k) , A
J
T o(n k) y A
JI
= 0. (1.15)
Es extremadamente util el hecho de que esta notacion es consistente con las operaciones de
matrices. Por ejemplo: Si B /
n
(C):
1. A+B =
_
A
I
+B
I
A
IJ
+B
IJ
A
JI
+B
JI
A
J
+B
J
_
C
k
C
nk
,
2. A

=
_
A

I
A

JI
A

IJ
A

J
_
C
k
C
nk
, una especie de transpuesta adjuntada. Luego
A = A

A
I
H(k) , A
J
H(n k) y A
JI
= A

IJ
.
1.5 Herramientas para operar con matrices 13
3. La mas importante es la formula del producto:
AB =
_
A
I
B
I
+A
IJ
B
JI
A
I
B
IJ
+A
IJ
B
J
A
JI
B
I
+A
J
B
JI
A
JI
B
IJ
+A
J
B
J
_
C
k
C
nk
, (1.16)
que reproduce la formula del producto de matrices en /
2
(C). Observar que los tama nos
de todos los productos que aparecen son los adecuados al bloque donde viven. La
prueba de esta formula es straightforward. Hay que usar la formula (1.1) para (AB)
ij
,
dividiendo cada suma en sus primeros k sumandos, y en los otros n k.
4. Por ejemplo, cualquiera sea C /
k, nk
(C), se tiene que
A =
_
I
k
C
0 I
nk
_
(l (n) y, ademas , A
1
=
_
I
k
C
0 I
nk
_
(l (n) . (1.17)
Analogamente, si X /
nk, k
(C), luego
_
I
k
0
X I
nk
_
1
=
_
I
k
0
X I
nk
_
.
5. Otra aplicacion: Si U |(k) y V |(n k), entonces
W =
_
U 0
0 V
_
|(n) y W AW

=
_
U A
I
U

U A
IJ
V

V A
JI
U

V A
J
V

_
. (1.18)
6. Si uno parte a I
n
en r mitades (con r 3), para cada A /
n
(C) se pueden denir
sus r r bloques relativos a esa particion. Y valen propiedades analogas a las del caso
2 2. En particular, vale algo similar a la formula (1.16), pero imitando el producto en
/
r
(C).
Observacion 1.5.3. Sea o C
n
un subespaceio con dimo = k. Todo lo que se hizo
recien se puede generalizar exactamente igual a una representacion de /
n
(C) en matrices
de 2 2 de bloques, pero teniendo en cuenta la descomposicion C
n
= o o

. El caso
anterior correspondera a tomar o = Gen e
1
, . . . , e
k
. La manera mas economica de verlo
es tomar una BON v
1
, . . . , v
n
= B de C
n
tal que o = Gen v
1
, . . . , v
k
(por lo que o

=
Gen v
k+1
, . . . , v
n
). Tomando coordenadas de las matrices en la base B, el laburo anterior se
extrapola a cualquier descomposicion. Pedimos que B sea una BON y no una base cuaquiera
(que empiece por una base de o) para que valgan las formulas relativas a A

, en particular
(1.18). Las demas valen tomando coordenadas en cualquer base de aquel tipo. La notacion
que usaremos para estas representaciones es
A =
_
A
S
A
S, S

A
S

, S
A
S

_
o
o

.
Observar que, si P
S
es el proyector ortogonal sobre o, entonces P
S
=
_
I 0
0 0
_
o
o

. Ademas,
A
S
= P
S
AP
S
= P
S
A

S
, o sea pensado en L(o) (sin los tres ceros). Al operador A
S
L(o)
se lo llama la compresion de A a o. Su matriz concreta (de k k) depende de la BON B
elegida, pero en tanto operador en L(o), nuestro A
S
solo depende del subsepacio o. Formulas
semejantes se tienen para los otros tres bloques de A.
14 Preliminares
Proposicion 1.5.4. Sea n 2, A /
n
(C) y o C
n
un subespacio propio. Si
A =
_
B C
0 D
_
o
o

= det A = det B det D y P


A
(x) = P
C
(x)P
D
(x) . (1.19)
Por lo tanto (A) =
_
(B) , (D)
_
. Una formula similar vale si A es triangular inferior de
bloques (para o).
Demostracion. Eligiendo bases de o y o

, y usando que la similaridad no cambia ni el det


ni el caracterstico, podemos asumir que o = Gen e
1
, . . . , e
k
, donde k = dimo. Mas a un,
ya que elegimos una BON cualquiera de o, podemos suponer su primer elemento era un
autovector x
1
o de B para cierto (B). Observar que entonces tambien se tiene que
Ax
1
= x
1
. Al tomar matrices, queda que
A =
_

0 A
1
_
y B =
_

0 B
1
_
con A
1
=
_
B
1
C
1
0 D
_
/
n1
(C) .
Ojo que si k era uno, queda que A
1
= D y que B = [] (en ese caso , B
1
y C
1
no existen).
Si k > 1, desarrollando por la primer comumna, queda que
det A = det A
1
, det B = det B
1
, P
A
(x) = (x ) P
A1
(x) y P
B
(x) = (x ) P
B1
(x) .
Las dos ultimas salen porque xI
n
A =
_
x
0 xI
n1
A
1
_
, y lo mismo para B. Haciendo
ahora induccion en n 2 (o en k, va por gustos), estamos hechos. Otra manera de probarlo
es va la denicion con permutaciones de S
n
, porque las permutaciones que no pasan por
el bloque nulo de abajo, son todas las del tipo S
k
S
nk
. Este camino queda como
ejercicio.
Como ejemplo del uso de estas tecnicas, mostraremos a continuacion la relacion que hay entre
el espectro del producto de dos matrices, en sus dos ordenes posibles. Se suguiere tratar de
probar el siguiente enunciado directamente, para ver cuanto mas facil puede hacerse con la
tecnica de bloques, y la primera aparicion del famoso truco de 2 2.
Proposicion 1.5.5. Dadas A, B /
n
(C), entonces (AB) = (BA). Mas a un, AB y BA
tienen el mismo polinomio caracterstico, por lo que (AB) = (BA) C
n
.
Demostracion. Por la Eq. (1.17), sabemos que la matriz
M =
_
I A
0 I
_
(l (2n) , y que M
1
=
_
I A
0 I
_
.
Ademas, usando la ecuacion (1.16), nos queda que
M
1
_
AB 0
B 0
_
M =
_
I A
0 I
_ _
AB 0
B 0
_ _
I A
0 I
_
=
_
0 0
B 0
_ _
I A
0 I
_
=
_
0 0
B BA
_
.
1.6 El Teorema de Schur y sus corolarios 15
Usando la Proposicion 1.5.4, podemos deducir que P
AB
= P
BA
, porque si se tienen dos
polinomios P, Q C[x] que cumplen x
n
P(x) = x
n
Q(x), entonces P = Q.
Observacion 1.5.6. Sean A /
n,m
(C) y B /
m,n
(C) con m > n. Con casi la misma
prueba que la Proposicion 1.5.5 puede mostrarse que (BA) = (AB) 0, puesto que sus
polinomios caractersticos cumplen P
BA
(x) = x
mn
P
AB
(x).
1.6 El Teorema de Schur y sus corolarios
El siguiente resultado, el primero de los varios debidos a Schur que enunciaremos, es suma-
mente util, y sera usado sistematicamente en todo este trabajo.
Teorema 1.6.1 (Schur 1). Sea A /
n
(C) con vector de autovalores (A) = (
1
, ... ,
n
),
dispuestos en cualquier orden prejado. Entonces
1. Existen matrices U |(n) y T T o(n) que verican:
a. A = U T U

.
b. d (T) = (A), i.e. T
ii
=
i
, para todo i I
n
.
2. Si A /
n
(R), el teorema sigue valiendo (con U /
n
(R)) siempre que (A) R.
3. Si B /
n
(C) conmuta con A, existen U |(n), y T
1
, T
2
T o(n) tales que
A = U T
1
U

, B = U T
2
U

(con la misma U) y d (T
1
) = (A) .
La d (T
2
) tendra a los autovalores de B, pero en un orden que no podremos elegir.
Demostracion. La prueba la realizaremos por induccion sobre la dimension n. Si n = 1, el
resultado es trivial. Si n > 1, tomemos x
1
ker(A
1
I) con |x
1
| = 1. Completamos a una
BON de C
n
con vectores x
2
, . . . , x
n
, y los ponemos en las columnas de una matriz U
1
. Por
el Teorema 1.3.1, U
1
|(n). Como U
1
(e
1
) = x
1
y U

1
(x
1
) = e
1
, es facil ver que
C
1
(U

1
AU
1
) = U

1
AU
1
e
1
=
1
e
1
= U

1
AU
1
=
_

1

0 A
2
_
C
C
n1
,
donde A
2
/
n1
(C). Por la Observacion 1.2.4, sus polinomios caractrsticos cumplen
P
A
(x) = P
U

1
AU1
(x) = (x
1
)P
A2
(x) = (A
2
) = (
2
, . . . ,
n
) C
n1
.
Por HI, existen V |(n 1) y T
2
T o(n 1) tales que V

A
2
V = T
2
y d(T
2
) = (A
2
).
Podemos extender V a otra matriz U
2
=
_
1 0
0 V
_
|(n). Sea U = U
1
U
2
. Entonces,
usando las ecuaciones (1.18) y (1.15) sobre productos de matrices de bloques, nos queda que
U

AU = U

2
(U

1
AU
1
) U
2
=
_
1 0
0 V

_ _

1

0 A
2
_ _
1 0
0 V
_
=
_

1

0 V

A
2
V
_
=
_

1

0 T
2
_
= T T o(n) ,
16 Preliminares
y se tiene que d(T) = (
1
, d(T
2
) ) = (
1
, (A
2
) ) = (A).
El caso real sale igual. Notar que se puede elegir x
1
R
n
siempre que
1
R. El caso de
dos matrices que conmutan, se deduce de que ker(A
1
I) es invariante para B (cuenta facil,
ya que conmutan), por lo que el vector x
1
se puede elegir como un autovector de B actuando
en ker(A
1
I) (no se sabe cuales de los autovalores de B en C
n
pueden elegirse ah). El resto
de la prueba sigue igual, usando que las matrices achicadas A
2
y B
2
siguen conmutando.
Corolario 1.6.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces
tr A =
n

i=1

i
y det A =
n

i=1

i
.
Demostracion. Por el Teorema 1.6.1 sabemos que podemos escribir A = U

TU, donde se
tiene que U |(n), T T o(n) y d(T) = (A). Luego tr A = tr T y det A = det T.
Corolario 1.6.3. Sea U |(n). Entonces [ det U [ = 1.
Demostracion. Basta notar que (U) z C : [z [ = 1, dado que U es una isometra.
Observacion 1.6.4. Sean A, B /
n
(C). En general, no se tiene la menor idea de que
pueden ser los espectros (A + B) y (AB). Sin embargo, cuando A y B conmutan, el
Teorema 1 de Schur nos da alguna informacion al respecto. El siguiente resultado vale tambien
el algebras de Banach de dimension innita, pero con una prueba mucho mas sosticada.
Corolario 1.6.5. Sean A, B /
n
(C), tales que AB = BA. Entonces
1. (A+B) (A) +(B) = + : (A) y (B).
2. (AB) (A) (B) = : (A) y (B).
Mas a un, existen ciertas ordenaciones de los vectores de autovalores (A) y (B) tales que
(operando en esos ordenes), (A+B) = (A) +(B) y
(AB) = (A) (B) = (
1
(A)
1
(B), . . . ,
n
(A)
n
(B) ) . (1.20)
Demostracion. Probaremos solamente la igualdad (1.20). Las cuentas para (A + B) son
iguales (y mas faciles). Por el Teorema 1 de Schur 1.6.1, existen U |(n), y T
1
, T
2
T o(n)
tales que A = U T
1
U

, B = U T
2
U

, d (T
1
) = (A) y d (T
2
) = (B), aunque los ordenes en
que aparecen (A) y (B) no lo sabemos. Pero en esos ordenes, tenemos que
T
1
T
2
T o(n) = (T
1
T
2
) = d (T
1
T
2
) = d (T
1
) d (T
2
) = (A) (B) ,
por las formulas (1.8), (1.10) y (1.9). Pero AB = (U T
1
U

)(U T
2
U

) = U(T
1
T
2
)U

. Luego,
por el Teorema 1.3.3, y en el orden que haba, (T
1
T
2
) = (AB).
Corolario 1.6.6. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces
(A

) = (A) = (
1
, . . . ,
n
) .
Esto generaliza la igualdad (A

) = (A) ya vista.
1.7 Polinomios y matrices 17
Demostracion. Sean U |(n) y T T o(n), con d (T) = (A), tales que A = U

TU. Luego
A

= U

U, por lo que (A

) = (T

). Pero T

es triangular inferior, as que tambien se


tiene que (T

) = d (T

) = d (T) = (A).
1.7 Polinomios y matrices
Observacion 1.7.1. Si A /
n
(C) y P(x) =
m

k=0
b
k
x
k
C[x], entonces P se puede evaluar
en A de la siguiente manera:
P(A) =
m

k=0
b
k
A
k
/
n
(C) ,
dado que las potencias (enteras) A
k
se denen con el producto de matrices, y viven en /
n
(C).
Ademas, se tiene las siguientes propiedades:
1. Como las potencias de A conmutan entre s, se deduce facilmente que la aplicacion
E
A
: C[x] /
n
(C) dada por P P(A) (o sea la evaluacion en A) es un morsmo de
anillos. Por lo tanto, si se tiene una factorizacion P = QR, con Q, R C[x], entonces
P(A) = Q(A)R(A), ahora con el producto de matrices.
2. Si S (l (n), entonces (SAS
1
)
k
= SA
k
S
1
, para todo k N. Luego, es facil ver que
P(SAS
1
) = S P(A) S
1
, para todo P C[x] . (1.21)
3. Si T T o(n), hemos visto que T
2
T o(n) y que d
_
T
2
_
= (T
2
11
, . . . , T
2
nn
) = d (T)
2
.
Esto se extinede a potencias enteras, por induccion. Por lo tanto,
P(T) T o(n) y P(T)
ii
= P(T
ii
) para todo i I
n
, (1.22)
o sea que d (P(T) ) = P(d (T) ) = P(d (T) ) = (P(T
11
) , . . . , P(T
nn
) ).
Corolario 1.7.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
, . . . ,
n
). Entonces,
(P(A) ) = P((A) ) := (P(
1
) , ... , P(
n
) ) para todo P C[x] .
En particular, (P(A) ) = P( (A) ) :=
_
P() : (A)
_
.
Demostracion. Supongamos que T T o(n). Recordemos de la Eq. (1.10) que d (T) = (T).
Por la Eq. (1.22), sabemos que P(T) T o(n) y d (P(T) ) = P(d (T) ). Luego,
(P(T) )
(1.10)
= d(P(T) ) = P(d (T) ) = P((T) ) ,
lo que prueba el Corolario en este caso. Si A /
n
(C) es cualquier matriz, sean
U |(n) y T T o(n) tales que A = U

TU y (A) = d(T) = (T) .


18 Preliminares
Por la Eq. (1.21), tenemos que P(A) = U

P(T)U. Luego, por la Observacion 1.2.4 (que


deca que cambiar de base no cambia el vector ) y el caso anterior, sabemos que
(P(A) ) = (P(T) ) = P((T) ) = P((A) ) .
Se sugiere otra manera de hacerlo, aplicando cuentas de polinomios. Por ejemplo, factorizar
el polinomio Q(x) = P(x) , para P( (A) ) o (P(A) ), y analizar que pasa con
Q(A). Esta prueba es la que sirve en dimension innita. Pero tiene el defecto que no da
informacion sobre multiplicidades.
Corolario 1.7.3 (Hamilton-Cayley). Sea A /
n
(C). Luego P
A
(A) es la matriz nula.
Demostracion. Por el Teorema 1.6.1, la Eq. (1.21) y la Observacion 1.2.4, sabemos que
existen U |(n) y T T o(n) tales que UTU

= A, P
T
(x) = P
A
(x) y P
A
(A) = UP
T
(T)U

.
Luego basta probar que P
T
(T) = 0 para matrices T T o(n). En este caso, por la Eq. (1.10),
sabemos que
P
T
(x) =
n

i=1
(x T
ii
) = P
T
(T) =
n

i=1
(T T
ii
I) .
Llamemos T
i
= (T T
ii
I) y H
i
= Gen e
1
, . . . , e
i
, para cada i I
n
. Todas las T
i
estan en
T o(n), comnutan entre s, y cumplen que (T
i
)
ii
= 0. Luego, si H
0
= 0, se tiene que
T
i
(H
i
) = T
i
_
H
i1
Gen e
i

_
= T
i
_
H
i1
_
+ Gen Te
i
H
i1
para todo i I
n
.
Si al producto de ellas P
T
(T) =

iIn
T
i
lo ordenamos as: T
1
T
2
. . . T
n
(total las T
i
conmutan),
vemos inmediatamente que
_

iIn
T
i
_
(C
n
) =
_

iIn
T
i
_
(H
n
)
_

iIn1
T
i
_
(H
n1
) . . . T
1
T
2
(H
2
) T
1
(H
1
) = 0 .
O sea que P
T
(T) = 0.
Observacion 1.7.4. El Teorema de Hamilton Cayley vale para matrices en cualquier cuerpo.
La prueba anterior es simple, pero para generalizarla hace falta subir a una clausura algebraica
(o aun cuerpo de descomposicion de P
A
(x) ), porque necesita del Teorema 1 de Schur, que
solo vale para cuerpos algebraicamente cerrados (se necesitan los
i
(A) , que son las raices
que factorizan a P
A
(x) ). A nadie se le ocurra postular la siguiente prueba general:
P
A
(A) = det(A I A) = det 0 = 0,
porque es desastrosamente erronea. En palabras del maestro Enzo Gentile, es peor que
pegarle una patada a una vieja en la cara (sic).
1.8 QR 19
1.8 QR
Otra aplicacion importante de las matrices triangulares es el denominado metodo QR.
1.8.1. Repaso: Recordemos lo visto en los tems 6 y 7 de 1.5.1. Sea A /
n
(C) y jemos
una columna C
i
(A). Observar que alguna entrada de C
i
(A) aparece al calcular cualquier
entrada de AB. Pero siempre multiplicada por alguna entrada de la F
i
(B) (recordar que
(AB)
st
=
m

i=1
A
si
B
it
). Por lo tanto, si F
i
(B) = 0, entonces podemos cambiar a piacere la
C
i
(A) sin que ello afecte al producto AB. Analogamente, si C
i
(A) = 0, se puede cambiar
impunemente a F
i
(B) .
Teorema 1.8.2. Sea A /
n
(C). Entonces existen Q |(n) y R T o(n) tales que
a. A = QR.
b. R
jj
0, para todo j I
n
.
Si A (l (n), entonces tales Q y R son unicas.
Demostracion. Caso A (l (n): Por el metodo de Gramm-Schmidt, si notamos x
k
= C
k
(A),
existe una BON B = u
1
, . . . , u
n
tal que Gen x
1
, . . . , x
k
= Gen u
1
, . . . , u
k
, para todo
k I
n
. Ademas, por la construccion de B por Gramm-Schmidt,
u
j
=
x
j

j1

i=1
x
j
, u
i
) u
i
|x
j

j1

i=1
x
j
, u
i
) u
i
|
= x
j
=
j

i=1
r
ij
u
i
, con r
jj
= | x
j

j1

i=1
x
j
, u
i
) u
i
| > 0 . (1.23)
Tomemos Q |(n) con columnas C
i
(Q) = u
i
, i I
n
. Y tomemos R T o(n) dada por
R = (r
ij
)
i, jIn
, donde ponemos r
ij
= 0 cuando i > j. Como se vio en 1.5.1, tenemos que
C
j
(QR) = Q C
j
(R) =
n

i=1
r
ij
C
i
(Q) =
j

i=1
r
ij
u
i
= x
j
= C
j
(A) , para todo j I
n
.
Por lo tanto A = QR.
Unicidad: Si hubiera otro par Q
t
, R
t
cumpliendo las hipotesis, llamemos C
i
(Q
t
) = v
i
para
cada i I
n
. Es facil ver que Gen x
1
, . . . , x
k
= Gen v
1
, . . . , v
k
, k I
n
(usar la Eq. (1.7) ).
De ah se deduce que existen constantes c
i
tales que [c
i
[ = 1 y v
i
= c
i
u
i
para todo i I
n
.
Como r
t
ii
> 0, de la Eq. (1.23) y del hecho de que A = Q
t
R
t
, se deduce que
x
i
=
i

s=1
r
t
si
v
s
=
i

s=1
r
t
si
c
s
u
s
= r
t
ii
c
i
= r
ii
= c
i
=
r
ii
r
t
ii
> 0 = c
i
= 1 ,
20 Preliminares
para todo i I
n
. Luego Q = Q
t
y, por lo tanto R
t
= Q

A = R.
Caso general: Si A / (l (n), el proceso es similar, salvo que, cada vez que aparece un
x
k
Gen x
1
, . . . , x
k1
,
se pone u
k
= 0 en la C
k
(Q), y, en la Eq. (1.23), ponemos r
kj
= 0 para todo j I
n
, dado que
el u
k
= 0 no aporta para generar a los x
j
(j k). Luego F
k
(R) = 0.
As queda que R T o(n), A = QR y r
ii
0 para todo i I
n
, pero Q / |(n). Esto se
arregla de la siguiente mantera: se cambian las C
k
(Q) = u
k
= 0 del proceso anterior por
una BON de R(A)

= Gen u
j
: u
j
,= 0

(observar que la cantidad es la correcta). Como


se vio en el repaso 1.8.1 (o bien en 1.5.1), al multiplicar la Q cambiada por R, cada una de
las nuevas C
k
(Q) solo opera con la respectiva F
k
(R) = 0. Luego sigue pasando que A = QR,
pero ahora Q |(n).
Ejercicio 1.8.3. Sea A /
n
(C). Usando QR, probar que
[ det A[
n

i=1
| C
i
(A) |
2
, (1.24)
y que son iguales si y solo si A

A es diagonal (o sea que R lo es). Se sugiere interpretarlo


tambien como un calculo de vol umenes.
1.9 Matrices de rango uno
Recordemos que, si A /
n,m
(C), notamos rk(A) = dimR(A). A continuacion daremos una
caracterizacion muy util de las matrices con rango uno.
Denicion 1.9.1. Dados x C
n
e y C
m
consideremos la matriz
x y := xy

=
_

_
x
1
.
.
.
x
n
_

_ [ y
1
, . . . , y
m
] = (x
i
y
j
)
iIn
jIm
/
n,m
(C) . (1.25)
Observar que x y act ua en C
m
de la siguiente manera:
x y(z) = (xy

) z = x(y

z) = z, y) x para todo z C
m
. (1.26)
Por lo tanto, se tiene que R(x y) Gen x, por lo que rk(x y) 1.
Por ejemplo, si A /
n,m
(C) cumple que su unica columna no nula es C
k
(A), entonces se ve
facilmente que A = C
k
(A) e
(m)
k
, tanto por la Eq. (1.25) como por la Eq. (1.26). Observar
que todo /
n,m
(C) es el span de este tipo de matrices, porque se tiene la igualdad
A =
m

k=1
C
k
(A) e
(m)
k
=
n

j=1
e
(n)
j
F
j
(A) , para toda A /
n,m
(C) . (1.27)
La segunda igualdad se sigue de un argumento similar al anterior.
1.9 Matrices de rango uno 21
Proposicion 1.9.2.
1. Si A /
n,m
(C) tiene rk(A) 1, existen x C
n
e y C
m
tales que A = x y.
2. /
n,m
(C) = Gen x y : x C
n
e y C
m
.
Demostracion.
1. Sea x C
n
tal que R(A) = Gen x. Luego existe una funcional lineal
: C
m
C tal que Az = (z) x, para todo z C
m
.
Es sabido que existe un unico y C
m
tal que (z) =
y
(z) = z, y), para todo z C
m
(basta poner y
i
= (e
i
), para cada i I
m
). Luego, por la Eq. (1.26), podemos concluir
que A = x y.
2. Se deduce de la Eq (1.27).
1.9.3. Estudiaremos a continuacion las propiedades de las matrices x y. Enumeraremos
los resultados, y las pruebas no escritas quedaran como ejercicio para el lector. Tomemos dos
vectores x C
n
e y C
m
. Luego:
1. La norma espectral: |x y|
sp
= |x| |y|, ya que |
y
|
sp
= max
|z|=1
[
y
(z)[ = |y|.
2. El adjunto: (x y)

= (xy

= y x

= y x.
3. Si A /
n
(C), se tiene que A (x y) = A x y

= (Ax) y.
4. Si B /
m
(C), entonces (x y) B = x (B

y) (usar 2 y 3, o la Eq. (1.26) ).


5. Dados v C
m
y w C
k
, se tiene que (x y) (v w) = v, y) x w /
n,k
(C).
A partir de ahora supondremos que n = m, o sea que x y /
n
(C).
6. El espectro: El unico autovalor de x y que puede ser no nulo es
1
= x, y) (adivinen
quien es el autovector). Mas a un, (x y) = (x, y), 0, . . . , 0). Para verlo basta tomar
la matriz de x y en una base que empiece por x, y usar la Proposicion 1.5.4.
7. Si |x| = 1, entonces x x = P
x
es el proyector ortogonal sobre Gen x. En efecto,
observar que x x(z) = z, x) x, la conocida formula de dicho proyector (se usa el
hecho de que z z, x) x x

).
8. En general, si x ,= 0, el proyector P
x
=
x
|x|

x
|x|
=
1
|x|
2
x x .
9. Autoadjuntos: Se tiene que A H(n) si y solo si A se descompone como una suma
algebraica (i.e. con 1) de matrices x
i
x
i
(elegir los x
i
entre los autovectores de A y
esperar hasta el Teorema 2.2.1).
10. Positivos: A /
n
(C)
+
si y solo si A se descompone como una suma de matrices
x
i
x
i
(ver Proposicion 3.5.6 de bastante mas adelante).
22 Preliminares
1.10 Ejercicios
Ejercicios que aparecen en el texto
1.10.1 (Polarizacion, Lema 1.1.10).
Sea H un C-espacio de Hilbert y sea A L(H). Entonces
Ax, y) =
1
4
4

k=1
i
k
_
A(x +i
k
y), (x +i
k
y)
_
para todo par x, y H .
1.10.2. Demostrar los 7 items de 1.4.2 (sobre matrices triangulares).
1.10.3. Demostrar los 8 items de 1.5.1 y los 6 items de 1.5.2 (sobre matrices de bloques).
1.10.4. Demostrar la Proposicion 1.5.4 usando la denicion del determinante con permuta-
ciones de S
n
. Usar que las permutaciones que no pasan por el bloque nulo de abajo, son
todas las del tipo S
k
S
nk
.
1.10.5. Demostrar los 10 items de 1.9.3 (sobre matrices tipo x y).
1.10.6. Sean A, /
m,n
(C). Entonces se tiene que
A

A /
n
(C)
+
y (A

A)
i,j
= C
j
(A) , C
i
(A) ) , para todo par i, j I
n
.
En particular, tr(A

A) =
n

j=1
|C
j
(A)|
2
=
n

i,j=1
[a
ij
[
2
.
1.10.7. Sean A, /
m,n
(C) L(C
m
, C
n
). Mostrar que entonces
ker A = Gen F
1
(A), . . . , F
n
(A)

C
n
.
Deducir que rk
F
(A) := dimGen F
1
(A), . . . , F
n
(A) = rk(A), o sea que los rangos la y
columna de A coinciden.
1.10.8. Sea A /
n
(C). Usando QR, probar que
[ det A[
n

i=1
| C
i
(A) |
2
,
y que son iguales si y solo si A

A es diagonal (o sea que R lo es). Se sugiere interpretarlo


tambien como un calculo de vol umenes.
Ejercicios nuevos
1.10.9. Mostrar que una matriz diagonalizable A satisface una ecuacion polinomial de grado
igual al [(A)[, y no menor.
1.10 Ejercicios 23
1.10.10. Usar el Teorema 1 de Schur para probar que si, A /
n
(C) tiene vector de auto-
valores (A) = (
1
, . . . ,
n
), entonces tr A
k
=
n

i=1

k
i
, para todo k N.
1.10.11. Deducir que, si A, B /
n
(C) cumplen que tr A
k
= tr B
k
para todo k N, entonces
(A) = (B) (si usamos el mismo convenio para ordenarlos).
1.10.12. Dadas A, B /
n
(C), notemos C = AB BA. Probar que si C conmuta con A,
entonces C es nilpotente.
1.10.13 (Triangulares). Si T T o(n) es inversible, probar que
T
1
T o(n) y d
_
T
1
_
= d (T)
1
= (T)
1
.
1.10.14. Sea A /
n
(C). Demostrar:
1. Para todo > 0, existe una matriz diagonalizable D

tal que |AD|


sp
.
2. Para todo > 0 existe una matriz inversible S tal que T = SAS
1
es una matriz
triangular superior que satisface
n1

i=1

j>i
[T
ij
[
2
.
Notar que se suman los cuadrados de los modulos de las entradas que estan estrictamente
sobre la diagonal, por lo que puede decirse que T esta muy proxima a ser diagonal.
1.10.15. El objetivo de este ejercicio es probar que las matrices de matrices, com unmente
llamadas matrices de bloques, se comportan del mismo modo que las matrices con entradas
escalares. Una matriz de bloques es una matriz A, de n m, tal que sus entradas son
matrices: para cada i, j,
A
ij
/
nimj
(C).
Para que tenga sentido multiplicarlas como matrices de bloques, es decir que valga la formula
(A B)
ij
=
n

k=1
A
ik
B
kj
,
hay que restringirse a conjuntos de matrices donde las condiciones sobre los tama nos de los
bloques son mas especcas. Hallar estas condiciones. Explicitar en el caso m = n = 2.
1.10.16. Considerar la matriz de bloques
A =
_
A
11
0
0 A
22
,
_
, A
ii
/
ni
(C)
Mostrar que (A) = (A
11
) (A
22
). Si la matriz es triangular de bloques, es decir
A =
_
A
11
A
12
0 A
22
_
, A
ii
/
ni
(C) , i = 1, 2,
que se puede decir del (A)?.
24 Preliminares
1.10.17. Explicar cual es el error en cada una de las siguientes demostraciones (falsas) del
Teorema de Hamilton-Cayley:
1. Como p
A
() = 0 para cada autovalor de A, y como los autovalores de q(A) son los
q() para cualquier polinomio, se sigue que los autovalores de p
A
(A) son todos nulos;
por lo tanto, p
A
(A) = 0.
2. Como p
A
(t) = det(tI A), p
A
(A) = det(AI A) = det(A A) = det 0 = 0. Por lo
tanto, p
A
(A) = 0.
1.10.18. Sea E
n
/
n
(C) la matriz cuyas entradas son todas iguales a 1. Hallar los auto-
valores de E
2
y E
3
. Generalizar para E
n
.
1.10.19. Probar que cualquier familia de matrices que conmutan dos a dos tiene un autovector
com un a todas, mediante los siguientes pasos:
1. Probar que si A, B /
n
(C) conmutan, entonces tienen un autovector en com un.
2. Si T = A
1
, . . . , A
m
es una familia nita de matrices que conmutan dos a dos, usar
induccion para probar que hay un autovector com un para todos.
3. Si la familia tiene cardinal no nito, encontrar alg un curro para que de.
1.10.20. Sean A, B /
n
(C), y suponer que una de las dos es no singular. Si AB es
diagonalizable, mostrar que BA es diagonalizable. Hallar un contraejemplo si A y B son
singulares.
1.10.21. Sean x, y, z, w C
n
todos vectores unitarios. Probar que
x, y) = z, w) = existe U |(n) tal que Ux = z y Uy = w .
1.10.22. Sea A /
n
(C). Una factorizacion A = BC con B, C /
n
(C) es llamada
1. LU-factorizacion si B es triangular inferior y C T o(n).
2. UL-factorizacion si C es triangular inferior y B T o(n).
Probar que siempre existen tales factorizaciones.
1.10.23. Sean A, B /
n
(C). Denamos las transformaciones lineales
L
A
y R
B
: /
n
(C) /
n
(C) dadas por L
A
(X) = AX y R
B
(X) = XB , X /
n
(C) .
1. Probar que (L
A
) = (A) y que (R
B
) = (B).
2. Probar que (L
A
R
B
) = : (A) y (B).
3. Deducir que las siguientes condiciones son equivalentes:
1.10 Ejercicios 25
(a) Para todo Y /
n
(C), existe un unico X /
n
(C) tal que AX XB = Y .
(b) (A) (B) = .
1.10.24 (Proceso QR). Sea A (l (n). Asumiremos que todos los autovalores de A tienen
modulos distintos. Deniremos recursivamente tres sucesiones
A
m

mN
en /
n
(C) , Q
m

mN
en |(n) , y R
m

mN
en T o(n) ,
donde todas las factorizaciones que haremos seran la unica QR del Teorema 1.8.2:
1. Pongamos A
1
= A = Q
1
R
1
.
2. Denimos A
2
= R
1
Q
1
y lo factorizamos A
2
= Q
2
R
2
.
k. Denido A
k
= R
k1
Q
k1
, lo factorizamos A
k
= Q
k
R
k
, y denimos A
k+1
= R
k
Q
k
.
m. As seguimos deniendo y factorizando para todo m N.
Probar que estas sucesiones cumplen lo siguiente.
(a) A
2
= Q

1
AQ
1
y A
3
= Q

2
A
2
Q
2
= Q

2
Q

1
AQ
1
Q
2
.
(b) Dado m N, sea U
m
=
m

k=1
Q
k
|(n). Entonces A
m+1
= U

m
A U
m
.
(c) Se cumple que Q
m

m
I. Mas a un, U
m

m
U |(n).
(d) R
m

m
T T o(n), y tambien A
m
= Q
m
R
m

m
T.
(e) T = U

AU, por lo que (T) = (A).


Este proceso es facil de aplicar, porque hacer QR es barato computacionalmente. Observar
es un algoritmo para realizar el Teorema 1 de Schur 1.6.1, por lo que que permite calcular los
autovalores de A, cosa que en general es bien complicada. Sin embargo, las pruebas de los
items (c), (d) y (e) son bastante difciles, y se enuncian mas a ttulo informativo que como
verdadero ejercicio. Sugerimos asumir (c) y probar todo lo demas.
26 Preliminares
Captulo 2
Matrices normales y
Hermitianas
2.1 Matrices normales
2.1.1. Repaso: Sean A /
n
(C) y a = (a
1
, . . . , a
n
) C
n
.
1. Recordemos que una matriz A /
n
(C) es normal si A

A = AA

, es decir si A conmuta
con su adjunta.
2. Si a = (a
1
, . . . , a
n
) C
n
, recordemos que diag (a) denota la matriz diagonal
diag (a) = diag (a
1
, . . . , a
n
) =
_

_
a
1
0 0
.
.
.
.
.
.
.
.
.
0 0 a
n
_

_ /
n
(C).
3. El Teorema 1.3.3 deca que si B /
n
(C) cumple que A

= B, entonces
(A) = (B) , |A|
2
= |B|
2
, |A|
sp
= |B|
sp
y A es si y solo si B es , (2.1)
con = Hermitiana, anti-Hermitiana, normal, denda positiva o unitaria.
Teorema 2.1.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
, ... ,
n
). Entonces
las siguientes condiciones son equivalentes:
1. A es normal.
2. Para todo x C
n
, |Ax| = |A

x|.
3. A

= D para cierta matriz diagonal D /


n
(C) .
28 Matrices normales y Hermitianas
4. A

= diag ((A) ).
5. Existe una BON B = v
1
, . . . , v
n
de C
n
tal que Av
i
=
i
v
i
para todo i I
n
.
6. |A|
2
2
=
n

i=1
[
i
[
2
Demostracion. 1 2: Para cada x C
n
, se tiene que
|Ax|
2
= A

Ax, x) y |A

x|
2
= AA

x, x) .
2 3: Por el Teorema 1 de Schur 1.6.1, existen U |(n) y T T o(n) tales que T = U

AU.
Luego, tambien se tiene que |Ty| = |T

y|, para todo y C


n
. Aplicando esto a la base
canonica, se deduce inductivamente (la por la) que T debe ser diagonal.
3 4: Si A

= D, con D diagonal, la Eq. (2.1) asegura que (D) = (A). Pero como D es
diagonal, (D) = d (D) salvo el orden. Conjugando con una matriz de permutacion (o sea
que tiene a la base canonica en alg un otro orden en sus columnas, por lo que es unitaria),
reordenamos la diagonal de D, obteniendo que D

= diag ((A) ).
4 5: Llamemos D = diag ((A) ). Si existe U |(n) tal que D = U

AU, tomemos
B = C
1
(U), . . . , C
n
(U). Como AU = UD, la formula (1.12) deca que AC
i
(U) =
i
C
i
(U)
para todo i I
n
. Recprocamente, si existe B como en 5, tomar la U |(n) dada por
C
i
(U) = v
i
, para todo i I
n
, y hacer la misma cuenta.
4 6: Si A

= diag ((A) ), la Eq. (2.1) muestra que |A|


2
2
= |diag ((A) ) |
2
2
=
n

i=1
[
i
[
2
.
6 1: Si U |(n) y T T o(n) cumplen T = U

AU y d (T) = (A), entonces


n

i=1
[
i
[
2
= |A|
2
2
= |T|
2
2
=
n

i=1
[
i
[
2
+

i<j
[t
ij
[
2
.
Por lo tanto t
ij
= 0 para i < j, o sea que T es diagonal, y por ende normal. Por la Eq. (2.1),
tambien A debe ser (o sea normal).
Denicion 2.1.3. Sea A /
n
(C) una matriz normal. Diremos que
B = v
1
, . . . , v
n
es una BON adaptada a (A)
si B verica el tem 4 del Teorema 2.1.2, es decir que B es una BON de C
n
, y Av
i
=
i
(A) v
i
para todo i I
n
.
Hemos visto en la Eq. (1.6) que si A /
n
(C), entonces (A) w(A) |A|
sp
, y que en
general estas desigualdades pueden ser estrictas. Pero no es as cuando A es normal:
Corolario 2.1.4. Si A /
n
(C) es normal, entonces |A|
sp
= w(A) = (A).
2.2 Matrices Hermitianas 29
Demostracion. Sea (A) = (
1
, ... ,
n
) el vector de autovalores de A. Llamemos D =
diag ((A) ). Por el Teorema 2.1.2, existe U |(n) tal que A = UDU

. Por un lado, la Eq.


(2.1) asegura que |A|
sp
= |D|
sp
y que (A) = (D), pues tienen el mismo espectro. Por
otro lado, si x = (x
1
, . . . x
n
) C
n
es unitario (i.e. |x| = 1), entonces
|Dx|
2
=
n

i=1
[
i
[
2
[x
i
[
2
max
iIn
[
i
[
2

i=1
[x
i
[
2
= (A)
2
,
por lo que |A|
sp
= |D|
sp
(A). Las otras desigualdades las vimos en la Eq. (1.6).
Corolario 2.1.5. Sean A, B /
n
(C) matrices normales. Si tomamos un orden jo en C
para ordenar los vectores (A) y (B), se tiene que
(A) = (B) existe U |(n) tal que B = UAU

, i.e. A

= B .
En otras palabras, si denimos la orbita unitaria |(A) := UAU

: U |(n), entonces
|(A) = B ^(n) : (B) = (A) .
Demostracion. La Eq. (2.1) asegura que si A

= B, entonces (A) = (B). Recprocamente,
si D = diag ((A) ) = diag ((B) ), el Teorema 2.1.2 dice que A

= D

= B.
2.2 Matrices Hermitianas
Por lo general no es facil calcular los autovalores de una matriz. Pero en muchos casos es
suciente saber que ellos estan en un intervalo especicado. En el resto de este Captulo estu-
diaremos algunas de las principales caractersticas que distinguen a las matrices Hermitianas,
en particular los principios variacionales que se utilizan para localizar su espectro, sin la
necesidad de conocer los autovectores asociados en forma exacta. Recordemos las notaciones
H(n) = A /
n
(C) : A = A

y /
n
(C)
+
= A H(n) : A 0 .
Teorema 2.2.1. Sea A /
n
(C). Luego son equivalentes:
1. A H(n) .
2. A es normal y (A) R.
3. (A) R
n
y existe una base ortonormal B adaptada a (A).
4. (A) R
n
y A

= diag ((A) ), i.e. existe U |(n) tal que U

AU = diag ((A) ).
5. Ax, x) R para todo x C
n
.
Demostracion. Por el Corolario 1.6.6, se tiene que (A

) = (A). Por lo tanto, si A H(n),


vemos que (A) R. El resto se deduce del Teorema 2.1.2 y del hecho de que una matriz
diagonal en /
n
(R) debe ser autoajunta. La equivalencia entre el tem 5 y los demas se sigue
del Corolario 1.1.13.
30 Matrices normales y Hermitianas
Denicion 2.2.2. Sea A H(n). Por el Teorema anterior, (A) R. Por lo tanto, sus
autovalores pueden ordenarse usando el orden de R. En adelante usaremos las siguientes
notaciones:
1. Escribiremos (A) = (
1
(A), . . . ,
n
(A)) para denotar al vector de autovalores de A
ordenados en forma creciente, es decir
k
(A)
k+1
(A), k I
n1
.
2. (A) = (
1
(A), . . . ,
n
(A)) sera el vector de autovalores de A ordenados en forma
decreciente, es decir
k
(A)
k+1
(A), k I
n1
. Tambien
k
(A) =
nk+1
(A).
3. Se llamaran

mn
(A) =
1
(A) =
n
(A) = mn (A) y
m ax
(A) =
n
(A) =
1
(A) = max (A) .
As, cuando escribamos
i
(A) o, directamente
i
(si el contexto es claro) estaremos asum-
iendo que al enumerar los autovalores de A lo hemos hecho en forma creciente. Y en forma
decreciente si escibimos
i
(A) o
i
.
Proposicion 2.2.3. Sea A H(n). Entonces se tiene que
|A|
sp
= (A) = max
n
(A),
1
(A) . (2.2)
Demostracion. Como H(n) ^(n), la igualdad |A|
sp
= (A) se sigue del Corolario 2.1.4.
La otra se deduce de que (A) [
1
(A),
n
(A)] R, y contiene a los bordes.
2.3 Principio minimax
Para matrices generales la unica caracterizacion conocida de sus autovalores es que son las
races del polinomio caracterstico de la matriz. Pero cuando las matrices son Hermitianas,
el hecho de poder establecer un orden entre ellos nos permite obtener caracterizaciones mas
interesantes. Los proximos teoremas describen al vector (A), para A H(n), en funcion de
las expresiones
Ax, x)
x, x)
, para x C
n
0, conocidas como cocientes de Rayleig-Ritz.
Teorema 2.3.1 (Rayleigh-Ritz). Sea A H(n). Entonces
1. Para todo x C
n
se tiene que
mn
(A)|x|
2
Ax, x)
m ax
(A)|x|
2
.
2.
max
(A) =
n
(A) = max
x,=0
Ax, x)
x, x)
= max
|x|=1
Ax, x).
3.
mn
(A) =
1
(A) = mn
x,=0
Ax, x)
x, x)
= mn
|x|=1
Ax, x).
En particular, si A H(n), tenemos que
A /
n
(C)
+

mn
(A) 0 (A) R
+
.
2.3 Principio minimax 31
Demostracion. Sea B = v
1
, . . . , v
n
una BON de C
n
adaptada a (A), o sea que Av
i
=

i
(A)v
i
para todo i I
n
. Por lo tanto, dado x C
n
, se tiene que
x =
n

i=1
x, v
i
) v
i
, |x|
2
=
n

i=1
[ x, v
i
)[
2
y Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2
. (2.3)
Luego, si asumimos que |x| = 1, tenemos que
Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2

n
(A)
n

i=1
[ x, v
i
)[
2
=
n
(A) = Av
n
, v
n
) .
Analogamente, Ax, x) =
n

i=1

i
(A) [ x, v
i
)[
2

1
(A) = Av
1
, v
1
). Es claro que estas de-
sigualdades muestran los tres tems a probar.
Observacion 2.3.2. Dada A H(n), las caracterizaciones del Teorema anterior se pueden
reescribir de la siguiente forma:
1
(A) I A
n
(A) I,

1
(A) = max R : I A y
n
(A) = mn R : A I .
En efecto, para mostrarlo basta recordar que dados B, C H(n), vale que
B C Bx, x) C x, x) para todo x unitario en C
n
.
Notaciones: En el resto de esta seccion usaremos las siguientes convenciones:
1. Las letras / y o denotaran subespacios de C
n
.
2. Dado / C
n
, escribiremos
/
1
= x / : |x| = 1
al conjunto de elementos de / de norma uno.
Teorema 2.3.3 (Courant-Fisher). Sea A H(n) y sea k I
n
. Entonces,

k
(A) = mn
dim,=k
max
x,1
Ax, x) = max
dimS=nk+1
mn
xS1
Ax, x) .
Demostracion. Sea B = v
1
, . . . , v
n
una BON de C
n
adaptada a (A). Como en la prueba
del Teorema 2.3.1, cualquier x C
n
verica la Eq. (2.3). Dado r I
n
, notemos por
H
r
= Gen v
1
, . . . , v
r
y K
r
= Gen v
r
, . . . , v
n
. Notar que dimH
r
= r y dimK
r
= nr +1.
Por la Eq. (2.3) vemos que, si x K
k
,
Ax, x) =
n

i=k

i
(A) [ x, v
i
)[
2
=
k
(A) = mn
x(K
k
)1
Ax, x) max
dimS=nk+1
mn
xS1
Ax, x) .
32 Matrices normales y Hermitianas
Por otro lado, si dimo = n k + 1, entonces o H
k
,= 0. Pero si y (o H
k
)
1
, la Eq.
(2.3) asegura que Ay, y) =
k

i=1

i
(A) [ y, v
i
)[
2
y que |y|
2
=
k

i=1
[ y, v
i
)[
2
= 1 . Luego
Ay, y)
k
(A) = mn
xS1
Ax, x)
k
(A) =
k
(A) max
dimS=nk+1
mn
xS1
Ax, x).
La otra formula se demuestra en forma analoga: el mn
dim,=k
se alcanza en / = H
k
, y cualquier
otro tal / cumple que / K
k
,= 0.
Observacion 2.3.4. La version tradicional de las formulas de Courant-Fisher sera la sigu-
iente:

k
(A) = mn
w1,w2,...,w
nk
C
n
max
x,=0,xC
n
xw1,w2,...,w
nk
x

Ax
x

x
= max
w1,w2,...,w
k1
C
n
mn
x,=0,xC
n
xw1,w2,...,w
k1
x

Ax
x

x
.
Teorema 2.3.5 (Teorema de Weyl). Sean A, B H(n). Entonces:

j
(A) +
1
(B)
j
(A+B)
j
(A) +
n
(B) para todo j I
n
. (2.4)
Demostracion. Por el Teorema 2.3.1, para todo x C
n
tal que |x| = 1, se tiene que
Ax, x) +
1
(B) Ax, x) +Bx, x) Ax, x) +
n
(B) .
Por lo tanto el teorema se puede deducir de las formulas de Courant-Fischer.
Observacion 2.3.6. Una reformulacion del Teorema de Weyl, que es bastante com un en sus
aplicaciones, es la siguiente: Sean C, D H(n), entonces:

1
(C D)
j
(C)
j
(D)
n
(C D) , para todo j I
n
. (2.5)
Para mostrarla, basta tomar A = D y B = C D, observar que ambos viven en H(n), que
A+B = C y, por ultimo, aplicar la Eq. (2.4).
Corolario 2.3.7. Sean A, B H(n) tales que A B, i.e. B A /
n
(C)
+
. Entonces

j
(A)
j
(B) para todo j I
n
.
Demostracion. Llamemos C = B A. Por el Teorema 2.3.5, tenemos que

j
(A) +
1
(C)
j
(A+C) =
j
(A+ (B A) ) =
j
(B) .
Por otra parte, como C /
n
(C)
+
, entonces
1
(C) = mn
|x|=1
Cx, x) 0.
Una consecuencia importante del Teorema de Weyl es el hecho de que, entre las autoadjuntas,
matrices muy cercanas tienen autovalores muy cercanos. Y con cotas bien claras:
2.4 Entrelace de Cauchy 33
Corolario 2.3.8. Sean A, B H(n). Entonces:
|(A) (B)|

:= max
j In
[
j
(A)
j
(B)[ (AB) = |AB|
sp
.
Demostracion. Por el Teorema de Weyl, en su version dada por la Eq. (2.5), se tiene que

1
(AB)
j
(A)
j
(B)
n
(AB) , para todo j I
n
.
Por lo tanto, aplicando la Proposicion 2.2.3, se obtiene que
|(A) (B)|

max
_
[[ :
_

1
(AB),
n
(AB)

_
= (AB) .
Ejercicio 2.3.9 (Aronszajn). Demostrar las siguientes armaciones:
1. Dados S
1
, S
2
y S
3
subespacios de C
n
, probar que
dim(S
1
S
2
S
3
) dimS
1
+ dimS
2
+ dimS
3
2n .
2. Sean A, B H(n). Dados i, j I
n
tales que i +j n + 1, se tiene que

i+j1
(A+B)
i
(A) +
j
(B) .
2.4 Entrelace de Cauchy
Una consecuencia directa del Teorema de Courant-Fisher es el llamado teorema de entrelace
de Cauchy, que relaciona los autovalores de una matriz Hermitiana con los de sus submatrices
principales. Antes jaremos nuevas notaciones para estas submatrices:
Denicion 2.4.1. Sean A /
n
(C) y J I
n
. Si J tiene k elementos, notaremos
A[J] = a
ij

i,jJ
/
k
(C) y A(J) = a
ij

i,j / J
/
nk
(C) .
Si el contexto lo permite, a veces abreviaremos A[J] = A
J
, como en la seccion 1.5. Con esa
convencion, se tiene que A(J) = A
In\J
. Observar que A[J] es la matriz cuadrada resultante
de borrar de A las las y columnas con ndices fuera de J. Para cada r I
n
, llamaremos
A
r
= A(r) = a
ij

i,=r,=j
/
n1
(C) , (2.6)
a la submatriz principal obtenida de borrar la la y la columna r-esimas de A.
Teorema 2.4.2 (Entrelace de Cauchy). Sean A H(n), r I
n
y A
r
/
n1
(C) la subma-
triz principal de A obtenida como en la Eq. (2.6) . Entonces

k
(A)
k
(A
r
)
k+1
(A) ,
para cada k I
n1
. Es decir que

1
(A)
1
(A
r
)
2
(A)
n1
(A)
n1
(A
r
)
n
(A) .
34 Matrices normales y Hermitianas
Demostracion. Supongamos, por simplicidad, que r = n. Los otros casos se prueban exacta-
mente igual, pero con notaciones algo mas engorrosas. Fijemos un k I
n1
. Sea
H
n1
= e
n

= Gen e
1
, . . . , e
n1
= x C
n
: x
n
= 0 .
Si x H
n1
, notaremos x
0
= (x
1
, . . . , x
n1
) C
n1
a su parte signicativa. Observar que
A
n
x
0
, x
0
) =
n1

i,j=1
A
ij
x
j
x
i
= Ax, x), dado que x
n
= 0. Trabajando solo con los subespacios
/ H
n1
que tienen dim/ = k (que son menos que los subespacios de dimension k de
todo C
n
, pero se identican con todos los de C
n1
), obtenemos, del Teorema 2.3.3, que

k
(A
n
) = mn
dim,=k
M H
n1
max
x,1
A
n
x
0
, x
0
) mn
dim,=k
MC
n
max
x,1
Ax, x) =
k
(A).
Tomemos ahora subespacios o H
n1
tales que dimo = nk. Como nk = n(k +1) +1
y a la ves, n k = (n 1) k + 1, obtenemos

k
(A
n
) = max
dimS=nk
S H
n1
mn
xS1
A
n
x
0
, x
0
) max
dimS=nk
mn
xS1
Ax, x) =
k+1
(A) ,
lo que prueba el teorema.
Observacion 2.4.3. En forma analoga se puede probar versiones mas generales del Teorema
anterior: Dado A H(n),
1. Si J I
n
cumple que [J[ = r, entonces para cada k I
r
, se tiene

k
(A)
k
_
A[J]
_

k+nr
(A) .
Observar que, si r = n 1, entonces k +n r = k + 1, como en el Teorema 2.4.2
2. Mas en general a un, si P L(H)
+
es un proyector autoadjunto (o sea ortogonal) sobre
un subespacio o de dimo = r, entonces al producto PAP se lo puede pensar como
un operador en el espacio de Hilbert o (para que su vector de autovalores tenga solo
r coordenadas, sacando los n r ceros que sobran). A esta compresion se la denota
A
S
= PAP

S
L(o). Entonces se obtienen desigualdades analogas:

k
(A)
k
(A
S
)
k+nr
(A) , para cada k I
r
.
En efecto, basta cambiar coordenadas a una BON de C
n
cuyos primeros r vectores
generen o. En esa base, A
S
= A[I
r
] y se aplica el caso anterior.
Ejercicio 2.4.4. Escribir explcitamente como quedan los resultados de esta seccion (la
formula minimax, el teorema de Weyl y los tres entrelaces) en funcion de los vectores (A)
ordenados decrecientemente.
Ahora, como corolario del Teorema de entrelace, veremos una caracterizacion de positividad de
matrices en terminos de submatrices principales. Para ello necesitamos el siguiente resultado
previo.
2.4 Entrelace de Cauchy 35
Lema 2.4.5. Sea A (l (n)
+
. Entonces A[J] (l (r)
+
, para todo J I
n
con [J[ = r.
Demostracion. Si H
J
= Gen e
i
: i J y 0 ,= x H
J
, llamemos x
J
C
r
al vector resultante
de sacarle a x los ceros fuera de J. Entonces
0 < Ax, x) =

i,jIn
A
ij
x
j
x
i
=

i,jJ
A
ij
x
j
x
i
= A[J] x
J
, x
J
) .
Como tales x
J
recorren todo C
r
0, vemos que A[J] (l (r)
+
.
Teorema 2.4.6. Si A H(n), entonces las siguientes condiciones son equivalentes:
1. A es denida positiva (i.e. A (l (n)
+
).
2. Si llamamos A
[k]
= A[I
k
] = a
ij

i,jI
k
/
k
(C) , entonces
det A
[k]
> 0 para todo k I
n
,
3. Si llamamos A
(k)
= A(I
k
) = a
ij

i,j>k
/
nk
(C) , entonces
det A
(k)
> 0 para todo k I
n1
0 ,
Demostracion. El Lema 2.4.5 dice que 1 2 y 3, porque es claro que si B (l (r)
+
, entonces
det B > 0. La recproca se prueba por induccion sobre n. Si n = 1, entonces tenemos que
A = A
[1]
= det(A
[1]
) > 0. Si n > 1, es claro que la condicion 2 se verica tambien para
A
[n1]
, porque tiene las mismas submatrices involucradas. Por hipotesis inductiva, tenemos
que A
[n1]
(l (n 1)
+
, y por el Teorema 2.3.1 sabemos que 0 <
1
(A
[n1]
) . El Teorema
del entrelace de Cauchy 2.4.2 nos asegura que
2
(A)
1
(A
[n1]
) > 0. Luego
0 <
n

k=2

k
(A) y tamben 0 < det A
[n]
= det A =
n

k=1

k
(A) .
De ah deducimos que
1
(A) > 0. Usando el Teorema 2.3.1, podemos concluir rapidamente
que Ax, x) > 0 para todo x ,= 0, o sea que A (l (n)
+
. La prueba de la equivalencia con el
tem 3 es exactamente igual, pero usando para la induccion a A
(1)
/
n1
(C) .
Ejercicio 2.4.7 (difcil). Probar que, dada A H(n), entonces
A /
n
(C)
+
det A[J] 0 para todo J I
n
.
Se suguiere induccionar en n. Luego tomar un J de tama no maximo para que det A[J] ,= 0 y
aplicar varias veces la formula det(B +E
ii
) = det B + det B(i), como en la Eq. (8.3).
36 Matrices normales y Hermitianas
2.5 Ejercicios
Ejercicios del texto
2.5.1. Sea A H(n) y sea k I
n
. Probar que

k
(A) = max
dim,=k
mn
x,1
Ax, x) = mn
dimS=nk+1
max
xS1
Ax, x) .
2.5.2. Sean A, B H(n). Demostrar las siguientes armaciones:
1. Para todo j I
n
, se tiene que

j
(A) +
n
(B)
j
(A+B)
j
(A) +
1
(B) (2.7)
2. Dados S
1
, S
2
y S
3
subespacios de C
n
, ellos cumplen que
dim(S
1
S
2
S
3
) dimS
1
+ dimS
2
+ dimS
3
2n .
3. Dados i, j I
n
tales que i +j n + 1, se tiene que

i+j1
(A+B)
i
(A) +
j
(B) .
2.5.3 (Aronszajn). Sea A =
_
C X
X

D
_
k
n k
H(n). Probar que

i+j1
(A)
i
(C) +
j
(D) para todo par i I
k
, j I
nk
.
2.5.4. Dado A H(n), mostrar que:
1. Si J I
n
cumple que [J[ = r, entonces para cada k I
r
, se tiene

k
(A)
k
_
A[J]
_

k+nr
(A) .
En particular, si r I
n
, entonces
k
(A)
k
_
A
r
_

k+1
(A) para todo k I
n1
.
2. Sea P L(H)
+
es un proyector autoadjunto (o sea ortogonal) sobre un subespacio o
de dimo = r. Sea A
S
= PAP

S
L(o), la compresion de A a o. Luego

k
(A)
k
_
A
S
)
k+nr
(A) , para cada k I
r
.
2.5.5 (Ejercicio difcil). Probar que, dada A H(n), entonces
A /
n
(C)
+
det A[J] 0 para todo J I
n
.
2.5 Ejercicios 37
Ejercicios nuevos
2.5.6. Mostrar que A es normal si y solo si sus partes real e imaginaria conmutan.
2.5.7. Sea A /
n
(C) y p(t) un polinomio.
1. Probar que si A es normal entonces p(A) tambien lo es.
2. Si p(A) es normal, puede asegurarse que A lo sea?.
2.5.8.
1. Mostrar que si A es similar a una matriz unitaria, entonces A
1
es similar a A

.
2. Considerar la matriz
_
2 0
0 1/2
_
y mostrar que el conjunto de matrices que son similares a una matriz unitaria es un
subcojunto propio del conjunto de matrices A para las que A
1
es similar a A

.
2.5.9. Sea A una matriz normal. Mostrar:
1. La matriz A es autoadjunta si y solo si todos sus autovalores son reales.
2. La matriz A es unitaria si y solo si todos sus autovalores tienen modulo 1.
3. Si la matriz A es nilpotente, entonces, A = 0.
2.5.10.
1. Mostrar que dos matrices normales son similares sii son unitariamente equivalentes.
2. Mostrar que A es normal sii conmuta con una cierta matriz normal con autovalores
distintos.
2.5.11. Dada A /
n
(C), probar que A es normal si y solo si hay un polinomio p de grado
a lo sumo n 1 tal que A

= p(A). Notar que esto da una buena explicacion intuitiva de


por que una matriz normal conmuta con su adjunto. Si A es real, mostrar que se puede elegir
p con coecientes reales, de manera que A
T
= p(A).
2.5.12. Sea A H(n) y S /
n
(C). Mostrar que SAS

es autoadjunta. Si S es invertible,
SAS
1
es autoadjunta ?
2.5.13 (*). A lo largo de este ejercicio consideraremos la traza normalizada de modo que
tr(I) = 1, es decir, dada una matriz A de n n, tr(A) =
1
n
n

k=1
A
ii
.
Sean A, B H(n). Demostrar:
1. tr(AB)
2
tr(A
2
B
2
).
38 Matrices normales y Hermitianas
2. Si A ,= 0, entonces,
r(A)
n

(tr A)
2
tr A
2
.
(Pista: Usar la desigualdad de Jensen.)
2.5.14. Sea A /
n
(C) una matriz normal. Probar que w(A) = (A) = |A|
sp
.
2.5.15 (Gersgorin). Sea A /
n
(C). Para cada i I
n
, sea R
i
=

j,=i
[a
ij
[ . Mostrar que
(A)
_
iIn
z C : [z a
ii
[ R
i
.
Deducir que, si R
i
< [a
ii
[ para todo i I
n
, entonces A (l (n). Una tal matriz suele ser
llamada diagonal dominante.
2.5.16 (Este es bien difcil). Sea A H(n). Para cada i I
n
, mostrar que si
r
i
=
_
_

j,=i
[a
ij
[
2
_
_
1/2
= (A) [a
ii
r
i
, a
ii
+r
i
] ,= .
Esto mejora al Ejercicio anterior en dos aspectos: Primero observar que cada r
i
R
i
.
Ademas, ubica al menos un autovalor en cada disquito (aca son intervalitos).
Captulo 3
Matrices denidas positivas
3.1 Propiedades basicas
Recordemos que A /
n
(C)
+
si Ax, x) 0 para todo x C
n
.
Denicion 3.1.1. Dadas A, B H(n), se dice que A B si se tiene que B A /
n
(C)
+
,
o sea si Ax, x) Bx, x) para todo x C
n
.
Proposicion 3.1.2. Sean A, B y C /
n
(C). Entonces
1. A /
n
(C)
+
si y solo si A H(n) y (A) R
+
.
2. A (l (n)
+
si y solo si A H(n) y (A) R

+
.
3. Si A = B

B entonces A /
n
(C)
+
.
4. Si A, B H(n) y A B, entonces C

AC C

BC.
Demostracion.
1. Si A H(n) y (A) R
+
, el Teorema 2.3.1 asegura que
0
1
(A)|x|
2
Ax, x) para todo x C
n
= A /
n
(C)
+
.
Por el Corolario 1.1.13, sabemos que /
n
(C)
+
H(n) (para que A H(n) bastaba que
Ax, x) R para todo x C
n
). Por el Teorema 2.3.1, se tiene que, si A /
n
(C)
+
,
entonces
1
(A) = mn
|x|=1
Ax, x) 0, por lo que (A) R
+
.
2. Solo diere del caso anterior en que en ambas situaciones 0 / (A). Notar que si A > 0,
como la bola de C
n
es compacta, existe un > 0 tal que
1
(A) = mn
|x|=1
Ax, x) .
Luego 0 / (A), o sea que A es inversible.
40 Matrices denidas positivas
3. Para todo x C
n
tenemos que
B

Bx, x) = Bx, Bx) = |Bx|


2
0.
Por lo tanto B

B /
n
(C)
+
.
4. Si B A 0 y x C
n
, entonces C

(B A)Cx, x) = (B A)Cx, Cx) 0. Luego


C

(B A)C 0, es decir C

AC C

BC.
Teorema 3.1.3. Sea A /
n
(C). Entonces:
1. A /
n
(C)
+
si y solo si existe B /
n
(C) tal que A = B

B.
2. En tal caso, existe una unica matriz B /
n
(C)
+
tal que A = B

B = B
2
.
Demostracion. Sabemos que si A = B

B entonces A /
n
(C)
+
. Luego basta probar que
si A /
n
(C)
+
, entonces existe una raiz cuadrada B /
n
(C)
+
para A, y que la tal B es
unica. Escribamos A = UDU

, con U |(n) y D = diag ((A) ) /


n
(C)
+
. Se toma
D
1/2
:= diag
_

1
(A)
1/2
, . . . ,
n
(A)
1/2
_
/
n
(C)
+
.
Esto es posible por la Proposicion 3.1.2. Es claro que (D
1/2
)
2
= D. Finalmente se dene
B = UD
1/2
U

. Luego B /
n
(C)
+
y B
2
= A. La unicidad es algo mas complicada. El
problema es que la matriz U |(n) que diagonaliza a A no es unica. Sea otra C /
n
(C)
+
tal que C
2
= A. Entonces, como C y A conmutan, el Teorema 1 de Schur 1.6.1 asegura que
existe V |(n) tal que V

AV = D y V

CV /
n
(C)
+
es diagonal .
Para lo anterior se usa que ^(n) T o(n) consta de las matrices diagonales, como se vio en la
prueba del Teorema 2.1.2. Como (V

CV )
2
= V

AV = D, es claro que V

CV = D
1/2
(entre
diagonales la unicidad es trivial). Por otro lado,
UDU

= V DV

= A = (V

U)D = D(V

U) .
Aqu usaremos que D
1/2
se puede escribir como P(D) para cierto polinomio P R[X]. En
efecto, basta elegir un P tal que P(
i
(A) ) =
i
(A)
1/2
, para todo i I
n
. Pero entonces V

U
conmuta con P(D) = D
1/2
. Por ello B = UD
1/2
U

= V D
1/2
V

= C.
Observacion 3.1.4 (El Grammiano). Dada una matriz B /
n
(C), llamemos f
i
= C
i
(B),
i I
n
. Notar que, entonces,
G(f
1
, . . . , f
n
) :=
_

f
i
, f
j
_
_
n
i,j=1
= B

B /
n
(C)
+
.
La matriz anterior es conocida como matriz de Gramm (o Grammiano) de f
1
, . . . , f
n
. Del
Teorema 3.1.3 deducimos que una matriz es semi denida positiva si y solo si es una matriz
de Gramm. Y que es denida positiva si y solo si es una matriz de Gramm de un sistema
linealmente independiente (en nuestro caso, esto equivale a que B (l (n) ).
3.2 Descomposicion polar y valores singulares 41
Los mismos resultados son ciertos (la prueba es una ligera variacion de la del Teorema
3.1.3) si la n-unpa f
1
, . . . , f
n
vive en cualquier espacio de Hilbert H (anche innitodimensional,
porque en tal caso B es un operador B : C
n
H, que es automaticamente continuo). Notar
que la matriz de Gramm sigue estando en /
n
(C)
+
(y en (l (n)
+
si el sistema es LI), donde
n es el n umero de vectores en cuestion.
Corolario 3.1.5 (Cholewsky). Sea A /
n
(C)
+
. Entonces existe T T o(n) tal que T
ii
0
para todo i, y tal que A = T

T.
Demostracion. Sea B /
n
(C) tal que A = B

B. Sea B = QT, Q |(n), T T o(n), una


descomposicion de B como en el Teorema 1.8.2. Entonces A = T

QT = T

T.
3.2 Descomposicion polar y valores singulares
Denicion 3.2.1. Dada A /
n
(C)
+
, llamaremos A
1/2
a la unica raiz cuadrada de A en
/
n
(C)
+
, que existe (y es unica) por el Teorema 3.1.3.
Observacion 3.2.2. Sea A /
n
(C)
+
. En la prueba del Teorema 3.1.3 se muestran las dos
maneras usuales de describir a A
1/2
:
1. Si A = U diag ((A) ) U

, con U |(n), se tiene que A


1/2
= U diag
_
(A)
1/2
_
U

.
2. A
1/2
= P(A) para culquier P C[x] tal que P() =
1/2
para todo (A).
Denicion 3.2.3. Sea A /
n
(C),
1. Llamaremos modulo de A a la matriz
[A[ = (A

A)
1/2
/
n
(C)
+
.
2. Llamaremos valores singulares de A a los autovalores de [A[ ordenados en forma
decreciente, notandolos s
1
(A) s
n
(A) 0. Notar que, por el Corolario 1.7.2,
s
i
(A) =
i
([A[) =
i
(A

A)
1/2
, para todo i I
n
. (3.1)
3. Llamaremos s(A) = (s
1
(A), . . . , s
n
(A) ) = ([A[) y (A) a la matriz diagonal
(A) = diag (s(A)) =
_

_
s
1
(A) 0 0
.
.
.
.
.
.
.
.
.
0 0 s
n
(A)
_

_.
Observar que [A[

= (A).
Ejemplos 3.2.4. Sea A /
n
(C).
42 Matrices denidas positivas
1. Si A 0, entonces A = [A[ y s(A) = (A).
2. Si A /
n
(C) es normal, entonces s(A) = [(A)[, salvo el orden. En efecto, si A =
U diag ((A) ) U

para cierto U |(n), entonces


A

A = U diag
_
(A)
_
diag ((A) ) U

= U diag
_
[(A)[
2
_
U

.
3. En general (fundamentalmente, si A no es normal), los autovalores y los valores singu-
lares de una misma matriz pueden ser bien distintos. Por ejemplo, si A es un bloque
nilpotente de Jordan en /
n
(C) (i.e. Ae
k
= e
k+1
, k I
n1
y Ae
n
= 0), entoces
(A) = 0 porque A
n
= 0, pero s(A) = (1, . . . , 1, 0), porque A

A es un proyector de
rango n 1.
Teorema 3.2.5 (Descomposicion polar y en valores singulares). Sea A /
n
(C). Entonces
1. Para todo x C
n
, se verica que |Ax| = | [A[x|.
2. En particular, se tiene que |A|
sp
= | [A[ |
sp
= ([A[) = s
1
(A) =
1
(A

A)
1/2
.
3. Existe una matriz unitaria U |(n) tal que
A = U[A[ ,
que es la llamada descomposicion polar (DP) de A, aunque no es siempre unica.
4. Cualquier U |(n) que cumpla A = U[A[, verica que
A

= U

[A

[ , AA

= UA

AU

, U[A[U

= [A

[ y A = [A

[ U .
Esto dice que U

es un unitario admisible para la DP de A

. O sea que A tiene una


descomposicion polar a derecha A = [A

[ U con el mismo U que la otra.


5. Existen V, W |(n) tales que A = W(A)V

.
6. Las columnas C
i
(V ) forman una BON de autovectores de [A[ (y A

A), y las columnas


C
i
(W) forman una BON de autovectores de [A

[ (y AA

).
Demostracion.
1. Dado x C
n
, se tiene que
|Ax|
2
= Ax, Ax) = A

Ax, x) = [A[
2
x, x) = [A[x, [A[x) = | [A[x|
2
.
2. Se deduce de lo anterior, de la denicion de norma espectral y del Corolario 2.1.4.
3.2 Descomposicion polar y valores singulares 43
3. Podemos denir (con buena denicion) una isometra suryectiva
U
1
: R([A[) R(A) dada por U
1
([A[x) = Ax, para todo x C
n
.
De hecho, [A[x = [A[y x y ker [A[ = ker A Ax = Ay. Como
dimR(A)

= n dimR(A) = dimker(A) = dimker([A[) = dimR([A[)

,
podemos extender la isometra U
1
a una matriz unitaria U |(n), operando isome-
tricamente desde R([A[)

sobre R(A)

. Por la denicion de U, se tiene que A = U[A[.


4. Notar que AA

= U[A[
2
U

= UA

AU

. Sea P(x) C[x] tal que P() =


1/2
, para
todo (AA

) = (A

A) (acabamos de ver que AA



= A

A). Luego
[A

[ = (AA

)
1/2
= P(AA

) = UP(A

A)U

= U[A[U

.
Luego A = U[A[ = U[A[U

U = [A

[U, por lo que tambien A

= U

[A

[.
5. Sea V |(n) tal que [A[ = V (A)V

. Si llamamos W = UV |(n), tenemos que


A = U[A[ = UV (A)V

= W(A)V

.
6. Notar que (A) = V

[A[V , por lo que cada C


i
(V ) es un autovector de [A[, y todas las
columnas de V forman una bon, por ser V unitaria. La prueba para W es similar, dado
que tambien (A)
2
= W

AA

W.
Existe una version de la caracterizacion minimax de Courant-Fisher 2.3.3 para los valores
singulares de una matriz:
Proposicion 3.2.6. Sea A /
n
(C) (no necesariamente autoadjunta). Con las mismas
notaciones (para subespacios) que en el Teorema 2.3.3, se tiene que
s
k
(A) = max
dim,=k
mn
x,1
|Ax| = mn
dimS=nk+1
max
xS1
|Ax| para todo k I
n
. (3.2)
Demostracion. Basta notar que |Ax| = A

Ax, x)
1/2
y que s
k
(A) =
k
(A

A)
1/2
. Luego se
aplica el Teorema 2.3.3 (y el Ejercicio 2.4.4 para traducirlo a es) para A

A.
Corolario 3.2.7. Dadas A, C /
n
(C), para todo k I
n
se tiene que
s
k
(AC) |A|
sp
s
k
(C) . En particular tr [AC[ |A|
sp
tr [C[ . (3.3)
Demostracion. Se usa la Eq. (3.2) para calcular s
k
(AC) y s
k
(C), junto con la siguiente
desigualdad: |ACx| |A|
sp
|Cx|, para todo x C
n
.
44 Matrices denidas positivas
3.3 Parte positiva y parte negativa
Fijemos una matriz autoadjunta A H(n), y tomemos A = U[A[, con U |(n), una DP
de A. Supongamos, ademas, que U opera como la identidad en ker A = ker [A[ = R([A[)

.
Una tal U existe por la construccion hecha en el Teorema 3.2.5, y ademas es unica (Ejercicio:
mostrar ambas cosas). Luego se verican las siguientes propiedades:
1. Si B = v
1
, . . . , v
n
es una BON de C
n
adaptada a (A), luego A

A = A
2
, [A[, [A[
1/2
y U son diagonales en la base B. Por lo tanto conmutan entre ellos (y con A).
2. En la base B, la matriz de U es diagonal con 1s en la diagonal. Mas especcamente,
U v
k
= v
k
si
k
(A) 0 , y U v
k
= v
k
si
k
(A) < 0 , (3.4)
dado que [A[ v
k
= (
2
k
(A) )
1/2
v
k
= [
k
(A)[ v
k
para todo k I
n
. Por lo tanto,
U

= U = U
1
y I U I .
3. Podemos deducir que [A[ A [A[. En efecto, [A[
1/2
U[A[
1/2
= A, y
[A[ = [A[
1/2
I[A[
1/2
[A[
1/2
U[A[
1/2
[A[
1/2
I[A[
1/2
= [A[.
4. Luego, si denotamos
A
+
=
A+[A[
2
y A

=
[A[ A
2
, (3.5)
se prueba facilmente que
(a) Ambas matrices A
+
, A

/
n
(C)
+
.
(b) A = A
+
A

y [A[ = A
+
+A

.
(c) A
+
A

= A

A
+
= 0.
Es f acil ver que A
+
y A

son las unicas matrices que cumples las tres propiedades


anteriores. Se las llama partes positiva y negativa de la matriz autoadjunta A.
5. Otras propiedades que verican A
+
y A

son:
(a) AA
+
= A
+
A = (A
+
)
2
(idem con A

).
(b) (A)
+
= A

y (A)

= A
+
.
(c) Por la denicion de A
+
y la f ormula (3.4), se tiene que

k
(A
+
) = max
k
(A) , 0 , para todo k I
n
. (3.6)
(d)
k
(A

) =
k
( (A)
+
) = max
k
(A), 0 = mn
nk+1
(A), 0, k I
n
.
3.4 Normas en /
n
(C) 45
6. Si A = B C con B, C /
n
(C)
+
, entonces se tiene que

k
(A
+
)
k
(B) y
k
(A

)
k
(C) , para todo k I
n
. (3.7)
En efecto, si A < 0, entonces A
+
= 0 y la primera desigualdad es obvia. Si
1
(A) 0,
sea p = maxk I
n
:
k
(A) 0. Luego, como B = C +A A, se tiene que

k
(A
+
) =
k
(A)
k
(B) para k I
p
y
k
(A
+
) = 0
k
(B) para k > p ,
por el Teorema de Weyl 2.3.5. La otra desigualdad en (3.7) se deduce de lo anterior
aplicado a la igualdad A = C B, dado que (A)
+
= A

.
3.4 Normas en /
n
(C)
Se estudiaran en esta seccion distintas normas en el espacio vectorial de matrices /
n
(C).
Muchas de estas normas son utiles en diversas desigualdades matriciales especcas. Pero no
olvidemos que, como dim/
n
(C) < , es un resultado conocido que todas las normas en
/
n
(C) son equivalentes.
En los siguientes ejemplos deniremos las normas mas clasicas para matrices. Dejaremos
como ejercicio para el lector la vericacion (en algunos casos altamente no trivial, pensada a
futuro) de que son, efectivamente, normas.
Ejemplos 3.4.1. 1. La norma espectral | |
sp
, denida del siguiente modo
|A| = |A|
sp
= max
|x|=1
|Ax| = s
1
(A),
donde la ultima igualdad surge de que |A|
sp
= | [A[ |
sp
= ([A[).
2. Las normas de Schatten. Dado 1 p <
|A|
p
=
_
n

i=1
s
i
(A)
p
_
1/p
= (tr [A[
p
)
1/p
.
La | |
2
se llama norma de Frobenius. Ella verica que
|A|
2
2
= tr A

A =
n

i,j=1
[a
ij
[
2
y proviene del producto escalar en /
n
(C) denido por A, B) = tr B

A.
3. Las normas Ky-Fan. Dado k 1, . . . , n
|A|
(k)
=
k

i=1
s
i
(A) .
Notar que |A|
(1)
= |A|
sp
y |A|
(n)
= |A|
1
(de Schatten).
46 Matrices denidas positivas
4. Toda norma N en C
n
induce una norma [[[ [[[
N
en /
n
(C) del siguiente modo:
[[[A[[[
N
= max
N(x)=1
N(Ax).
Estas normas satisfacen que:
(a) [[[I[[[
N
= 1
(b) (A) [[[A[[[
N
(c) [[[AB[[[
N
[[[A[[[
N
[[[B[[[
N
.
Ejercicio 3.4.2. Consideremenos en C
n
las siguientes normas:
|x|
1
=
n

i=1
[x
i
[ y |x|

= max
iIn
[x
i
[ , para todo x C
n
,
conocidas como las normas 1 e . Como en el Ejemplo anterior, ellas inducen en /
n
(C) las
siguientes normas matriciales: Dada A /
n
(C),
[[[A[[[

= max
|x|

=1
|Ax|

y [[[A[[[
1
= max
|x|
1
=1
|Ax|
1
.
Probar que estas normas pueden calcularse efectivamente mediante las formulas:
[[[A[[[

= max
iIn
|F
i
(A)|
1
y [[[A[[[
1
= max
iIn
|C
i
(A)|
1
. (3.8)
para toda A /
n
(C).
Denicion 3.4.3. Una norma | | en /
n
(C) se llama:
1. Matricial: si |AB| |A| |B|
2. Unitariamente invariante (NUI): si |UAV | = |A|, para todo U, V |(n).
Ejemplo 3.4.4. Sea N

(A) = max
ijIn
[a
ij
[, para A /
n
(C). Sean 1
n
= (1, . . . , 1) C
n
y
E
n
= 1
n
1
n
. Como 1
n
, 1
n
) = n, tenemos que
E
2
n
= 1
n
1
n
1
n
1
n
= 1
n
, 1
n
) 1
n
1
n
= nE
n
= N

(E
2
n
) = n ,
mientras que N

(E
n
) = 1. O sea que N

no es matricial en /
n
(C) para ning un n > 1. El
lector interesado puede demostrar que nN

() s es una norma matricial en /


n
(C).
Teorema 3.4.5. Sea | | una norma matricial en /
n
(C). Dada A /
n
(C) se tiene que
1. |AI| < 1 implica que A (l (n) y A
1
=

n=0
(I A)
n
2. Si B (l (n) y |B A| < |B
1
|
1
, entonces, A (l (n).
3.4 Normas en /
n
(C) 47
Demostracion. Comencemos notando que 1 2. En efecto,
|B A| < |B
1
|
1
= |B
1
AI| = |B
1
(AB)| |B
1
| |AB| < 1 .
Si valiera 1, luego B
1
A sera inversible y A = B(B
1
A) tambien debera serlo. Para probar
el tem 1, llamemos C = I A. Tenemos que
|C| < 1 = |C
m
| |C|
m
m N =

k=0
|C
k
|

k=0
|C|
k
=
1
1 |C|
.
Luego, la serie

k=1
C
k
converge. En particular, C
k

k
0. Luego
A
N

k=0
C
k
= (I C)
N

k=0
C
k
=
N

k=0
C
k

N+1

k=1
C
k
= 1 C
N+1

N
1 .
Analogamente
_

k=0
C
k
_
A = 1.
Proposicion 3.4.6. Sea A /
n
(C) y | | una norma matricial. Entonces (A) |A|.
Mas a un, |A
m
|
1/m
(A) para todo m N.
Demostracion. Sean (A) y x C
n
tales que x ,= 0 y Ax = x. Llamemos X a la matriz
cuyas columnas son todas iguales al vector x. Luego, AX = X, y por ende
[[ |X| = |AX| |A| |X|,
de donde se deduce que [[ |A|. Como el autovalor era cualquiera, (A) |A|. Ademas,
por el Corolario 1.7.2, se tiene que (A
m
) = (A)
m
, y entonces tambien (A
m
) = (A)
m
.
Por lo tanto, usando la parte ya probada, obtenemos que (A) |A
m
|
1/m
.
Observacion 3.4.7. Dada una norma matricial | | en /
n
(C) y una matriz S (l (n), la
formula |A|
S
:= |SAS
1
|, A /
n
(C), dene otra norma matricial.
Proposicion 3.4.8. Dados A /
n
(C) y > 0, existe una norma matricial N
A,
en /
n
(C)
tal que N
A,
(A) (A) +.
Demostracion. Sea A = UTU

con T una matriz triangular superior y U |(n). Luego,


T = U

AU. Sea D
s
= diag
_
s, s
2
, . . . , s
n
_
. Entonces, (D
s
TD
1
s
)
ij
= t
ij
s
ij
para todo par
i, j I
n
(eso fue visto en la Eq. (1.14) ). Por lo tanto,
D
s
TD
1
s
En cualquier norma

s
diag (
1
(A) , . . . ,
n
(A)) .
Como |diag (
1
(A) , . . . ,
n
(A)) |
sp
= (A), entonces, |D
s
TD
1
s
|
sp

s
(A). Luego debe
existir un s
0
R tal que |D
s0
T D
1
s0
|
sp
< (A) +. Consideremos ahora la norma
N
A,
=
_
| |
sp
_
Ds
0
U

, o sea N
A,
(B) = |D
s0
U

BU D
1
s0
|
sp
, B /
n
(C).
Luego N
A,
(A) = |D
s0
U

AU D
1
s0
|
sp
= |D
s0
T D
1
s0
|
sp
< (A) +.
48 Matrices denidas positivas
Corolario 3.4.9. Si A /
n
(C), entonces A
m
0 si y solo si (A) < 1.
Demostracion. Es claro que (A) < 1 si y solo si (A
m
) = (A)
m

m
0. Usando
que (A
m
) |A
m
|
sp
para todo m N, una implicacion es clara. Para probar la otra,
supongamos que (A) < 1. Por la Proposicion 3.4.8, existe una norma matricial N tal que
(A) N(A) < 1. Como N es matricial, deducimos que N(A
m
) N(A)
m

m
0.
Teorema 3.4.10. Sea A /
n
(C). Entonces, para cualquier norma | | en /
n
(C),
(A) = lim
m
|A
m
|
1/m
.
Demostracion. Supongamos primero que | | es una norma matricial. Por la Proposicion
3.4.6, sabemos que se tiene (A) |A
m
|
1/m
para todo m N. Fijado > 0, consideremos
la matriz B =
A
(A) +
. Como (B) < 1, el Corolario 3.4.9 asegura que |B
m
| 0. En
consecuencia existe un m
0
N tal que, para todo m m
0
, se verica
|B
m
| < 1 , es decir que |A
m
| < ((A) +)
m
= |A
m
|
1/m
< (A) + ,
lo que prueba el Teorema en este caso. El mismo resultado vale para normas no matriciales,
por ser todas las normas equivalentes.
Ejercicio 3.4.11. Sea A /
n
(C). Si N es una norma matricial en /
n
(C), mostrar que
(A) = nf
mN
N(A
m
)
1/m
. Mas a un, probar que en tal caso, N(A
m
)
1/m

m
(A) .
Observacion 3.4.12. Todos los resultados de esta seccion, a partir del Teorema 3.4.5, son
tambien ciertos en algebras de Banach, donde las normas son matriciales por denicion. El
unico resultado propio de matrices es la Proposicion 3.4.8, que nos permite dar una prueba facil
de la formula del radio espectral (Teorema 3.4.10). Esta formula vale tambien en dimension
innita, y la prueba usa herramientas de analisis complejo. El curro es mostrar que la llamada
resolvente, que es la funcion

A
: C (A) (l (n) dada por
A
(z) = (zI A)
1
, z C (A) ,
es analtica. La formula dada surge del radio de convergencia de su serie de potencias alrededor
del innito. Sin embargo, hemos incluido las demostraciones anteriores porque tienen un
buen sabor matricial, salvo el Teorema 3.4.5, que tiene la prueba standard (y no creo que
pueda mejorarse). Notese que se asumio implcitamente que /
n
(C) es un espacio completo,
porque usamos que una serie absolutamente sumable es convergente.
3.5 Algunas caracterizaciones
A continuacion daremos algunas caracterizaciones faciles de la positividad y la contractividad
de matrices. Al nal incluimos una mini-introduccion al producto de Hadamard, mostrando
el Teorema de Schur 2. A lo largo de esta Seccion abreviaremos |A|
sp
= |A|. Usaremos la
Proposicion 1.5.5 que dice que dadas A, B /
n
(C), entonces (AB) = (BA). El primer
enunciado resume varias caracterizaciones ya mencionadas de esta norma.
3.5 Algunas caracterizaciones 49
Lema 3.5.1. Sea A /
n,m
(C) entonces
s
1
(A) = |A| = | [A[ | = ([A[) = (A

A)
1/2
= |A

A|
1/2
= |AA

|
1/2
. (3.9)
Demostracion. Como [A[ y A

A H(n), la Proposicion 2.1.4 asegura que


| [A[ | = ([A[) = s
1
(A) y que (A

A)
1/2
= |A

A|
1/2
.
Las igualdades |A| = | [A[ | = s
1
(A) se deducen de que |Ax| = | [A[x| para todo x C
n
(tem 1 del Teorema 3.2.5). La igualdad ([A[) = (A

A)
1/2
se sigue del Corolario 1.7.2,
usando que [A[
2
= A

A. Observar que (A

A) = (AA

) porque (A

A) = (AA

).
Proposicion 3.5.2. Sea A H(n), entonces |A| I A |A| I . Mas a un,
I A I |A| (A) ,
para cialquier R

+
.
Demostracion. Notar que si A H(n), entonces |A| = (A) = max
1
(A),
n
(A). Por lo
tanto, (A)
n
(A)
1
(A) . Por el Teorema 2.3.1, tenemos que

n
(A) = mn
|x|=1
Ax, x) I A y ademas
max
|x|=1
Ax, x) =
1
(A) A I .
Proposicion 3.5.3. Dada A /
n
(C), se tienen las equivalencias
|A| = s
1
(A) 1 [A[ I AA

I A

A I . (3.10)
Demostracion. Es consecuencia del Lema 3.5.1 y de la Proposicion 3.5.2.
Proposicion 3.5.4. Si A /
n
(C)
+
y B (l (n)
+
, entonces
A B |A
1/2
B
1/2
| 1 (AB
1
) 1 . (3.11)
Demostracion. Notemos que
A B B
1/2
AB
1/2
I (A
1/2
B
1/2
)

A
1/2
B
1/2
I .
Luego se aplica la Proposicion 3.5.3 y el hecho de que
_
B
1/2
AB
1/2
_
=
_
AB
1
_
.
3.5.5. Sea x C
n
con |x| = 1 (a estos vectores los llamaremos unitarios). Entonces, como
vimos en 1.9.3, la matriz P
x
= x x = xx

= (x
i
x
j
)
ij
/
n
(C)
+
es el proyector ortogonal
sobre el subespacio Gen x. Por lo tanto, si B = x
1
, . . . , x
n
es una BON de C
n
, vale que
z =
n

i=1
z, x
i
)x
i
para todo z C
n
= I =
n

i=1
x
i
x
i
, (3.12)
por lo que x
i
x
i
: i I
n
es un sistema de proyectores (ver Denicion 5.4.2).
50 Matrices denidas positivas
Proposicion 3.5.6. Sea A /
n
(C). Las siguientes condiciones son equivalentes:
1. A /
n
(C)
+
.
2. Existen y
1
, . . . , y
r
C
n
tales que A =
r

i=1
y
i
y
i
=
r

i=1
y
i
y

i
.
Demostracion. La implicacion 2 1 es clara, porque cada matriz y
i
y

i
/
n
(C)
+
. Recpro-
camente, si A /
n
(C)
+
, sea B = x
1
, . . . , x
n
es una BON de C
n
adaptada a (A). Usando
la ecuacion (3.12), para todo z C
n
se tiene que
Az = A
_
n

i=1
z, x
i
)x
i
_
=
n

i=1
z, x
i
)Ax
i
=
n

i=1

i
(A)z, x
i
)x
i
=
_
n

i=1

i
(A) x
i
x
i
_
z .
Luego basta elegir y
i
=
i
(A)
1/2
x
i
para aquellos i I
n
tales que
i
(A) > 0.
3.6 El producto de Hadamard
Denicion 3.6.1. Dadas A, B /
n,m
(C), su producto de Hadamard A B es la matriz
A B =
_
a
ij
b
ij
_
iIn
jIm
/
n,m
(C) .
Notar que este producto tiene sentido tanto para matrices como para vectores.
A este producto de matrices, tambien llamado producto de Schur, le dedicaremos un captulo
entero, porque tiene interesantsimas aplicaciones dentro y fuera de la teora del Analisis
Matricial. Pero vamos adelantando un resultado al respecto (otro teorema de Schur), porque
es elemental y compete a las matrices positivas.
Teorema 3.6.2 (Teorema 2 de Schur). Sean A, B /
n
(C)
+
, entonces A B /
n
(C)
+
.
Ademas, si A, B (l (n)
+
, entonces A B (l (n)
+
.
Demostracion. La segunda parte se deduce de la primera. En efecto, si A > 0 y B > 0,
existen n umeros a, b > 0 tales que A aI y B bI. Entonces, aplicando dos veces el caso
que a un no hemos probado, obtendramos
A B aI B aI bI = ab I (l (n)
+
. (3.13)
Supongamos entonces que A, B /
n
(C)
+
. Por la Proposicion 3.5.6 (ver tambien 1.9.3),
deben existir vectores v
i
C
n
, i I
r
, tales que A =
r

i=1
v
i
v

i
. Como el producto es
distributivo, basta mostrar que v v

B /
n
(C)
+
para todo v C
n
y toda B /
n
(C)
+
.
Y para ver esto, alcanza con hacer la siguiente cuenta:
v v

B =
_
v
i
v
j
B
ij
_
i,jIn
= diag (v) B diag (v)

/
n
(C)
+
,
donde la igualdad del medio se testea haciendo la cuenta, o mirando la Eq. (1.14).
3.7 El famoso truco 2 2 51
Corolario 3.6.3. Sean A, B /
n
(C)
+
, entonces
1.
n
(A)
n
(B)
n
(A B).
2. |A B|
sp
=
1
(A B)
1
(A)
1
(B) = |A|
sp
|B|
sp
.
Demostracion. La primera desigualdad se deduce de la ecuacion (3.13), pero usando que
A
n
(A)I y B
n
(B)I. La segunda, de una cuenta analoga, pero aplicando ahora las
desigualdades A
1
(A)I y B
1
(B)I (tadas fueron vistas en la Observacion 2.3.2).
Corolario 3.6.4. Si A /
n
(C)
+
, entonces B =
_
[A
ij
[
2
_
i,jIn
/
n
(C)
+
.
Demostracion. Se deduce de que A
T
= A =
_
A
ij
_
i,jIn
/
n
(C)
+
.
Ejercicio 3.6.5. Mostrar que el resultado anterior falla si uno no eleva los modulos al
cuadrado. En otras palabras, se debe encontrar un ejemplo de una matriz A /
n
(C)
+
tal que B =
_
[A
ij
[
_
i,jIn
/ /
n
(C)
+
. Observar que hay que buscar para n 3.
Corolario 3.6.6. Si A /
n
(C)
+
y P(x) R[x] tiene coecientes no negativos, entonces
P

(A) :=
_
P(A
ij
)
_
i,jIn
/
n
(C)
+
.
Demostracion. Por una induccion directa, podemos ver que A
[k]
= A A A /
n
(C)
+
(se multiplica k veces) para todo k N. Despues se usa lo que cumple P(x).
Ejercicio 3.6.7. Probar que, si A /
n
(C)
+
, entonces e
A

:=
_
e
Aij
_
i,jIn
/
n
(C)
+
.
3.7 El famoso truco 2 2
Cuando se trabaja con operadores y matrices, muchas veces una cuenta inmanejable termina
saliendo magicamente y en un par de renglones, con el famoso truco de matrices de bloques
de 2 2. Ver, por ejemplo, la Proposicion 1.5.5, y tratar de probarla de otra manera. En
esta seccion juntaremos varios resultados que aportan tecnicas para usar dicho metodo. Para
operar entre matrices de bloques, se usaran sistematicamente los resultados desarrollados en
la Seccion 1.5. En particular, las f ormulas (1.16), (1.17) y (1.18).
3.7.1. Sea A /
n
(C). Entonces
A /
n
(C)
+
A
(2)
=
_
A A
A A
_
/
2n
(C)
+
.
En efecto, Si tomamos la matriz
U =
1

2
_
I I
I I
_
|(2n),
52 Matrices denidas positivas
cuentas elementales muestran que U = U

= U
1
, y que
UA
(2)
U

= UA
(2)
U =
_
0 0
0 2A
_
.
Ahora s es claro que A 0 si y solo si A
(2)
0. Dejamos como ejercicio la vericacion
de que si A
(k)
/
kn
(C) se dene en foma semejante a A
(2)
, entonces A 0 si y solo si
A
(k)
0.
3.7.2. Si A /
n
(C), entoces B =
_
[A

[ A
A

[A[
_
0. En efecto, sea U |(n) tal que
A = U[A[. Entonces
0
_
U 0
0 I
_ _
[A[ [A[
[A[ [A[
_ _
U

0
0 I
_
=
_
U[A[ U[A[
[A[ [A[
_ _
U

0
0 I
_
=
_
U[A[U

U[A[
[A[U

[A[
_
=
_
[A

[ A
A

[A[
_
,
dado que U[A[U

= [A

[. El mismo resultado sigue valiendo si A /


nm
(C), o sea si A es
rectangular. En ese caso B /
n+m
(C)
+
(Ejercicio).
Proposicion 3.7.3. Sea A /
n,m
(C), y llamemos r = mnn, m. Luego
s
k
(A

) = s
k
(A) para todo k I
r
. (3.14)
Demostracion. Como vimos en la Observacion 1.5.6, (AA

) = (A

A) salvo una cola de


mn (o n m) ceros. Usando el Corolario 1.7.2 (o sea que (P(A) ) = P((A) ) para todo
polinomio P) y la denicion de [A[, vemos que (A

A) = ([A[
2
) = ([A[)
2
. De ah sale que
s(A) = s(A

) salvo los ceros nales. Esto muestra la formula (3.14).


Observacion 3.7.4 (El rango). Recordemos que, si A /
n,m
(C) decimos que
rk A = dimR(A) = dimGen C
1
(A), . . . , C
m
(A) ,
lo que usualmente se llama rango columna de A. Llamemos r = mnn, m. Sea U |(n)
tal que A = U[A[. Es facil ver que
rk A = rk [A[ = rk (A) = maxk I
r
: s
k
(A) ,= 0 . (3.15)
El rango la de A es, con esta denici on, la dimGen F
1
(A), . . . , F
n
(A) = rk A
T
= rk A

.
Por la Proposicion 3.7.3, s(A

) = s(A) (salvo ceros nales). Luego la formula (3.15) muestra


que ambos rangos son iguales.
Proposicion 3.7.5. Sea A /
n
(C). Entonces

A :=
_
0 A
A

0
_

=
_
(A) 0
0 (A)
_
H(2n) .
En particular, (

A) = s
i
(A) (con las mismas multiplicidades). Es decir,
(

A) = (s
1
(A), , s
n
(A), s
n
(A), , s
1
(A) ). (3.16)
3.7 El famoso truco 2 2 53
Demostracion. Sean U, V |(n) tales que (A) = V AU

= UA

. Es facil ver que


W =
1

2
_
V U
V U
_
|(2n).
Entonces
W

A W

=
1
2
_
UA

V A
UA

V A
_ _
V

_
=
1
2
_
UA

+V AU

V AU

UA

UA

V AU

V AU

UA

_
=
_
(A) 0
0 (A)
_
,
como queramos demostrar.
Proposicion 3.7.6. Sea A /
n
(C). Entonces
|A|
sp
1 M =
_
I A
A

I
_
0.
Demostracion. Notar que M = I
2n
+

A. Usando que (

A) = (

A) (por la Proposicion
3.7.5) y luego el Teorema de Rayleigh-Ritz 2.3.1 (o la Observacion 2.3.2), obtenemos que
_
I A
A

I
_
0 I
2n
+

A 0

A I
2n
I
2n


A I
2n
.
Por la Proposicion 3.5.2, esto equivale a que |A|
sp
= s
1
(A) = (

A) = |

A|
sp
1.
Observacion 3.7.7. Notar que la Proposicion 3.7.6 sigue siendo valida si A es rectangular,
por el simple recurso de agregarle ceros (arriba o a la derecha) para que A quede cuadrada,
lo que no cambia su norma.
3.7.8. Si A, B /
n
(C)
+
, entonces son equivalentes
1. A B.
2. La matriz M =
_
B A
A B
_
0.
En efecto, si B (l (n)
+
, entonces M 0 si y solo si
0
_
B
1/2
0
0 B
1/2
_ _
B A
A B
_ _
B
1/2
0
0 B
1/2
_
=
_
I B
1/2
AB
1/2
B
1/2
AB
1/2
I
_
,
lo que, por la Proposicion 3.7.6, equivale a que |A
1/2
B
1/2
|
2
= |B
1/2
AB
1/2
| 1. Por
la Proposicion 3.5.2, se tiene que |A
1/2
B
1/2
| 1 si y solo si A B. Un ejercicio facil es
deducir que la equivalencia sigue valiendo si no se pide que B sea inversible (si uno cambia
B por B +I, entonces M pasa a ser M +I
2n
).
54 Matrices denidas positivas
3.7.9. Sea A /
n
(C) una contraccion, es decir que |A|
sp
1.
1. Se tiene que A

(I AA

)
1/2
= (I A

A)
1/2
A

.
2. Entonces las matrices
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
y
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
son unitarias en /
2n
(C).
En efecto, observar que A

(I AA

) = A

AA

= (I A

A)A

. Por induccion vemos


que A

(I AA

)
k
= (I A

A)
k
A

para todo k N0. Luego se usa que a (I AA

)
1/2
se
lo puede realizar como un polinomio en (I AA

), y lo mismo para (I A

A), con el mismo


polinomio, dado que tienen el mismo espectro. La vericacion la segunda parte es directa, y
se deja como ejercicio.
3.7.10. Sea M H(n), y representemosla por bloques M =
_
A C
C

B
_
k
n k
.
1. Si A = I
k
y B = I
nk
para ciertos , R

+
, se tiene que
M =
_
I
k
C
C

I
nk
_
0 C C

I
k
|C|
2
.
2. En el caso general, dado > 0, existe > 0 tal que
_
A C
C

B
_

_
A+I
k
0
0 I
nk
_
.
En efecto, si M =
_
I
k
C
C

I
nk
_
, conjugandola con D =
_

1/2
I
k
0
0
1/2
I
nk
_
, caemos
en el caso de la Proposicion 3.7.6 (para C /
k,nk
(C) rectangular, donde tambien es cierto).
Luego, por las citas que se indican sobre los smbolos,
M 0 DMD =
_
I
k

1/2

1/2
C

1/2

1/2
C

I
nk
_
0
Prop. 3.7.6 Lema 3.5.1

1

1
|C|
2
=
1

1
|C C

| 1
Prop. 3.5.3
C C

I
k
.
Para la segunda parte, basta tomar
|C|
2

+|B|. En efecto, en ese caso,


B |B|I
nk
= I
nk
B
_
|B|
_
I
nk

|C|
2

I
nk
,
y, si llamamos m = n k, se aplica el caso anterior a la matriz
0
_
I
k
C
C

|C|
2

I
m
_

_
I
k
C
C

I
m
B
_
=
_
A+I
k
0
0 I
m
_

_
A C
C

B
_
.
3.8 Cortocircuitos 55
3.8 Cortocircuitos
Lema 3.8.1. Sean D, A /
n
(C)
+
. Luego, las siguientes condiciones son equivalentes:
1. D A.
2. |D
1/2
x| |A
1/2
x| para todo x C
n
.
3. Existe C /
n
(C) tal que |C|
sp
1 y D
1/2
= CA
1/2
.
Demostracion. Observar que |D
1/2
x|
2
= D
1/2
x, D
1/2
x) = Dx, x) y lo mismo vale para A.
Esto da la equivalencia 1 2. El hecho de que 3 1 se deduce de que |C|
sp
1 C

C I
(por la Proposicion 3.5.3). Asumamos ahora que vale 2. Entonces ker A
1/2
ker D
1/2
. Luego,
podemos denir (con buena denicion) la funcion
C
0
: R(A
1/2
) R(D
1/2
) dada por C
0
(A
1/2
x) = D
1/2
x , para cualquier x C
n
.
Es facil ver que C
0
es lineal. Extendamosla a una C /
n
(C) poniendo C[
ker A
1/2 0. Ahora
podemos vericar sin dicultades que D
1/2
= CA
1/2
y, por la condicion 2, el hecho de que
|C|
sp
1 (aca se usa que ker A
1/2
= R(A
1/2
)

).
Notacion: Recordar que, si / C
n
es un subespacio, denotamos por P
,
/
n
(C)
+
al proyector ortogonal sobre /. Observar que 0 P
,
I, que P
,
(/

) = 0 y que
P
,
x = x para todo x /.
Teorema 3.8.2. Sea A /
n
(C)
+
y o C
n
un subespacio. Sea
/(A, o) := D /
n
(C)
+
: D A y R(D) o . (3.17)
Consiredemos el subespacio / = A
1/2
(o) y la matriz T = A
1/2
P
,
A
1/2
. Entonces,
1. T /(A, o).
2. Para cualquier D /(A, o), se cumple que D T.
En otras palabras, T = A
1/2
P
,
A
1/2
es el maximo de /(A, o) en el orden usual de H(n) .
Demostracion. Observar que T = A
1/2
P
,
A
1/2
A
1/2
I A
1/2
= A. Ademas, se tiene que
R(T) A
1/2
(/) o. Luego T /(A, o). Si D /(A, o), en particular D A. Por el
Lema 3.8.1, debe existir una contraccion C tal que D
1/2
= CA
1/2
, o sea que D
1/2
= A
1/2
C

.
Como A
1/2
(R(C

) ) = R(D
1/2
) o, deducimos que R(C

) /, o sea P
,
C

= C

. Usando
que C

C I (porque |C|
sp
1), podemos deducir que C

C = P
,
C

CP
,
P
,
. Luego
D = D
1/2
D
1/2
= A
1/2
C

CA
1/2
A
1/2
P
,
A
1/2
= T ,
lo cual muestra que T = max /(A, o).
56 Matrices denidas positivas
Denicion 3.8.3. Sean A /
n
(C)
+
y o C
n
, un subespacio. Llamaremos shorted de
A al subespacio o, y lo notaremos (A, o), al maximo del conjunto /(A, o).
En la siguiente proposicion, recopilamos una serie de resultados mas o menos inmediatos de
la denicion y la demostracion del Teorema 3.8.2.
Proposicion 3.8.4. Sean A /
n
(C)
+
y o C
n
, un subespacio. Entonces:
1. (A, o) A.
2. Para todo R
+
, se tiene que (A, o) = (A, o).
3. Si B /
n
(C)
+
cumple que A B, entonces
/(A, o) /(B, o) y por lo tanto (A, o) (B, o) .
4. Si o T C
n
, entonces /(A, o) /(A, T ) y (A, o) (A, T ).
5. Si R(A) o, entonces (A, o) = A.
6. ((A, o) , o) = (A, o).
Demostracion. Ejercicio.
Proposicion 3.8.5. Sean A /
n
(C)
+
y o, T C
n
, dos subespacios . Entonces
((A, o) , T ) = (A, o T ) .
Demostracion. Consideremos los conjuntos
/(A, o T ) = D : 0 D A R(D) o T
/((A, T ) , o) = D : 0 D (A, T ) R(D) o.
Probaremos que estos conjuntos son iguales y por ende sus maximos tambien lo son. En
efecto, sea D /(A, o T ), entonces se tiene que
R(D) T y D A = D (A, T ) , y tambien que R(D) o .
En consecuencia, D /((A, T ) , o). Reciprocamente, si D /((A, T ) , o) entonces
D (A, T ), lo cual muestra que R(D) T y en consecuencia R(D) o T . Pero como
D (A, T ) A se tiene que D /(A, o T ).
Calculo matricial del shorted: complementos de Schur
Se busca dar una expresion en coordenadas del shorted (A, o). Para ello necesitamos
seguir haciendo cuentas del estilo 2 2, que son interesantes en s mismas.
3.8 Cortocircuitos 57
Proposicion 3.8.6. Sea o C
n
un subespacio, y sea M =
_
A B
B

D
_
o
o

/
n
(C) .
Entonces M /
n
(C)
+
si y solo si se verican las siguientes condiciones:
1. A L(o)
+
y D L(o

)
+
.
2. Existe una contraccion C L(o

, o) tal que B = A
1/2
CD
1/2
.
En tal caso se tiene que R(B) R(A) y que R(B

) R(D).
Demostracion. Si se cumplen las condiciones pedidas, se observa que
M =
_
A B
B

D
_
=
_
A
1/2
0
0 D
1/2
_ _
I
S
C
C

I
S

_ _
A
1/2
0
0 D
1/2
_
/
n
(C)
+
,
por la Proposicion 3.7.6 y la Observacion 3.7.7. Si suponemos que M 0, es claro que
A L(o)
+
y D L(o

)
+
. Asumamos que ambas son inversibles. Haciendo la cuenta
anterior al reves, si llamamos C = A
1/2
BD
1/2
se tiene que
_
I
S
C
C

I
S

_
=
_
A
1/2
0
0 D
1/2
_ _
A B
B

D
_ _
A
1/2
0
0 D
1/2
_
/
n
(C)
+
.
Luego queda que |C|
sp
1 y B = A
1/2
CD
1/2
. El caso general sale aplicando lo anterior a
las matrices M+
1
n
I. Se toma la sucesion C
n
= (A+
1
n
I
S
)
1/2
B(D+
1
n
I
S
)
1/2
, que consta
de contracciones. Como la bola de /
n
(C) es compacta, hay una subsucesion C
n
k

k
C,
donde C es tambien una contracci on. Ahora observamos que, para todo k N,
B = (A+
1
n
k
I
S
)
1/2
C
n
k
(D +
1
n
k
I
S
)
1/2

k
A
1/2
CD
1/2
,
donde la continuidad de tomar raices cuadradas se deduce de que todas las matrices de cada
sucesion se diagonalizan en la misma base.
Proposicion 3.8.7. Sean A (l(k)
+
, C /
m
(C)
+
y B /
k,m
(C). Sea
M =
_
A B
B

C
_
C
n
C
m
/
k+m
(C) .
Entonces se verican las siguientes propiedades:
1. M (l(m+k)
+
B

A
1
B < C (o sea que C B

A
1
B (l(m)
+
).
2. M /
k+m
(C)
+
B

A
1
B C.
3. Si M (l(m+k), entonces M
1
=
_

(C B

A
1
B)
1
_
.
58 Matrices denidas positivas
Demostracion. Sea X = A
1
B /
km
(C). Entonces, haciendo cuentas elementales, obten-
emos que
_
I
k
0
X

I
m
_
M
_
I
k
X
0 I
m
_
=
_
A 0
0 C B

A
1
B
_
,
lo que prueba 1 y 2. Por otra parte, como
_
I
k
X
0 I
m
_
1
=
_
I
k
X
0 I
m
_
, deducimos que
_
I
k
X
0 I
m
_
M
1
_
I
k
0
X

I
m
_
=
_
A
1
0
0 (C B

A
1
B)
1
_
y, por lo tanto, que
M
1
=
_
I
k
X
0 I
m
_ _
A
1
0
0 (C B

A
1
B)
1
_ _
I
k
0
X

I
m
_
=
_

(C B

A
1
B)
1
_
,
lo que prueba la parte 3.
Ejercicio 3.8.8. Dar otra prueba de la Proposicion 3.8.7, va la Proposicion 3.8.6.
Corolario 3.8.9. Sean M /
n
(C)
+
y o C
n
, un subespacio. Supongamos que
M =
_
A B
B

C
_
o

o
y que la compresion A = M
S
(l(o

)
+
,
o sea que Mx, x) > 0 para todo x o

0. Luego se tiene que


1. (M, o) =
_
0 0
0 C B

A
1
B
_
o

o
.
2. M (l (n)
+
existe un R

+
tal que P
S
(M, o).
Demostracion. Pongamos que dimo = m y llamemos k = n m = dimo

. Trabajando en
una BON que empiece generando a o

, podemos asumir que o = Gen e


k+1
, . . . , e
n
y que
estamos en las condiciones de la Proposicion 3.8.7 (en particular, que A (l(k)
+
). Si ahora
llamamos T =
_
0 0
0 C B

A
1
B
_
o

o
, es claro que R(T) o y que
M T =
_
A B
B

C
_

_
0 0
0 C B

A
1
B
_
=
_
A B
B

A
1
B
_
=
_
A
1/2
0
B

A
1/2
0
_ _
A
1/2
A
1/2
B
0 0
_
0 ,
3.9 Ejercicios 59
por lo que T M y T /(M, o). Tomemos un Q =
_
0 0
0 D
_
o

o
/(M, o). Luego
se tiene que M Q =
_
A B
B

C D
_
/
n
(C)
+
. Por la Proposicion 3.8.7 vemos que
B

A
1
B C D = D C B

A
1
B = Q T .
As que T = (M, o). La segunda parte surge de que
C B

A
1
B (l(o)
+
(M, o) =
_
0 0
0 C B

A
1
B
_

_
0 0
0 I
S
_
= P
S
para cierto R

+
, volviendo a aplicar la Proposicion 3.8.7.
Observacion 3.8.10. La dencion mas tradicional del shorted de un M /
n
(C)
+
se suele
hacer usando el complemento de Schur, seg un la formula que se desarrolla en el Captulo 12 y se
muestra en el Corolario 3.8.9. La ventaja de la denicion que surge del Teorema 3.8.2 es que no
necesita que haya una submatriz inversible. Sin embargo, utilizando seudoinversas de Moore-
Penrose, se puede dar una formula estilo la del Corolario 3.8.9 para cualquier M /
n
(C)
+
,
reemplazando B

A
1
B por B

B, que en dimension nita siempre existe (ver el Ejercicios


3.9.20 y 3.9.30). Mas alla de esto, la simpleza de las pruebas de las Proposiciones 3.8.4 y 3.8.5
da una muestra de que el enfoque basado en maximizar el conjunto /(M, o) tiene fuertes
ventajas metodologicas.
Todos los resultados de esta seccion siguen siendo validos en el contexto de operadores acota-
dos en espacios de Hilbert. Las pruebas son muy similares, pero necesitan tecnicas especcas,
sobre todo para mostrar el Lema 3.8.1 y la Proposicion 3.8.6 (ojo con la bola compacta). Estos
temas se expondran, con mucha mayor profundidad, en el tomo II.
3.9 Ejercicios
Ejercicios del texto
3.9.1. Mostrar que las normas denidas en 3.4.1 son, efectivamente, normas.
3.9.2. Consideremenos en C
n
las siguientes normas:
|x|
1
=
n

i=1
[x
i
[ y |x|

= max
iIn
[x
i
[ , para todo x C
n
,
que inducen en /
n
(C) las sendas normas matriciales: Dada A /
n
(C),
[[[A[[[

= max
|x|

=1
|Ax|

y [[[A[[[
1
= max
|x|
1
=1
|Ax|
1
.
Probar que estas normas pueden calcularse efectivamente mediante las formulas:
[[[A[[[

= max
iIn
|F
i
(A)|
1
y [[[A[[[
1
= max
iIn
|C
i
(A)|
1
.
para toda A /
n
(C).
60 Matrices denidas positivas
3.9.3. Sea A /
n
(C). Si N es una norma matricial en /
n
(C), mostrar que
(A) = nf
mN
N(A
m
)
1/m
y que N(A
m
)
1/m

m
(A) .
3.9.4. Encontrar una matriz A /
n
(C)
+
tal que B =
_
[A
ij
[
_
i,jIn
/ /
n
(C)
+
. Observar
que hay que buscar para n 3.
3.9.5. Probar que, si A /
n
(C)
+
, entonces e
A

:=
_
e
Aij
_
i,jIn
/
n
(C)
+
.
3.9.6. Si A /
n,m
(C), entoces B =
_
[A

[ A
A

[A[
_
/
n+m
(C)
+
. Se suguiere aplicar 3.7.2
agregandole ceros a A para que quede cuadrada.
3.9.7. Sea A /
n,m
(C) una contraccion, es decir que |A|
sp
1. Probar que
1. A

(I
n
AA

)
1/2
= (I
m
A

A)
1/2
A

/
m,n
(C).
2. Las matrices
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
y
_
A (I AA

)
1/2
(I A

A)
1/2
A

_
son unitarias en /
n+m
(C).
3.9.8. Demostrar los 6 items de la Proposicion 3.8.4.
Ejercicios nuevos
3.9.9. Sea A /
n,m
(C). Probar que, para todo k I
n
, se tiene que
s
k
(A) = max
dimS=k
mn
xS1
|Ax| = mn
dim,=nk+1
max
x,1
|Ax| .
3.9.10. Consideremos los conjuntos R
k
(n) = T /
nm
(C) : rk T k. Mostrar que
A /
nm
(C) = s
k
(A) = min
TR
k1
|AT| para todo k I
n
.
3.9.11. Mostrar que si A, H /
nm
(C), y rk H = k, entonces
s
j
(A) s
j+k
(A+H) , para todo j I
nk
.
3.9.12. Mostrar que, para cualquier A /
nm
(C) y para cada k I
n
, vale que
k

j=1
s
j
(A) = max

j=1
Ax
j
, y
j
)

,
donde el maximo se toma sobre todas las kuplas ortonormales x
1
, . . . , x
k
e y
1
, . . . , y
k
.
3.9 Ejercicios 61
3.9.13. Sean A, B, C /
n
(C) tal que |A|
sp
1. Se denen
D
A
= (I A

A)
1/2
y D
A
= (I AA

)
1/2
.
1. Suponiendo que |A|
sp
< 1, vericar:
(a) Si K = D
1
A
C

y L = D
1
A
B, entonces
KK

1 (resp. LL

1) A

A+C

C 1 (resp. AA

+BB

1).
(b) Demostrar que
_
I A
A

I
_
1
=
_
_
D
2
A
D
1
A
AD
1
A
D
1
A
A

D
1
A
D
2
A
_
_
.
(c) Sea X /
n
(C). Demostar que las matrices
_

_
I 0 A B
0 I C X
A

I 0
C

0 I
_

_
y
_

_
I A 0 B
A

I C

0
0 C I X
B

0 X

I
_

_
son conjugadas y ambas positivas.
2. (Parrot) Demostrar que las siguientes armaciones son equivalentes:
(a) Existe X /
n
(C) tal que
_
_
_
_
_
A B
C X
__
_
_
_
sp
1.
(b)
_
_
_
A B
_
_
sp
1 y
_
_
_
_
_
A
C
__
_
_
_
sp
1.
3.9.14 (Fejer). Sea A /
n
(C). Probar que
A /
n
(C)
+

i,jIn
A
ij
B
ij
0 para toda B /
n
(C)
+
.
3.9.15. Sea A /
n
(C). Probar que
Re A /
n
(C)
+
= Re (A B) /
n
(C)
+
para toda B /
n
(C)
+
.
3.9.16. Sea A = A
k

kN
una sucesion en H(n) tal que, para todo k N,
1. A
k+1
A
k
(es decir que A es decreciente)
2. Existe B H(n) tal que B A
k
(o sea que A es acotada inferiormente). Observar que
esto equivale pedir que la sucesion |A
k
|
sp

kN
sea acotada.
62 Matrices denidas positivas
Entonces existe A = inf
kN
A
k
= lim
kN
A
k
H(n). Es decir que A
k

k
A, que A A
k
para
todo k N y que, si un C H(n) es menor que todos los A
k
, entonces tambien C A.
Probar un resultado similar si A es creciente y acotada superiormente.
Se suguiere denir Ax, x) = lim
kN
A
k
x, x) para cada x C
n
, y extrapolar a Ax, y) usando
polarizacion. Otro argumento (bien nitodimensional) sera diagonalizar a todas, aplicar el
Teorema de Weyl 2.3.5 y usar que |(n) es compacto, para construir A y ver que el lmite de
arriba camina, y que es un nmo por hipotesis.
Pseudoinversas y proyecciones oblicuas
Denicion 3.9.17. Sea A /
n
(C). Se dice que una matriz B /
n
(C) es una pseudoin-
versa de A si verica que ABA = A y BAB = B.
Observacion 3.9.18. En algunos libros, las matrices que cumplen las condiciones de la
denicion anterior se denominan g-inversas reexivas.
3.9.19. Sea o un subespacio de C
n
. Demostrar que todas las proyecciones oblicuas sobre o
poseen la siguiente representacion matricial: Dada Q /
n
(C), se tiene que
Q
2
= Q y R(Q) = o existe X L(o

, o) tal que Q =
_
I
S
X
0 0
_
o
o

.
Ya que estamos, probar que |Q|
2
sp
= 1 +|X|
2
sp
.
3.9.20. Sea A /
n
(C)
1. Probar que para cualquier pseudoinversa B de A se cumple que
(AB)
2
= AB , (BA)
2
= BA , R(AB) = R(A) y ker BA = ker A .
2. Dadas dos proyecciones oblicuas (o no) P, Q tales que R(P) = R(A) y ker Q = ker A,
probar que existe una unica pseudoinversa B (de A) tal que AB = P y BA = Q.
Denicion 3.9.21. Dada A /
n
(C), se denen:
1. La pseudoinversa de Moore-Penrose A

de A, como la unica que cumple que las proyec-


ciones AA

y A

A H(n) i.e., son ortogonales.


2. El modulo mnimo reducido de A como:
(T) := mn
_
|Ax| : x ker A

|x| = 1
_
.
3.9.22. Sea A (l (n). Probar que, en ese caso, A

= A
1
y (A) = |A
1
|
1
sp
.
3.9.23. Sea A /
n
(C). Demostrar lo siguiente:
3.9 Ejercicios 63
1. (A

= (A

y (A

= A.
2. A

= A

(AA

.
3. Sea B /
n
(C) tal que
R(B) = ker A

, ker AB = ker B y R(AB) = R(A) .


Entonces (AB)

= B

.
3.9.24. Sea A
n
/
n
(C) una sucesion de matrices que poseen el mismo rango. Suponga-
mos que A
n

n
L /
n
(C) y que L posee el mismo rango que las A
n
.
1. Probar que A

n

n
L

.
2. Dar un ejemplo de una sucesion A
n

n
L pero tal que A

n

n
_
L

.
3.9.25. Sea A /
n
(C). Probar:
1. A

= lim
0
A

(I +AA

)
1
.
2. A

n=0
(I A

A)
n
A

n=0
A

(I AA

)
n
para cualquier 0 < < 2/|A|
2
sp
.
3.9.26. Sea A /
n
(C)
+
. Probar que A =
_
A
1
0
0 0
_
R(A)
ker A
. Deducir que
A

=
_
A
1
1
0
0 0
_
R(A)
ker A
y que (A) = mn (A) : ,= 0 .
3.9.27. Sea A /
n
(C) tal que su descomposicion en valores singulares es A = W(A)V

.
Expresar A

en funcion de W, (A), y V . Que relacion hay entre los valores singulares de


A y los de A

?
3.9.28. Dada A /
n
(C) demostrar las siguientes propiedades:
1. (A)
2
= (A

A) = (AA

) = (A

)
2
.
2. (A) = |A

|
1
.
3.9.29. Sean A, B /
n
(C)
+
. Probar que A B (AB

) 1.
3.9.30. Sean M /
n
(C)
+
y un subespacio o C
n
tales que M =
_
A B
B

C
_
o

o
.
Probar que (M, o) =
_
0 0
0 C B

B
_
o

o
.
64 Matrices denidas positivas
3.9.31. Sean A /
n
(C)
+
y o C
n
un subespacio. Dado x o, se tiene que
_
(A, o)

0
x

0
x

_
= inf
__
A

y
x

y
x

_
: y o

_
.
3.9.32. Sean A /
n
(C)
+
y o C
n
un subespacio. Entonces existen unicos
F y G /
n
(C)
+
tales que A = F +G , R(F
1/2
) o y R(G
1/2
) o = 0 .
Mas aun, F = (A, o) y G = A(A, o) .
3.9.33. o C
n
un subespacio. Consideremos la casimatriz M =
_
D B
B

?
_
o

o
. Sea
T(M, o) =
_
X L(o)
+
:
_
D B
B

X
_
/
n
(C)
+
_
.
Probar que T(M, o) ,= si y solo si R(B) R(D
1/2
). Mas a un, probar que en tal caso
existe X
0
= mn T(M, o), e identicarlo.
Denicion 3.9.34. Dada una matriz A /
n
(C)
+
, consideraremos en C
n
el pseudoproducto
interno , )
A
denido por
x, y)
A
= Ax, y) , para todo par x , y C
n
.
3.9.35. Sea A /
n
(C)
+
y o un subespacio de C
n
. Demostrar las siguientes propiedades:
1. o

A
= A
1
(o

) = A(o)

.
2. T /
n
(C) es A-autoadjunto si y solo si TA = A

T.
3. El conjunto de las proyecciones A-autoadjuntas con rango o, que denotaremos
T(A, o) = Q /
n
(C) : Q
2
= Q, AQ = Q

A y R(Q) = o , = .
3.9.36. Sea A /
n
(C)
+
y o un subespacio de C
n
. Si A =
_
a b
b

c
_
o

o
, probar que la
proyeccion P
A, S
denida por
P
A, S
=
_
1 a

b
0 0
_
o

o
/
n
(C)
satisface que P
A, S
T(A, o) y encima |P
A, S
|
sp
= mn
Q1(A, S)
|Q|
sp
.
3.9.37. Dada una un proyeccion Q /
n
(C), no necesariamente ortogonal, construir una
matriz A (l (n)
+
de modo que Q resulte A-autoadjunta.
3.9 Ejercicios 65
3.9.38. Sea A /
n
(C). Dada una matriz W (l (n)
+
, demostrar que B = (A

WA)

D
es una pseudoinversa de A tal que AB es una proyeccion ortogonal respecto al producto
interno , )
W
y BA lo es respecto al producto interno usual.
3.9.39. Dado T /
n
(C) y A (l (n)
+
, encontrar una expresion para la Moore-Penrose de
T respecto al , )
A
.
3.9.40. Sean A, B /
n
(C). Encontrar C /
n
(C), tal que
|AC B|
sp
= mn
X,n(C)
|AX B|
sp
.
Ahora reemplazar la norma espectral por alguna otra NUI y encontrar C para dicha norma.
Que conclusion puede sacar?, puede extender su conclusion para otras normas unitariamente
invariantes?.
3.9.41. Dadas A, B /
n
(C), se dice que A
*
B si BA

= AA

y B

A = A

A. Demostrar:
1. A
*
B A

A = B

A y AA

= AB

.
2. A

= max

*
B /
n
(C) : BAB = B, (AB)

= AB, y (BA)

= BA.
3. A

= mn

*
B /
n
(C) : ABA = A, (AB)

= AB, y (BA)

= BA.
3.9.42 (Ljance-Ptak.). Sea E /
n
(C) una proyeccion oblicua. Si P, Q /
n
(C) designan
las proyecciones ortogonales al rango y nucleo de E respectivamente, probar que
|PQ|
sp
< 1 y que |E|
2
=
1
1 |PQ|
2
sp
.
66 Matrices denidas positivas
Captulo 4
Mayorizaci on
Es este captulo expondremos las nociones basicas de mayorizacion, y su relacion con combi-
naciones convexas de permutaciones, matrices doblemente estocascticas y funciones convexas.
En la seccion 3 mostraremos el teorema de Birkho que asegura que las matrices de per-
mutacion son el conjunto de puntos extremales de las matrices doblemente estocascticas. En
la ultima seccion introduciremos las propiedades basicas de la mayorizacion logartmica.
4.1 Deniciones y caracterizaciones
Notaciones: Sea x = (x
1
, ..., x
n
) R
n
.
1. Notaremos x

y x

a los vectores obtenidos al reordenar las coordenadas de x en forma


decreciente y creciente respectivamente. Es decir, por ejemplo, que
x

1
= m ax
i
x
i
, x

1
+x

2
= max
i,=j
x
i
+x
j
, etc.
Por ejemplo, si x es el vector de autovalores de una matriz A H(n), entonces se tendra
que x

= (A) y x

= (A).
2. Denotaremos por 1 = (1, 1, . . . , 1) R
n
, al vector con todas sus entradas iguales a uno.
Si hace falta aclarar el tama no, escribiremos 1
n
.
3. Escribiremos tr x = x, 1) =
n

j=1
x
i
.
Con estas notaciones podemos dar la denicion de mayorizacion:
Denicion 4.1.1. Sean x, y R
n
.
68 Mayorizacion
1. Se dice que y mayoriza a x, y se nota x y si se verica que
tr y = tr x , y ademas
k

j=1
x

j

k

j=1
y

j
para todo k I
n
. (4.1)
2. Dado que
k

j=1
x

j
= tr x
nk

j=1
x

j
para todo k I
n
, la relacion x y equivale a que
tr y = tr x , y ademas
k

j=1
x

j

k

j=1
y

j
para todo k I
n
. (4.2)
3. Si solo se cumple la segunda condicion (4.1) (o sea que se permite que tr x < tr y ), se
dice que x esta submayorizado por y y se nota x
w
y.
4. Si solo se cumple la segunda condicion (4.2) (aca se permite que tr x > tr y ), se dice
que x esta supramayorizado por y y se nota x
w
y.
Ejemplos 4.1.2.
1. Sea x R
n
. Llamemos a = tr x. Entonces
a
n
1 =
_
a
n
,
a
n
, . . . ,
a
n
_
x . En efecto,
supongamos que existiera un k I
n
tal que
k

i=1
x

i
<
ka
n
. En tal caso,
x

k

1
k
k

i=1
x

i
<
a
n
=
n

i=k+1
x

i
<
(n k)a
n
=
n

i=1
x

i
< a .
2. Si x R
n
+
, entonces x (tr x, 0, . . . , 0).
3. Sean x, y R
n
. Si sucediera que x y e y x, entonces es facil ver que x

= y

. Por
lo tanto, x e y solo dieren en una permutacion.
Existe una relacion muy estrecha entre las relaciones de mayorizacion y las matrices doble-
mente estocasticas. Notaciones: Sea A /
n,m
(C).
1. Diremos A0 si A
ij
0 para todo par i I
n
, j I
m
. En otras palabras, A0 si A
tiene entradas no negativas. Ojo con el simbolito, no el lo mismo escribir
A0 (entradas positivas) que A 0 (semidenida positiva) .
2. Si x, y R
n
, pondremos xy si se cumple que x
i
y
i
para todo i I
n
. Tambien
escribiremos que x > 0 si x R

n
+
.
4.1 Deniciones y caracterizaciones 69
Denicion 4.1.3. Una matriz A /
n
(R) se denomina doblemente estocastica si
A0 , tr F
i
(A) = 1 y tr C
i
(A) = 1 para todo i I
n
.
Al conjunto de matrices doble estocasticas en /
n
(C) lo denotaremos To (n).
Ejercicio 4.1.4. Sea A /
n
(R). Probar que A To (n) si y solo si
A0 , A1 = 1 y A

1 = 1,
donde 1 = (1, 1, . . . , 1) R
n
. Deducir que To (n) es un conjunto convexo, y que dadas dos
matrices A, B To (n), entonces tambien AB To (n).
Observacion 4.1.5 (Matrices de permutacion). Sea n N.
1. Llamaremos S
n
al n-esimo grupo simetrico, es decir
S
n
= : I
n
I
n
: es biyectiva ,
con el producto dado por la composicion de funciones.
2. Dados S
n
y x C
n
, llamaremos x

= (x
(1)
, . . . , x
(n)
).
3. Dada S
n
, llamaremos P

: C
n
C
n
al operador dado por
P

x = x

, x C
n
.
Es claro que esta funcion es lineal, por lo que pensamos a P

/
n
(C) como su matriz
en la base canonica.
4. Observar que, dado x R
n
, existen , S
n
tales que x

= P

x y x

= P

x.
5. Dada S
n
, las columnas de P

estan dadas por


C
k
(P

) = P

(e
k
) = (e
k
)

= e

1
(k)
, k I
n
.
6. Dadas , S
n
, entonces P

= P

, porque (x

= x

para todo x C
n
.
7. El grupo |
1
(n) = P

: S
n
esta incluido en |(n), dado que cada P

es claramente
isometrico. Por lo tanto, para cada S
n
, P

1 = P
1

= P

= P
T

.
8. Por otra parte, tambien se tiene que |
1
(n) To (n). En efecto, dada S
n
,
C
k
(P

) = P

(e
k
) = e

1
(k)
y F
k
(P

) = C
k
(P
T

) = C
k
(P

1) = e
(k)
, (4.3)
para todo k I
n
. Otra forma de verlo es notando que P

1 = P
T

1 = 1. Mas adelante
veremos que |
1
(n) es ni mas ni menos que el conjunto de puntos extremales de To (n).
70 Mayorizacion
9. Dadas A /
n
(C) y P

|
1
(n), para cada k I
n
se tiene que
F
k
(P

A) = F
(k)
(A) , C
k
(AP

) = C

1
(k)
(A) y d (P

AP

) = d (A)

. (4.4)
En efecto, para todo i I
n
, tenemos que C
i
(P

A) = P

(C
i
(A) ) = C
i
(A)

. Luego
(P

A)
ki
= A
(k)i
, para todo i I
n
. Esto prueba la primera igualdad.
La seguna sale aplicando la de las las a (AP

)
T
= P

1A
T
. La de las diagonales sale
porque cada
(P

AP

)
kk
= P

AP

e
k
, e
k
) = AP

e
k
, P

e
k
) = Ae
(k)
, e
(k)
) = A
(k)(k)
.
En resumen, multplicar por P

a izquierda permuta las las, hacerlo a derecha permuta


las columnas (con
1
), y conjugar con P

permuta la diagonal de las matrices.


Teorema 4.1.6. Sea A /
n
(R). Luego se tiene que
A To (n) Ax x para todo x R
n
.
Demostracion. Supongamos que Ax x para todo x. Sea c = e
1
, . . . , e
n
la base canonica
de C
n
. Para cada i I
n
, se tiene que C
i
(A) = Ae
i
e
i
. Esto implica que A0 y que
1 = tr e
i
= tr Ae
i
= tr C
i
(A) para todo i I
n
.
Por otra parte, sabemos que A1 1. Pero por el Ejemplo 4.1.2, como todas las coordenadas
de 1 son iguales, deducimos que 1 A1. Y como no vale la pena permutar al 1, queda que
1 = A1 = (tr F
1
(A), . . . , tr F
n
(A) ) .
Recprocamente, supongamos que A To (n) y llamemos y = Ax. Queremos probar que
y x. Se puede suponer que las coordenadas de x y de y estan ordenadas en forma decreciente,
porque si P, Q |
1
(n) son matrices de permutacion (ver Observacion 4.1.5), entonces QAP
To (n) (por el Ejercicio 4.1.4). Por otra parte, como y = Ax,
k

j=1
y
j
=
k

j=1
n

i=1
a
ji
x
i
=
n

i=1
_
k

j=1
a
ji
_
x
i
para todo k I
n
. (4.5)
Fijemos un k I
n
. Si para cada i I
n
llamamos t
i
=
k

j=1
a
ji
, entonces
0 t
i
tr C
i
(A) = 1 y
n

i=1
t
i
=
k

j=1
tr F
i
(A) = k .
4.1 Deniciones y caracterizaciones 71
Luego, aplicando la Eq. (4.5),
k

j=1
y
j

k

j=1
x
j
=
k

j=1
n

i=1
a
ji
x
i

i=1
x
i
=
n

i=1
t
i
x
i

i=1
x
i
=
n

i=1
t
i
x
i

i=1
x
i
+ (k
n

i=1
t
i
)x
k
=
k

i=1
t
i
x
i
+
n

i=k+1
t
i
x
i

i=1
x
i
+k x
k

k

i=1
t
i
x
k

n

i=k+1
t
i
x
k
=
k

i=1
(t
i
1) x
i
+
k

i=1
x
k

k

i=1
t
i
x
k
+
n

i=k+1
t
i
(x
i
x
k
)
=
k

i=1
(t
i
1) x
i
+
k

i=1
(1 t
i
) x
k
+
n

i=k+1
t
i
(x
i
x
k
)
=
k

i=1
(t
i
1) (x
i
x
k
) +
n

i=k+1
t
i
(x
i
x
k
) 0,
pues los dos sumandos del ultimo renglon son sumas de terminos no positivos. Por lo tanto
k

j=1
y
j

k

j=1
x
j
para todo k I
n
. Por ultimo, observar que la Eq. (4.5) muestra que tr y = tr x
(para k = n, todos los t
i
= tr C
i
(A) = 1). As, llegamos a que Ax = y x.
Ejemplo 4.1.7. Como motivacion del siguiente resultado, supongamos que
x, y R
2
cumplen que y = (y
1
, y
2
) x = (x
1
, x
2
) , y
1
y
2
y x
1
x
2
.
En este caso, esto signica que
x
2
y
2
y
1
x
1
y que y
1
+y
2
= x
1
+x
2
.
Luego, debe existir un [0, 1] tal que y
1
= x
1
+ (1 )x
2
. Entonces,
y
2
= y
1
+y
2
y
1
= x
1
+x
2
y
1
= x
1
+x
2

_
x
1
+ (1 )x
2
_
= (1 )x
1
+x
2
.
y por lo tanto y = (y
1
, y
2
) = (x
1
, x
2
) + (1 )(x
2
, x
1
) = x + (1 )P

x, donde S
2
es
la permutacion no trivial.
Teorema 4.1.8. Sean x, y R
n
. Entonces, son equivalentes:
1. y x.
2. y es una combinacion convexa de permutaciones de x.
72 Mayorizacion
3. Existe A To (n) tal que y = Ax.
Demostracion. Como To (n) es convexo y |
1
(n) To (n), obtenemos que 2 3. Por el
Teorema 4.1.6 se tiene que 3 1. Luego, solo resta probar que 1 2. Lo haremos por
induccion sobre la dimension n. Para n = 1 es trivial y el caso n = 2 fue probado en el
Ejemplo 4.1.7. Sea n > 2. Sin perdida de generalidad podemos suponer que los vectores
estan ordenados en forma decreciente. Luego, x
n
y
n
y
1
x
1
. Sea k > 1 tal que
x
k
y
1
x
k1
y 0 tal que y
1
= x
1
+ (1 ) x
k
. Sea S
n
la trasposicion que
permuta 1 con k. Luergo P

|
1
(n) verica que
P

x = (x
k
, x
2
, . . . , x
k1
, x
1
, x
k+1
, . . . , x
n
) .
Denamos z = x + (1 )P

x. Observar que z
1
= x
1
+ (1 ) x
k
= y
1
. Sean
y
t
= (y
2
, . . . , y
n
) y z
t
= (z
2
, . . . , z
n
) R
n1
.
Vamos a probar que y
t
z
t
: Como z
1
= y
1
y tr z = tr x = tr y, se deduce facilmente que
tr(y
t
) = tr(z
t
). Si m k 1, entonces, como y
1
x
k1
,
m

i=2
z
i
=
m

i=2
x
i
(m1)x
k1
(m1)y
1

m

i=2
y
i
.
Por otro lado, si m k.
m

i=2
z
i
=
k1

i=2
x
i
+ (1 )x
1
+x
k
+
m

i=k+1
x
i
=
m

i=1
x
i
x
1
(1 )x
k
=
m

i=1
x
i
y
1

m

i=1
y
i
y
1
=
m

i=2
y
i
.
Luego y
t
z
t
y, por hipotesis inductiva, y
t
=
s

i=1

i
P
i
z
t
para ciertos
i
0 que suman uno, y
para ciertas permutaciones
i
S
n1
(pensadas como biyecciones del conjunto 2, 3, . . . , n).
Llamemos tambien
i
S
n
a la extension de cada permutacion
i
a todo I
n
, poniendo

i
(1) = 1. Luego, como z
1
= y
1
, se tiene que y =
s

i=1

i
P
i
z . Pero entonces
y =
s

i=1

i
P
i
z =
s

i=1

i
P
i
x +
s

i=1
(1 )
i
P
i
P

x ,
que es una combinacion convexa de permutaciones de x.
4.1 Deniciones y caracterizaciones 73
Observacion 4.1.9. Un error tpico al tratar de demostrar mayorizacion entre dos vectores,
es olvidarse de ordenarlos antes de sumar sus primeras k coordenadas. De hecho, esto
sucede en la prueba anterior con los vectores z
t
e y
t
. Por suerte no es grave en este caso,
porque z
t
esta del lado de los mayores, y lo grave es no reordenar del lado de los menores.
Mas explcitamente, si x, y R
n
, como
k

i=1
y
i

k

i=1
y

i
,
es imprescindible ordenar a y para vericar que y x, pero no para vericar que x y. En
la prueba de la relacion y
t
z
t
, el vector y
t
ya vena ordenado correctamente.
Corolario 4.1.10. Sean w, z R
m
tales que w z, y sean x, y R
k
tales que x y.
Entonces los vectores (x, w), (y, z) R
k+m
cumplen que (x, w) (y, z).
Demostracion. Por el Teorema 4.1.8, existen A To (k) y B To (m) tales que Ay = x y
Bz = w. Pero si consideramos
C =
_
A 0
0 B
_
/
k+m
(C),
es facil ver que C To (k +m) y que C(y, z) = (x, w).
Lema 4.1.11. Sean x, u R
n
tales que xu. Entonces se tiene que
x

y x
w
u .
Demostracion. Es claro que x

1
= max
iIn
x
i
max
iIn
u
i
= u

1
. Si ambos maximos se alcanzan
en la misma coordenada de x y de u, un argumento inductivo permite concluir que x

.
Sino, supongamos que x

1
= x
k
mientras que u

1
= u
j
. Si llamamos y R
n
al resultado de
permutar las cordenadas k y j de x, sigue pasando que y u, porque
y
j
= x
k
u
k
u

1
= u
j
mientras que y
k
= x
j
x

1
= x
k
u
k
.
Por el caso anterior, x

= y

, y por lo tanto x
w
u.
Proposicion 4.1.12. Sean x, y R
n
. Entonces
x
w
y existe u R
n
tal que xu y .
Demostracion. Antes que nada, es claro que si el tal u existe, entonces x
w
y (por el Lema
4.1.11 y la transitividad de
w
). Para probar la recproca, podemos asumir que tr x < tr y,
porque sino basta tomar u = x. Asumiremos tambien que x e y estan ordenados en forma
decreciente, dado que una ves encontrado el u para este caso, luego se lo puede reordenar
igual que a x, lo que preserva la relacion xu y no afecta la relacion u y.
Se hara induccion sobre n. Si n = 1, el resultado es trivial (en ese caso signica igualdad,
y
w
equivale a ). Si n > 1, cosideramos dos casos:
74 Mayorizacion
Caso 1: Supongamos que existe k I
n1
tal que
k

i=1
x
i
=
k

i=1
y
i
. En tal caso, llamaremos
a = (x
1
, . . . , x
k
) y b = (y
1
, . . . , y
k
) R
k
. Como x e y estan ordenados, es claro que a b.
Por otra parte, si llamamos w = (x
k+1
, . . . , x
n
) y z = (y
k+1
, . . . , y
n
) R
nk
, es tambien claro
que w
w
z, porque estan bien ordenados y, si r I
nk
, entonces
r

i=1
z
i

i=1
w
i
=
k+r

i=1
y
i

k+r

i=1
x
i
0 .
Ahora bien, por hipotesis inductiva, debe existir v R
nk
tal que wv z. Entonces basta
tomar u = (a, v) R
n
que cumple lo pedido, porque x = (a, w) (a, v) = u. Por otra parte,
como a b y v z, el Corolario 4.1.10 dice que u = (a, v) (b, z) = y.
Caso 2: Supongamos que d = mn
kIn
_
k

i=1
y
i

i=1
x
i
_
> 0, y que se realiza en cierto k
0
I
n
.
Tomemos v = x +d e
1
, es decir que agrandamos en d la primera coordenada de x. Observar
que v esta ordenado decrecientemente, por estarlo x. Por ser d quien es, es claro que xv y
que v
w
y. Pero claramente v cae en el Caso 1 (sumando hasta k
0
, y si k
0
era n, bingo).
Entonces existe u R
n
tal que xv u y.
Ejercicio 4.1.13. Probar que, dados x, y R
n
, entoncecs
1. x
w
y si y solo si existe v R
n
tal que x v y.
2. x
w
y si y solo si y
w
x si y solo si existe w R
n
tal que y w x.
4.2 Mayorizaci on y funciones convexas
Dado I R, una funcion f : I R, y un vector x I
n
, notaremos por
f(x) = (f(x
1
), . . . , f(x
n
) ) R
n
.
Por otra parte, cuando I es un intervalo, decimos que f es convexa si, dados a, b I y
[0, 1], se cumple que
f
_
a + (1 )b
_
f(a) + (1 )f(b).
La funcion f se dice concava si f es convexa.
Teorema 4.2.1. Sean x, y R
n
. Sea I R un intervalo (semirrecta o todo R) tal que
x, y I
n
. Entonces, son equivalentes:
1. y x
2. tr f(y) tr f(x) para toda funcion convexa f : I R.
4.2 Mayorizacion y funciones convexas 75
3.
n

i=1
[y
i
t[
n

i=1
[x
i
t[ para todo t R.
An alogamente, son equivalentes
1. y
w
x (submayorizacion)
2. tr f(y) tr f(x) para toda funcion f : I R convexa y no decreciente.
3.
n

i=1
(y
i
t)
+

i=1
(x
i
t)
+
para todo t R.
Demostracion. Solo probaremos la primer parte, puesto que los argumentos para probar
la segunda son similares (para 1 2, se aplica 1 2 y la Proposicion 4.1.12, que sera
util para funciones no decrecientes). Supongamos que y x. Entonces, por el Teorema
4.1.8, y =
s

i=1

i
P
i
(x) para ciertos
i
0 que suman uno, y para ciertas
i
S
n
. Luego
f
_
s

i=1

i
P
i
x
_

i=1

i
f
_
P
i
x
_
(en cada coordenada), y
tr f(y) = tr f
_
s

i=1

i
P
i
x
_
tr
s

i=1

i
f
_
P
i
x
_
=
s

i=1

i
tr P
i
_
f(x)
_
= tr f(x) .
La implicacion 2 3 (respectivamente, 2
t
3
t
) se deduce de que la funcion x [x t[
(resp. x (x t)
+
) es convexa (resp. convexa no decreciente) para todo t R.
Probemos 3 1. Supongamos que los vectores x e y estan ordenados de forma decreciente
(ni 3 ni 1 depende del orden de las coordenadas). Sean M = maxx
1
, y
1
y m = mnx
n
, y
n
.
Tomando t > M, se tiene que
n

i=1
[y
i
t[ =
n

i=1
t y
i
= kt
n

i=1
y
i
,
y lo mismo para x. Luego la desigualdad 3 para estos valores de t implica que tr x tr y.
Analogamente, la desigualdad 3 para valores de t tales que t < m implica que tr y tr x.
Luego tr x = tr y. Por otro lado, dado x R, se tiene que 2x
+
= x +[x[. Luego
2
n

i=1
(y
i
t)
+
=
n

i=1
(y
i
t) +
n

i=1
[y
i
t[ = tr y nt +
n

i=1
[y
i
t[
tr x nt +
n

i=1
[x
i
t[ =
n

i=1
(x
i
t) +
n

i=1
[x
i
t[
= 2
n

i=1
(x
i
t)
+
.
76 Mayorizacion
Deducimos que basta probar 3 1. Fijemos k I
n
. Tomando t = x
k
, resulta que
n

i=1
(x
i
t)
+
=
k

i=1
(x
i
t)
+
=
k

i=1
x
i
kt .
Por lo tanto
k

i=1
y
i
kt =
k

i=1
(y
i
t)
k

i=1
(y
i
t)
+

i=1
(y
i
t)
+

i=1
(x
i
t)
+
=
k

i=1
x
i
kt,
lo cual muestra que
k

i=1
y
i

k

i=1
x
i
.
Corolario 4.2.2. Sea I R un intervalo. Sea g : I R una funcion convexa (resp. convexa
creciente). Entonces, dados x, y I
n
,
x y (resp. x
w
y) = g(x)
w
g(y).
En particualr x y = [x[
w
[y[, y tambien x
w
y = x
+

w
y
+
.
Demostracion. Sea f : R R convexa no decreciente. Es facil ver, entonces, que f g es una
funcion convexa. Por el Teorema 4.2.1, si x y, entonces
tr f(g(x)) = tr f g (x) tr f g (y) = tr f(g(y)).
Pero por el mismo Teorema (en su segunda parte), como lo anterior vale para toda f : R R
convexa no decreciente, deducimos que g(x)
w
g(y).
Si g es creciente y x
w
y, por el Corolario 4.1.12 existe u R
n
tal que xu y. Luego,
por el caso anterior, g(x) g(u)
w
g(y). Para concluir que g(x)
w
g(y) basta aplicar el
Lema 4.1.11.
Corolario 4.2.3. Sean x, y R
n
, tales que x > 0 e y > 0. Entonces, se tiene que
x y =
n

i=1
x
i

n

i=1
y
i
.
Demostracion. Sea g(t) = log t, que es una funcion convexa (pero decreciente), denida en
I = (0, +). Por el Corolario 4.2.2, si x y, entonces g(x)
w
g(y). En particular,
log
n

i=1
x
i
=
n

i=1
log x
i

n

i=1
log y
i
= log
n

i=1
y
i
,
de lo que se concluye que
n

i=1
x
i

n

i=1
y
i
.
4.3 Birkho, Hall y los casamientos 77
4.3 Birkho, Hall y los casamientos
El objetivo de esta seccion es probar el teorema de Birkho que asegura que |
1
(n) es el
conjunto de puntos extremales de To (n) y por ende (ya sea por el teormea de Krein Millman,
o porque va a salir a mano), que toda A To (n) es combinacion convexa de matrices
de permutacion. Observar que este hecho va a explicar una parte del Teorema 4.1.8. La
herramienta clave, en funcion de poder probar lo anterior inductivamente, son dos resultados
combinatorios que son interesantes por s mismos: El teorema de los casamientos de Hall, y
el criterio de Konig-Frobenius sobre existencia de diagonales sin ning un cero para matrices.
Empecemos con las notaciones para los casamientos:
Sean V = v
1
, . . . , v
n
y M = m
1
, . . . , m
n
dos conjuntos de n elementos. Pensaremos que
V es un conjunto de varones (humanos) y M de mujeres. Dada una relacion C V M,
diremos que v
i
conoce a m
j
(puede usarse tambien tiene onda con, o gusta de) si
(v
i
, m
j
) C. El llamado problema de los casamientos (PC) consiste en encontrar condiciones
sobre C que aseguren que exista f : V M biyectiva, tal que Gr(f) C. Si pensamos que
cada v se casa con f(v), el problema se traduce a poder casar todos los varones de V con
mujeres de M (sin bigamia) y que todas las parejitas sean felices (se gusten mutuamente).
Para describir esas condiciones pongamos un poco de notacion: Dado J I
n
, llamaremos
V
J
= v
j
: j J y M
J
= m
i
M : (v
j
, m
i
) C para alg un j J
= chicas conocidas por alg un muchacho de V
J
.
Es claro que esta notacion es machista, pero en la epoca de Hall nadie cuestionaba esas cosas.
Observar que M
J
=
M
([V
J
M] C), donde
M
es la proyeccion sobre M. Como siempre,
se abrevia M
i
= M
i]
. Es evidente que si el PC tiene solucion, debe cumplirse que [M
J
[ [J[
para todo J I
n
, porque f(V
J
) debera estar incluido en M
J
. Pero mucho menos claro es
que vale la recproca:
Teorema 4.3.1 (El problema de los casamientos de Hall). El PC tiene solucion para una
relacion C V M si y solo si
[M
J
[ [J[ para todo J I
n
. (4.6)
Demostracion. Probaremos la suciencia por induccion sobre n. Todo es facil si n = 1 (ese
es el problema de la pareja de naufragos). Si n > 1, separemos dos casos:
Caso 1: Supongamos que tenemos una condicion mejor que (4.6), a saber,
[M
J
[ [J[ + 1 para todo J I
n
, , = J ,= I
n
. (4.7)
En tal caso jamos al vago v
n
de V y lo casamos con una chica que conozca (m
j
M
n
, o
sea que (n, j) C). Veamos ahora que, si J = I
n1
, los conjuntos V
J
y M m
j
cumplen
la condicion (4.6) (para aplicarles la HI). En efecto, notar que si I J, entonces la Eq. (4.7)
asegura que [M
I
M m
j
[ [M
I
[ 1 [I[. En otras palabras, dados k de los muchachos
restantes, entre todos deben conocer al menos k chicas todava solteras. Por HI, tenemos una
78 Mayorizacion
biyeccion entre V
J
y M m
j
con graco contenido en C, que se puede extender, mandando
n j, a todo V sobre todo M.
Caso 2: Si existe un J I
n
tal que
, = J ,= I
n
y [M
J
[ = [J[ = k < n , (4.8)
por HI podemos denir una biyeccion f
1
: V
J
M
J
con Gr(f
1
) C. Por otra parte, por la
igualdad (4.8), es facil ver que los conjuntos que quedan, V
J
c y M M
J
cumplen tambien la
condicion (4.6). En efecto, si I J
c
tiene [I[ = r, observemos que M
IJ
M
J
= M
I
M
J
(las que no conocen los de J deben conocerlas los de I). Pero
[M
IJ
M
J
[ [M
IJ
[ [M
J
[ (r +k) k = r .
Luego [M
I
M
J
[ r = [I[. Otra forma de verlo es la siguiente: casamos k pibes que conocan
justo k chicas. Dados r de los solteros, junto con los casados conocan al menos k +r chicas,
por lo que los r solteros conocan ellos a todas las solteras de este grupo (por lo menos r),
porque los k novios solo conocan a las k que se casaron con ellos. Aplicamos nuevamente la
HI para denir otra biyeccion f
2
: V
J
c M M
J
, tambien con graco dentro de C. Pegando
ambas funciones, encontramos la biyeccion buscada.
Denicion 4.3.2. Sea A /
n
(C).
1. Dada S
n
, llamamos al vector (a
1(1)
, . . . , a
n(n)
) una diagonal de A. Notar que las
diagonales tienen exactamente un elemento de cada la y uno de cada columna de A.
2. Decimos que A tiene una diagonal sin ceros si alguna de las diagonales antes denidas
tiene todas sus coordenadas no nulas.
Corolario 4.3.3 (Konig-Frobenius). Sea A /
n
(C). Entonces son equivalentes:
1. Toda diagonal de A tiene ceros.
2. Existen subconjuntos I, J I
n
tales que [I[ +[J[ > n y la submatriz A
IJ
0, es decir
que a
ij
= 0 para todo par (i, j) I J.
Demostracion. Consideremos los conjuntos M = V = I
n
y la relacion
C = (i, j) I
n
I
n
: a
ij
,= 0.
Es claro que A tiene alguna diagonal sin ceros si y solo si el PC tiene solucion para la relacion
C. Que A no tenga ninguna diagonal sin ceros equivale, por el Teorema 4.3.1, a que exista
I I
n
tal que [M
I
[ < [I[ = k. Observar que
K := I
n
M
I
= j I
n
: a
ij
= 0 para todo i I
es el mayor de los conjuntos J de ndices tales que A
IJ
0. Ademas, si [K[ = r, entonces
k +r > n si y solo si n r = [M
I
[ < k. Y esto concluye la prueba.
4.3 Birkho, Hall y los casamientos 79
Corolario 4.3.4. Si A To (n), entonces A debe tener alguna diagonal sin ceros.
Demostracion. Supongamos que no. Reordenando las y columnas de A (multiplicando por
matrices de permutacion) podemos suponer, por el Corolario 4.3.3, que existen k, r I
n
tales
que k + r > n y que a
ij
= 0 si i I
k
y j I
r
. En otras palabras, que existen P, Q |
1
(n)
tales que
PAQ =
_
0
kr
B
C D
_
To (n) ,
donde 0
kr
es la matriz nula de /
k,r
(C). En tal caso, las k las de B deben tener traza uno,
lo mismo que las r columnas de C. Pero entonces la suma de todas las entradas de PAQ (las
de D son no negativas) debera sumar estrictamente mas que n. Pero esto contradice el hecho
de que PAQ To (n).
Teorema 4.3.5 (Birkho). El conjunto de matrices doble estocasticas To (n) es convexo y
sus puntos extremales son el conjunto |
1
(n) de matrices de permutacion. Es decir que toda
A To (n) es combinaci on convexa de matrices de permutacion.
Demostracion. Es facil ver que si P |
1
(n), entonces es extremal en To (n). Luego basta
ver que toda A To (n) es combinacion convexa de matrices de permutacion.
Sea A To (n). Notaremos k(A) =

(i, j) I
n
I
n
: a
ij
,= 0

. Probaremos el resultado
induccion en k(A). Observar que n k(A) n
2
, y que k(A) = n si y solo si A |
1
(n), por
lo que lo armado es trivial en este caso. Supongamos que k(A) > n.
Por el Corolario 4.3.4 existe S
n
tal que a
i(i)
> 0, para todo i I
n
. Sea P =
P

|
1
(n) la matriz asociada a la permutacion . Por la Eq. (4.3), P
ij
,= 0 si y solo si
j = (i). Sea a = mn
iIn
a
i(i)
. Notar que, por el hecho de que k(A) > n, se debe cumplir que
0 < a < 1. Es facil ver, entonces, que B =
AaP
1 a
To (n). Finalmente, se observa que
A = aP + (1 a)B, y se aplica la hipotesis inductiva, ya que k(B) < k(A). En efecto, si
a
ij
= 0, entonces P
ij
= 0, por lo que tambien b
ij
= 0. Esto dice que k(B) k(A). Por otra
parte, si a = a
i(i)
,= 0, entonces b
i(i)
= 0, con lo que k(B) < k(A) como se armo.
Observacion 4.3.6. El Teorema de Birkho esta intimamente relacionado con el Teorema
4.1.8. Sin embargo, no se implican mutuamente. En efecto, el Teorema 4.3.5 da como novedad
la implicacion 3 = 2 del Teorema 4.1.8. Pero esta sala implcita por el rulo de auqella
prueba, y el Teorema 4.3.5 no dice que si y x entonces haya una A To (n) tal que Ax = y.
Mirandolos ahora al reves, la implicacion 3 = 2 del Teorema 4.1.8 dice que para cada
x R
n
, hay una combinacion convexa de permutaciones que hace, en ese x, lo mismo que
hace A. Pero no que haya una que sirva para todos los x a la vez.
80 Mayorizacion
4.4 Mayorizaci on logartmica
Denicion 4.4.1. 1. Sean x, y R
n
+
. Escribiremos x
w
log
y si
k

i=1
x

i

k

i=1
y

i
para todo k I
n
. (4.9)
2. Si x, y > 0, escribimos x
log
y si se cumple que x
w
log
y , y ademas
n

i=1
x
i
=
n

i=1
y
i
.
Observacion 4.4.2. Sean x, y R

n
+
. Si x
log
y entonces, como en el caso de la mayorizacion
com un, se cumplen desigualdades invesas para las entradas mas peque nas de x e y. Es decir,
n

i=k
x

i

n

i=k
y

i
para todo k I
n
. (4.10)
Esto no vale si solo x
w
log
y, porque usa la igualdad de los productos hasta n.
Proposicion 4.4.3. Sean x, y R
n
+
.
1. Si x
w
log
y, entonces x
p

w
y
p
para todo p R
+
.
2. Si x, y > 0, entonces x
log
y implica que x
p

w
y
p
para todo p R .
Demostracion.
2. Supongamos que x > 0 e y > 0. Luego x
log
y implica que log x log y. Como la
funci on t e
pt
es convexa para todo p R, deducimos lo armado en el item 2. a
partir del Corolario 4.2.2.
1. Si x, y R
n
+
y x
w
log
y, supongamos que x e y estan ordenados en forma decreciente.
Observar que, si k
1
= maxj I
n
: x
j
> 0, entonces la condicion (4.9) implica que
y
k1
> 0 . Podemos suponer, entonces, que k
1
= n, porque las desigualdades que denen
la relacion x
p

w
y
p
seran autom aticas para k > k
1
. Estamos casi en el caso anterior,
dado que la unica diferencia es que tenemos log x
w
log y en lugar de log x log y.
Pero esto es suciente si suponemos que p R
+
, porque en tal caso se tiene que la
funci on t e
pt
es convexa creciente, y se aplica nuevamente el Corolario 4.2.2.
Observacion 4.4.4. 1. El caso mas usado de la Proposicion 4.4.3 es cuando p = 1. Es
decir que, si x, y R
n
+
, entonces x
w
log
y implica x
w
y. Esto sera sumamente util
cuando se lo aplique a desigualdades con valores singulares de matrices, usando tecnicas
de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si
hubese quedado x y, deba cumplirse que x
log
y .
4.5 Ejercicios 81
2. Por otra parte, la Proposicion 4.4.3 se puede generalizar, sin cambiar la prueba, si
remplazamos las funciones f(t) = t
p
por cualquier funcion f : R
+
R tal que la
aplicacion t f(e
t
) resulte convexa (o convexa creciente). Notar que, en el caso
demostrado, se usaba esa propiedad para la funcion t (e
t
)
p
= e
pt
.
4.5 Ejercicios
Ejercicios del texto
4.5.1. Sea A /
n
(R). Probar que A To (n) si y solo si
A0 , A1 = 1 y A

1 = 1,
Deducir que To (n) es un conjunto convexo, y que dadas dos matrices A, B To (n), entonces
tambien AB To (n).
4.5.2. Probar los 9 items de la Observacion 4.1.5.
4.5.3. Probar que, dados x, y R
n
, entoncecs
1. x
w
y si y solo si existe v R
n
tal que x v y.
2. x
w
y si y solo si y
w
x si y solo si existe w R
n
tal que y w x.
Ejercicios nuevos
4.5.4. Sea x R
n
. Probar que
k

i=1
x

i
= mn
_
|y|
1
+k|z|

: x = y +z
_
para todo k I
n
.
4.5.5. Sean x, y R
n
. Demostrar las siguientes propiedades:
1. x y si y solo si x
w
y junto con x
w
y.
2. Si > 0, entonces
x
w
y = x
w
y y x
w
y = x
w
y .
3. x
w
y x
w
y.
4. Para cualquier R no nulo, se tiene que x y x y.
82 Mayorizacion
4.5.6. Una transformacion lineal A en C
n
se dice que preserva positividad si lleva vectores
de coordenadas no negativas en vectores de coordenadas no negativas. Se dice que preserva
la traza si tr Ax = tr x para todo x. Se dice unital si A1 = 1.
Dada A /
n
(C), probar que A To (n) si y solo si la transformacion lineal A preserva
positividad, preserva la traza, y es unital. Mostrar que A preserva la traza si y solo si A

es
unital.
4.5.7. Sea A To (n) .
1. Sea x R
n
. Si [x[ = ([x
1
[, . . . , [x
n
[), demostrar que
[Ax[ A([x[) ( signica coordenada a coordenada) .
2. Demostrar que 1 (A) y que 1 admite un autovector de coordenadas positivas.
3. Demostrar que 1 = (A) = |A|
sp
.
4.5.8. Sean x, y R
n
. Probar que
1. x

+y

x +y x

+y

.
2. Si x, y R
n
+
, entonces x


w
x y
w
x

.
3. Si x, y R
n
+
, entonces (x, y) (x +y, 0) en R
2n
.
4. Probar que son equivalentes
a. x
w
y
b. Existe w R
n
tal que x w y.
4.5.9. Sea f : R
+
R
+
concava y tal que f(0) = 0. Probar que:
1. f es creciente (es continua?).
2. Si c, d R
+
, entonces f(c +d) f(c) +f(d).
3. Si x, y R
n
+
,
x y =

iIn
f(x
i
)

iIn
f(y
i
).
Mas a un, la misma desigualdad sigue valiendo si x
w
y.
4. Si x, y R
n
,

iIn
f([x
i
+y
i
[)

ij
f([x
i
[) +

iIn
f([y
i
[) .
4.5.10. Sean x, y, u R
n
tales que sus coordenadas estan ordenadas en forma decreciente.
Probar que:
1. x y = x, u) y, u) .
2. Si solo pedimos que x
w
y pero tenemos que u R
n
+
, entonces x, u) y, u).
Captulo 5
Mayorizaci on de autovalores y
valores singulares
En este captulo estudiaremos numerosas apariciones de relaciones de mayorizacion entre vec-
tores reales asociados a matrices, particularmente a vectores de autovalores, de valores sin-
gulares y a diagonales de matrices. Mostraremos el teorema de Schur-Horn, que caracteriza
todas las posibles diagonales de matrices en la orbita unitaria de una matriz A H(n) como
aquellos vectores d R
n
tales que d (A). Luego nos concentraremos en una caracterizacion
de las normas unitariamente invariantes, y daremos un criterio para mostrar desigualdades
para cualquiera de esas normas, en terminos de mayorizacion debil de vectores de valores
singulares. Despues daremos numerosas propiedades relacionadas con la mayorizacion apli-
cada a matrices autoadjuntas, que seran herramientas imprescindibles para atacar distintas
desigualdades en los siguientes captulos. Culminaremos con una prueba bastante reciente y
asombrosamente simple del famoso teorema de Lidskii, sobre relaciones de mayorizacion entre
vectores de autovalores de restas de matrices autoadjuntas, lo que da un expectacular avance
sobre el teorema de Weyl 5.1.6, que hace lo mismo con las sumas.
El teorema de Lidskii fue particularmente famoso porque fue anunciado sin dar detalles de
la prueba (en los a nos 60). Esto genero polemicas, que dieron lugar a numerosas demostra-
ciones independientes (en el libro de Bhatia [3] aparecen cuatro, todas bien complicadas).
Sin embargo, la que presentamos aqu (debida a Chi-Kwong Li y R. Mathias [28]) es par-
ticularmente simple, y usa como unica herramienta importante el teorema de Weyl, que por
muchos a nos fue considerado escencialmente mas debil. Finalizaremos dando algunas de las
importantes aplicaciones del Teorema de Lidskii.
84 Mayorizacion de autovalores y valores singulares
5.1 Aplicaciones a matrices Hermitianas
Teorema 5.1.1 (Teorema de mayorizacion de Schur 3). Sea A H(n). Recoredemos la
notacion d (A) = (a
11
, . . . , a
nn
) R
n
. Entonces, se tiene que
d (A) (A).
Demostracion. Para demostrar que d (A) (A) vamos a probar que d (A) = B (A), para
cierta B To (n). Como A H(n), si D = diag ((A)), existe U |(n) tal que A = U

DU.
Mediante cuentas elementales de matrices, se puede vericar que cada entrada de A tiene la
forma: dados i, j I
n
,
a
ij
=
n

k=1
u
ki

k
u
kj
, en particular, a
ii
=
n

k=1

k
[u
ki
[
2
.
Consideremos ahora la matriz B = ([u
ji
[
2
)
ij
que, por ser U unitaria, cumple B To (n).
Ademas
B(A) =
_

_
[u
11
[
2
[u
n1
[
2
.
.
.
.
.
.
.
.
.
[u
1n
[
2
[u
nn
[
2
_

_
_

1
.
.
.

n
_

_ =
_

_
n

k=1
[u
k1
[
2

k
.
.
.
n

k=1
[u
kn
[
2

k
_

_
= d (A) .
Luego, el Teorema 4.1.8 completa la demostracion.
Observacion 5.1.2. Otra demostracion del Teorema mayorizacion de Schur puede hacerse
por induccion, aplicando el Teorema de entrelace de Cauchy 2.4.2. Para ello basta reordenar
la diagonal de A, conjugandola por una matriz de permutacion como se hace en la Observacion
4.1.5, lo que no cambia sus autovalores.
Observacion 5.1.3. La matriz B = ([u
ji
[
2
)
ij
To (n) que aparece en el teorema anterior
(para cierta U |(n) ), es un tipo especial de matriz doble estocastica. A tales matrices se
las llama ortoestocasticas. Este simp atico nombre, que proviene de construir elementos de
To (n) a partir de matrices unitarias (que en el caso real se llaman ortogonales), esta bien
elegido porque no toda matriz A To (n) tiene la suerte de provenir de una matriz unitaria.
Por ejemplo A =
1
2
_
_
1 1 0
1 0 1
0 1 1
_
_
To(3), pero no es ortoestocastica, porque no hay modo
de que sus columnas provengan de vectores ortogonales.
Como corolario del Teorema mayorizaci on de Schur, encontramos una nueva caracterizacion
para los autovalores de una matriz Hermitiana. En este caso, para la suma de los k-primeros.
Proposicion 5.1.4 (Principio del Maximo de Ky Fan). Sea A H(n). Entonces
k

j=1

j
(A) = max
k

j=1
Ax
j
, x
j
) , para todo k I
n
,
5.1 Aplicaciones a matrices Hermitianas 85
donde el m aximo se toma sobre todas las k-uplas ortonormales x
1
, ..., x
k
en C
n
.
Demostracion. Fijemos k I
n
. Sea x
1
, ..., x
k
una k-upla ortonormal cualquiera. Sea
U |(n) tal que sus primeras k columnas sean los vectores dados. Sea B = U

AU. Luego
(B) = (A) y
k

j=1
b
jj
=
k

j=1
Be
j
, e
j
) =
k

j=1
AUe
j
, Ue
j
) =
k

j=1
Ax
j
, x
j
) .
Pero, por el Teorema de mayorizacion de Schur 5.1.1, se tiene que
k

j=1
Ax
j
, x
j
) =
k

j=1
b
jj

k

j=1
d (B)

j

k

j=1

j
(B) =
k

j=1

j
(A) .
Para ver la otra desigualdad, tomemos B = v
1
, ..., v
n
una BON de C
n
adaptada a (A).
Luego v
1
, ..., v
k
es una k-upla ortonormal y
max
k

j=1
Ax
j
, x
j
)
k

j=1
Av
j
, v
j
) =
k

j=1

j
(A) v
j
, v
j
) =
k

j=1

j
(A) ,
como queramos demostrar.
Ejercicios 5.1.5. Sea A H(n). Identicando las k-uplas ortonormales de C
n
con bases de
rangos de proyectores, y con columnas de isometras de C
k
en C
n
, probar que:
1. Si, para k I
n
, notamos T
k
(n) = P H(n) : P
2
= P y rk(P) = k, entonces
k

j=1

j
(A) = max
P1
k
(n)
tr PAP . (5.1)
2. Para todo k I
n
, se tiene que
k

j=1

j
(A) = max
U/
k
(n)
tr U

AU , (5.2)
donde |
k
(n) = U /
n,k
(C) : U

U = I
k
es el espacio de isometras de C
k
en C
n
.
Teorema 5.1.6 (Weyl). Sean A y B H(n). Entonces
(A+B) (A) +(B).
Es importante el hecho de que, en la suma (A) + (B), se asume que ambos vectores estan
ordenados de la misma forma.
86 Mayorizacion de autovalores y valores singulares
Demostracion. Por la formula (5.1), para todo k I
n
podemos escribir
k

j=1

j
(A+B) = max
P1
k
(n)
tr P(A+B)P max
P1
k
(n)
tr PAP + max
P1
k
(n)
tr PBP
=
k

j=1

j
(A) +
k

j=1

j
(B).
La igualdad para k = n surge de que tr(A+B) = tr(A) + tr(B).
Recordar que en la Proposicion 3.7.5 probamos que, dada C /
n
(C), entonces si

C =
_
0 C
C

0
_
/
2n
(C) ,
se tiene que
_

C
_
= s
i
(C) (con las mismas multiplicidades). Es decir,
(

C) = (s
1
(C), , s
n
(C), s
n
(C), , s
1
(C) ) . (5.3)
Corolario 5.1.7. Sean A, B H(n). Entonces
s(A+B)
w
s(A) +s(B).
Demostracion. Notar que

A+B =

A +

B. Por la Eq. (5.3) y las desigualdades resultantes
de la relaci on (

A+B) (

A) +(

B) para los n primeros ndices k I


n
I
2n
, se tiene que
s(A+B)
w
s(A) +s(B).
Observacion 5.1.8. Notar que el resultado anterior es necesario para vericar que las normas
| |
(k)
de Ky Fan, para cada k N, denidas en el Ejemplo 3.4.1, cumplen la desigualdad
triangular. Les haba salido el ejercicio?
5.2 Teorema de Schur-Horn
5.2.1. Sea x C
n
con |x| = 1 (a estos vectores los llamaremos unitarios). Entonces, como
vimos en 1.9.3, la matriz P
x
= x x = xx

= (x
i
x
j
)
ij
/
n
(C) es el proyector ortogonal
sobre el subespacio Gen x. Por lo tanto, si B = x
1
, . . . , x
n
es una BON de C
n
, vale que
z =
n

i=1
z, x
i
)x
i
para todo z C
n
= I =
n

i=1
x
i
x
i
. (5.4)

5.2 Teorema de Schur-Horn 87


Proposicion 5.2.2. Sea A /
n
(C). Se tiene que A /
n
(C)
+
si y solo si existen vectores
unitarios x
1
, . . . , x
r
C
n
, y n umeros
1
, . . . ,
r
R
+
tales que
A =
r

i=1

i
x
i
x
i
, o sea que A =
r

i=1

i
P
xi
. (5.5)
Demostracion. Por un lado es claro que si A cumple (5.5), entonces A 0. Recprocamente,
si A /
n
(C)
+
, sea B = x
1
, . . . , x
n
es una BON de C
n
adaptada a (A). Usando la
ecuacion (3.12), para todo z C
n
se tiene que,
Az = A
_
n

i=1
z, x
i
)x
i
_
=
n

i=1
z, x
i
)Ax
i
=
n

i=1

i
(A)z, x
i
)x
i
=
_
n

i=1

i
(A) x
i
x
i
_
z .
Luego A cumple (5.5).
Observacion 5.2.3. Notar que la mnima cantidad r de proyectores de rango uno que puede
usarse para obtener una representacion de A como en (5.5) es r = rk(A). Ademas, si A
/
n
(C)
+
cumple (5.5), deniendo y
i
=
1/2
i
x
i
, se tiene que las matrices y
i
y
i
no son mas
proyectores, pero s son positivos y se verica que A =
r

i=1
y
i
y
i
.
Es natural preguntarse, dado A /
n
(C)
+
y r rk(A), para que sucesiones
1
, . . . ,
r
en
R
+
se puede obtener para A una representacion como (5.5). Este problema esta ntimamente
relacionado con el llamado Teorema de Schur-Horn. Recordemos que si A /
n
(C), llamamos
d (A) = (a
11
, . . . , a
nn
) C
n
.
Proposicion 5.2.4. Sean c R
n
+
y A /
n
(C)
+
. Son equivalentes:
1. Existen vectores unitarios x
1
, . . . , x
n
C
n
tales que A =
n

j=1
c
j
x
j
x
j
.
2. Existe B /
n
(C)
+
tal que d (B) = c y (B) = (A), o sea que B

= A.
Demostracion. Si se verica 1, sea X /
n
(C) denida por C
k
(X) = c
1/2
k
x
k
, k I
n
.
Veamos que XX

= A: Para cada k I
n
, notemos por X
k
/
n
(C) a la matriz tal que
C
k
(X
k
) = C
k
(X), pero C
j
(X
k
) = 0 si j ,= k. Luego, se tiene que
X =

kIn
X
k
, X
k
X

j
= 0 si j ,= k y X
k
X

k
= c
k
x
k
x

k
= c
k
x
k
x
k
.
Es claro que todo esto implica que XX

= A. Por lo tanto (A) = (XX

) = (X

X). Si
B = X

X, es facil ver, ademas, que B


ii
= c
i
|x
i
|
2
= c
i
, i I
n
, lo que prueba 2.
88 Mayorizacion de autovalores y valores singulares
Recprocamente, si B /
n
(C)
+
cumple (B) = (A) y d (B) = c, sea U |(n) tal que
U

AU = B (se puede hacer, pasando por diag ((A)) ). Consideremos la matriz X = A


1/2
U.
Entonces X

X = B y XX

= A
1/2
U U

A
1/2
= A, mientras que c
i
= B
ii
= |C
i
(X)|
2
. Basta
ahora denir x
i
=
C
i
(X)
|C
i
(X)|
, y se verica como antes que
A = XX

=
n

j=1
c
j
x
j
x

j
=
n

j=1
c
j
x
j
x
j
,
lo que prueba 1.
Ahora s, podemos probar la recproca del Teorema 3 de Schur , sobre mayorizacon entre la
diagonal y los autovectores. Este resultado se debe a R. Horn, y poniendolos juntos se los
conoce como el Teorema de Schur-Horn, que tiene importantes aplicaciones y generalizaciones
a operadores en espacios de Hilbert y a algebras de operadores. Como ingrediente extra (clave
para la prueba) se incluye una tercera condicion equivalente (en el caso positivo), que tiene
que ver con lo que venamos viendo, o sea el expresar una matriz A /
n
(C)
+
como suma
de m ultiplos de proyectores unidimensionales.
Teorema 5.2.5. Sean b, c R
n
Entonces son equivalentes:
1. c b.
2. Existe B H(n) tal que d (B) = c y (B) = b

.
Si, ademas, b y c tienen entradas no negativas, lo anterior equivale a
3. Existen vectores unitarios x
1
, . . . , x
n
C
n
tales que
diag (b) =
n

j=1
c
j
x
j
x

j
.
Demostracion. Antes que nada, notemos que se puede suponer que b = b

y c = c

, porque
las tres condiciones son invariantes por permutaciones (en el caso de 2 y 3, va conjugar con
matrices de permutacion adecuadas, usando la Observacion 4.1.5). Notemos A = diag (b). El
Teorema 3 de Schur 5.1.1 muestra que 2 implica 1. La Proposicion 5.2.4 muestra que 2 y 3
son equivalentes, cuando b y c tienen entradas no negativas.
Vericaremos, en principio, que 1 implica 3 en el caso en que b y c tienen entradas estrictamente
positivas. Lo haremos por induccion en n. Si n = 1 no hay nada que probar. Sea n > 1.
Como b
1
c
1
b
n
, podemos tomar un k I
n1
tal que b
k
c
1
b
k+1
.
Se arma: existe x
1
Gen e
k
, e
k+1
de norma uno, tal que A
1
= Ac
1
x
1
x

1
tiene rango a
lo sumo n 1. En efecto, para ver que el tal x
1
existe, denimos
x(t) = cos
t
2
e
k
+ sin
t
2
e
k+1
y A(t) = Ac
1
x(t)x(t)

, t [0, 1] .
5.2 Teorema de Schur-Horn 89
Entonces la curva d(t) = det A(t) es continua. Pero d(1) 0 d(0) porque A(0) y A(1) son
matrices diagonales, con un solo elemento diagonal no positivo (es b
k+1
c
1
) en el caso de
A(1), y con todos no negativos (anche b
k
c
1
) en el de A(0). Luego basta tomar x
1
= x(t)
para alg un t [0, 1] tal que d(t) = 0.
Es claro que existe una BON y
1
, y
2
de Gen e
k
, e
k+1
tal que A
1
y
1
= (b
k
+ b
k+1
c
1
)y
1
y
A
1
y
2
= 0. Luego la matriz de A
1
en la bon B = y
2
, e
1
, . . . , e
k1
, y
1
, e
k+2
, . . . , e
n
queda
_
A
1
_
B
= diag (0, b
1
, . . . , b
k1
, (b
k
+b
k+1
c
1
), b
k+2
, . . . , b
n
) . (5.6)
Sean a, d R
n1
, dados por a = (c
2
, . . . , c
n
) y
d = (b
1
, . . . , b
k1
, (b
k
+b
k+1
c
1
), b
k+2
, . . . , b
n
) .
Notar que, como b
k
c
1
b
k+1
, entoncecs d
k1
= b
k1
b
k
d
k
b
k+1
b
k+2
= d
k+1
.
Para aplicar la HI al asunto anterior, deberamos probar que a d. En efecto, si r k,
r1

i=1
a
i
=
r

i=2
c
i

r1

i=1
c
i

r1

i=1
b
i
=
r1

i=1
d
i
.
Si k + 1 r n 1,
r

i=1
c
i

r

i=1
b
i
=
r1

i=1
a
i
=
r

i=2
c
i

k1

i=1
b
i
+ (b
k
+b
k+1
c
1
) +
r

i=k+2
b
i
=
r1

i=1
d
i
y las trazas andan bien porque c b. En consecuencia, a d. Sean, por HI, n 1 vectores
unitarios z
2
, . . . , z
n
C
n1
tales que diag (d) =
n

j=2
c
j
z
j
z

j
/
n1
(C)
+
. Luego
n

j=2
c
j
(0, z
j
)(0, z
j
)

= diag (0, d) =
_
A
1
_
B
/
n
(C)
+
. (5.7)
Si denimos x
2
, . . . , x
n
C
n
tales que las coordenadas de cada x
j
en B sean (0, z
j
), resulta
que son tambien unitarios (los z
j
lo son y B es una bon). Traduciendo la ecuacion (5.7)
(pensada en la base B) a coordenadas en la base canonica, obtenemos
A
1
=
n

j=2
c
j
x
j
x

j
/
n
(C)
+
y, por lo tanto,
A = A
1
+c
1
x
1
x

1
=
n

j=1
c
j
x
j
x

j
.
Conclumos que 1 implica 3, si b y c tienen entradas estricatamente positivas.
90 Mayorizacion de autovalores y valores singulares
De lo anterior podemos deducir que 1 2 en ese caso (b, c > 0), porque 1 3 y 3 2
(2 1 era el Teorema 3 de Schur). Pero esto se generaliza sin dicultad al caso general (con
b y c cualesquiera en R
n
) usando que para todo m R se tiene que
x + m1 y + m1 x y ,
y que dada B H(n), entonces d (B +mI) = d (B) +m1 y (B +mI) = (B) +m1.
Finalmente, probado 1 2 en general, ahora por la Proposicion 5.2.4, ya sabemos que 3 es
equivalente a ellas si b y c tienen entradas no negativas.
Teorema 5.2.6. Sea a R
n
y A H(n) tal que (A) = a

. Entonces,
x R
n
: x a =
_
d ( UAU

) : U |(n)
_
.
Demostracion. Si B = UAU

, con U |(n), entoces (A) = (B) = a

. Luego por el
Teorema de mayorizacion de Schur 5.1.1, se tiene que d (B) a.
Recprocamente, si x R
n
cumple x a, por el Teorema 5.2.5 existe B H(n) tal que
d (B) = x y (B) = a

. Por lo tanto debe existir U |(n) tal que B = UAU

. Luego
x d (UAU

) : U |(n).
Corolario 5.2.7. Sean A /
n
(C)
+
y c R
m
+
, con m n. Entonces existen proyectores
autoadjuntos P
1
, . . . , P
m
de rango uno, tales que
A =
m

k=1
c
k
P
k
c ((A), 0, . . . , 0) := (A) R
m
+
.
Demostracion. Sea A
1
=
_
A 0
0 0
_
/
m
(C)
+
. Luego (A
1
) = (A). Por el Teorema 5.2.6,
c (A) si y solo si existe U |(m) tal que d (UA
1
U

) = c. Es claro que si
P =
_
I
n
0
0 0
_
/
m
(C)
+
, entonces UA
1
U

= UPA
1
PU

.
Luego, si llamamos U
1
/
m,n
(C) a la parte no nula de UP, entonces U
1
AU

1
= UA
1
U

.
Notar que U

1
U
1
= I
n
. Si denimos T = A
1/2
U

1
/
n,m
(C), y x
i
= C
i
(T) C
n
para
i I
m
, se tiene que UA
1
U

= T

T, por lo que |x
i
|
2
= c
i
, i I
m
. Por otro lado,
A = TT

=
m

k=1
x
k
x

k
=
m

k=1
c
k
P
k
,
donde P
k
= c
1
k
x
k
x

k
es proyector autoadjunto de rango uno, para k I
m
(si c
k
= 0, puede
tomarse como P
k
cualquier cosa). La recproca se prueba deniendo T /
n,m
(C) tal que
tenga columnas x
k
= c
1/2
k
y
k
, donde y
k
y

k
= P
k
, k I
m
. El hecho de que A = TT

implica
que existe una U
1
/
m,n
(C) que cumple todo lo siguiente:
T = A
1/2
U

1
, U

1
U
1
= I
n
y d (U
1
AU

1
) = d (T

T) = c .
Luego se extiende U
1
a una U |(m), con lo que U
1
AU

1
= UA
1
U

.
5.3 Normas unitariamente invariantes 91
Observacion 5.2.8. El resultado anterior resulve el problema planteado en el parrafo anterior
a la Proposicion 5.2.4, al menos para el caso r n. Es facil ver, usando el Teorema 5.2.5, que
si A /
n
(C)
+
, rk(A) r < n y c R
r
+
, entonces la condicion necesaria y suciente para
que A pueda ser representado A =

r
k=1
c
k
P
k
para ciertos proyectores P
k
de rango uno, es
que (A) ~ (c, 0, . . . , 0) R
n
.
5.3 Normas unitariamente invariantes
Denicion 5.3.1. Dada una norma N en /
n
(C), decimos que N es una norma unitariamente
invariante (NUI) , si cumple que
N(UAV ) = N(A) para toda A /
n
(C) y todo par U, V |(n) .
En tal caso, el Teorema 3.2.5 dice que N(A) = N((A) ) para toda A /
n
(C).
Denicion 5.3.2. Sea N una NUI en /
n
(C). Consideremos la funcion
g
N
: C
n
R
+
dada por g
N
(x) = N (diag (x) )
para todo x C
n
.
Proposicion 5.3.3. Sea N una NUI en /
n
(C) y sea x C
n
. Entonces:
1. g
N
es una norma en C
n
.
2. g
N
(x) = g([x[) := g
N
([x
1
[ , . . . , [x
n
[).
3. g
N
(x) = g(x

) = g
N
(x
(1)
, . . . , x
(n)
), para toda S
n
.
Demostracion.
1. Se deduce de que la aplicaci on C
n
x diag (x) /
n
(C) es lineal e inyectiva.
2. Sea x
j
=
j
[x
j
[ donde w
j
= e
i j
. Como W = diag (
1
, . . . ,
n
) |(n), tenemos que
g
N
([x[) = N(diag ([x[) ) = N(W

diag (x) ) = N(diag (x) ) = g


N
(x) .
3. Sea P

|
1
(n) la matriz asociada a . Luego P

diag (x) P

= diag (x

) . Entonces,
g
N
(x

) = N(P

diag (x) P

) = N(diag (x) ) = g
N
(x) .
Denicion 5.3.4. Una funcion f : C
n
R que cumple los tems 1, 2 y 3 de la Proposicion
anterior se denomina gauge simetrica. Abreviaremos esto escribiendo que f es una fgs.
Lema 5.3.5. Si g es una fgs, entonces, g es monotona en el siguiente sentido: Si se cumple
que [x
i
[ [y
i
[ para todo i I
n
, entonces, g(x) g(y).
92 Mayorizacion de autovalores y valores singulares
Demostracion. Por la Proposicion 5.3.3, podemos suponer que x, y R
n
+
. Por un argumento
inductivo, es suciente vericar que si t [0, 1] y k I
n
, entonces
g(y
1
, . . . , t y
k
, . . . , y
n
) g(y
1
, . . . , y
k
, . . . , y
n
) .
En efecto, si tomamos ese x = (y
1
, . . . , t y
k
, . . . , y
n
), entonces
g(x) = g
_
1 +t
2
y +
1 t
2
(y
1
, . . . , y
k
, . . . , y
n
)
_

1 +t
2
g(y) +
1 t
2
g(y
1
, . . . , y
k
, . . . , y
n
)
=
1 +t
2
g(y) +
1 t
2
g(y) = g(y) ,
Este Lema nos permitira mostrar la relacion clave que existe entre estas fgss y la mayorizacion
debil de vectores.
Teorema 5.3.6. Sea g es una funcion gauge simetrica en C
n
y sean x, y R
n
+
tales que
x
w
y. Entonces, g(x) g(y).
Demostracion. Como x
w
y, la Proposicion 4.1.12 nos asegura que existe u R
n
tal que
xu y. Ahora bien, el Lema 5.3.5 garantiza que g(x) g(u) (recordar que x0).
Por otro lado, como u y, el Teorema 4.1.8 nos dice que u =

Sn

, para ciertos

[0, 1] tales que



Sn

= 1. Luego
g(u) = g
_

Sn

Sn

g(y

) =

Sn

g(y) = g(y) .
Teorema 5.3.7.
1. Si N es una NUI en /
n
(C), entonces, g
N
es una fgs en C
n
.
2. Si g es una fgs en C
n
, entonces la funcion N
g
: /
n
(C) R
+
dada por
N
g
(A) = g(s
1
(A) , . . . , s
n
(A) ) , para A /
n
(C) ,
es una NUI en /
n
(C).
Demostracion.
1. Esto es la Proposicion 5.3.3.
2. Solo demostraremos la desigualdad triangular. Las demas propiedades quedan como
ejercicio para el lector. Sean A, B /
n
(C). Luego
N
g
(A+B) = g(s(A+B)) g(s(A)+s(B)) g(s(A))+g(s(B)) = N
g
(A)+N
g
(B) ,
ya que s(A+B)
w
s(A) +s(B) y podemos usar el Teorema 5.3.6.
5.3 Normas unitariamente invariantes 93
Teorema 5.3.8 (Ky Fan). Sean A, B /
n
(C). Entonces son equivalentes:
1. N(A) N(B) para toda norma unitariamente invariante N.
2. |A|
(k)
|B|
(k)
para todo k I
n
.
3. s(A)
w
s(B).
Demostracion. Es consecuencia de los Teoremas 5.3.6 y 5.3.7. En efecto, observar que
|A|
(k)
|B|
(k)
para todo k I
n
s(A)
w
s(B) ,
y en tal caso se tiene que g(s(A) ) g(s(B) ) para toda fgs. La recproca es evidente.
Ahora saldamos otra deuda contraida en el Ejemplo 3.4.1:
Corolario 5.3.9. Para todo n N y todo p [1 , ), la norma p de Schatten, dada por
|A|
p
=
_
n

i=1
s
i
(A)
p
_
1/p
= (tr [A[
p
)
1/p
para A /
n
(C) ,
es efectivamente una norma en /
n
(C), y adem as es NUI.
Demostracion. Se usa el Teorema 5.3.7 y el hecho de que la norma p usual en R
n
es una
funcion gauge simetrica.
Corolario 5.3.10. Sean A, B /
n
(C)
+
tales que A B. Entonces, N(A) N(B) para
toda norma unitariamente invariante N.
Demostracion. Aplicando el Corolario 2.3.7, obtenemos que
0 A B = s
k
(A) =
k
(A)
k
(B) = s
k
(B) , para todo k I
n
.
Luego basta aplicar el Teorema 5.3.8.
Corolario 5.3.11. Sea N una NUI en /
n
(C). Dadas A, B /
n
(C), se tiene que
1. N(AB) |A|
sp
N(B).
Ademas, si N es normalizada (i.e., N(E
11
) = 1),
2. |A|
sp
N(A) |A|
1
= tr [A[.
3. N es una norma matricial.
Demostracion.
1. Se deduce de la desigualdad s
k
(AB) |A|
sp
s
k
(B) para todo k I
n
, vista en la
formula (3.3), y del Teorema 5.3.8.
94 Mayorizacion de autovalores y valores singulares
2. Sea g la funcion gauge simetrica asociada a N. Como N esta normalizada, entonces
g(e
k
) = 1 para todo k I
n
. Luego,
|A|
sp
= s
1
(A) = g(s
1
(A), 0, . . . , 0) g(s(A) ) = N(A) .
Analogamente, N(A) = g(s(A) )
n

k=1
s
k
(A)g(e
k
) =
n

k=1
s
k
(A) = |A|
1
.
3. Es claro usando lo anterior.
Proposicion 5.3.12. Sea g : R
n
R, una funcion convexa e invariante por permutaciones,
es decir que si x R
n
y P |
1
(n) , entonces g(x) = g(Px). Entonces, dados x, y R
n
,
x y = g(x) g(y) .
En particular, esto se verica si g es una fgs.
Demostracion. Si x y, el Teorema 4.1.8 asegura que x =

Sn

y . para ciertos

[0, 1] tales que



Sn

= 1. Entonces
g(x) = g
_

Sn

y
_

Sn

g (P

y) = y .
Notar que si g es una fgs, es convexa por ser una norma (homogeneidad + DT).
Corolario 5.3.13. Dadas A, B H(n). Entonces
(A) (B) = s(A)
w
s(B).
Demostracion. Como A H(n), se tiene que s(A) = [ (A)[

. Por lo tanto, si g es una


fgs, se tiene que g(s(A) ) = g((A) ). Lo mismo pasa para B, y el resultado se deduce de la
Porposicion 5.3.12, aplicado a las fgss g
k
(x) =
k

i=1
x

i
, para k I
n
.
Corolario 5.3.14. Dadas A, B H(n), si (A) (B) entonces N(A) N(B) para toda
norma unitariamente invariante N.
Demostracion. Se deduce del Corolario 5.3.13 y del Teorema 5.3.7.
5.4 Mayorizaci on de matrices Hermitianas
Hasta el momento solo hemos visto resultados relacionados con la mayorizacion de vectores.
Pero a cada matriz A H(n) se le puede asociar el vector (A) R
n
formado por todos los
autovalores de A. Esto permite la siguiente denicion,
5.4 Mayorizacion de matrices Hermitianas 95
Denicion 5.4.1. Si A, B H(n), se dice que A esta mayorizada por B y se escribe A B
si se verica que (A) (B). Es decir, A B si
k

j=1

j
(A)
k

j=1

j
(B), 1 k n y tr A = tr B .
Denicion 5.4.2. Sea A /
n
(C).
1. Dado un proyector P H(n) (o sea P = P
2
= P

), se dene el pinching de A como


C
P
(A) := PAP + (I P)A(I P) H(n) .
Por ejemplo, si P proyecta sobre las primeras k coordenadas en C
n
, entonces
A =
_
B C
D E
_
= C
P
(A) =
_
B 0
0 E
_
,
donde los bloques tienen los tama nos adecuados (por ejemplo, B /
k
(C) ). La matriz
de C
P
(A) tiene siempre esa pinta, si uno trabaja en coordenadas de una BON que
empiece generando R(P) y termine generando ker P.
2. Mas generalmente, un sistema de proyectores en /
n
(C) es una conjunto
T = P
1
, . . . , P
r
H(n) ,
donde los P
i
son proyectores no nulos tales que
P
i
P
j
= 0 si i ,= j y
r

i=1
P
i
= I .
Notar que un proyector P H(n) dene un sistema de dos proyectores T = P, I P.
3. Dado un sistema de proyectores T = P
1
, . . . , P
r
en /
n
(C), se dene el pinching
asociado:
C
1
: /
n
(C) /
n
(C) , dado por C
1
(A) =
r

i=1
P
i
AP
i
, A /
n
(C),
que tambien puede verse como una compresion a bloques diagonales (operando en una
BON adecuada). Notar que se tiene la siguiente factorizacion:
C
1
= C
P1
C
P2
C
Pr
, (5.8)
y lo mismo en cualquier otro orden entre los C
Pi
.
Ejercicios 5.4.3.
96 Mayorizacion de autovalores y valores singulares
1. Si A H(n) y (A) =
1
, . . . ,
r
(todos distintos), entonces deniendo P
i
como el
proyector sobre ker(A
i
I), i I
r
, se obtiene un sistema de proyectores que verica
que A =
r

i=1

i
P
i
.
2. Dado un sistema de proyectores T en /
n
(C) y una matriz A /
n
(C), se tiene que
C
1
(A) = A si y solo si A conmuta con todos los P
i
de T. O sea, si A es diagonal de
bloques. Vericar que eso sucede en el ejemplo anterior.
3. Probar que, dado un sistema de proyectores T en /
n
(C), el operador pinching C
1
verica las siguientes propiedades:
(a) Es lineal, idempotente (i.e., C
1
C
1
= C
1
) y R(C
1
) es el subespacio de matrices
que conmutan con todos los P
i
, i I
r
.
(b) Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicion 5.4.9).
(c) Si A /
n
(C) es autoadjunto (resp. positivo) entonces C
1
(A) es autoadjunto
(resp. positivo). Por lo tanto, en general, C
1
(A

) = C
1
(A)

.
Proposicion 5.4.4. Sea A H(n) y T un sistema proyectores en H(n). Entonces
C
1
(A) A.
Demostracion. Por la Eq. (5.8), basta considerar el caso de pinchings de un solo proyector
P H(n), o sea, el sistema T = P, I P. Sea U = P (I P) = 2 P I H(n). Es facil
ver que, si R(P) = o, entonces se tiene que
U = P (I P) =
_
I 0
0 I
_
o
o

|(n) = 2 C
P
(A) = A+UAU = A+UAU

. (5.9)
Pero, como (UAU

) = (A), por el Teorema de Weyl 5.1.6 se tiene


2 (C
P
(A)) (A) +(UAU
1
) = 2 (A) ,
por lo que C
P
(A) A.
Ejercicio 5.4.5. 1. Claricar en que sentido la Proposicion 5.4.4 es una generalizacion
del Teorema de mayorizacion de Schur.
2. Dados x, y, z, w R
n
tales que x = x

, y = y

, z = z

y w = w

, probar que
z w y x y = x +z y +w .
Es cierto si no estan ordenados?
3. Deducir del Teorema 5.1.6 (+ induccion) que, si A
1
, . . . , A
m
H(n), entonces

_
m

k=1
A
k
_

k=1
(A
k
) .

5.4 Mayorizacion de matrices Hermitianas 97


Denicion 5.4.6. Dado un espacio vectorial V y un subconjunto ( V, llamaremos conv [(]
a la capsula convexa de (:
conv [(] =
_
m

k=1

k
b
k
: m N, b
k
(, R
m
y (1, 0, . . . , 0)
_
.
es decir, el conjunto de todas las combinaciones convexas de elementos de (.
El siguiente teorema da una caracterizacion, intrnseca de matrices, de la mayorizacion ma-
tricial:
Teorema 5.4.7. Sea A H(n). Denotemos por
|(A) = UAU

: U |(n) = B H(n) : (B) = (A)


la orbita unitaria de A. Entonces,
T H(n) : T A = conv [|(A) ] . (5.10)
O sea que T A si y solo si T es combinaci on convexa de conjugados unitarios de A.
Demostracion. Tomemos una matriz
T =
m

k=1

k
U
k
AU

k
conv [|(A) ] ,
donde los U
k
|(n) y R
m
+
cumple que e
(m)
1
. Por el Ejercicio 5.4.5,
(T)
m

k=1
(
k
U
k
AU

k
) =
m

k=1

k
(A) = (A) = T A .
Recprocamente, sea T H(n) tal que (T) (A). Notaremos a = (A). Con las notaciones
de la Observacion 4.1.5, el Teorema 4.1.8 dice que
(T) =

Sn

a =

Sn

para ciertos

[0, 1] tales que



Sn

= 1. Notemos D = diag (a). Por la Eq. (4.4) de la


Observacion 4.1.5, se tiene que P

DP

= diag (a

). Por lo tanto,
diag ((T) ) =

Sn

DP

.
Finalmente, si V, W |(n) hacen que A = V

DV y T = W diag ((T) ) W

, entonces
T = W diag ((T) ) W

Sn

WP

DP

Sn

(WP

V ) A (V

) .
Luego T conv [UAU

: U |(n)] = conv [|(A) ].


98 Mayorizacion de autovalores y valores singulares
Observacion 5.4.8. Notar que el Teorema 5.4.7 permite generalizar el Corolario 5.3.14 en
el siguiente sentido: Si A, B H(n), por la formula (5.10) se tiene que
A B = N(A) N(B)
para toda norma N que verique N(UCU

) = N(C), C /
n
(C), U |(n). Estas normas
se llaman debilmente unitariamente invariantes (NDUI). Notar que, por ejemplo,
w(C) = max
_
[Cx, x)[ : |x| = 1
_
, C /
n
(C),
que se llama radio numerico de C, es una tal norma, pero no es NUI. Otro ejemplo de este
tipo es M(C) = N(C)+[ tr C[, que es NDUI para cualquier NUI N. Para el caso de pinchings,
se tiene un resultado mas general que la Proposicion 5.4.4:
Proposicion 5.4.9. Sean A /
n
(C) (no necesariamente autoadjunta) y T un sistema
proyectores en H(n). Entonces
N
_
C
1
(A)
_
N(A) , para toda norma N que sea NDUI en /
n
(C) . (5.11)
Demostracion. Por la Eq. (5.8) basta probarlo para un solo proyector P H(n). En tal caso,
sea U = P (I P) = 2 P I |(n). Por la Eq. (5.9), se tiene que
2 C
P
(A) = A+UAU = A+UAU

.
Con esto, la desigualdad al tomar N es clara.
Observacion 5.4.10. Otra forma de verlo es observar que, en el caso general, siempre se
verica que C
1
(A) conv [UAU

: U |(n)], aunque A no sea autoadjunta. Esto se hace


eligiendo las matrices unitarias y diagonales de bloques (para T), con I
R(Pi)
en cada bloque
(ver el ejercicio 5.6.4).
Proposicion 5.4.11. Sean A, B /
n
(C). Sea N una NUI. Entonces se tienen las desigual-
dades
1
2
N
_
A+B 0
0 A+B
_
N
_
A 0
0 B
_
N
_
[A[ +[B[ 0
0 0
_
.
Demostracion. La primera desigualdad se deduce de que
_
B 0
0 A
_

=
_
A 0
0 B
_
, va la matriz
_
0 I
I 0
_
|(n) .
Para probar la segunda, notar que, si A = U[A[ y B = V [B[ con U, V |(n), entonces
_
A 0
0 B
_
=
_
U 0
0 V
_ _
[A[ 0
0 [B[
_
= N
_
A 0
0 B
_
= N
_
[A[ 0
0 [B[
_
,
por lo que podemos suponer que A, B /
n
(C)
+
. En tal caso, si C = A
1/2
, D = B
1/2
, y
T =
_
C 0
D 0
_
, entonces
_
A+B 0
0 0
_
= T

T .
5.5 Teoremas de Lindskii y sus aplicaciones 99
Por otra parte, TT

= T

T, por lo que N(TT

) = N(T

T). Ademas,
TT

=
_
C
2
CD
DC D
2
_
=
_
A CD
DC B
_
.
Luego
_
A 0
0 B
_
es un pinching de TT

, y por la formula (5.11), en la Proposicion 5.4.9, se


tiene que N
_
A 0
0 B
_
N(TT

) .
5.5 Teoremas de Lindskii y sus aplicaciones
El teorema de Lidskii tiene tres versiones equivalentes. Comenzaremos enunciando las tres, y
luego iremos armando las pruebas.
Teorema 5.5.1 (Lidskii 1). Sean A, B H(n). Entonces
(A) (B) (AB) (A) (B) .
Ejercicio 5.5.2. 1. Decir porque es incorrecta la siguiente prueba de la primera parte del
Teorema de Lidskii 1: Si A, B H(n), por el Teorema 5.1.6, (A) (AB) +(B).
Por lo tanto, para todo k I
n
,
k

j=1

j
(A)
j
(B)
k

j=1

j
(AB) .
Deducimos entonces que (A) (B) (A B). La igualdad, para k = n, sale
tomando trazas. Si no ven la piada, leer la Observacion 4.1.9.
2. Demostrar (bien) la otra parte del Teorema ( quien era (B)?).
Recordemos que, si B /
n
(C), llamamos s(B) = (s
1
(B), . . . , s
n
(B)) = ([B[), al vector de
valores singulares de B, ordenados en forma decreciente.
Teorema 5.5.3 (Lidskii 2). Sean A, B /
n
(C). Entonces
[s(A) s(B)[
w
s(AB) .
Una ves resuelto el Ejercicio 5.5.2, se entendera porque es necesaria (y suciente) la siguiente
versi on mas tecnica del Teorema de Lidskii. Obsrvar que puede verse como una generalizacion
natural del Teorema de Weyl 2.3.5 (que, de hecho, es lo que se usa en su prueba). La prueba,
asombrosamente simple comparada con las que historicamente la precedieron, necesita un
mnimo repaso: Si A H(n), se denen A
+
=
A+]A]
2
y A

=
]A]A
2
. Se probaba en la
Seccion 3.3 que ambas estan en /
n
(C)
+
, que A = A
+
A

y que para todo k I


n
se tiene

k
(A
+
) = max
k
(A) , 0 y
k
(A

) = mn
nk+1
(A), 0 . (5.12)
100 Mayorizacion de autovalores y valores singulares
Teorema 5.5.4 (Lidskii 3). Sean A, B H(n), k I
n
y J I
n
con [J[ = k. Entonces

j J

j
(A) +
k

i=1

i
(B)

j J

j
(A+B)

j J

j
(A) +
k

i=1

i
(B) . (5.13)
Demostracion. Probaremos, en principio, la desiguadad de la derecha en (5.13). Sin perdida
de generalidad podemos suponer que
k
(B) = 0. En efecto, si probaramos el resultado para
B
k
(B)I (que cumple lo pedido) y A, podramos deducir inmediatamente la desigualdad
de la derecha en (5.13), dado que

j
(A+B) =
j
(A+B
k
(B)I) +
k
(B) y
i
(B) =
i
(B
k
(B)I) +
k
(B) ,
para todo j J e i I
n
(sobrara k
k
(B) en ambos terminos, y se puede cancelar). Sea
B = B
+
B

la descomposicion de B en partes positiva y negativa descriptas en el repaso


previo (sino, ver la Eq. (3.5) ). Como
k
(B) = 0, aplicando la Eq. (5.12) se tiene que

j
(B
+
) = max
j
(B) , 0 , para todo j I
n
= tr(B
+
) =
k

j=1

j
(B) .
Por el teorema de Weyl, mas especicamente el Corolario 2.3.7, el hecho de que
A+B A+B
+
=
j
(A+B)
j
(A+B
+
) para todo j I
n
.
En consecuencia,

j J
_

j
(A+B)
j
(A)
_

j J
_

j
(A+B
+
)
j
(A)
_
.
Por el Corolario 2.3.7, tambien
j
(A+B
+
)
j
(A), para todo j I
n
. Por lo tanto

j J
_

j
(A+B
+
)
j
(A)
_

j=1
_

j
(A+B
+
)
j
(A)
_
= tr(A+B
+
) tr(A)
= tr(B
+
) =
k

j=1

j
(B) .
Esto prueba la desiguadad de la derecha en la Eq. (5.13). La otra se deduce de la anterior,
pero aplicada al conjunto J
t
= n j + 1 : j J y las matrices A y B. Se usa que

r
(C) =
nr+1
(C) =
r
(C) ,
para cualquier C H(n) y para todo r I
n
.
Observacion 5.5.5. Una formulacion equivalente del Teorema 5.5.4 que tambien se usa
mucho es la siguiente: Dadas A, B H(n), k I
n
y J I
n
con [J[ = k, se tiene que

j J

j
(A)
j
(B)
k

i=1

i
(AB)

j J

j
(A)
j
(B) . (5.14)
En efecto, basta aplicar la Eq. (5.13) a las matrices B y AB, y pasar restando.
5.5 Teoremas de Lindskii y sus aplicaciones 101
Demostracion del Teorema de Lidskii 1. Usando la formulacion (5.14) del tercer Teorema de
Lidskii, obtenemos
k

j=1
_
(A) (B)
_

j
= m ax
JIn
]J]=k
_
_
_

j J

j
(A)
j
(B)
_
_
_

k

j=1

j
(AB) , (5.15)
para todo k I
n
. Como las trazas estan bien, sale que (A) (B) (AB).
Demostracion del Teorema de Lidskii 2. Veamos en principio que, si k I
n
, entonces
max
JI2n
]J]=k
_
_
_

j J

j
_

A
_

j
_

B
_
_
_
_
=
k

j=1

s(A) s(B)

j
.
En efecto, por la formula (3.16) de Proposicion 3.7.5, si j I
n
se tiene que

j
_

A
_

j
_

B
_
= s
j
(A) s
j
(B) y

2nj+1
_

A
_

2nj+1
_

B
_
=
_
s
j
(A) s
j
(B)
_
.
Por otro lado, aplicando la formula (5.15) o la (5.14) a

A,

B y a

AB =

A

B, vemos que
max
JI2n
]J]=k
_
_
_

j J

j
_

A
_

j
_

B
_
_
_
_

k

j=1

j
_

AB
_
=
k

j=1
s
j
(AB) ,
y podemos concluir que
k

j=1

s(A) s(B)

j

k

j=1
s
j
(AB) para todo k I
n
.
Corolario 5.5.6. Sean N una NUI en /
n
(C) y A, B /
n
(C). Entonces
N
_
(A) (B)
_
N(AB) .
Demostracion. Notar que s((A) (B) ) = [s(A) s(B)[

. Por lo tanto el Teorema de


Lidskii 2 implica que
|(A) (B)|
(k)
|AB|
(k)
para todo k I
n
.
Luego se aplica el Teorema 5.3.8.
Corolario 5.5.7. Sean N una NUI en /
n
(C) y A (l (n). Sea U la unica matriz unitaria
tal que A = U[A[ (i.e. U = A[A[
1
|(n)). Entonces
d
N
(A, |(n) ) = N(AU) = N((A) I) = g
N
(s(A) 1) .
102 Mayorizacion de autovalores y valores singulares
Demostracion. Sea V |(n). Entonces (V ) = I. Por el Corolario 5.5.6, tenemos que
N(AV ) N((A) I). Por otra parte, sea W |(n) tal que [A[ = W(A)W

. Entonces
AU = UW(A)W

UWW

= UW((A) I)W

.
Dado que N es una NUI, resulta que N(AU) = N((A) I).
Ejercicio 5.5.8. Sea /
n
(C)
1
el conjunto de matrices en /
n
(C) de rango uno (o cero).
Dada A /
n
(C), llamemos
1
(A) = diag (0, s
2
(A), . . . , s
n
(A)) .
Probar que si N es una NUI, d
N
(A, /
n
(C)
1
) = N(
1
(A)) y se alcanza en la matriz
A
1
= UWdiag (s
1
(A), 0, . . . , 0) W

,
donde A = UW(A)W

. Probar, aparte, que A


1
no depende de la matriz U |(n) elegida
para realizar la descomposicion polar de A, pero s puede depender de W (si s
1
(A) tiene
multiplicidad mayor que uno para [A[). Mostrar que otra manera de encontrar A
1
es tomando
A
1
= s
1
(A)x y = s
1
(A)yx

, donde x es un vector unitario tal que |Ax| = |A|


sp
= s
1
(A),
e y = Ux. Generalizar el resultado al conjunto de matrices de rango a lo sumo k.
5.6 Ejercicios
Ejercicios del texto
5.6.1. Sea A H(n). Para cada k I
n
, notamos
T
k
(n) = P H(n) : P
2
= P y rk(P) = k y |
k
(n) = U /
n,k
(C) : U

U = I
k
.
Probar que, para todo k I
n
, se tiene que
k

j=1

j
(A) = max
P1
k
(n)
tr PAP = max
U/
k
(n)
tr U

AU .
5.6.2. Si A H(n) y (A) =
1
, . . . ,
r
(todos distintos), entonces deniendo P
i
como
el proyector ortogonal sobre ker(A
i
I), i I
r
, se obtiene un sistema de proyectores que
verica que A =
r

i=1

i
P
i
.
5.6.3. Dado un sistema de proyectores T = P
1
, . . . , P
r
en /
n
(C), probar que se tiene la
siguiente factorizacion de su pinching:
C
1
= C
P1
C
P2
C
Pr
,
y lo mismo en cualquier otro orden entre los C
Pi
.
5.6 Ejercicios 103
5.6.4. Sean A /
n
(C) y T = P
1
, . . . , P
r
/
n
(C) un sistema de proyectores. Probar
que
C
1
(A) = 2
n

JIn
U
J
AU
J
= 2
n

JIn
U
J
AU
J

,
donde cada U
J
=

kJ
P
k


k/ J
P
k
|(n). Deducir que C
1
(A) conv [UAU

: U |(n)].
5.6.5. Dado un sistema de proyectores T en /
n
(C) y una matriz A /
n
(C), se tiene que
C
1
(A) = A si y solo si A conmuta con todos los P
i
de T. O sea, si A es diagonal de bloques.
5.6.6. Probar que, dado un sistema de proyectores T en /
n
(C), el operador pinching C
1
verica las siguientes propiedades:
1. Es lineal, idempotente (i.e., C
1
C
1
= C
1
) y R(C
1
) es el subespacio de matrices que
conmutan con todos los P
i
, i I
r
.
2. Reduce normas espectrales y preserva trazas (si no sale, ver la Proposicion 5.4.9).
3. Si A /
n
(C) es autoadjunto (resp. positivo) entonces C
1
(A) es autoadjunto (resp.
positivo). Por lo tanto, en general, C
1
(A

) = C
1
(A)

.
5.6.7. Dados x, y, z, w R
n
, todos ordenados en forma decreciente, probar que
z w y x y = x +z y +w .
Es cierto si no estan ordenados?
5.6.8. Si A
1
, . . . , A
m
H(n), probar que
_
m

k=1
A
k
_

k=1
(A
k
) .
5.6.9. Hacer el Ejercicio 5.5.8
Normas debilmente unitariamente invariantes (NDUIs)
Denicion 5.6.10. Una norma N en /
n
(C) es una NDUI si cumple que
N(A) = N(UAU

) para toda A /
n
(C) y toda U |(n) .
5.6.11. Probar que las siguientes normas son NDUIs.
1. El radio numerico.
2. N(A) = |A| +[ tr A[.
3. N(A) =
_
/(n)
m(UAU

)dU, donde m() una norma en /


n
(C) y dU reere a la medida
de Haar (normalizada) de |(n).
104 Mayorizacion de autovalores y valores singulares
5.6.12. Sea N una NDUI. Demostrar que
1. Dadas A, B /
n
(C), si A B, entonces N(A) N(B).
2. Dado un sistema de proyectores T en C
n
, se tiene que
N((
1
(A) ) N(A) para toda A /
n
(C) .
5.6.13. Probar que si N es una NDUI, entonces N(A)
[ tr A[
n
N(I). Si no sale a mano,
esperar hasta el Corolario 10.2.7.
Ejercicios nuevos
5.6.14. Dadas A, B /
n
(C)
+
, mostrar que
(A) (B) (AB) (A) (B) .
Si solo tenemos que A, B H(n), entonces mostrar que
(A) , (B) ) tr AB (A) , (B) ) .
5.6.15. Dada A /
n
(C), probar que
1. |A|
(k)
= mn
_
|B|
1
+k|C|
sp
: A = B +C
_
.
2. Usar lo anterior para dar una nueva prueba del Teorema 5.5.3 (Lidskii 2), mostrando
previamente que, dadas A, B H(n),
(a) |(A) (B)|

|AB|.
(b) |(A) (B)|
1
|AB|
1
= |AB|
(n)
.
3. Mostrar que el Teorema 5.5.3 implica el Teorema 5.5.1 (Lidskii 1).
5.6.16. Sea A H(n)
1. Sea o C
n
un subespacio de dimension n 1. Si A
S
= P
S
AP
S
: o o es el
comprimido de A a o, entonces:
(a)
k
(A)
k
(A
S
)
k+1
(A), para todo k I
n1
.
(b) Sea v
1
, . . . , v
n
una BON adaptada a (A).
a. Si v
1
, . . . , v
k
o, entonces
i
(A) =
i
(A
S
) para i I
k
.
b. Si v
k
, . . . , v
n
o, entonces
i1
(A
S
) =
i
(A), k i n.
2. Probar el Teorema de Lidskii 3 (por induccion sobre n) usando el ejercicio anterior, y
considerando independientemente los casos:
(a) i
k
< n ,
5.6 Ejercicios 105
(b) 1 < i
1
,
(c) i
1
= 1, i
k
= n.
5.6.17. Sean A, B H(n). Entonces
1. (A) +(B) (A+B) (A) +(A).
2. Dados x, y R
n
, se tiene que
x

x y x

y x

+y

x +y x

+y

.
Por lo tanto g(x

) g(x y) para toda fgs.


3. Si, para C H(n), llamamos E
d
(C) = diag ((C)) y E
c
(C) = diag ((C)), entonces
N
_
E
d
(A) E
d
(B)
_
N(AB) N
_
E
d
(A) E
c
(B)
_
y
N
_
E
d
(A) +E
c
(B)
_
N(A+B) N
_
E
d
(A) +E
d
(B)
_
.
5.6.18 (Homan-Weilandt y agregados). Sean A, B /
n
(C) matrices normales. Sean
(A) y (A) sus vectores de autovalores en alg un orden.
1. Demostrar que existe una matriz doble estocastica D To (n) tal que
|AB|
2
2
=

i,j
[
i
(A)
j
(B)[
2
D
ij
.
2. Probar la siguiente desigualdades:
mn
Sn
n

i=1
[
i
(A)
(i)
(B)[
2
|AB|
2
2
max
Sn
n

i=1
[
i
(A)
(i)
(B)[
2
.
3. Sea B /
n
(R) diagonal y denamos
|(B) = UBU

: U |(n) H(n).
Demostar que dada C /
n
(C), la distancia d
2
(C, |(B)) (calculada en norma 2, la de
Frobenius), se realiza en una matriz diagonal D |(B).
5.6.19. Consideremos el pinching ( : M
2n
(C) M
n
(C) M
n
(C) dado por
(
_
X Y
Z W
_
=
_
X 0
0 W
_
1. Si A M
2n
(C)
+
entonces: existe U |(2n) tal que ((U

AU) =
_
B 0
0 C
_
si y solo si
existe unitarios U
1
, U
2
|(2n) tales que
A = U

1
_
B 0
0 0
_
U
1
+U

2
_
0 0
0 C
_
U
2
.
Sugerencia: primero notar que ((U

AU) 0; representar a A como XX

con cierta
X M
2n
(C) y recordar que XX

y X

X son unitariamente equivalentes.


106 Mayorizacion de autovalores y valores singulares
2. Usar lo anterior para probar que para A, B M
n
(C)
+
se tiene que
((A+B), 0) ~ ((A), (B)) .
Sugerencia: vericar que
_
A+B 0
0 0
_
=
_
A 0
0 0
_
+
_
0 I
n
I
n
0
_ _
0 0
B
_ _
0 I
n
I
n
0
_
.
5.6.20. Probar que para cualquier A /
n,m
(C) vale:
s
j
(A) = max
dimS=j
mn
xS,|x|=1
|Ax| = mn
dimJ =nj+1
max
xJ ,|x|=1
|Ax|
para cualquier j I
n
.
5.6.21. Para j 0 I
n
, sea
R
j
= T /
n,m
(C) : rk(T) j .
Mostrar que para cualquier j I
n
, se tiene que
s
j
(A) = mn
TRj1
|AT| .
5.6.22. Mostrar que si A, H /
n,m
(C), y H tiene rango k, entonces
s
j
(A) s
j+k
(A+H) , para todo j I
nk
.
5.6.23. Mostrar que para cualquier A /
n,m
(C) y para cada k I
n
, vale
k

j=1
s
j
(A) = max

j=1
Ax
j
, y
j
)

,
donde el maximo se toma sobre todas las kuplas ortonormales x
1
, . . . , x
k
e y
1
, . . . , y
k
.
5.6.24. Sea A H(n).
1. Demostrar que
k

j=1

j
(A) = max
U/
k
(n)
tr(UAU

) y
k

j=1

j
(A) = mn
U/
k
(n)
tr(UAU

) .
2. Por otro lado, si A es positiva demostrar:
k

j=1

j
(A) = max
U/
k
(n)
det(UAU

) y
k

j=1

j
(A) = mn
U/
k
(n)
det(UAU

) .
Recordar que |
k
(n) = U /
n,k
(C) : U

U = I
k
es el espacio de isometras de C
k
en C
n
.
5.6 Ejercicios 107
5.6.25. Sean A, B /
n
(C)
+
. Probar que

(A)

(B) (AB)

(A)

(B).
Si solo pedimos que A, B H(n), mostrar que

(A),

(B)) tr(AB)

(A),

(B)).
5.6.26. Sean N una NUI y A /
n
(C). Probar que si (A) es el vector de los autovalores
de A y Eig(A) = diag((A) ) /
n
(C), entonces
N(Eig(A) ) =nf |SAS
1
| : S (l (n).
Que matrices A verican que el nmo es un mnimo para toda NUI? Observar que la
conclusion anterior no vale para cada NUI sola. Diga algunas en las que s vale y otras donde
no.
5.6.27 (Mayo conjunta). Dadas X, Y /
n,m
(R) decimos que
Y
s
X si existe D To (n) tal que DX = Y
Y
p
X si Y v Xv (mayorizacion usual en R
n
) para todo v R
m
Y
w
X si existe D estocastica por las tal que DX = Y .
Esta es una manera compacta de describir lo que podramos llamar mayorizacion conjunta
(fuerte, puntual y debil) de m vectores de R
n
; a saber, las columnas de X y de Y .
1. Probar que Y
w
X las las de Y son combinaciones convexas de las de X.
2. Probar que
s
=
p
=
w
, pero no valen las recprocas (el contraejemplo de

p
=
s
es opcional, porque es bastante complicadito).
3. Si n = 2 (solo dos las, o mejor dicho, muchos vectores de R
2
), o m = n y las matrices
son inversibles (esto signica bases), entonces s vale que
p
=
s
.
4. Supongamos que m = n y Y
w
X. Entonces [ det X[ [ det Y [. Ademas, si [ det X[ =
[ det Y [ , = 0, entonces existe una matriz P S
n
tal que Y = PX.
Normas duales
Denicion 5.6.28. Sean una norma en C
n
y N una en /
n
(C). Se denen sus normas
del siguiente modo: dados x C
n
y A /
n
(C), ponemos

t
(x) = sup
(x)=1
[ x, y) [ y N
t
(A) = sup
]]]B]]]=1
[ tr(A

B)[ .
Las normas duales aparecen como las normas de los operadores adjuntos de los vectores o
matrices, cuando se los piensa como funcionales seg un indica el siguiete ejercicio:
108 Mayorizacion de autovalores y valores singulares
5.6.29. 1. Sea una funcional lineal en C
n
. Probar que existe un unico
x C
n
tal que (y) =
x
(y) = y, x) , para todo y C
n
.
2. Sea una funcional lineal en /
n,m
(C). Probar que existe una unica
X /
n,m
(C) tal que (A) =
X
(A) = tr(X

A) , para todo A /
mn
(C) .
Usando esas identicaciones, denir para las funcionales en /
n
(C), las nociones de adjunta,
autoadjunta y positiva, en funcion de c omo actua en las matrices. Despues comparar lo que
haya hecho con la Denicion 8.3.1.
5.6.30. Sean M una norma en C
n
y N una en /
n
(C). Ellas inducen normas en las funcionales
lineales. Dados x C
n
y X /
n
(C), mostrar que
M
t
(x) = |
x
|
M
= max
M(y)=1
[
x
(y)[ y N
t
(X) = |
X
|
N
= max
N(A)=1
[
X
(A)[ .
5.6.31. Sean y normas en C
n
, Demostrar:
1. [ x, y) [ (x)
t
(y) para todo x, y C
n
.
2. Si (x) c(x) para cierto c > 0 y para todo x C
n
, entonces,
t
c
1

t
5.6.32. Mostrar que para toda norma en C
n
,
tt
= , es decir que es igual a la norma
dual de su norma dual.
5.6.33. Sea una funcion gauge simetrica en C
n
.
1. Mostrar que
t
es tambien una fgs.
2. Sea N

la NUI en /
n
(C) asociada a . Probar que N
t

= N

.
5.6.34. Demostrar que
1. |A|
t
p
= |A|
q
, donde 1 p y
1
p
+
1
q
= 1.
2. La unica NUI que coincide con su dual es la norma 2.
5.6.35. Dados k I
n
y A /
n
(C), probar que |A|
t
(k)
= max|A|
(1)
,
1
k
|A|
(n)
.
5.6.36. Sean p, q, r n umeros reales positivos tales que 1/r = 1/p + 1/q.
1. Mostrar que para toda funcion gauge simetrica se tiene que
([x y[
r
)
1/r
([x[
p
)
1/p
([y[
q
)
1/q
.
2. Probar que para toda norma unitariamente invariante [[[ [[[ se verica que:
[[[[AB[
r
[[[
1/r
[[[[A[
p
[[[
1/p
[[[[B[
q
[[[
1/q
.
Captulo 6
Funciones monotonas y convexas
de operadores
6.1 Calculo funcional
Notaciones: Diremos que un subconjunto I R es un intervalo, cuando I es un conjunto
convexo (i.e., si I es un intervalo abierto, semiabierto o cerrado; acotado, semirrecta o todo
R). Dado un intervalo I R, llamaremos
H
I
(n) =
_
A H(n) : (A) I
_
.
Denicion 6.1.1. Sea I R un intervalo, y sea f : I C una funcion cualquiera. Fijada
A H
I
(n), se dene
f(A) = P(A),
donde P C[x] verica que P() = f() para todo (A). La denicion es buena, porque
si Q C[x] cumple lo mismo que P, entonces, por el Corolario 1.7.2,
(P(A) Q(A)) = ( (P Q)(A)) = (P Q)( (A) ) = 0,
y esto, dado que P(A) Q(A) es normal, implica que P(A) = Q(A).
Observacion 6.1.2. Sean I R un intervalo, f : I C una funcion y A H
I
(n). Es facil
ver que, si A es diagonl, es decir A = diag (x) para cierto x I
n
R
n
, entonces
f(A) = diag (f(x) ) .
Y de esto puede deducirse que, si B H
I
(n) y U |(n) son tales que
B = Udiag ((B)) U

= f(B) = Udiag (f((B) ) ) U

.
110 Funciones monotonas y convexas de operadores
Otra manera de ver este calculo es la siguiente: Sea (A) =
1
, . . . ,
k
(sin repeticion).
Llamemos o
i
= ker(A
i
I), y P
i
a los proyectores ortogonales sobre o
i
, para i I
k
.
Luego T = P
1
, . . . , P
k
es un sistema de proyectores en H(n) (o sea que son autoadjuntos,
ortogonales 2 a 2 y que suman I) que verica que
A =
k

i=1

i
P
i
. Entonces se tiene que f(A) =
k

i=1
f(
i
) P
i
. (6.1)
Por otra parte, notar que este calculo no esta bien denido en matrices que nos son autoadjun-
tas (en realidad, si no son normales). Por ejemplo, si A =
_
0 1
0 0
_
, entonces los polinomios
P(t) = t y Q(t) = t
2
coinciden en (A) = 0, pero P(A) = A mientras que Q(A) = 0.
Ejercicios 6.1.3. Vericar que el calculo funcional cumple las siguientes propiedades: Sean
I R un intervalo, f, g : I C dos funciones y A H
I
(n). Entonces
1. (f g)(A) = f(A) g(A) y fg(A) = f(A)g(A).
2. (f(A) ) = f() : (A). Mas a un, (f(A) ) = f((A) )

.
3. f(A) siempre es una matrix normal.
4. f(t) R para todo t I si y solo si f(A) H(n) para toda A H
I
(n).
5. f(B) 0 para toda B H
I
(n) si y solo si f(t) 0 para todo t I.
6. Si U |(n), entonces f(UAU

) = Uf(A)U

.
7. Si la matriz de A en alguna BON tiene la forma
A =
_
B 0
0 C
_
, entonces f(A) =
_
f(B) 0
0 f(C)
_
.
8. Si una sucesion (f
m
)
mN
de funciones denidas en I convergen puntualmente a f,
entonces f
m
(B)
m
f(B) para toda B H
I
(n).
9. Si tiene sentido la composicion h f, entonces g f(A) = h(f(A) ).
Ejemplos 6.1.4.
1. Si f : R

+
R esta dada por f(t) = t
1
, entonces f(A) = A
1
para toda A (l (n)
+
.
2. Si A /
n
(C)
+
, entonces A
1/2
= f(A), donde I = R
+
, f(t) =

t y A
1/2
es la unica
raiz cuadrada positiva de A denida en la Proposicion 3.1.3.
3. Si A H(n), entonces e
A
:= exp(A) =

m=0
A
m
m!
.
4. Si A (l (n)
+
, entonces existe B = log A, que es la unica matriz autoadjunta que
verica la formula e
B
= A. En efecto, B = log A esta bien denida, y cumple que
e
B
= A por 9 del Ejercicio 6.1.3. La unicidad se deduce de la formula (6.1).
6.1 Calculo funcional 111
6.1.1 Continuidad del calculo funcional
Proposicion 6.1.5. Sea I un intervalo y f : I R una funcion. Entonces
1. H
I
(n) es un subconjunto convexo de H(n).
2. Si I es es un intervalo abierto, entonces H
I
(n) es abierto en H(n).
3. Si > 0 y g : I R es otra funcion tal que
|f g|
I,
:= sup
_
[f(t) g(t)[ : t I
_
< ,
entonces |f(A) g(A)| < para toda A H
I
(n).
4. Si f es continua, dada una sucesion (A
m
)
mN
en H
I
(n) tal que A
m

m
A H
I
(n),
se tiene que f(A
m
)
m
f(A).
Demostracion.
1. Sean A, B H
I
(n). Dado [0, 1], el Teorema 5.1.6 asegura que
x =
_
A+ (1 )B
_
(A) + (1 )(B) = y .
Por lo tanto x
i
[y
n
, y
1
] I (porque I es convexo), para todo i I
n
.
2. Sea A H
I
(n), y sea > 0 tal que (
n
(A) ,
1
(A) + ) I. Si B H(n) y
|AB| < , entonces, para todo x C
n
con |x| = 1, se tiene que

Ax, x) Bx, x)

|AB| |x|
2
< .
Luego, por el Teorema 2.3.1, deducimos que

n
(A) <
n
(B) y
1
(B) <
1
(A) + ,
por lo que (B) I.
3. Notar que (f(A) g(A)) = (f g) (A) y |f(A) g(A)| = (f(A) g(A) ).
4. Sea (a, b) R un intervalo abierto tal que
(A) (a, b) I [a
t
, b
t
] = J I .
Por el item 2, existe m
0
N tal que A
m
H
(a,b)
(n) H
I
(n) H
J
(n), para todo
m m
0
. Por el teorema de Weierstrass (en el intervalo cerrado J), dado > 0, existe
P C[x] tal que |f P|
J,
< . Entonces, por el item 3, si m m
0
,
|f(A) f(A
m
)| |f(A) P(A)| +|P(A) P(A
m
)| +|P(A
m
) f(A
m
)|
< 2 +|P(A) P(A
m
)|
m
2 ,
porque el resultado es claro para polinomios. Luego |f(A) f(A
m
)|
m
0.
112 Funciones monotonas y convexas de operadores
Observacion 6.1.6. El item 1 de la Proposicion 6.1.5 se puede generalizar de la siguiente
forma: Dado un conjunto abierto 1 C, el conjunto
/
n
(C)
\
= A /
n
(C) : (A) 1
es abierto. Mas a un, el mismo resultado es cierto cambiando /
n
(C) por L(H), para cualquier
espacio de Hilbert H, a un con dimesion innita. La demostracion se deja como ejercicio.
Observacion 6.1.7. La nocion de calculo funcional para autoadjuntos que hemos presentado,
es una traduccion al caso matricial del calculo funcional continuo para operadores autoadjun-
tos en espacios de Hilbert. Las unicas diferencias en el caso general son:
1. Las funciones a evaluar deben ser continuas.
2. No existen, en general, polinomios que coincidan con una f dada en todo el espectro
del operador elegido (o del intervalo I), por lo que se usa el teorema de Weierstrass para
denir f(A) (la buena denicion se prueba como en el item 2 de la Proposicion 6.1.5).
3. La convergencia util entre funciones no es la puntual, sino la uniforme en compactos
(notar que coinciden en conjuntos nitos).
Todos los demas resultados y ejercicios presentados en esta seccion (salvo las menciones es-
peccas de vectores de autovalores, como la Observacion 6.1.2) son ciertos en el caso general,
con las mismas pruebas, luego de adaptarlas mnimamente a operadores en espacios de Hilbert.
La unica que necesita mas cuidado es la identidad (f(A)) = f( (A)), que es facil para poli-
nomios, pero requiere argumentos especiales para funciones continuas en general. Tambien
son ciertos en general los resultados de las proximas dos secciones, dado que las nociones de
monotona y convexidad de operadores se reducen al caso de matrices (siempre que valga para
matrices de cualquier tama no).
6.1.2 Diferenciabilidad del calculo funcional
En la Proposicion 6.1.5 hemos visto que, si I un intervalo y f : I R una funcion continua,
entonces la aplicacion f : H
I
(n) H(n) dada por A f(A), A H
I
(n), es tambien continua.
En caso de que I sea abierto y que f sea de clase C
1
, veremos que f es diferenciable, y
mostraremos como calcular sus derivadas direccionales. Sin embargo, como una demostracion
completa de estos resultados necesita un desarrollo analtico bastante extenso, solo daremos los
enunciados y un esbozo de las demostraciones, dejando ciertos pasos tecnicos sin demostrar.
Para una prueba completa de los resultados de esta seccion, remitimos al Captulo V del libro
de Bhatia [3].
Daremos ademas un resultado probado por Dalekii y Kren [23], [24] (ver tambien [8] o
[3]), el cual provee una herramienta importante para derivar curvas de matrices producidas
con el calculo funcinal, que puede interpretarse como una especie de regla de la cadena.
Mas adelante, este resultado nos permitira encontrar una caracterizacion de las denominadas
funciones monotonas de operadores. Para simplicar su enuciado usaremos el producto de
6.1 Calculo funcional 113
Hadamard o de Schur de matrices, el cual sera estudiado con mas detalle en el Captulo 8.
Recordar (de la Seccion 3.5) que, dadas A, B /
n,m
(C), se dene el producto de Hadamard
A B como la matriz A B =
_
a
ij
b
ij
_
iIn
jIm
/
n,m
(C) .
Denicion 6.1.8. Sea I un intervalo abierto de R y f : I R una funcion de clase C
1
.
1. Denotaremos por f
[1]
a la funcion denida sobre I I dada por
f
[1]
(x, y) =
_

_
f(y) f(x)
y x
si x ,= y
f
t
(x) si x = y
.
A esta funcion se la denomina primera diferencia dividida de f.
2. Si D = diag (d
1
, . . . , d
n
) /
n
(C) es una matriz diagonal, llamaremos
f
[1]
(D) =
_
f
[1]
(d
i
, d
j
)
_
i,jIn
/
n
(C) .
Notationes: Recordemos que, dada g : U R
n
R
m
(U abierto), se dice que g es
diferenciable en x
0
U si existe una matriz Dg
x0
/
mn
(C) (llamada derivada o diferencial
de g en x
0
, y que debe tener las derivadas parciales de g en sus columnas) que cumple
|g(x
0
+h) g(x
0
) Dg
x0
h|
|h|

h0
0 . (6.2)
En tal caso se tiene que, para todo h R
n
, la derivada direccional

h
g(x
0
) :=
d
dt

t=0
g(x
0
+th) = Dg
x0
h .
Observar que si I es un intervalo abierto, entonces H
I
(n) es abierto en H(n), que es un
R-espacio vectorial que identicaremos con un R
M
. Luego podemos aplicar las nociones
anteriores, pero reemplazando x
0
y h por matrices adecuadas.
Teorema 6.1.9. Sean I R un intervalo abierto y f : I R una funcion de clase C
1
.
Entonces su extension f : H
I
(n) H(n) es diferenciable en todo punto A H
I
(n). Si
tomamos coordenadas en las que A sea diagonal, se tiene que
Df
A
(H) = f
[1]
_
A) H , para todo H H(n) . (6.3)
Es decir que dados B H
I
(n) y U |(n) tales que A = UBU

es diagonal, entonces
Df
B
(H) = U

_
f
[1]
_
A
_
UHU

_
U , para todo H H(n) , (6.4)
114 Funciones monotonas y convexas de operadores
Demostracion. Mostremos el resultado, en principio, para funciones polinomicas. En este
contexto, por linealidad podemos asumir que f(x) = x
m
, para m N 0. Observar que,
en tal caso, f
[1]
_
a, b
_
=
m

k=1
a
k1
b
mk
para todo a , b R (incluso si a = b). Ademas,
Df
A
(H) =
d
dt

t=0
f(A+tH) =
d
dt

t=0
(A+tH)
m
=
m

k=1
A
k1
HA
mk
.
Si ahora usamos que A = diag (a
1
, . . . , a
n
), nos queda lo que queramos:
Df
A
(H) =
m

k=1
A
k1
HA
mk
=
_
m

k=1
a
k1
i
a
mk
j
H
ij
_
i,jIn
= f
[1]
_
A) H .
Luego, si f es un polinomio y B H
I
(n) no es diagonal, uno puede diagonalizar a B con una
U |(n), derivar ah y desdiagonalizar. Usando que f(U(B +H)U

) = Uf(B +H)U

para
todo H H(n) peque no (para que B +H H
I
(n) ), no es difcil ver que
Df
B
(H) = U

_
f
[1]
_
UBU

) UHU

_
U , para todo H H(n) . (6.5)
por el metodo directo de calcular el cociente incremental, como en la Eq. (6.2). En particular,
el termino de la derecha no depende de la U que diagonalice a B.
Sea ahora f una funcion de clase C
1
en I. Usando el teorema de Weierstrass se puede
construir una sucesion (P
m
)
mN
de polinomios que aproximan uniformemente tanto a f como
a f
t
en cualquier subintervalo cerrado prejado de J. Es facil ver que P
m
[1]
_
A)
m
f
[1]
_
A).
Fijemos ahora H H(n) peque no, y U |(n) tal que A = UBU

es diagonal. Llamemos
Tf
B
(H) = U

_
f
[1]
_
A) UHU

_
U
(para ese U |(n) jo), al cadidato a derivada. Hay que mostrar que el cociente incremental
|f(B +H) f(B) Tf
B
(H)|
2
|H|
2

H0
0 . (6.6)
Esto probara que f es diferenciable en B, que su derivada Df
B
(H) = Tf
B
(H) (o sea que
(6.4) es cierta), que su formula no depende del U elegido, y que se cumple la Eq. (6.3), para
el caso en que B ya era diagonal (tomando U = I).
La prueba de (6.6) es una ardua acotacion, de la que solo mostraremos sus ideas principales.
Se hace intercalando terminos que involucran a los polinomios P
m
. En efecto, si uno ja un
> 0, encuentra un m N tal que tres cantidades:
|f(B +H) f(B) (P
m
(B +H) P
m
(B) )|
2
,
|P
m
(B +H) P
m
(B) T(P
m
)
B
(H)|
2
y
6.2 Funciones monotonas de operadores 115
|Tf
B
(H) T(P
m
)
B
(H)|
2
se pueden hacer menores que |H|
2
, siempre que H sea chico. Luego uno se olvida del m y
queda que el cociente de (6.6) es menor que 3 para un tal H. Observar que la tercera vale a
partir de un m para todo H. La primera se puede hacer valida para todos los m grandes (y
para cualquier H tal que B + H H
J
(n) ), por un argumento que depende del teorema del
valor medio y de la convergencia de las matrices P
m
[1]
_
A) (mas bien de que sean una sucesion
de Cauchy). Finalmente, la segunda es la que pide H chico, tama no que depende del m, pero
este m se puede elegir de modo que se cumplan las otras dos.
Corolario 6.1.10 (Dalekii y Kren). Sean I, J R dos intervalos abiertos y consideremos
un curva de clase C
1
: I H
J
(n). Sea f : J R otra funcion de clase C
1
. Entonces
1. La curva que llamaremos f : I H(n) dada por f (t) = f
_
(t)
_
, va el calculo
funcional, es tambien de clase C
1
.
2. Supongamos que (t
0
) = diag (a
1
, . . . , a
n
) para cierto t
0
I. Entonces se cumple la
siguiente formula:
(f )
t
(t
0
) = f
[1]
_
(t
0
)
_

t
(t
0
) . (6.7)
Demostracion. La suavidad de f se deduce de la diferenciablidad de f : H
J
(n) H(n)
(y de la la suavidad de ). La regla de la cadena y la formula (6.7) se deducen tambien del
Teorema 6.1.9, puesto que (f )
t
(t
0
) = Df
(t0)
_

t
(t
0
)
_
= f
[1]
_
(t
0
)
_

t
(t
0
).
6.2 Funciones monotonas de operadores
Denicion 6.2.1. Sea I R un intervalo y f : I R, una funcion. Diremos que f es
monotona de operadores (MOP) si, para todo n N y A, B H
I
(n), se tiene que
A B = f(A) f(B) .
Notar que, tomando n = 1, se ve que f debe ser monotona en el sentido usual.
Ejemplos 6.2.2.
1. Dados a, b R, la funcion f(t) = a +bt es MOP si y solo si b 0.
2. f(t) = t
2
no es monotona de operadores (en ning un intervalo I [0, +) con mas de
un punto). En efecto, tomando A =
_
1 1
1 1
_
y B =
_
2 1
1 1
_
, se ve que A B, pero
A
2
=
_
2 2
2 2
_
,
_
5 3
3 2
_
= B
2
.
El ejemplo se puede cambiar, de acuerdo al intervalo I, tomando C = aI + A y D =
aI + B, para constantes a I

y > 0 convenientes. Notar que las entradas 2, 2 de


C
2
y D
2
siguen coincidiendo.
116 Funciones monotonas y convexas de operadores
3. f(t) = t
1
es MOP en I = (0, +). En efecto, si 0 < A B /
n
(C)
+
, entonces
0 < B
1/2
AB
1/2
I. Luego
1
(B
1/2
AB
1/2
) 1, o sea

n
((B
1/2
AB
1/2
)
1
) 1 = (B
1/2
AB
1/2
)
1
= B
1/2
A
1
B
1/2
I ,
por lo que A
1
B
1
.
Ejercicio 6.2.3. Probar que
1. La suma y la composicion (cuando tenga sentido) de MOPs es MOP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funcion
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es MOP en (
c
d
, +) si y solo si det M 0. Notar que
f
M
(t) =
b
d
+
det M
cd +d
2
t
.
Por lo tanto, si det M < 0, entonces f
M
es composicion de MOPs. Pero si f
M
fuera
MOP y det M > 0, podra deducirse que t 1/t es MOP.
Proposicion 6.2.4. La funcion f(t) = t
1/2
es MOP en I = [0, +).
Demostracion. Sean A, B /
n
(C)
+
tales que A B. Supongamos, en principio, que B > 0.
Entonces, por la Proposicion 3.5.4,
1 |A
1/2
B
1/2
|
sp
(A
1/2
B
1/2
) = (B
1/4
A
1/2
B
1/4
) = I B
1/4
A
1/2
B
1/4
.
Por lo tanto B
1/2
A
1/2
. Si B no es inversible, para cada > 0 se toma la matriz B+I > 0.
Luego A
1/2
(B +I)
1/2
para todo > 0. Como (t +)
1/2
puntualmente

0
t
1/2
= f(t),
A
1/2
x, x)
_
(B +I)
1/2
x, x
_

0
B
1/2
x, x) , para todo x C
n
.
Deducimos que A
1/2
B
1/2
.
Ejercicio 6.2.5. Rellenar los detalles de la siguiente prueba alternativa de la Proposicion
6.2.4, que se basa en un resultado del Captulo 9: Suponemos que 0 < A < B. Entonces
denimos la funcion
C : [0, 1] (l (n)
+
, dada por C(t) = A+t(B A) , t [0, 1] .
Sea R(t) = C(t)
1/2
, t [0, 1]. Entonces
R(t)
2
= C(t) =

R(t)R(t) +R(t)

R(t) =

C(t) = B A > 0 , t [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observacion 9.1.5, como R(t) > 0 y

C(t) = S(R,

R) > 0, entonces,

R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en
particular, A
1/2
= R(0) < R(1) = B
1/2
.
6.2 Funciones monotonas de operadores 117
Teorema 6.2.6. Las funciones f(t) = t
r
son MOPs en I = [0, +), para todo r [0, 1].
En otras palabras, si 0 A B /
n
(C)
+
, entonces A
r
B
r
para todo 0 r 1.
Demostracion. Supongamos, en principio, que 0 < A B (l (n)
+
y que r es diadico,
es decir que r = k/2
m
, para k I
2
m . En este caso probaremos, por induccion en m, que
A
r
B
r
. En efecto, si m = 1, ya lo sabemos por la Proposicion 6.2.4.
Si suponemos el hecho cierto para todo n umero j/2
m
, tomemos r = k/2
m+1
. Si k 2
m
,
entonces k/2
m
1. Por la hipotesis inductiva y la Proposicion 6.2.4, se tiene que
A
k/2
m
B
k/2
m
= A
r
= (A
k/2
m
)
1/2
(B
k/2
m
)
1/2
= B
r
.
Si k > 2
m
, usaremos que B
1
A
1
. Por tanto, B
r
A
1
B
r
B
r
B
1
B
r
= B
2r1
. Luego,
como 0 < 2r 1 =
k 2
m
2
m
1, por la hipotesis inductiva tenemos que
(A
1/2
B
r
A
1/2
)
2
= A
1/2
B
r
A
1
B
r
A
1/2
A
1/2
B
2r1
A
1/2
A
1/2
A
2r1
A
1/2
= A
2(r1)
.
Aplicando la Proposicion 6.2.4, deducimos que A
1/2
B
r
A
1/2
A
r1
, y por ello B
r
A
r
.
Si r no es diadico, tomemos una sucesion de diadicos r
m

m
r. Como las funciones
f
m
(t) = t
rm
puntualmente

m
f(t) = t
r
, deducimos que B
r
A
r
, tambien en este caso.
Finalmente, si A ,> 0, como (A+
1
m
I)
r
(B +
1
m
I)
r
para todo m N y la funcion t t
r
es
continua, aplicando la Proposicion 6.1.5 obtenemos que
A
r
= lim
m
_
A+
1
m
I
_
r
lim
m
_
B +
1
m
I
_
r
= B
r
,
lo que prueba la desigualdad en el caso general.
Lema 6.2.7. Sea A (l (n)
+
. Entonces
lim
h0
A
h
I
h
= log A .
Demostracion. Observar que, para todo t (0, +), se verica que
lim
h0
t
h
1
h
= lim
h0
e
h log t
1
h
= log t .
Por lo tanto las funciones f
h
(t) =
t
h
1
h
puntualmente

h0
g(t) = log t en todo (0, +). Aplicando
el item 8 del Ejercicio 6.1.3, se culmina la prueba.
Proposicion 6.2.8. La funcion f(t) = log t es MOP en I = (0, +). En otras palabras,
dados A B ambos en (l (n)
+
, se tiene que log A log B.
118 Funciones monotonas y convexas de operadores
Demostracion. Se deduce del Lema 6.2.7. En efecto, tomando h con valores en (0, 1), por el
Teorema 6.2.6 se tiene que
log A = lim
h0
+
A
h
I
h
lim
h0
+
B
h
I
h
= log B .
Para nalizar daremos una caracterizacion de las MOPs en terminos de la primera diferencia
dividida de f, la cual puede interpretarse como analogo matricial al resultado clasico de
calculo que dice que una funcion de una variable real derivable es no-decreciente si y solo si
su derivada es no-negativa.
Teorema 6.2.9. Sea I un intervalo abierto de R, f : I R una funcion de clase C
1
.
Entonces, las siguientes armaciones son equivalente:
1. f es MOP.
2. Para todo n N y toda matriz diagonal D H
I
(n), se tiene que f
[1]
(D) /
n
(C)
+
.
Demostracion. 1 2. Sea D = diag (d
1
, . . . , d
n
) H
I
(n). Recordemos que por medio
de A B denotamos al producto de Hadamard, i.e., el producto entrada a entrada. Sea
E
n
= 1
n
1

n
/
n
(C)
+
. Respecto a este producto, E
n
se comporta como la identidad. Sea
: (, ) H(n) dada por (t) = D + t E
n
. Observar que para todo t 0 se tiene que
D +t E
n
D. Por la Proposicion 6.1.5, (D +t E
n
) I para valores peque nos de t. Luego,
para dichos valores de t, tiene sentido hacer f . Mas a un, como f es de clase C
1
y es
suave, podemos derivar la curva f , y por el Teorema 6.1.9 obtenemos
d
dt
f(D +t E
n
)

t=0
= Df
D
(E
n
) = f
[1]
(D)
t
(0) = f
[1]
(D) E
n
= f
[1]
(D) .
Usando que E
n
/
n
(C)
+
y que f es MOP, se tiene que el cociente incremental
f(D +t E
n
) f(D)
t
/
n
(C)
+
, para todo t (, ) ,
lo cual se preserva al tomar lmite. Por ende, f
[1]
(D) /
n
(C)
+
.
2 1. Sean A, B H
I
(n) tales que A B, y denamos la curva (t) = (1 t)A + tB,
para t [0, 1]. Como H
I
(n) es convexo (Proposicion 6.1.5), (t) H
I
(n) para todo t [0, 1].
Luego, la nueva curva (t) = f((t) ) esta bien denida. El primer paso sera probar que
para todo t (0, 1) se tiene que
t
(t) /
n
(C)
+
. Para ello, jemos un t (0, 1) cualquiera.
Sin perdida de generalidad podemos suponer que (t) es diagonal (sino se conjuga con una
unitaria). Luego, por el Corolario 6.1.10 se tiene que

t
(t) = f
[1]
((t) )
t
(t) = f
[1]
((t) ) (B A) /
n
(C)
+
,
donde usamos que A B, que f
[1]
((t) ) /
n
(C)
+
y luego el Teorema 2 de Schur 3.6.2
(producto de positivas es positiva). Ahora bien, jemos x C
n
. Por la linealidad de la
6.2 Funciones monotonas de operadores 119
funcion A Ax, x) se tiene que la funcion g(t) = (t)x, x) es continua en el [0, 1], derivable
en (0, 1). Mas a un, g
t
(t) =
t
(t)x, x) para todo t (0, 1). Pero entonces, por lo que acabamos
de ver, g es creciente en el [0, 1]. En consecuencia
f(A)x, x) = g(0) g(1) = f(B)x, x) .
Como x C
n
es arbitrario, f(A) f(B), lo cual concluye la demostracion.
Para ilustrar como se utiliza esta caracterizacion para demostrar que una funcion es monotona
de operadores, probaremos que la funcion f(t) = tan(t) es MOP en el itervalo (, ). Para
ello, necesitaremos un par de lemas previos.
Lema 6.2.10. Sea d = (d
1
, . . . , d
n
) R
n
. Entonces la matricz
K
e
(d) =
_
e
i(djdi)
_
i,jIn
/
n
(C)
+
.
Demostracion. En efecto, si tomamos E = 11

/
n
(C)
+
(la matriz de cuyas entradas son
todas iguales a 1) y U = diag
_
e
id1
, . . . , e
idn
_
, entonces K
e
(d) = U

EU /
n
(C)
+
.
Lema 6.2.11. Sea d = (d
1
, . . . , d
n
) R
n
. Entonces la matriz
K
s
(d) =
_
sen(d
j
d
i
)
d
j
d
i
_
i,jIn
/
n
(C)
+
,
donde, para abreviar notaciones, estamos aceptando la convencion de que
sen 0
0
= 1.
Demostracion. Este lema se deduce del anterior si recordamos la siguiente identidad, la cual
puede testearse a mano muy facilmente:
sen a
a
=
1
2
_

e
iat
dt para todo a R (incluso si a = 0) . (6.8)
En efecto, dado x = (x
1
, . . . , x
n
) C
n
se tiene que K
s
(d) x, x) =
n

i,j=1
sen(d
j
d
i
)
d
j
d
i
x
i
x
j
.
Pero por la formula integral (6.8) y el lema anterior se tiene que
2
n

i,j=1
sen(d
j
d
i
)
d
j
d
i
x
i
x
j
=
_

i,j=1
e
i(djdi)t
x
i
x
j
dt =
_

K
e
(d) x, x) dt 0 .
Proposicion 6.2.12. La funci on f(t) = tan(t) es MOP en I = (/2 , /2).
Demostracion. Sea D = diag (d
1
, . . . , d
n
) H
I
(n) y la matriz de diferencias divididas
tan
[1]
(D)
ij
=
_
_
_
tan(d
j
) tan(d
i
)
d
j
d
i
si d
i
,= d
j
sec
2
(d
i
) si d
i
= d
j
.
120 Funciones monotonas y convexas de operadores
Usando la identidad tan(x) tan(y) =
sen(x y)
cos(x) cos(y)
se tiene que
tan
[1]
(D)
ij
=
_
1
cos(d
i
)
_
sen(d
j
d
i
)
d
j
d
i
_
1
cos(d
j
)
_
i,jIn
= sec(D) K
s
(d) sec(D)

/
n
(C)
+
,
por el Lema 6.2.11. Con esta informacion, el Teorema 6.2.9 garantiza que f(t) = tan(t) es
MOP en I = (, ).
6.3 Funciones convexas de operadores
Recordemos que la Proposicion 6.1.5 asegura que, si I R es un intervalo, H
I
(n) es comvexo.
Denicion 6.3.1. Sea I R un intervalo y f : I R, una funcion. Diremos que f es
convexa de operadores (OP) si, para todo n N, [0, 1] y A, B H
I
(n), se tiene
f
_
A+ (1 )B
_
f(A) + (1 )f(B) . (6.9)
Notar que, tomando n = 1, se ve que f debe ser convexa en el sentido usual. Diremos que f
es concava de operadores (OP) si f es OP.
Observacion 6.3.2. Si f : I R es continua, para vericar que es convexa de operadores,
es suciente probar que
f
_
A+B
2
_

f(A) +f(B)
2
,
para todo par A, B H
I
(n) (y todo n N). En efecto, esta condicion implica que f cumple
la Eq. (6.9) para todo diadico en [0, 1]. Esto se prueba por induccion. Por ejemplo,
f
_
1
4
A+
3
4
B
_
= f
_ A+B
2
+B
2
_

f
_
A+B
2
_
+f(B)
2

f(A)+f(B)
2
+f(B)
2
=
1
4
f(A) +
3
4
f(B) .
Como f es continua, la Proposicion 6.1.5 dice que (6.9) se cumple para todo [0, 1].
Ejemplos 6.3.3.
1. Dados a, b R, se tiene que la funcion f(t) = a +bt es OP (y OP).
2. f(t) = t
2
s es OP en [0, +). En efecto, dados A, B /
n
(C)
+
, se tiene que
A
2
+B
2
2

_
A+B
2
_
2
=
1
4
_
A
2
+B
2
AB BA
_
=
1
4
(AB)
2
.
Como f es continua, esto prueba que es OP.
6.3 Funciones convexas de operadores 121
3. f(t) = t
3
no es OP en [0, +). En efecto, una cuenta elemental muestra que, si
A =
_
1 1
1 1
_
y B =
_
3 1
1 1
_
entonces
A
3
+B
3
2

_
A+B
2
_
3
=
_
6 1
1 0
_
,
que no es positiva. Tampoco puede ser OP en ning un intervalo I [0, +).
4. f(t) = t
1
es OP en I = (0, +). En efecto, si A, B (l (n)
+
, entonces
A
1
+B
1
2

_
A+B
2
_
1
=
(A
1
B
1
)(A
1
+B
1
)
1
(A
1
B
1
)
2
/
n
(C)
+
.
En efecto, esto se deduce de la identidad
2(A+B)
1
= A
1
(A
1
+B
1
)
1
B
1
+B
1
(A
1
+B
1
)
1
A
1
.
Como f es continua, lo que vimos muestra que es OP.
Ejercicio 6.3.4. Probar que
1. La suma y la composicion (cuando tenga sentido) de OPs es OP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funcion
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es OP en I = (
c
d
, +) si y solo si det M 0 . Por otra parte, f es
OP en I si y solo si f es MOP en I si y solo si det M 0 .
3. Sea I R un intervalo tal que 0 I. Sean f(t) = [t[ y g(t) = t 0, t I. Entonces f
no es OP y g no es OP ni MOP.
Denicion 6.3.5. Sean A /
n
(C) y P H(n) un proyector con R(P) = o. Llamaremos
compresion de A a o, al operador
A
S
: o o dado por A
S
(x) = PAx , x o .
Notar que A
S
= PAP

S
pensado en L(o). En coordenadas de una BON de C
n
tal que la
matriz de P en esa base sea P =
_
I 0
0 0
_
, se tiene que
PAP =
_
A
S
0
0 0
_
y C
P
(A) =
_
A
S
0
0 A
S

_
,
donde las matrices (grandes) viven, ahora, en /
n
(C).
Recordemos que, para cada k I
n
, notamos |
k
(n) = U /
n,k
(C) : U

U = I
k
, es decir,
el espacio de isometras de C
k
en C
n
.
122 Funciones monotonas y convexas de operadores
Teorema 6.3.6. Sea I R un intervalo y f : I R, una funcion. Son equivalentes:
1. f es convexa de operadores.
2. Para todo n N y para todo sistema de proyectores T en H(n), se tiene que
f
_
C
1
(A)
_
C
1
(f(A) ) para todo A H
I
(n) .
3. Dados n N, A H
I
(n) y o C
n
un subespacio, se tiene que f(A
S
) f(A)
S
.
4. Dados k, n N tales que k n, A H
I
(n) y V |
k
(n), se verica que
f(V

AV ) V

f(A)V .
Demostracion. Antes que nada, observar que C
1
(A) H
I
(n) por la Proposicion 5.4.4 (o la
Eq. (6.10) de abajo) y el hecho de que H
I
(n) es convexo. De ahi se deduce que, si dimo = k,
entonces A
S
H
I
(k) y tiene sentido calcular f(A
S
), incluso si 0 / I.
1 2. Como otras veces, por la Eq. (5.8), podemos suponer (s.p.g.) que trabajamos con un
solo proyector P H(n). Observar que, dado A H
I
(n), se tiene que
C
P
(A) =
A+UAU

2
, con U = 2P I |(n) . (6.10)
Por lo tanto, si asumimos que f es OP, entonces
f
_
C
P
(A)
_

f(A) +f(UAU

)
2
=
f(A) +Uf(A)U

2
= C
P
_
f(A)
_
.
2 3. Basta mirar los bloques 1, 1 de la desigualdad f
_
C
P
S
(A)
_
C
P
S
_
f(A)
_
.
3 4. Llamemos o = R(V ) C
n
y P = P
S
. Entonces se tiene que V

AV = V

(PAP)V .
Por lo tanto, si denotamos V
0
: C
k
o, al mismo V correstringido a su imagen, tenemos que
V
0
es unitario y que V

AV = V

0
A
S
V
0
H
I
(k). Ademas
f(V

AV ) = f(V

0
A
S
V
0
) = V

0
f(A
S
)V
0
y V

f(A)V = V

0
f(A)
S
V
0
,
por lo que
f(V

AV ) V

f(A)V f(A
S
) f(A)
S
.
4 1. Dados A, B H
I
(n), consideremos el operador T =
_
A 0
0 B
_
H
I
(2n). Dado
[0, 1], sean = 1 y V =
_

1
2
I
n

1
2
I
n
_
|
n
(2n). Una cuenta directa pueba que
V

TV = A+B y que V

f(T)V = f(A) +f(B) ,


usando que f(T) =
_
f(A) 0
0 f(B)
_
. Por todo ello, si f cumple 4, se tiene que
f
_
A+B
_
= f(V

TV ) V

f(T)V = f(A) +f(B).


6.3 Funciones convexas de operadores 123
Corolario 6.3.7. Sean A (l (n)
+
y P H(n), un proyector. Entonces
1. C
P
(A) (l (n)
+
y C
P
(A)
1
C
P
(A
1
).
2. Si o = R(P) entonces, A
S
1
(A
1
)
S
. Es decir que, pensados como operadores en
L(o), se tiene que
(PAP)
1
PA
1
P. (6.11)
Demostracion. Se deduce de que (l (n)
+
= H
(0,+)
(n) y del Teorema 6.3.6, dado que t t
1
es OP en (0, +), como se ha observado en el Ejemplo 6.3.3.4.
Observacion 6.3.8. Una version mas detallada de la desigualdad (6.11) se deduce de la
teora de complementos de Schur. En la Proposicion 3.8.7 vimos que, si o = R(P),
A =
_
a b
b

c
_
o
o

, = (A
1
)
S
1
= (PA
1
P)
1
= a bc
1
b

.
En particular, tambien as se muestra que (PA
1
P)
1
a = A
S
.
Proposicion 6.3.9. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion.
Entonces son equivalentes:
1. f es convexa de operadores y f(0) 0.
2. Dados n N, A H
I
(n) y P H(n), un proyector, se cumple que
f(PAP) Pf(A)P ,
pensados como matrices en /
n
(C).
Demostracion. Como 0 I, es facil ver que PAP H
I
(n). Sea o = R(P). Entonces, en
coordenadas de una BON de C
n
tal que P =
_
I 0
0 0
_
, se tiene que
PAP =
_
A
S
0
0 0
_
= f(PAP) =
_
f(A
S
) 0
0 f(0)I
S

_
.
Por otra parte, en la misma BON,
Pf(A)P =
_
f(A)
S
0
0 0
_
.
Por lo tanto, las condiciones 1 y 2 son equivalentes, por serlo 1 y 3 del Teorema 6.3.6 (es
decir, que f(A
S
) f(A)
S
para todo el mundo, equivale a que f sea OP).
Ejercicio 6.3.10. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion. Entonces
son equivalentes:
124 Funciones monotonas y convexas de operadores
1. f es convexa de operadores y f(0) 0.
2. Dados n N, A H
I
(n), se cumple que
f(C

AC) C

f(A)C.
para todo C /
n
(C) tal que |C| 1.
3. Dados n N, A, B H
I
(n) y C, D /
n
(C) tales que C

C +D

D I, se verica
f(C

AC) +f(D

BD) C

f(A)C +D

f(B)D.
Se sugiere usar las matrices unitarias construidas en 3.7.9.
Corolario 6.3.11. La funci on f(t) = t
r
es OP en I = [0, +), para todo r [1, 2].
Demostracion. Como f(0) = 0, por la Proposicion 6.3.9, bastara probar que
(PAP)
r
PA
r
P , n N, A /
n
(C)
+
y P un proyector en H(n) .
En efecto, como 0 P I, tenemos que 0 A
1/2
PA
1/2
A. Sea g(t) = t
r1
. Por el
Teorema 6.2.6, g es MOP (porque 0 r 1 1). Luego (A
1/2
PA
1/2
)
r1
A
r1
, por lo que
PA
1/2
_
A
1/2
PA
1/2
_
r1
A
1/2
P PA
1/2
A
r1
A
1/2
P = PA
r
P .
Finalmente, observar que para todo k N 0 se tiene que
PA
1/2
_
A
1/2
PA
1/2
_
k
A
1/2
P = (PAP)
k+1
.
Por lo tanto, para todo polinomio Q C[x] vale la igualdad
PA
1/2
Q
_
A
1/2
PA
1/2
_
A
1/2
P = Q(PAP) PAP . ,
De ah deducimos que una igualdad similar valdra para toda f : [0, +) R (eligiendo un
Q C[x] que coincida con f en
_
A
1/2
PA
1/2
_
= (PAP) ). En particular,
PA
r
P PA
1/2
_
A
1/2
PA
1/2
_
r1
A
1/2
P = (PAP)
r
.
Proposicion 6.3.12. Sea f : [0, +) [0, +) una funcion continua. Entonces se tiene
que f es MOP si y solo si f es OP ( i.e., f es OP ).
Demostracion. Supongamos que f es MOP, y sea o C
n
un subespacio. Notemos P = P
S
.
Como f(0) 0 por hipotesis, usando la Proposicion 6.3.9 bastara probar que
Pf(A)P f(PAP) , para toda A /
n
(C)
+
,
6.3 Funciones convexas de operadores 125
ya que, en tal caso, podramos deducir que f es OP. Para hacerlo, llamemos Q = I P y
tomemos las matrices U =
_
P Q
Q P
_
|(2n) y T =
_
A 0
0 0
_
/
2n
(C)
+
. Como se vio
en 3.7.10, para todo > 0 existe > 0 tal que
UTU = UTU

=
_
PAP PAQ
QAP QAQ
_

_
PAP +I 0
0 I
_
.
Como f(0) 0, se tiene que T
t
=
_
f(A) 0
0 0
_

_
f(A) 0
0 f(0)I
_
= f(T) . Reemplazando
T por T
t
y usando que f es MOP, obtenemos que
_
Pf(A)P Pf(A)Q
Qf(A)P Qf(A)Q
_
= UT
t
U

Uf(T)U

= f(UTU

)
_
f(PAP +I) 0
0 f()I
_
.
En particular, se cumple que Pf(A)P f(PAP +I) para todo > 0. Como f es continua,
por la Proposicion 6.1.5 se tiene que Pf(A)P f(PAP), como necesitabamos.
Para probar la recproca, tomemos A B ambos en /
n
(C)
+
.
Dado (0, 1), podemos escribir B = A+ (1 )

1
(B A) .
Si f es concava (y con valores positivos), esto nos da que
f(B) f(A) + (1 )f
_

1
(B A)
_
f(A) , para todo (0, 1) .
Tomando 1

, del hecho de que f es continua podemos deducir que f(B) f(A).


Corolario 6.3.13. Sea f(t) = t
r
, denida en I = [0, +). Si r > 1, f no es MOP.
Demostracion. Si lo fuera, debera ser OP. Pero, como funcion escalar, es convexa.
Corolario 6.3.14.
1. Las funciones t t
r
, para r (0, 1), son OP en [0, +).
2. f(t) = log t es OP en (0, +).
Demostracion. La primera parte se deduce de los Teoremas 6.2.6 y 6.3.12. Para probar la
concavidad de operadores del logaritmo, jemos un subespacio o de C
n
. Dada A (l (n)
+
,
por lo anterior sabemos que
(A
r
)
S
(A
S
)
r
, r (0, 1) .
Luego, por el Lema 6.2.7,
log(A
S
) = lim
r0
+
(A
S
)
r
I
S
r
lim
r0
+
(A
r
)
S
I
S
r
=
_
lim
r0
+
A
r
I
n
r
_
S
= (log A)
S
.
Por el Teorema 6.3.6, deducimos que log es OP.
126 Funciones monotonas y convexas de operadores
Observacion 6.3.15. El Teorema 6.3.6 da un criterio heurstico para dilucidar que funciones
crecientes pueden ser MOPs: por lo menos deberan ser concavas de n umeros. Esto es
coherente con los ejemplos: t
r
para r 1, t
1
, log t son todas concavas.
Sin embargo hay que tener mucho cuidado. Porque el Teorema 6.3.6 pide que la f, ademas
de tomar valores positivos, debe estar denida en toda la semirrecta [0, +), incluido el cero,
y hasta el innito. Esto se ve claramente mirando bien la prueba, porque uno hace tender
a cero, por lo que se va a innito, y uno necesita poder tomar f(). Y para demostrar la
implicacion MOP = OP, se usa tambien que exista f(0). (ejercicio: probar OP =
MOP para f no denida en 0. Ojo con B A). Por ello el Teorema no se puede aplicar
directamente a los ejemplos t
1
y log t (para ver que log t es OP hizo falta el razonamiento
de recien, pasando por t
r
).
Pero la cosa es mas grave si el dominio de f se termina antes del innito. Ah el criterio
heurstico (que los autores difundamos muy conados hasta que fuimos despabilados por
unos alumnos despiertos) es directamente erroneo. Para convencerse, basta recordar (de la
Proposicion 6.2.12) que la funcion f : [0, /2) [0, +) dada por f(t) = tan t es MOP,
siendo a la vez convexa como funcion numerica en esa mitad de su dominio.
6.4 Ejercicios
Ejercicios que aparecen en el texto
6.4.1. Vericar que el calculo funcional cumple las siguientes propiedades: Sean I R un
intervalo, f, g : I C dos funciones y A H
I
(n). Entonces
1. (f g)(A) = f(A) g(A) y fg(A) = f(A)g(A).
2. (f(A) ) = f() : (A). Mas a un, (f(A) ) = f((A) )

.
3. f(A) siempre es una matrix normal.
4. f(t) R para todo t I si y solo si f(A) H(n) para toda A H
I
(n).
5. f(B) 0 para toda B H
I
(n) si y solo si f(t) 0 para todo t I.
6. Si U |(n), entonces f(UAU

) = Uf(A)U

.
7. Si la matriz de A en alguna BON tiene la forma
A =
_
B 0
0 C
_
, entonces f(A) =
_
f(B) 0
0 f(C)
_
.
8. Si una sucesion (f
m
)
mN
de funciones denidas en I convergen puntualmente a f,
entonces f
m
(B)
m
f(B) para toda B H
I
(n).
9. Si tiene sentido la composicion h f, entonces g f(A) = h(f(A) ).
6.4 Ejercicios 127
6.4.2. Probar las siguientes armaciones.
1. Si f : R

+
R esta dada por f(t) = t
1
, entonces f(A) = A
1
para toda A (l (n)
+
.
2. Si A /
n
(C)
+
, entonces A
1/2
= f(A), donde I = R
+
, f(t) =

t y A
1/2
es la unica
raiz cuadrada positiva de A denida en la Proposicion 3.1.3.
3. Si A H(n), entonces e
A
:= exp(A) =

m=0
A
m
m!
.
4. Si A (l (n)
+
, entonces existe B = log A, que es la unica matriz autoadjunta que
verica la formula e
B
= A.
6.4.3. Completar los detalles de la demostracion del Teorema 6.1.9. En particular, con las
notaciones de all, mostrar que dado > 0, existe m
0
N tal que, para todo m m
0
,
|f(B +H) f(B) (P
m
(B +H) P
m
(B) )|
2
|H|
2
para todo H H(n) tal que B + H H
J
(n) . Se sugiere acotar el incremento de la funcion
P
k
P
m
usando su diferencial en un punto intermedio del segmento entre B y B +H, y que
esas diferenciales convergen uniformemente a cero.
6.4.4. Probar que
1. La suma y la composicion (cuando tenga sentido) de MOPs es MOP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funcion
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es MOP en (
c
d
, +) si y solo si det M 0.
6.4.5. Sea : [a, b] H(n) una curva suave tal que (t) /
n
(C)
+
para todo t (a, b).
Probar que es creciente, en el sentido de que t s = (t) (s), en el orden de H(n).
En particular, deducir que (a) (b). Se suguiere chusmear el Teorema 6.2.9.
6.4.6. Rellenar los detalles de la siguiente prueba alternativa de la Proposicion 6.2.4:
Supongamos que A < B, ambos en (l (n)
+
. Entonces denimos la funcion
C : [0, 1] (l (n)
+
, dada por C(t) = A+t(B A) , t [0, 1] .
Sea R(t) = C(t)
1/2
, t [0, 1]. Entonces
R(t)
2
= C(t) =

R(t)R(t) +R(t)

R(t) =

C(t) = B A > 0 , t [0, 1] ,
donde el punto denota derivada respecto de t. Por la Observacion 9.1.5, como R(t) > 0 y

C(t) = S(R,

R) > 0, entonces,

R(t) > 0 para todo t [0, 1]. Luego R es creciente y, en
particular, A
1/2
= R(0) < R(1) = B
1/2
.
128 Funciones monotonas y convexas de operadores
6.4.7. Probar que
1. La suma y la composicion (cuando tenga sentido) de OPs es OP.
2. Dada una matriz M =
_
a b
c d
_
/
2
(R), con d ,= 0, denamos la funcion
f
M
(t) =
a +bt
c +dt
, t ,=
c
d
.
Entonces f
M
es OP en I = (
c
d
, +) si y solo si det M 0 . Por otra parte, f es
OP en I si y solo si f es MOP en I si y solo si det M 0 .
3. Sea I R un intervalo tal que 0 I. Sean f(t) = [t[ y g(t) = t 0, t I. Entonces f
no es OP y g no es OP ni MOP.
6.4.8. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion. Entonces son
equivalentes:
1. f es convexa de operadores y f(0) 0.
2. Dados n N, A H
I
(n), se cumple que
f(C

AC) C

f(A)C. (6.12)
para todo C /
n
(C) tal que |C| 1.
3. Dados n N, A, B H
I
(n) y C, D /
n
(C) tales que C

C +D

D I, se verica
f(C

AC) +f(D

BD) C

f(A)C +D

f(B)D.
Se sugiere usar las matrices unitarias construidas en 3.7.9.
Ejercicios nuevos
6.4.9. Mostrar que todas las denciones y propiedades del calculo funcional no necesitan que
el dominio de f sea un intervalo. En particular, vericar que si U R es abierto, entonces
1. H
U
(n) := A H(n) : (A) U es abierto en H(n).
2. Si f : U R es C
1
, su extension f : H
U
(n) H(n) es diferenciable.
3. El Teorema 6.1.9 y el Corolario 6.1.10 siguen siendo validos en este contexto.
6.4.10. Sea A H(n) y sea : (1, 1) H(n) una curva C
1
tal que (0) = A. Sea (A)
una raiz simple de P
A
(x), y sea x
0
ker(AI) un autovector unitario. Probar que existe
un > 0 y una curva suave x : (, ) C
n
tal que
6.4 Ejercicios 129
1. x(0) = x
0
.
2. x(t) es autovector de (t) para todo t (, ).
3. La funcion (, ) t (t), que da el autovalor asociado a cada x(t), es suave.
4. Todos los (t) son autovectores simples de (t).
Mostrar, ademas, que | x(0)| d (, (A) )
1
| (0) x
0
|.
Sugerencia: Tomar un abierto U (A) que separe a del resto de (A), y denir all la
funcion f que vale uno cerca de y cero en el resto de U. Tomar g(t) = f((t) ), para los
t (, ) tales que (t) H
U
(n), observar que cada g(t) es un proyector autoadjunto de
rango uno (por el Corolario 2.3.8) y usar la Eq. (6.1) para ver que proyector es. Denir
entonces x(t) = g(t) x
0
. Para obtener (t), buscar una coordenada no nula de x
0
y dividir
ah (o tomar (t) = tr g(t)(t) ). Para acotar la norma, diagonalizar adecuadamente a A y
luego usar el Corolario 6.1.10.
6.4.11. Sean U(t) =
_
cos t sen [t[
sen [t[ cos t
_
y A(t) = U(t)
_
1 +t
2
0
0 1 t
2
_
U(t)

para t R.
Mostrar que la curva A(t) es suave cerca de 0, pero como A(0) = I tiene multiplicidades, no
hay curvas suaves x(t) a valores en R
n
que cumplan lo mismo que en el ejercicio anterior.
Ojo: La curva x(t) = U(t)e
1
no es suave, pero hay que ver que no puede haber otra suave.
6.4.12. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion tal que f(0) 0.
Entonces son equivalentes:
1. f es convexa (a secas, no pedimos OP).
2. Dados n N y A H
I
(n), se cumple que
f(C

AC)
w
C

f(A)C.
para todo C /
n
(C) tal que |C|
sp
1. Comparar con la Eq. (6.12).
Sugerencia: Probar que si f es convexa entonces f
_
Ax, x)
_
f(A)x, x) para todo vector
unitario x y toda matriz A H
I
(n).
6.4.13. Sea I R un intervalo tal que 0 I y sea f : I R, una funcion convexa creciente
tal que f(0) 0. Dados n N y A H
I
(n), probar que para todo i I
n
se verica que

i
(f(C

AC) )
i
(C

f(A)C) .
donde C /
n
(C) es una contraccion. Dar un contraejemplo si la funcion no es creciente.
Sugerencia: Usar minimax.
6.4.14. Sea C /
n
(C) una contraccion y A /
n
(C)
+
. Demostrar que dados r, s R
tales que 1 r s, entonces (C

A
r
C)
1/r
(C

A
s
C)
1/s
.
130 Funciones monotonas y convexas de operadores
6.4.15. Sea A, B /
n
(C)
+
, r (1, +) y [0, 1]. Probar que
(A
r
+B
r
)
1
r

1
1
r
A+ (1 )
1
1
r
B .
Sugerencia: Analizar separadamente los casos = 0 o 1 y (0, 1). Usar que t t
1
r
es
tanto MOP como OP. Si no sale, chusmear el Lema 9.5.3.
6.4.16. Sean A, B /
n
(C)
+
. Probar que la funcion
[1 , +) p
_
A
p
+B
p
2
_1
p
es creciente, relativa al orden de /
n
(C)
+
.
Sugerencia: Dados r, q [1 , +) tales que r < q, aplicar el ejercicio anterior para los n umeros
r =
q
r
> 1 y =
1
2
. Si no sale, chusmear la Proposicion 9.5.6.
Captulo 7
Productos tensoriales y
alternados
7.1 Producto tensorial de a dos
Comenzaremos jando ciertas convenciones de notacion adecuadas para esta teora:
1. Para cada n N, llamaremos H
n
= C
n
con el producto interno usual. Denotaremos
por e
(n)
1
, . . . , e
(n)
n
a los vectores de la base canonica de H
n
.
2. Llamaremos H
n
H
k
al espacio de funcionales F : H
n
H
k
C bilineales (i.e., lineales
en cada coordenada), pensado como C-espacio vectorial de la forma natural.
3. Dada F H
n
H
k
, le asociamos la matriz F =
_
F(e
(n)
i
, e
(k)
j
)

/
n,k
(C). Luego
F(x, y) =
n

i=1
k

j=1
x
i
y
j
F
ij
= x
T
F y , x H
n
, y H
k
.
Esto muestra que podemos identicar naturalmente H
n
H
k
con /
n,k
(C).
4. Esto permite, ademas, denir el producto interno natural en H
n
H
k
. Dadas F, G
H
n
H
k
, las identicamos con sus matrices en /
n,k
(C), denimos
F, G) = tr G

F =

(i,j)InI
k
F
ij
G
ij
. (7.1)
5. Dados x H
n
e y H
k
, notaremos por x y H
n
H
k
, al llamado tensor elemental,
dado por
x y(u, v) = u, x)v, y) , u H
n
, v H
k
. (7.2)
132 Productos tensoriales y alternados
Observar que u, x)v, y) = x
T
u y
T
v = u
T
_
xy
T
_
v. Por lo tanto, la matriz de x y es
xy
T
/
n,k
(C) . Por lo tanto, no toda F H
n
H
k
es elemental, pero s sucede que
toda F es suma de tensores elementales, porque las matrices del tipo xy
T
son todas las
de rango uno. Observar que la aplicacion
H
n
H
k
(x, y) x y H
n
H
k
es bilineal. Ademas, a partir de la Eq. (7.1), vemos la formula
x y , u v) = tr
_
(uv
T
)

xy
T
_
= tr
_
u

x y
T
v
_
= x, u) y, v) , (7.3)
para x, u H
n
, y, v H
k
.
6. Se puede deducir que el conjunto
c
n,k
= e
(n)
i
e
(k)
j
: i I
n
, j I
k
E
ij
/
n,k
(C) : i I
n
, j I
k

es una base ortonormal de H


n
H
k
, que llamaremos base canonica. La consideraremos
ordenada alfabeticamente (leyendola por filas).
7. Dados A L(H
n
) y B L(H
k
), podemos denir el operador A B L(H
n
H
k
), a
traves de la formula AB(F) = AFB
T
, para F H
n
H
k
, pensado como una matriz
en /
n,k
(C). En particular,
AB(x y) Axy
T
B
T
= (Ax) (By)
T
Ax By , x H
n
, y H
k
.
Observar que esta ecuacion no dene a AB en todos los elementos de H
n
H
k
, pero
s lo caracteriza completamente (por ser lineal).
8. El producto tensorial de matrices verica las siguientes propiedades:
(a) Sean I
n
/
n
(C) y I
k
/
k
(C). Entonces I
n
I
k
es la identidad de H
n
H
k
.
(b) (A
1
+A
2
) B = (A
1
B) +A
2
B, para todo C.
(c) (AB)

= A

.
(d) (A
1
B
1
)(A
2
B
2
) = A
1
A
2
B
1
B
2
.
(e) Si existen A
1
y B
1
, entonces A
1
B
1
= (AB)
1
. En particular, si A |(n)
y B |(k), entonces AB |(nk).
(f) A B 0 si A 0 y B 0. Mas a un, [A B[ = [A[ [B[. Se usa el Teorema
3.1.3 y la unicidad de la raiz cuadrada positiva.
Observacion 7.1.1. Dados A L(H
n
) y B L(H
k
), la matriz de AB en la base canonica
de H
n
H
k
(ordenada por las) es el llamado producto de Kronecker de A y B que se dene
como la matriz por bloques
AB =
_

_
a
11
B . . . a
1n
B
.
.
.
.
.
.
.
.
.
a
n1
B . . . a
nn
B
_

_ /
nk
(C) . (7.4)
7.2 Potencias tensoriales 133
La vericacion es sumamente tediosa, pero podemos dar un esbozo: La base canonica de
H
n
H
k
se ordena as:
e
(n)
1
e
(k)
1
, . . . , e
(n)
1
e
(k)
k
, e
(n)
2
e
(k)
1
, . . . , e
(n)
2
e
(k)
k
, . . . . . . , e
(n)
n
e
(k)
1
, . . . , e
(n)
n
e
(k)
k
.
Luego, el vector e
(n)
i
e
(k)
r
se ubica en el lugar k(i 1) + r de la base canonica. Fijemos
un par i, j I
n
. Como el bloque de k k ubicado en el jugar (i, j) involucra las las entre
k(i 1) + 1 y ki, y a las columnas k(j 1) + 1 y kj, se escribe
_

AB(e
(n)
j
e
(k)
s
) , e
(n)
i
e
(k)
r
_
_
r,sI
k
=
_
Ae
(n)
j
, e
(n)
i
) Be
(k)
s
, e
(k)
r
)
_
r,sI
k
= a
ij
B ,
como se armaba.
Proposicion 7.1.2. Sean A /
n
(C) y B /
m
(C). Si los autovalores de A son la n-upla

1
, ...,
n
, y los de B son
1
, ...,
m
, entonces los autovalores de AB son

(i,j)

(i,j)InIm
, donde
(i,j)
=
i

j
,
todos contados con multiplicidad.
Demostracion. Aplicando el Teorema 1 de Schur 1.6.1, si A = UT
1
U

y B = V T
2
V

, con
U, V unitarias y T
1
, T
2
triangulares superiores, entonces
AB = U V T
1
T
2
(U V )

,
por lo que (AB) = (T
1
T
2
) (con multiplicidades). Por la representacion matricial de
T
1
T
2
como producto de Kronecker (que queda tambien triangular superior, pero con los
productos
i

j
en su diagonal), se obtiene la igualdad anunciada.
Corolario 7.1.3. Sean A /
n
(C) y B /
m
(C).
1. |AB|
sp
= |A|
sp
|B|
sp
.
2. Mas a un, los valores singulares de AB son
s(AB) = s
i
(A)s
j
(B)
(i,j)InIm
contados con multiplicidad, y ordenados en forma decreciente.
Demostracion. Se sigue de que [AB[ = [A[ [B[ y de la Proposicion 7.1.2.
7.2 Potencias tensoriales
Una cuenta muy engorrosa, aunque elemental, muestra que se tiene un isomorsmo natural
entre (H
n
H
k
) H
r
y H
n
(H
k
H
r
), identicando a ambos con las funciones trilineales
en H
n
H
k
H
r
. La clave es observar que, dados x H
n
, y H
k
y z H
r
, a los
134 Productos tensoriales y alternados
tensores elementales (xy) z & x(y z) se los puede identicar con la misma funcional
trilineal, por una formula semejante a (7.2). Es decir, que el producto tensorial es asociativo.
Esto permite denir productos de varios espacios, sin necesidad de aclarar el orden en que
se los dene. Lamentablemente, en ese contexto se pierde la representacion de las funciones
multilineales como matrices, a menos que se quiera pensar en matrices de muchas dimensiones.
Usaremos particularmente la asociatividad para denir potencias, en el sentido tensorial, de
un mismo espacio H
n
, y de operadores en H
n
. Damos, a continuacion, el listado de notaciones
y resultados que se siguen naturalmente (y que se prueban planarmente por induccion usando
lo anterior y la asociatividad):
7.2.1. Sean n, k N.
1. Notaremos

k
H
n
, llamado espacio k-tensorial sobre H
n
, al producto tensorial de H
n
por s mismo k veces. Los elementos de

k
H
n
se pueden pensar como funcionales
k-multilineales F : H
k
n
C.
2. Dados x
1
, , x
k
H
n
, se dene el k-tensor elemental x
1
x
2
x
k
por la formula
x
1
x
k
(u
1
, , u
k
) =
k

i=1
u
i
, x
i
) , (u
1
, , u
k
) H
k
n
. (7.5)
Luego todo elemento de

k
H
n
es suma de k-tensores elementales.
3. El producto interno sobre

k
H
n
, denido inductivamente en todo par de elementos
de

k
H
n
, esta determinado por el producto de k-tensores:

x
1
x
2
x
k
, y
1
y
2
y
k
_
=
k

i=1
x
i
, y
i
) , (7.6)
para x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
.
4. La aplicacion H
k
n
(x
1
, . . . , x
k
) x
1
x
k

k

H
n
es k-multilineal.
5. La base canonica ortonormal de

k
H
n
es, por denicion,
_
e
(n)
1
e
(n)
2
e
(n)

k
: = (
1
,
2
, ,
k
) I
k
n
_
.
Luego dim

k
H
n
= n
k
.
7.2.2. Todo operador A : H
m
H
n
induce un operador de

k
A :

k
H
m


k
H
n
,
llamado potencia k-tensorial de A, determinado por la formula
k

A (x
1
x
2
x
k
) = Ax
1
Ax
2
Ax
k
, (7.7)
para x
1
, . . . , x
k
H
m
. Se tienen las siguientes propiedades:
7.3 Productos alternados y determinantes 135
a. Dados A L(H
m
, H
n
) y B L(H
n
, H
r
),
k

(AB) =
k

A
k

B . (7.8)
b. (

k
A)

=

k
A

.
c. Si A (l (n), entonces

k
A
1
= (

k
A)
1
. En particular

k
A es unitaria si A
|(n).
d. Si A /
n
(C)
+
, entonces

k
A 0, porque A = C

C para alg un C /
n
(C), y

k
A = (
k
C)

k
C.
e. Mas generalmente, si A /
n
(C), se tiene que [

k
A[ =

k
[A[.
f. Si los autovalores de A son
1
, . . . ,
n
, los autovalores (resp. valores singulares) de

k
A son
_
k

j=1

ij
: (i
1
, . . . , i
k
) I
k
n
_ _
resp.
_
k

j=1
s
ij
(A) : (i
1
, . . . , i
k
) I
k
n
_ _
,
contados con multiplicidad. En particular se tiene que

_
k

A
_
= (A)
k
y
_
_
k

A
_
_
sp
= |A|
k
sp
.
7.3 Productos alternados y determinantes
Sea S
k
el grupo simetrico de grado k, esto es el grupo de todas la permutaciones de I
k
. Cada
S
k
da lugar a un operador linear P
(n)

|(

k
H
n
), por la siguiente formula: Si pensamos
a los elementos de

k
H
n
como funcionales k- multilineales F : H
k
n
C, se dene
P
(n)

(F) (x
1
, x
2
, , x
k
) = F(x
(1)
, x
(2)
, , x
(k)
) , (x
1
, x
2
, , x
k
) H
k
n
. (7.9)
Dados x
1
, . . . , x
k
H
n
, es facil ver, usando la formula (7.5), que
P
(n)

(x
1
x
2
x
k
) = x

1
(1)
x

1
(2)
x

1
(k)
. (7.10)
Observacion 7.3.1. El hecho de que P
(n)

sea unitario se puede probar mostrando primero


que (P
(n)

= P
(n)

1
(esto puede hacerse usando solo los k-tensores elementales). Despues,
ah si por denicion, se ve que P
(n)

1
= (P
(n)

)
1
.
Deniremos a continuacion las nociones basicas de productos alternados
136 Productos tensoriales y alternados
Denicion 7.3.2. Sea n N y k I
n
. Llamaremos espacio k-alternado (o k-esimo Grass-
mann) sobre H
n
, al subespacio de

k
H
n
dado por

k
H
n
=
_
F
k

H
n
: P
(n)

F = sgn() F para toda S


k
_
,
donde sgn() = 1 de acuerdo a si es una permutacion par o impar. Los elementos de

k
H
n
se llaman k-tensores alternados. Se considera a
k
H
n
como un espacio de Hilbert con
el producto interno de

k
H
n
.
Observacion 7.3.3. Notaremos por P
n
k
a la proyeccion ortogonal de

k
H
n
sobre
k
H
n
.
Es facil ver que P
n
k
esta dada por la formula
P
n
k
=
1
k!

S
k
sgn() P
(n)

. (7.11)
En efecto, como cada P
(n)

|(

k
H
n
), entonces (P
(n)

= (P
(n)

)
1
= P
(n)

1
. Por lo tanto
(P
n
k
)

= P
n
k
, ya que al adjuntarlo tan solo se reordena la suma (se usa sgn(
1
) = sgn() ).
Por otro lado, como para todo par , S
k
se tiene que
sgn() = sgn() sgn() y P
(n)

= P
(n)

P
(n)

,
podemos deducir que R(P
n
k
)
k
H
n
. Finalmente, es claro, a partir de la denicion de

k
H
n
, que P
n
k
(F) = F para toda F
k
H
n
.
Denicion 7.3.4. Dados x
1
, . . . , x
k
H
n
, se dene el k-tensor alternado elemental :
x
1
x
2
x
k
:= P
n
k
(x
1
x
2
. . . x
k
) =
1
k!

S
k
sgn() x
(1)
x
(2)
x
(k)
,
tambien llamado producto alternado de la k-upla ordenada x
1
, x
2
. . . , x
k
.
Observacion 7.3.5. Enumeraremos aqu algunas propiedades de los k-tensores elementales:
1. Notar que, como
k
H
n
= P
n
k
_
k
H
n
_
, y los k-tensores elementales generan

k
H
n
,
podemos asegurar que los k-tensores alternados elementales generan
k
H
n
.
2. Usando el tem 5 de 7.2.1 y el hecho de que P
n
k
es lineal, podemos deducir que la
aplicacion (x
1
, . . . , x
k
) x
1
x
k
es k-multilineal.
3. Por otra parte, dados x
1
, x
2
. . . , x
k
H
n
y S
k
, se sigue de las deniciones que
x
(1)
x
(2)
x
(k)
= sgn() x
1
x
2
x
k
. (7.12)
En resumen, (x
1
, . . . , x
k
) x
1
x
k
es una aplicacion k-multilineal alternada.
4. De la formula (7.12) puede deducirse que, si existen x
i
= x
j
con i ,= j, entonces
x
1
x
k
= 0 (usando la transposicion = (i, j) S
k
, cuyo sgn() = 1).
5. Mas a un, esto implica que si el conjunto x
1
, . . . , x
k
es linealmente dependiente, su
produco alternado debe ser nulo. xEsto se usara en la subseccion siguiente.
7.3 Productos alternados y determinantes 137
Productos alternados y el determinante
En los captulos anteriores se hizo uso libre de la funcion determinante
/
n
(C) A det A C ,
y de sus conocidas propiedades. Dar una exposicion completa y formal de dichos resultados
es algo que uno siempre trata de evitar, porque es un asunto complicado y poco amigable. Sin
embargo, con la teora de productos alternados a mano, esto esta bastante cerca, por lo que
trataremos de dar las dos deniciones usuales, mostrar su equivalencia, y dar pruebas de sus
propiedades mas importantes. Por lo tanto, en esta seccion supondremos que nos olvidamos lo
que sabemos (y hemos usado) al respecto. Empecemos por una de las deniciones. Asumimos
conocida cierta teora basica de grupos de permutaciones, como hemos hecho hasta ahora.
Denicion 7.3.6. Sea A = (a
ij
)
i,jIn
/
n
(C). Denimos su determinante por la formula
det A =

Sn
sgn()
n

j=1
a
j,(j)
C . (7.13)
Con la misma formula se dene el determinante de matrices a coecientes en cualquier anillo
(como en C[X], lo que se usa para denir el polinomio caracterstico de una matriz).
7.3.7. A continuacion enumeraremos una serie de propiedades que se siguen facilmente de
esta denicion del determinante. Las pruebas que no esten escritas deben considerarse como
ejercicios: Sea A /
n
(C).
1. det A
T
= det A y det A

= det A. Aca se usa solamente que sgn(


1
) = sgn().
2. det I = 1, ya que el sumando
n

j=1
I
j,(j)
= 0 para toda ,= Id.
3. Si todas las diagonales de A tienen alg un cero (en el sentido de la Denicion 4.3.2),
entonces det A = 0. Por ejemplo (usando el Teorema 4.3.3) esto sucede si existe una
submatriz nula de tama no k r con k +r > n.
4. En particular, si exite alguna F
i
(A) = 0 (o bien una columna), entonces det A = 0.
5. Dada S
n
y P

|
1
(n) su matriz de permutacion asociada, entonces se tiene que
det P

= sgn(). Esto sale por que la unica diagonal sin ceros de P

es la producida
por la misma , como se ve en la Eq. (4.4).
6. Si T T o(n), entonces det T =

iIn
T
ii
. Esto se ha usado sistematicamente en los
captulos anteriores, y se lo justico desarrollando por la primera columna. Eso no
es incorrecto (ver el Ejercicio 7.5.11 o la Eq. (12.13) ), pero sale mas directo con la
Denicion 7.3.6, porque la unica diagonal sin ceros de T (si es que hay una) es la
producida por = Id.
138 Productos tensoriales y alternados
7. La funcion /
n
(C) A det A C es continua (mas a un, es de clase C

), debido a
que es un polinomio de grado n en los coecientes de A.
Para dar la segunda denicion y probar las principales propiedades del determinante, necesi-
tamos desarrollar un poco la teora de productos alternados. La relacion clave entre estos y
la formula (7.13) para el determinante es lo siguiente:
Proposicion 7.3.8. Sean x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
. Entonces

x
1
x
2
x
k
, y
1
y
2
y
k
_
=
1
k!
det
_
x
i
, y
j
)
_
i,jI
k
. (7.14)
Demostracion. Es consecuencia de la ecuacion Eq. (7.6), por la Denicion 7.3.6 para el
determinante. En efecto, si D = x
1
x
k
, y
1
y
k
), entonces
D =
_
1
k!

S
k
sgn()x
(1)
x
(k)
,
1
k!

S
k
sgn()y
(1)
y
(k)
_
=
1
(k!)
2

,S
k
sgn() sgn()
k

i=1

x
(i)
, y
(i)
_
como sgn() = sgn(
1
),
=
1
(k!)
2

,S
k
sgn(
1
)
k

j=1

1
(j)
, y
j
_
tomando j = (i)
=
1
k!

S
k
sgn()
k

j=1

x
(j)
, y
j
_
=
1
k!
det
_
x
i
, y
j
)
_
i,jI
k
,
donde la pen ultima igualdad surge de considerar la aplicacion S
k
S
k
S
k
dada por (, )
=
1
. Notar que cada S
k
es imagen de k! elementos, a saber, los de la forma (, ),
parametrizados por S
k
.
Potencia alternada de una matriz
Observacion 7.3.9. Por las ecuaciones (7.7) y (7.10), si A L(H
m
, H
n
), su k-potencia
tensorial mezcla P
(n)

y P
(m)

en el siguiente sentido:
P
(n)

_
k

A
_
=
_
k

A
_
P
(m)

para toda S
k
.
Entonces, por la formula (7.11),

k
A mezcla las proyecciones P
n
k
y P
m
k
:
P
n
k
_
k

A
_
=
_
k

A
_
P
m
k
. (7.15)
Por lo tanto
k

A
_

k
H
m
_

k
H
n
.
7.3 Productos alternados y determinantes 139
Denicion 7.3.10. Sea A L(H
n
, H
m
). La restriccion de

k
A al espacio alternado
k
H
n
es llamada la k-potencia exterior de A, y denotada por

k
A L(
k
H
n
,
k
H
m
) .
Por la Eq. (7.7) y la Observacion 7.3.5, la k-potencia exterior
k
A esta determinada por la
formula:

k
A (x
1
x
2
x
k
) = Ax
1
Ax
2
Ax
k
, (7.16)
para toda k-upla x
1
, . . . , x
k
en H
n
.
Observacion 7.3.11. Si I
n
es la identidad de H
n
, entonces
k
I
n
= I

k
Hn
. Por otra parte,
se sigue de (7.8) o de (7.16) que, si A L(H
n
, H
m
) y B L(H
m
, H
r
), entonces

k
(AB) =
k
A
k
B y (
k
A)

=
k
A

. (7.17)
Cuando n = m, i.e. A L(H
n
), la Eq. (7.15) dice que
k
H
n
reduce a

k
A, por lo que se
tiene una identidad matricial del tipo

k
A =
_

k
A 0
0
_

k
H
n
_

k
H
n
_

. De ahi se deducen
facilmente las siguientes propiedades:
a. Si A (l (n),
k
A
1
= (
k
A)
1
.
b.
k
A es unitaria si A |(n).
c.
k
A 0 si A 0. Ademas [
k
A[ =
k
[A[.
Denicion 7.3.12. 1. Sea n N y k I
n
. Notamos por Q
k,n
al conjunto de sucesiones
estrictamente crecientes de k enteros elegidos en I
n
:
Q
k,n
=
_
= (
1
,
2
, ,
k
) I
k
n
: 1
1
<
2
< <
k
n
_
.
Otra manera de verlo es Q
k,n
=
_
J I
n
: [J[ = k
_
, si pensamos a los conjuntos J
ordenados en forma creciente. Luego [Q
k,n
[ =

n
k

.
2. Sean A /
n,m
(C), Q
k,n
y Q
l,m
. Entonces denotaremos por A[[] a la
submatriz de k l de A dada por
A[[] =
_
A
ij
_
(i,j)I
k
I
l
/
k,l
(C) .
Cuando = , A[[] se abreviara como A[]. Si = I
n
(resp. = I
m
), notaremos
A[[] = A[[] (resp. A[[] = A[[]).
3. Dada Q
k,n
, usaremos la abreviacion:
e

= e
(n)

:= e
(n)
1
e
(n)
2
e
(n)

k

k
H
n
.
A continuacion veremos que forman una BON de
k
H
n
.
140 Productos tensoriales y alternados
Proposicion 7.3.13. El conjunto
c

k,n
=

k! e

: Q
k,n
(7.18)
es una BON de
k
H
n
. Por lo tanto, tenemos que dim
k
H
n
= [Q
k,n
[ =

n
k

.
Demostracion. El hecho de que c

k,n
genera
k
H
n
se deduce de los tems 1, 2 y 3 de la
Observacion 7.3.5 (la Eq. (7.12) permite ordenar las coordenadas). Por otro lado, si ,
Q
k,n
no son iguales, es facil ver que la matriz
_
e
i
, e
j
_ _
i,jI
k
debe tener una la nula (la de
alg un
i
/ ). Luego, por la Proposicion 7.3.8 y el tem 4 de 7.3.7, se tiene que e

, e

) = 0.
Finalmente, como det I
k
= 1, llegamos a que c

k,n
es una BON.
Proposicion 7.3.14. Sea A /
n,m
(C). Identiquemos
k
A L(
k
H
m
,
k
H
n
) con su
matriz en las bases c

k,m
y c

k,n
. Dados Q
k,n
y Q
k,m
, se tiene que
_

k
A
_
,
= det A[[] . (7.19)
Demostracion. De acuerdo a las ecuaciones (7.14) y (7.18), se tiene que
_

k
A
_
,
=
_

k
A

k! e
(m)

k! e
(n)

_
= k!
_

k
A e
(m)

, e
(n)

_
= det
_
Ae
j
, e
i
_
i,jI
k
= det A[[] ,
donde la ultima igualdad se sigue de que Ae
j
, e
i
) = A
ij
.
Determinantes
Miremos que es
n
H
n
, o sea el caso k = n. Como I
n
es el unico elemento de Q
n,n
, la
Proposicion 7.3.13 asegura que el vector e
n
=

n! e

In
=

n! e
1
e
2
e
n
es una BON de

n
H
n
. O sea que
n
H
n
= C e
n
. Dados x
1
, . . . , x
n
H
n
, si tomamos la matriz X /
n
(C)
dada por F
i
(X) = x
i
, queda

n! x
1
x
2
x
n
= det X e
n
. (7.20)
En efecto, si abreviamos a = x
1
x
n
, entonces a = a, e
n
) e
n
. Ah podemos aplicar
la Proposicion 7.3.8, ya que x
i
, e
j
) = X
ij
, para todo par i, j I
n
.
La formula (7.20) es la segunda denicion para el det X, en el sentido de que X det X
es la unica funcion n-multilineal alternada (en las las de X) tal que det I
n
= 1 (esto vale
porque la matriz X asociada a e
1
e
n
es X = I
n
). La Proposicion 7.3.8 muestra que es
equivalente a la de diagonales y permutaciones.
Si en la Proposicion 7.3.14 consideramos el caso k = n = m, e identicamos L(
n
H
n
) con C
(va zI z), tenemos que

n
A = det A para toda A /
n
(C) . (7.21)
Observar que esto brinda un camino directo para probar la igualdad det AB = det A det B,
que no se ve tan facil va la Denicion 7.3.6.
7.3 Productos alternados y determinantes 141
Proposicion 7.3.15. Sean A, B /
n
(C), Entonces se tiene que
1. det AB = det A det B.
2. det A ,= 0 si y solo si A (l (n).
3. (l (n) es abierto y denso en /
n
(C).
Demostracion. Lo primero se deduce de que
n
AB =
n
A
n
B va la formula (7.21). Si
A (l (n), tenemos que det A det A
1
= det I
n
= 1 ,= 0. Si A / (l (n), entonces sus
columnas deben ser un conjunto linealmente dependiente (porque ker A ,= 0). Luego se
aplica la Eq. (7.20) y el ultimo punto de la Observacion 7.3.5 a la matriz A
T
, y el hecho de
que det A = det A
T
, como asegura 7.3.7. Como A det A es continua, el item 2 implica que
(l (n) = det
1
z C : z ,= 0 es abierto en /
n
(C). La densidad podra probarse usando
la multilinealidad de A det A, pero sale mas facil viendo que, para cualqueir A /
n
(C),
existen matrices A+I (l (n) para arbitrariamente peque no.
Corolario 7.3.16. Sean k, n N.
1. Un conjunto x
1
, x
2
, . . . , x
k
H
n
es linealmente independiente si y solo si el producto
alternado x
1
x
2
x
k
,= 0.
2. El espacio
k
H
n
,= 0 si y solo si k n.
Demostracion. Sea X /
n,k
dada por C
i
(X) = x
i
, i I
k
. Luego x
1
, x
2
, . . . , x
k
es
linealmente independiente si y solo si ker X = 0. Esto, a su ves, equivale a que X

X (l (k)
(porque ker X

X = ker X). Pero, por la Proposicion 7.3.8, tenemos que


X

X =
_
x
j
, x
i
)
_
i,jI
k
=
_
x
i
, x
j
)
_
i,jI
k
= det X

X = k! |x
1
x
2
x
k
|
2
.
Luego aplicamos la Proposicion 7.3.15. La segunda parte se deduce inmediatamente de la
primera, porque en H
n
puede haber, a lo sumo, n vectores linealmente independientes.
Observacion 7.3.17. Recordemos que, si A /
n,m
(C) decimos que
rkA = dimR(A) = dimGen C
1
(A), . . . , C
m
(A) ,
es el rango columna de A. Como
k
A(e

) = C
1
(A) C

k
(A), para todo Q
k,m
, el
Corolario 7.3.16 muestra que
rk A = maxk N :
k
A ,= 0 (7.22)
(ver tambien el Corolario 7.4.3 de mas adelante). Usando que
k
A

= (
k
A)

, la formula
(7.22) da otra prueba de que rk A

= rk A.
El siguiente resultado generaliza la Proposicion 7.3.15 a determinantes de submatrices:
142 Productos tensoriales y alternados
Corolario 7.3.18 (Formula de Cauchy-Binnet). Dadas A /
n,r
(C) y B /
r,m
(C) , sea
k mnn, r, m. Luego, para cada par Q
k,n
, Q
k,m
se tiene que
det(AB)[[] =

Q
k,r
det A[[] det B[[] . (7.23)
Demostracion. Por la ley de multiplicacion (7.17) y la Proposicion 7.3.14, tenemos que
det(AB)[[] = (
k
AB)

=
_

k
A
k
B
_

Q
k,r
_

k
A
_

k
B
_

Q
k,r
det A[[] det B[[] ,
lo que prueba lo armado.
Observacion 7.3.19. La version mas clasica de la Formula de Cauchy Binnet es la siguiente:
Sean A /
k,r
(C) y B /
r,k
(C) , con k r. Luego,
det AB =

Q
k,r
det A[[] det B[[] , (7.24)
que resulta de operar con todas las submatrices cuadradas de tama no maximo de A (eligiendo
columnas) y de B (eligiendo las mismas las). Es claro que (7.24) se deduce del Corolario
7.3.18. Tambien vale la recproca, porque dadas A y B como en el Corolario 7.3.18, las
matrices A
0
= A[, ] /
k,r
(C) y B
0
= B[, ] /
r,k
(C) cumplen que
A
0
B
0
= (AB)[[] , A
0
[[] = A[[] y B
0
[[] = B[[] , Q
k,r
;
por lo que (7.23) para A y B se reduce a (7.24) para A
0
y B
0
.
Proposicion 7.3.20. Sean A, B (l (n)
+
y [0, 1]. Entonces
det
_
A+ (1 )B
_
(det A)

(det B)
1
.
Es decir, la aplicacion (l (n)
+
A log det A es concava.
Demostracion. Sea C = B
1
A. Como (C) =
_
B
1/2
AB
1/2
_
(con multiplicidades),
podemos llamar (C) = (B
1/2
AB
1/2
) R

n
+
. Ademas,
det
_
A+ (1 )B
_
= det B
_
B
1
A+ (1 )I
_
= det B det
_
C + (1 )I
_
.
Luego basta probar que
det
_
C + (1 )I
_
(det A)

(det B)
1
det B
1
= (det A)

(det B)

= (det C)

.
7.4 Propiedades utiles de los productos alternados 143
En otras palabras, basta ver que
n

i=1
_

i
(C) + 1
_

n

i=1

i
(C)

.
Finalmente, veremos que
_

i
(C) +1
_

i
(C)

para cada i I
n
, con lo cual el resultado
quedara probado. En efecto, dado c > 0, la funcion f(t) = c
t
es convexa en todo R. Notar
que f(0) = 1 y f(1) = c. Por lo tanto
_
c + 1
_
= f(1) + (1 )f(0) f(1 + (1 )0) = f() = c

.
Aplicando lo anterior a cada c =
i
(C), obtenemos el resultado.
Ejercicio 7.3.21. 1. Sea H (l (n)
+
(en principio real). Entonces,
_

n
det H
=
_
R
n
e
Hx,x)
dx .
Para probarlo, hacer un cambio de variables y = Ux, para U |(n) tal que UHU

=
diag ((H)). Como U es unitaria, la integral no cambia. Luego usar que
_
R
n
e
at
2
dt =

1/2
a
1/2
. De paso, esto prueba que e
Hx,x)
es integrable en R
n
(notar que el cambio
de variables manda bolas en bolas). Vale lo mismo para matrices complejas?
2. Probar la Proposicion 7.3.20 usando lo anterior (y la desigualdad de Holder ! ).
7.4 Propiedades utiles de los productos alternados
El siguiente resultado, si bien es algo tecnico, es la llave para la caracterizacion completa de
los autovalores de un producto alternado:
Lema 7.4.1. Sea T T o(n), con los n umeros
1
, . . . ,
n
en su diagonal. Sea k I
n
.
1. En terminos de la BON c

k,n
de la Eq. (7.18), ordenada lexicogr acamente, la matriz
de
k
T es, tambien, triangular superior.
2. Para cada J Q
k,n
, se tiene que (
k
T)
JJ
=

i J

i
.
Demostracion. Sean I, J Q
k,n
tales que I > J. Debemos probar que
(
k
T)
IJ
= det T[I, J] = 0 ,
donde la primea igualdad sabemos que es cierta por la Proposicion 7.3.14. Si I = (
1
, ,
k
)
y J = (
1
, . . . ,
k
) (vectores ordenados en forma creciente), debe existir alg un j I
k
tal que

j
>
j
(sino valdra que I J en el lexicograco). Por lo tanto,

i
>
r
para todo par (i, r) tal que 1 r j i k .
144 Productos tensoriales y alternados
Como T T o(n), tenemos que T
ir
= 0 para todos esos pares. Es decir que T[I, J] tiene
una submatriz nula de tama no (k j +1) j. Aplicando Konig-Frobenius (Corolario 4.3.3),
deducimos que T[I, J] no tiene ninguna diagonal sin ceros. Esto implica que det T[I, J] = 0,
como se armo. Por otra parte, si J Q
k,n
, por la Proposicion 7.3.14 sabemos que
(
k
T)
JJ
= det T[J] =

i J

i
,
puesto que T[J] T o(k).
Teorema 7.4.2. Sea A /
n
(C) con vector de autovalores (A) = (
1
(A), . . . ,
n
(A) ). Sea
k I
n
. Entonces los autovalores de
k
A estan dados por

J
(
k
A) =

i J

i
(A) , J Q
k,n
,
contados con multiplicidad.
Demostracion. Es similar al caso de los productos tensoriales (Proposicion 7.1.2). Se aplica el
Teorema 1 de Schur 1.6.1 y el hecho de que
k
U es unitaria si U |(n), pero usando ahora
el Lema 7.4.1.
Corolario 7.4.3. Sea A /
n
(C). Sea k I
n
. Entonces los valores singulares de
k
A son
s
_

k
A
_
=
_
s
J
_

k
A
_ _
JQ
k,n
=
_

i J
s
i
(A)
_
JQ
k,n
,
contados con multiplicidad, y ordenados en forma decreciente. Adem as, si ordenamos a los
autovalores
1
(A), . . . ,
n
(A) de A con modulos decrecientes, se tiene que

k
A
_
=
k

i=1
[
i
(A)[ y
_
_

k
A
_
_
sp
= s
1
_

k
A
_
=
k

i=1
s
i
(A) .
Demostracion. Se deduce del Teorema 7.4.2 y del hecho de que

k
A

=
k
[A[.
A continuacion veremos algunas propiedades funtoriales de los productos alternados, que seran
necesarias para las aplicaciones a desigualdades.
Proposicion 7.4.4. Sea A /
n
(C) y k I
n
.
1. Si A
m

m
A, entonces
k
A
m

m

k
A.
2. Si A /
n
(C)
+
entonces, para todo r R
+
se tiene que
(
k
A)
r
=
k
(A
r
) .
3. Si A es alguna de estas cosas:
7.5 Ejercicios 145
a. Idempotente (i.e., A
2
= A),
b. Proyector (i.e., A
2
= A = A

),
c. Isometra parcial (i.e., AA

y A

A son proyectores),
d. Autoadjunto, normal o unitario,
entonces
k
A es del mismo tipo.
4. Si A = U[A[ es una DP de A, entonces

k
A =
k
U
k
[A[ (7.25)
es una descomposicion polar de
k
A.
Demostracion.
1. Por la formula (7.19), para todo par , Q
k,n
, tenemos que
(
k
A
m
)

= det A
m
[[]
m
det A[[] = (
k
A)

.
Observar que el determinante de una matriz es un polinomio en sus entradas, por lo que
la funcion B det B es continua.
2. Como (
k
A)
2
=
k
(A
2
), la veracidad del enunciado cuando r N se deduce a traves
de una simple induccion. Recordando que (
k
A)
1
=
k
(A
1
), es claro que tambien
vale si r Z. Para extender el resultado a los r Q, basta notar que si m N 0
entonces:
(
k
A
1/m
)
m
=
k
[(A
1/m
)
m
] =
k
A .
Finalmente, el caso general se obtiene por continuidad (y el item 1.).
3. Todas estas propiedades se deducen directamente de las propiedades vistas en la Obser-
vacion 7.3.11.
4. Ya hemos visto (o podemos deducir de lo anterior) que [
k
A[ =
k
[A[. Como
k
U es
isometra parcial, y la igualdad (7.25) se tiene que cumplir a partir de que A = U[A[,
entonces (7.25) es una DP de
k
A.
7.5 Ejercicios
Ejercicios del texto
7.5.1. Probar que el producto tensorial de matrices verica las siguientes propiedades: Fije-
mos A /
n
(C) y B /
k
(C). Se considera que A B L(H
n
H
k
)

= /
nm
(C), y en
H
n
H
k
se usa el producto escalar denido en las Eqs. (7.1) y (7.3).
1. Sean I
n
/
n
(C) y I
k
/
k
(C). Entonces I
n
I
k
es la identidad de H
n
H
k
.
146 Productos tensoriales y alternados
2. (A
1
+A
2
) B = (A
1
B) +A
2
B, para todo C.
3. (AB)

= A

.
4. (A
1
B
1
)(A
2
B
2
) = A
1
A
2
B
1
B
2
.
5. Si existen A
1
y B
1
, entonces A
1
B
1
= (AB)
1
. En particular, si A |(n) y
B |(k), entonces AB |(nk).
6. AB 0 si A 0 y B 0. Mas a un, [AB[ = [A[ [B[. Se usa el Teorema 3.1.3 y
la unicidad de la raiz cuadrada positiva.
7.5.2. Completar los detalles de la prueba de la Eq. (7.4).
7.5.3. Completar los detalles de la denicion inductiva del espacio

k
H
n
, probar los 5 items
de 7.2.1 y los 6 de 7.2.2.
7.5.4. Dados n, k N y S
k
, tomemos el operador de permutacion P
(n)

L(

k
H
n
),
denido en la Eq. (7.9). Probar las siguentes propiedades:
1. La formula (7.10) sobre como act ua P
(n)

en los tensores elementales.


2. Mostrar que P
(n)

es untario. Mas a un, mostrar que (P


(n)

= P
(n)

1
= (P
(n)

)
1
.
3. Sea P
n
k
la proyeccion ortogonal de

k
H
n
sobre
k
H
n
. Completar los detalles de la
demostracion de la Eq. (7.11):
P
n
k
=
1
k!

S
k
sgn() P
(n)

.
7.5.5. Dar los detalles de las pruebas de los 5 items de la Observacion 7.3.5, sobre las
propiedades de los k-tensores elementales.
7.5.6. Probar todos los resultados enunciados en la Observacion 7.3.11, sobre las propiedades
de las k-potencias alternadas (o exteriores) de matrices.
7.5.7. Probar los 7 items de 7.3.7 (sobre determinantes).
7.5.8. Probar que (l (n) es denso en /
n
(C).
7.5.9. Hacer el Ejercicio 7.3.21.
Ejercicios nuevos
7.5.10. Sea S
n
y P

|
1
(n) su matriz de permutacion asociada, denida en la Obser-
vacion 4.1.5. Probar que det P

= sgn() de las tres maneras propuestas:


1. Usando la Denicion 7.3.6 de una (esto es parte del Ejercicio anterior).
7.5 Ejercicios 147
2. Mostrar que si S
n
es una trasposicion, entonces det P

= 1, y usar que sigma es


producto de trasposiciones, y que la echa det P

es un morsmo.
3. Usando que P

tiene las F
i
(P

) = e
(i)
, i I
n
(por la Eq. (4.3) ), y aplicando luego
las ecuaciones (7.12) y (7.20).
4. Alguna otra que se les ocurra.
7.5.11. Demostrar el algoritmo usual para calcular det A, para A /
n
(C), desarrollando
por alguna la o columna de A. Por ejemplo la la r-esima:
det A =

iIn
(1)
r+i
A
r, i
det A(r[ i) . (7.26)
Se sugiere usar la multilinealidad de B det B (tanto para las como para columnas) y
calcular det B en el caso de que alguna la o columna de B este en la base canonica de C
n
.
Otra opcion es esperar hasta la Eq. (12.13).
7.5.12. Sea t = (t
1
, . . . , t
n
) C
n
. Se llama matriz de Vandermonde de t a
V (t) =
_
t
j1
i
_
i,jIn
=
_

_
1 t
1
. . . t
n1
1
1 t
2
. . . t
n1
2
.
.
.
.
.
. . . .
.
.
.
1 t
n
. . . t
n1
n
_

_
/
n
(C) .
Probar que det V (t) =

i<j
(t
j
t
i
) , por lo que V (t) (l (n) si los t
i
son todos distintos.
7.5.13. Sean A, B /
n
(C). Probar:
1. (s(A), s(B)) (s([A[ +[B[), 0) en R
2n
.
2. (s(A), s(B))
w
(s(A+B), 0) en R
2n
.
3. Sea F : /
n
(C) R
+
dada por F(C) =

i
f(s
i
(C)), para una f : R
+
R
+
concava
tal que f(0) = 0. Probar que F es subaditiva, o sea
F(A+B) F(A) +F(B).
4. Si z C, det(I +zA) =
n

k=0
z
k
tr(
k
A).
5. P
A
(x) = x
n
+
n1

k=0
(1)
nk
tr(
nk
A) x
k
.
6. det(I +[A+B[) det(I +[A[) det(I +[B[).
7. [ det(I +A)[ det(I +[A[).
8. [ det(I +A+B)[ det(I +[A[) det(I +[B[).
148 Productos tensoriales y alternados
Productos simetricos
Sean k, n N. Recordemos que, dados x
1
, . . . , x
k
H
n
y S
k
, tenemos que
P
(n)

(x
1
x
2
x
k
) = x

1
(1)
x

1
(2)
x

1
(k)
,
donde P
(n)

es un operador unitario que cumple (P


(n)

1
) = (P
(n)

)
1
. Dado k I
n
. Llamaremos
espacio k-simetrico sobre H
n
, al subespacio de

k
H
n
dado por

k
H
n
=
_
F
k

H
n
: P
(n)

F = F para toda S
k
_
,
Los elementos de
k
H
n
se llaman k-tensores simetricos. Se considera a
k
H
n
como un
espacio de Hilbert con el producto interno de

k
H
n
. Dados x
1
, . . . , x
k
H
n
, se dene el
k-tensor simetrico elemental:
x
1
x
2
x
k
:=
1
k!

S
k
x
(1)
x
(2)
x
(k)

k
H
n
.
7.5.14. Dada A /
n
(C), denimos su permanente por la formula
per A =

Sn
n

j=1
a
j,(j)
C . (7.27)
Es decir que es como el determinante, pero sin signos negativos.
1. Probar que, si T T o(n), entonces per T =

iIn
T
ii
. En particular, per I
n
= 1.
2. Si A0, mostrar que per A = 0 existen subconjuntos I, J I
n
tales que
[I[ +[J[ > n y la submatriz A
IJ
0, es decir que a
ij
= 0 para todo par (i, j) I J.
3. Deducir que si A To (n), entonces per A ,= 0.
4. Si B, C /
n
(C)
+
cumplen que C B, probar que 0 per C per B.
7.5.15. Sean x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
. Probar que

x
1
x
2
x
k
, y
1
y
2
y
k
_
=
1
k!
per
_
x
i
, y
j
)
_
i,jI
k
.
7.5.16. Dados x
1
, . . . , x
k
, y
1
, . . . , y
k
H
n
, llamemos
G(x, y) =
_
x
i
, y
j
)
_
i,jI
k
/
k
(C)
a la matriz que se uso en el Ejercicio anterior.
1. Probar que [ det G(x, y)[
2
det G(x, x) det G(y, y)
7.5 Ejercicios 149
2. Tambien que [per G(x, y)[
2
per G(x, x) per G(y, y) .
3. Traducir a que si A, B /
n,k
(C), entonces
[per A

B[
2
per A

A per B

B
4. (Otro teorema de Schur) Si A /
n
(C)
+
, per A det A (se sugiere usar el teorema de
Cholewsky, Corolario 3.1.5).
7.5.17. Sea A (l (n)
+
. Llamemos
r
i
= tr(F
i
(A) ) , i I
n
y s = r
1
+ +r
n
= A1, 1) .
1. Probar que s
n
per A n!

ijIn
[r
i
[
2
.
2. Deducir que, si A To (n) (l (n)
+
, entonces per A n! n
n
.
150 Productos tensoriales y alternados
Captulo 8
Producto de Hadamard
8.1 Propiedades basicas
Recordemos algunas nociones adelantadas en la Seccion 3.5
Denicion 8.1.1. Dadas A, B /
n,m
(C) se dene el producto de Hadamard A B como
la matriz
A B =
_
a
ij
b
ij
_
iIn
jIm
/
n,m
(C) .
Notar que este producto tiene sentido tanto para matrices como para vectores.
Teorema 8.1.2 (Teorema 2 de Schur). Sean A, B /
n
(C)
+
, entonces A B /
n
(C)
+
.
Ademas, si A > 0 y B > 0, entonces A B > 0.
Demostracion. Ya fue demostrado en 3.6.2
Corolario 8.1.3. Sean A, B /
n
(C)
+
, entonces
1.
n
(A)
n
(B)
n
(A B).
2. |A B| =
1
(A B)
1
(A)
1
(B) = |A| |B|.
Demostracion. Ejercicio.
Ahora empezamos a mostrar novedades sobre el producto de Hadamard.
Proposicion 8.1.4. Sea o = Gen e
i
e
i
: i I
n
H
n
H
n
. Identicaremos L(o) con
/
n
(C) en la manera obvia. Denamos el operador lineal
: L(H
n
H
n
) /
n
(C) dado por (T) = T
S
, T L(H
n
H
n
) .
Entonces, dados A, B /
n
(C), se verica que (AB) = A B .
152 Producto de Hadamard
Demostracion. Representemos A B como producto de Kronecker, como en la Observacion
7.1.1. Con las notaciones de submatrices de la Denicion 7.3.12, es facil ver que, si tomamos
=
_
(1, 1), (2, 2), . . . , (n, n)
_
I
n
I
n
, entonces
(AB) = (AB)
S
= (AB)[] = A B ,
como se armaba.
Denicion 8.1.5. Dada A /
n,m
(C), llamaremos
C(A) = max
i Im
|C
i
(A)|
2
y F(A) = max
i In
|F
i
(A)|
2
.
Notar que estos n umeros pueden, tambien, caracterizarse por las formulas
C(A)
2
= |A

A I
m
|
sp
y F(A)
2
= |AA

I
n
|
sp
.
Por lo tanto C(A) |A|
sp
y F(A) |A|
sp
.
Proposicion 8.1.6. Sean A, B /
n,m
(C). Entonces
|A B|
sp
C(A)F(B) |A|
sp
|B|
sp
.
Demostracion. Para cada par x C
m
, y C
n
de vectores unitarios, se tiene que

A Bx, y)

2
=

i,j
a
ij
b
ij
x
j
y
i

2
=

i,j
(a
ij
x
j
) (b
ij
y
i
)

i,j
[a
ij
[
2
[x
j
[
2
__

i,j
[b
ij
[
2
[y
i
[
2
_
(por Cauchy-Schwarz)
=
_

j
[x
j
[
2

i
[a
ij
[
2
__

i
[y
j
[
2

j
[b
ij
[
2
_
C(A)
2
|x|
2
F(B)
2
|y|
2
= C(A)
2
F(B)
2
.
Como |A B|
sp
= max
_
[A Bx, y)[ : |x| = |y| = 1
_
, el resultado esta demostrado.
Observacion 8.1.7. Sean A (l (n)
+
y J I
n
, con [J[ = k. Luego se tiene que
A[J] = (a
ij
)
i,j J
(l (k)
+
y A
1
[J] A[J]
1
.
En efecto, esto es un caso particular del Corolario 6.3.7 (o de la Proposicion 3.8.7).
Proposicion 8.1.8. Sean A, B (l (n)
+
. Entonces se verica que
1. (A B)
1
A
1
B
1
.
2. A A
1
I (A A
1
)
1
.
Demostracion. Se deduce de la Observacion 8.1.7 y de la Proposicion 8.1.4, ya que que A B
es una submatriz principal de AB, mientras que A
1
B
1
lo es de A
1
B
1
= (AB)
1
,
para los mismos ndices.
8.2 La norma de un multiplicador Hadamard 153
8.2 La norma de un multiplicador Hadamard
Denicion 8.2.1. Fijemos A /
n
(C), y denamos el operador de multiplicacion
M
A
: /
n
(C) /
n
(C) dado por M
A
(B) = A B , B /
n
(C) .
Fijada una norma N en /
n
(C), denotaremos K
N
(A) a la norma inducida para M
A
:
K
N
(A) = max
_
N(A B) : B /
n
(C) es tal que N(B) = 1
_
= mn
_
k 0 : N(A B) k N(B) para toda B /
n
(C)
_
.
En el caso de que N sea la norma espectral, escribiremos K
A
en lugar de K
| |sp
(A).
Observacion 8.2.2. Sea A /
n
(C). Si N es una norma unitariamente invariante tal que
N(E
11
) = 1, entonces
max
i,j
[a
ij
[ K
N
(A) .
En efecto, notar que para todo i, j I
n
se tiene
N(A E
ij
) = [a
ij
[N(E
ij
) = [a
ij
[ y N(E
ij
) = 1 .
Por otra parte, para la norma espectral, de la Proposicion 8.1.6 se puede deducir que
K
A
mn
_
C(A), F(A)
_
|A|
sp
.
En efecto, notar que para toda B /
n
(C), tenemos que
|A B| C(A)F(B) C(A)|B| y |A B| F(A)C(B) F(A)|B|,
ya que |C
i
(B)|
2
= |Be
i
| |B| para todo i I
n
. Analogamente, F(B) |B|.
Ejercicios 8.2.3.
1. Si N = | |
2
(la norma de Frobenius), entonces
K
N
(A) = max
i,jIn
[a
ij
[ , A /
n
(C) .
Notar que (/
n
(C), N) es un espacio de Hilbert, M
A
es un operador diagonal, y
K
N
(A) = |M
A
|
sp
.
2. Algo mas complicado es probar que, para cualquier A /
n
(C),
K
| |
1
(A) = K
A
.
Debe usarse que | |
1
es la norma dual de la espectral (esto es del mismo tipo que
(
1
)

, pensada en los valores singulares), y que el operador adjunto de M


A
es
el mismo M
A
. Esto ultimo se deduce de la identidad
tr
_
(A B)C
t
_
=

i,jIn
a
ij
b
ij
c
ij
= tr
_
B(A C)
t
_
,
donde se identica a /
n
(C) con /
n
(C)
t
a traves de la aplicacion C
C
= tr( C
t
)
(ver los Ejercicios 5.6.29 al 5.6.33) .
154 Producto de Hadamard
Teorema 8.2.4. Sea A /
n
(C). Dada una factorizacion A = D

B, con B, D /
n
(C),
se verica que
K
A
C(D)C(B) .
Demostracion. Consideremos la siguiente matriz:
P =
_
D

0
B

0
_ _
D B
0 0
_
=
_
D

D A
A

B
_
/
2n
(C)
+
.
Fijemos M /
n
(C) tal que |M|
sp
1. Luego
_
I M
M

I
_
/
2n
(C)
+
, y por el Teorema
2 de Schur 8.1.2, tenemos que
P
M
= P
_
I M
M

I
_
=
_
I D

D M A
(M A)

I B

B
_
/
2n
(C)
+
.
Como (D

D)
ii
= |C
i
(D)|
2
, i I
n
, podemos deducir que I D

D C(D)
2
I, y analogamente
se ve que I B

B C(B)
2
I. Por ende,
P
M

_
C(D)
2
I M A
(M A)

C(B)
2
I
_
= R
M
.
Conjugando con F =
_
C(D)
1
I 0
0 C(B)
1
I
_
, obtenemos que
FR
M
F =
_
I C(D)
1
C(B)
1
(M A)
C(D)
1
C(B)
1
(M A)

I
_
/
2n
(C)
+
.
Esto nos dice que |C(D)
1
C(B)
1
(M A)|
sp
= C(D)
1
C(B)
1
|M A|
sp
1, o sea
|M|
sp
1 = |M A|
sp
C(D)C(B) .
En otras palabras, K
A
C(D)C(B).
Corolario 8.2.5 (Schur 4). Sea A /
n
(C)
+
. Entonces K
A
= maxA
ii
: i I
n
.
Demostracion. Notemos M = maxA
ii
: i I
n
. Hemos visto que M K
A
(porque
A
ii
= |A E
ii
|). Por otra parte, como A /
n
(C)
+
, sabemos que existe B /
n
(C) tal
que A = B

B. Es facil ver que, en tal caso, A


ii
= |C
i
(B)|
2
para todo i I
n
. Esto dice que
M = C(B)
2
. Por el Teorema 8.2.4 deducimos que K
A
C(B)
2
= M.
8.3 Funcionales positivas
El teorema de Haagerup (1983) dice que, dado A /
n
(C), existe una factorizacion A = D

B,
como en el Teorema 8.2.4, tal que se obtiene la igualdad K
A
= C(D)C(B). Su formulacion
8.3 Funcionales positivas 155
y demostracion original utilizaba profundas nociones y resultados de algebras de operadores.
Esto motivo que, desde el ambito de los especialistas en analisis matricial, fueran apareciendo
numerosas pruebas simplicadas del teorema de Haagerup. De todas ellas hemos seleccionado
la obtenida por Paulsen, Power y Smith en [29]. Necesitaremos, sin embargo, adaptar al
contexto de matrices ciertas nociones y resultados elementales de algebras de operadores.
Fundamentalmente, propiedades y criterios de existencia de funcionales positivas.
Denicion 8.3.1. Sea o /
n
(C) un subespacio cerrado por adjuncion, es decir, T o si
y solo si T

o. Una funcional en o es una aplicacion lineal : o C. Se denen los


siguientes tipos de funcionales:
1. Notamos

(adjunta de ) a la funcional dada por

(A) = (A

), A o.
2. Decimos que es autoadjunta si

= . Es decir, si (A

) = (A), A o.
3. La funcional se llama positiva si (A) 0 cuando A o /
n
(C)
+
.
4. Se considera la norma inducida en las funcionales por la norma espectral de las matrices.
Es decir || = max[(A)[ : A o , |A|
sp
= 1 .
Ejercicios 8.3.2. Sea o /
n
(C) un subespacio cerrado por adjuncion.
1. Sea una funcional en o. Probar que
(a) || = |

|.
(b) es autoadjunta si y solo si (A) R para toda A o H(n).
(c) Si es positiva, entonces es tambien autoadjunta.
(d) Toda funacional autoadjunta en o es resta de dos positivas.
Se usa que si A o, entonces Re A o e ImA o.
2. Dada B /
n
(C), se dene la siguiente funcional en /
n
(C):

B
: /
n
(C) C dada por
B
(A) = A, B) = tr(AB

) , A /
n
(C).
Vericar que
(a) Para toda funcional en /
n
(C) existe una unica matriz B /
n
(C) tal que
=
B
.
(b) Dados x, y C
n
consideremos la matriz x y = xy

/
n
(C) , denida en la
seccion 1.9. Se tiene que
B
(xy

) = x, By).
(c) (
B
)

=
B
, y por lo tanto
B
es autoadjunta si y solo si B H(n).
(d)
B
es positiva si y solo si B /
n
(C)
+
.
Proposicion 8.3.3. Sea B /
n
(C). Entonces
1. [ tr B[ tr [B[.
156 Producto de Hadamard
2. tr B = tr [B[ si y solo si B /
n
(C)
+
.
3. |
B
| = |B|
1
= tr [B[.
Demostracion.
1. Sea B = v
1
, . . . , v
n
una bon de vectores propios de [B[ asociada a s(B). Luego, si
B = U[B[ es la DP de B, con U |(n),
[ tr B[ =

k=1
U[B[v
k
, v
k
)

k=1
s
k
(B)

Uv
k
, v
k
)

k=1
s
k
(B) = tr [B[ .
2. Si tr B = tr [B[, entonces
n

k=1
s
k
(B) = tr [B[ = tr B =
n

k=1
Bv
k
, v
k
) =
n

k=1
s
k
(B)Uv
k
, v
k
) .
Dado que [Uv
k
, v
k
)[ 1 para todo k I
n
, por el caso en que se obtiene igualdad
en la desigualdad de Cauchy Schwarz, todos los n umeros complejos Uv
k
, v
k
) deben
tener el mismo argumento. Como la suma da un n umero positivo, se debe vericar que
Uv
k
, v
k
) = 1 para todo k I
n
. Pero un unitario con unos en la diagonal (en nuestro
caso la matriz de U en la base B) debe ser la identidad. De ello se deduce que U = I y
que B = [B[ /
n
(C)
+
. La recproca es obvia.
3. Notar que tr [B[ = tr(U[B[U

) = tr(UB

) =
B
(U) |
B
|. Por otro lado, por el item
anterior y el Corolario 5.3.11,
[ tr(AC)[ tr [AC[ |A|
sp
tr [C[ ,
para todo par A, C /
n
(C). Entonces
[
B
(A)[ = [ tr(A[B[U

)[ = [ tr(U

A[B[)[ |U

A|
sp
tr [B[ = (tr [B[) |A|
sp
,
para toda A /
n
(C). Por lo tanto |
B
| tr [B[.
Teorema 8.3.4. Sea o /
n
(C) un subespacio cerrado por adjuncion tal que I o. Sea
una funcional en o. Luego las siguientes condiciones son equivalentes:
1. es positiva.
2. || = (I).
3. Existe B /
n
(C)
+
tal que es la restriccion de
B
a o .
Demostracion.
8.4 Matrices incompletas 157
1 2 Sea A o. Si A = A

, se tiene que |A|


sp
I A |A|
sp
I. Luego, si es positiva
en o, tenemos
|A|
sp
(I) (A) |A|
sp
(I) = [(A)[ |A|
sp
(I) .
Si A ,= A

, sea [0, 2) tal que (A) = e


i
[(A)[, o sea que (e
i
A) = [(A)[.
Llamenos A
0
= e
i
A. Como es autoadjunta y (A
0
) R, deducimos que (A
0
) =
(Re A
0
). Por todo esto,
[(A)[ = (A
0
) = (Re A
0
) | Re A
0
|
sp
(I) |A
0
|
sp
(I) = |A|
sp
(I) .
Luego || (I). La otra desigualdad es obvia (|I|
sp
= 1).
2 3 Sea una funcional en o tal que || = (I). Por el teorema de Hahn Banach (en
dimension nita se lo puede probar por induccion con la prueba tradicional), existe una
extension de a todo /
n
(C) que tiene la misma norma. Luego existe B /
n
(C)
tal que =
B
. Por la Proposicion 8.3.3, deducimos que
tr [B[ = |
B
| = || = || = (I) =
B
(I) = tr B ,
y por lo tanto B /
n
(C)
+
.
3 1 Sea B /
n
(C)
+
tal que es la restriccion de
B
a o. Si A o /
n
(C)
+
, tenemos
que
(A) = tr AB = tr B
1/2
AB
1/2
0 ,
porque B
1/2
AB
1/2
/
n
(C)
+
y la funcional tr es positiva.
Corolario 8.3.5. Sea o /
n
(C) un subespacio cerrado por adjuncion tal que I o, y
una funcional positiva en o. Luego existe funcional positiva en /
n
(C), con la misma
norma, tal que es la restriccion de a o.
8.4 Matrices incompletas
Sea J I
n
I
n
. Una matriz incompleta asociada al conjunto J es un cacho de matriz
A = (a
ij
)
i,j J
. O sea que no se pone nada en las entradas (i, j) / J. Una matriz B /
n
(C)
es una completacion de A si b
ij
= a
ij
para todo (i, j) J.
Denicion 8.4.1. Sea J I
n
I
n
.
1. Llamaremos S
J
/
n
(C) al subespacio
S
J
=
_
C /
n
(C) : c
ij
= 0 para todo (i, j) / J
_
.
2. Si A esta denida solo en J, y C S
J
, denotaremos A C = B C, donde B /
n
(C)
es cualquier completacion de A. Notar que, como C S
J
, la denicion no depende de
la completacion elegida.
158 Producto de Hadamard
3. Diremos que J cumple (P) si
(a) (i, j) J = (j, i) J,
(b) (i, i) J para todo i I
n
.
En otras palabas, si J es simetrico y contiene a la diagonal (reexivo).
Existen numerosos resultados sobre matrices incompletas, fundamentalmente relativos a pre-
guntas del tipo: que debe cumplir A para que se la pueda completar a una matriz que cumpla
una propiedad dada?
Un ejemplo de este tipo de resultados, es el llamado teorema de Parrot, que describe algunos
casos de matrices incompletas que pueden completarse a una contraccion. Una version de
aquel resultado aparece en el Ejercicio 3.9.13.
El siguiente teorema da una respuesta al problema de cuando se puede completar una casi-
matriz A para que quede positiva (semidenida), siempre que el conjunto J en el que esta
denida tenga la propiedad (P). Observemos que si B /
n
(C)
+
es una completacion de un
tal A, entonces, por el Teorema 2 de Schur 3.6.2, debe cumplirse que
A C = B C /
n
(C)
+
para toda C S
J
/
n
(C)
+
. (8.1)
Esto nos da una condicion necesaria sobre A para que pueda existir una completacion po-
sitiva. Esta condicion sera muy pobre si J no cumple (P), porque en tal caso habra muy
pocas matrices en S
J
/
n
(C)
+
. Pero veremos que, si J cumple (P), entonces la condicion
es tambien suciente:
Teorema 8.4.2. Supongamos que J I
n
I
n
cumple (P). Sea A = (a
ij
)
i,j J
una matriz
denida solo en J. Luego las siguientes condiciones son equivalentes:
1. Existe una completacion B de A tal que B /
n
(C)
+
.
2. Para toda matriz C S
J
/
n
(C)
+
se verica A C /
n
(C)
+
.
Demostracion. En la Eq. (8.1) vimos que la ida es consequencia del Teorema 2 de Schur.
Supongamos entonces que A cumple 2. Sea
A
: S
J
C la funcional denida por

A
(C) =

(i,j) J
a
ij
c
ij
, C = (c
ij
) S
J
.
Veriquemos ahora que
A
es positiva en S
J
. En efecto, si C S
J
/
n
(C)
+
, luego tambien
C = C
T
S
J
/
n
(C)
+
. Por hipotesis A C /
n
(C)
+
. Si llamamos e = (1, . . . , 1) R
n
,
entonces
0 (A C) e, e) =

(i,j) J
a
ij
c
ij
=
A
(C) =
A
(C),
por lo que
A
es positiva. Observar que S
J
verica las hipotesis del Teorema 8.3.4 (es
cerrado por adjuncion e I S
J
), gracias a que J cumple (P). Luego, obtenemos una matriz
8.5 El teorema de Haagerup 159
B /
n
(C)
+
tal que
B

S
J
=
A
. Notar que, si (i, j) J, entonces E
ij
S
J
. Por otra
parte, es facil ver que tr (BE
ij
) = b
ji
= b
ij
. Luego,
b
ij
= tr (BE
ij
) =
B
(E
ij
) =
A
(E
ij
) = a
ij
, (i, j) J .
Eso dice que B es una completaci on positiva de A.
8.5 El teorema de Haagerup
Lema 8.5.1. Sean T /
n
(C) y , R

n
+
. Notemos D
1
= diag () , D
2
= diag ()
(l (n)
+
y L /
n
(C) la matriz con entradas L
ij
=
1/2
i

1/2
j
. Entonces
M =
_
D
1
T
T

D
2
_
/
2n
(C)
+
|L T| 1 .
Demostracion. Observar que
_
D
1/2
1
0
0 D
1/2
2
_
M
_
D
1/2
1
0
0 D
1/2
2
_
=
_
I D
1/2
1
TD
1/2
2
D
1/2
2
T

D
1/2
1
I
_
.
Luego, por la Proposicion 3.7.6, M /
2n
(C)
+
si y solo si |D
1/2
1
TD
1/2
2
| 1. El
resultado queda probado con solo observar que D
1/2
1
TD
1/2
2
= L T.
Teorema 8.5.2. Sea A /
n
(C). Luego las siguientes condiciones son equivalentes:
1. K
A
1, es decir |A C| |C| para todo C /
n
(C). .
2. Existen X, Y /
n
(C)
+
tales que
(a) X I I e Y I I.
(b) La matriz N =
_
X A
A

Y
_
/
2n
(C)
+
.
3. Existen B, D /
n
(C) tales que
(a) A = D

B.
(b) C(B) 1 y C(D) 1.
Demostracion. 1 2: Sea J I
2n
I
2n
dado por
J = (i, i) : i I
2n
(i, n +j) : i, j I
n
(n +i, j) : i, j I
n
.
Observar que J cumple (P). Consideremos la matriz P de tama no 2n 2n, denida solo en
J, dada por
P =
_
D A
A

D
_
, donde D =
_

_
1 ?
.
.
.
? 1
_

_ ,
160 Producto de Hadamard
que es una matriz de tama no n n denida solamente en la diagonal.
Clamor: Si M S
J
/
2n
(C)
+
, entonces P M /
2n
(C)
+
.
En efecto, M =
_
D
1
T
T

D
2
_
, donde T /
n
(C), y D
1
= diag () , D
2
= diag () son matri-
ces diagonales positivas en /
n
(C). Si suponemos que D
1
, D
2
son estrictamente positivas, y
notamos L /
n
(C) la matriz con entradas L
ij
=
1/2
i

1/2
j
, el Lema 8.5.1 nos dice que,
como M /
2n
(C)
+
, entonces |L T| 1. Observar que
P M =
_
D
1
A T
(A T)

D
2
_
.
Como K
A
1, tenemos que |L (A T)| = |A (L T)| 1. Usando nuevamente el Lema
8.5.1, deducimos que P M /
2n
(C)
+
. El caso general (sin suponer que D
1
y D
2
son
inversibles) se deduce del anterior, tomando la sucesion
M
m
= M +
1
m
I
2n
en S
J
. Entonces /
2n
(C)
+
P M
m

m
P M .
Como /
2n
(C)
+
es cerrado, el clamor queda demostrado. Por el Teorema 8.4.2, tenemos que
existe una completacion N de P tal que
N =
_
X A
A

Y
_
/
2n
(C)
+
y, por lo tanto, X I = Y I = I .
Luego las matricecs X, Y /
n
(C)
+
cumplen lo pedido.
2 3: Como N /
2n
(C)
+
, por el teorema de Cholewsky (Corolario 3.1.5), existe una
matriz K /
2n
(C) triangular superior tal que N = K

K. Si la escribimos en bloques de
n n,
K =
_
D B
0 G
_
= K

K =
_
D

D D

B
B

D B

B +G

G
_
=
_
X A
A

Y
_
= N.
El resultado se sigue de que A = D

B y, como X I I e Y I I, entonces
C(D)
2
= |D

D I| = |X I| 1 y
C(B)
2
= |B

B I| |(B

B +G

G) I| = |X I| 1 .
La implicacion 3 1 fue probada en el Teorema 8.2.4.
Corolario 8.5.3 (Teorema de Haagerup (1983)). Sea A /
n
(C). Entonces
K
A
= mn
_
C(B)C(D) : B, D /
n
(C) y A = D

B
_
.
Demostracion. Si K
A
= 0, entonces por la Observacion 8.2.2, se tiene que A = 0 y el resultado
es trivial. Si K
A
> 0, una desigualdad se deduce del Teorema 8.2.4 y, para probar la otra,
basta cambiar A por K
1
A
A y aplicar 1 3 del Teorema 8.5.2.
8.6 Determinantes 161
Corolario 8.5.4. Sea A /
n
(C). Notemos A
(k)
/
kn
(C) la matriz con k k bloques de
n n iguales a A. Entonces K
A
= K
A
(k) .
Demostracion. Es evidente que K
A
K
A
(k) (trabajando con matrices de n n rellenadas
con ceros). Recprocamente, si B, D /
n
(C) cumplen que A = D

B y K
A
= C(B)C(D),
entonces
A
(k)
=
_

_
A . . . A
A . . . A
.
.
.
.
.
.
.
.
.
A . . . A
_

_
=
_

_
D . . . D
0 . . . 0
.
.
.
.
.
.
.
.
.
0 . . . 0
_

_
B . . . B
0 . . . 0
.
.
.
.
.
.
.
.
.
0 . . . 0
_

_
= D

k
B
k
.
Pero es claro que C(B
k
) = C(B) y C(D
k
) = C(D), dado que tienen las mismas columnas
(salvo ceros). As, K
A
(k) C(B)C(D) = K
A
.
8.6 Determinantes
Teorema 8.6.1 (Desigualdad de Hadamard). Si A /
n
(C)
+
, entonces
det A det (A I) =
n

i=1
a
ii
.
La igualdad vale si y s olo si A es diagonal.
Demostracion. Podemos suponer que A > 0, y entonces a
ii
> 0, para todo i I
n
. Conside-
ramos la matriz diagonal
D = diag
_
a
1/2
11
, . . . , a
1/2
nn
_
.
Entonces B = D
1
AD
1
= (a
1/2
ii
a
1/2
jj
a
ij
)
ij
tiene unos en la diagonal. Ademas,
det B = det A (det D)
2
= det A
n

i=1
a
1
ii
.
Por lo tanto, sera suciente mostrar que det B 1. Aplicando la desigualdad aritmetico-
geometrica
1
obtenemos,
det(B) =
n

i=1

i
(B)
_
1
n
n

i=1

i
(B)
_
n
=
_
tr
B
n
_
n
= 1 .
y esto prueba el resultado. Con respecto a la igualdad, si la hubiera en la desigualdad
aritmetico-geometrica, entonces los n umeros involucrados deben ser todos iguales. Es decir
que todos los
i
(B) = 1. Pero entonces, como B 0, debe ser B = I, o sea A = D
2
.
1
Si a
1
, . . . , am > 0, entonces
m
Q
i=1
a
1
m
i

1
m
m
P
i=1
a
i
. Sale usando que el log es una funcion concava.
162 Producto de Hadamard
Corolario 8.6.2. Sea A /
n
(C). Entonces
[ det A[
n

i=1
|C
i
(A)|
2
. (8.2)
Demostracion. Se aplica la desigualdad de Haramard a la matriz B = A

A 0. Notar que
det B = [ det A[
2
y que B
ii
= |C
i
(A)|
2
2
, para todo i I
n
.
Ejercicio 8.6.3. Veremos tres demostraciones alternativas de estas desigualdades.
1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3.
2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard.
3. Probar el Corolario 8.6.2 usando la descomposicion QR (Teorema 1.8.2) de A /
n
(C).
Observar que (8.2) es trivial para matrices triangulares.
4. Probar el Corolario 8.6.2 usando la interpretacion del determinante como un area o
volumen.
Lema 8.6.4. Sean A (l (n)
+
y (A) =
detA
detA11
, donde A
11
= (a
ij
)
2i,jn
/
n1
(C). Sea
E
11
= e
1
e
t
1
/
n
(C). Entonces AtE
11
0 si y solo si t (A).
Demostracion. Es facil ver, desarrollando por la primera columna, que
det(AtE
11
) = det At det A
11
. (8.3)
Luego, det(A tE
11
) 0 si y solo si t (A). Por otro lado, todas las demas submatrices
principales de A tE
11
obtenidas con las ultimas i las y columnas, son las mismas que las
respectivas de A. Por lo tanto, el determinante de cada una de ellas es positivo. Luego, por
el Teorema 2.4.6 (hecho desde abajo), tenemos el resultado para desigualdades estrictas. El
caso general sale tomando lmite.
Teorema 8.6.5 (Desigualdad de Oppenheim). Si A, B /
n
(C)
+
, entonces
det A
n

i=1
b
ii
= det A det B I det A B
Demostracion. Si det A = 0, el resultado se deduce del Teorema 2 de Schur 8.1.2, que asegura
que A B 0. Supongamos, entonces, que A > 0. La demostracion la realizaremos por
induccion sobre n. Si n = 1, el resultado es inmediato. Sea n 2 y supongamos el resultado
valido para todas las matrices de dimension n 1. Entonces, con las notaciones del Lema
8.6.4, sabemos que
det A
11

n

i=2
b
ii
det A
11
B
11
.
8.6 Determinantes 163
Por el Lema 8.6.4, si = (det A
11
)
1
det A, entonces A E
11
0. El Teorema 2 de Schur
8.1.2 dice que (A E
11
) B 0. Aplicando la formula (8.3), como E
11
B = b
11
E
11
y
(A B)
11
= A
11
B
11
, resulta que
0 det(A B E
11
B) = det A B b
11
det(A
11
B
11
).
Aplicando la hipotesis inductiva, obtenemos
det A B b
11
det A
11
B
11
b
11
det A
11
n

i=2
b
ii
= det A
n

i=1
b
ii
y el teorema queda demostrado.
Teorema 8.6.6 (Desigualdad de Fisher). Sea A /
n
(C)
+
, y sea T un sistema de proyec-
tores en H(n). Entonces
det A det(C
1
(A)).
Recordamos que C
1
(A) =

r
i=1
P
i
AP
i
, si T = P
1
, . . . , P
r
.
Demostracion. Por la Eq. (5.8), basta probar el caso T = P, I P, para P H(n)
un proyector. Supongamos que dimR(P) = k. Conjugando a P y a A con alguna matriz
unitaria (lo que no cambia los determinantes), podemos suponer que R(P) es el subespacio
generado por los primeros k elementos de la base canonica de C
n
. O, lo que es lo mismo, que
P = diag (1, . . . , 1, 0, . . . , , 0), donde los unos llegan hasta el lugar k.
Dado r N, llamemos E
r
/
r
(C)
+
a la matriz con todas sus entradas iguales a 1. Notar
que E
r
0 porque 0 E

r
E
r
= E
2
r
= rE
r
. Consideremos la matriz de bloques
B =
_
E
k
0
0 E
nk
_
/
n
(C)
+
,
que verica que A B = C
P
(A). Aplicando la desigualdad de Oppenheim, tenemos que
det A = det A
n

i=1
b
ii
det A B = det C
P
(A).
Observacion 8.6.7. Otra demostracion del Teorema anterior puede hecerse usando las
Proposiciones 5.4.4 y 4.2.3. En efecto, con las notaciones de 8.6.6, como (C
1
(A)) (A),
si
n
(A) > 0, entonces tambien
n
(C
1
(A)) > 0 y
det A =
n

i=1

i
(A)
n

i=1

i
(C
1
(A)) = det C
1
(A) .
Si
n
(A) = 0, entonces det A = 0, pero C
1
(A) 0, por lo que det C
1
(A) 0.
De los resultados anteriores obtenemos la siguiente relacion para el determinante del producto
convencional de matrices y el producto de Hadamard.
164 Producto de Hadamard
Teorema 8.6.8. Si A, B /
n
(C)
+
, entonces
det A B det A B.
Demostracion. El Teorema se deduce de las desigualdades de Hadamard y de Oppenheim.
En efecto, det A B = det A det B det A
n

i=1
b
ii
det A B.
8.7 Ejercicios
Ejercicios del texto
8.7.1. Dada A /
n,m
(C), mostrar que
C(A) = max
i Im
|C
i
(A)|
2
= |A

A I
m
|
1/2
sp
y F(A) = max
i In
|F
i
(A)|
2
= |AA

I
n
|
1/2
sp
.
Deducir que max
_
C(A) , F(A)
_
|A|
sp
.
8.7.2. Sea A /
n
(C). Porbar las siguientes armaciones:
1. Si N = | |
2
(la norma de Frobenius), entonces
K
N
(A) = max
i,j
[a
ij
[ , A /
n
(C) .
2. Dadas B, C /
n
(C), se cumple que
tr
_
(A B)C
T
_
=

i,j
a
ij
b
ij
c
ij
= tr
_
B(A C)
T
_
.
3. Probar que el operador adjunto de M
A
L(/
n
(C) ) es el mismo M
A
, idencando
/
n
(C)
t
con /
n
(C), a traves de la aplicacion
/
n
(C) C
C
= tr( C
T
) /
n
(C)
t
.
4. Probar que K
| |
1
(A) = K
A
.
8.7.3. Sea o /
n
(C) un subespacio cerrado por adjuncion (i.e. T o = T

o).
1. Sea una funcional en o (usaremos notaciones de la Denicion 8.3.1). Probar que
(a) || = |

|.
(b) es autoadjunta si y solo si (A) R para toda A o H(n).
(c) Si es positiva, entonces es tambien autoadjunta.
8.7 Ejercicios 165
(d) Toda funacional autoadjunta en o es resta de dos positivas.
Se usa que si A o, entonces Re A o e ImA o.
2. Dada B /
n
(C), se dene la siguiente funcional en /
n
(C):

B
: /
n
(C) C dada por
B
(A) = A, B) = tr(AB

) , A /
n
(C).
Vericar que
(a) Para toda funcional en /
n
(C) existe una unica matriz B /
n
(C) tal que
=
B
.
(b) Dados x, y C
n
consideremos la matriz x y = xy

/
n
(C) , denida en la
seccion 1.9. Se tiene que
B
(xy

) = x, By).
(c) (
B
)

=
B
, y por lo tanto
B
es autoadjunta si y solo si B H(n).
(d)
B
es positiva si y solo si B /
n
(C)
+
.
8.7.4 (Hahn Banach nito). Sea o /
n
(C) un subespacio, y sea : o C una funcional
lineal. Si || = max[(A)[ : A o y |A|
sp
= 1, existe una extension de a todo
/
n
(C) que tiene la misma norma.
8.7.5. Si a
1
, . . . , a
n
> 0, entonces
n

i=1
a
1
n
i

1
n
n

i=1
a
i
.
8.7.6. Distintas pruebas de la desigualdad de Hadamard:
1. Probar el Teorema 8.6.1 usando el Teorema 3 de Schur 5.1.1 y el Corolario 4.2.3.
2. Probar que el Corolario 8.6.2 implica la desigualdad de Hadamard.
3. Probar el Corolario 8.6.2 usando la descomposicion QR (Teorema 1.8.2) de A /
n
(C).
Observar que (8.2) es trivial para matrices triangulares.
4. Probar el Corolario 8.6.2 usando la interpretacion del determinante como un area o
volumen.
8.7.7. Dar los detalles de la prueba del Lema 8.6.4.
Ejercicios nuevos
8.7.8. Sean x, y C
n
y G /
n
(C). Probar que
G x y = diag (x) Gdiag (y)

.
Denicion 8.7.9. Dada G /
n
(C)
+
, se dene:
166 Producto de Hadamard
1. El ndice minimal de G como
I(G) = max 0 : G B B para todo B /
n
(C)
+
.
2. Dada una norma N en /
n
(C), se dene el ndice N de Hadamard para G como
I
N
(G) = max
_
0 : N(G B) N(B) para todo B /
n
(C)
+
_
= min
_
N(G B) : B /
n
(C)
+
y N(B) = 1
_
.
El ndice de G asociado con la norma espectral | | = | |
sp
se denota I
sp
(G), mientras que
el asociado a la norma Frobenius | |
2
sera denotado por I
2
(G).
8.7.10. Sean G /
n
(C)
+
, 1 = (1, . . . , 1) C
n
y E = 1 1
T
. Sea N una norma.
1. I(G) ,= 0 si y solo si 1 R(G). Si y C
n
cumple que Gy = 1, entonces
I(G) =
_
m

i=1
y
i
_
1
= y, 1)
1
= (G

E)
1
= min Gz, z) :
n

i=1
z
i
= 1
Y si G > 0, se tiene que I(G) =
_
n

i,j=1
(G
1
)
ij
_
1
=
det G
det(G+E) det G
.
2. I(G) I
N
(G) para cualquier norma unitariamente invariante N.
3. I
N
(G) ,= 0 G I ,= 0 G
ii
,= 0 para todo i I
n
.
4. Si D = diag (d) (l (n)
+
es diagonal, I
N
(D) = N
t
(D
1
)
1
. En part.
I(D) = I
sp
(D) =
_
n

i=1
d
1
i
_
1
e I
2
(D) =
_
n

i=1
d
2
i
_
1/2
.
5. Los indices I
2
e I
sp
se alcanzan en matrices B /
n
(C)
+
de rango 1. O sea,
I
2
(G) = min
|x|=1
|G xx

|
2
e I
sp
(G) = min
|y|=1
|G yy

| .
Mas a un, ambos minimos se alcanzan en vectores x0 (o y 0).
6. I
sp
(A) =nf I
sp
(D) : A D y D es diagonal .
7. Si x C
n
, entonces I
sp
(x x) = mn
iIn
[x
i
[
2
.
8. Sea A =
_
a b
b c
_
/
2
(C)
+
. Probar que
(a) Si [b[ < mina, c, entonces I
sp
(A) =
ac]b]
2
a+c2]b]
.
(b) Si [b[ mna, c, se tiene que I
sp
(A) = mna, c.
Captulo 9
Algunas desigualdades de
matrices
9.1 Partes reales
Denicion 9.1.1. Si A /
n
(C), se llama parte real de A a
Re A =
A+A

2
H(n).
Si x C
n
, notaremos Re x R
n
al vector de las partes reales de sus coordenadas.
Proposicion 9.1.2 (Fan-Homan). Sea A /
n
(C). Entonces
1.
k
(Re A)
k
([A[) = s
k
(A), para todo k I
n
.
2. Existe U |(n) tal que Re A U[A[U

.
Demostracion. Sean x
1
, . . . , x
n
y w
1
, . . . , w
n
bases ortonormales de C
n
, formadas por au-
tovectores de Re A (resp. A

A) adaptadas a (Re A) (resp. (A

A) ). Dado k I
n
, sea
x Gen x
1
, . . . , x
k
Gen w
k
, . . . , w
n
,
un vector unitario (debe existir por las dimensiones de los subespacios). Entonces, por el
Teorema de Courant-Fisher 2.3.3 y la Proposicion 3.2.6,

k
(Re A) Re Ax, x) = ReAx, x) [Ax, x)[
|Ax| = A

Ax, x)
1/2

k
(A

A)
1/2
=
k
([A[) = s
k
(A) .
La segunda parte se deduce de la primera, dado que diag ((Re A) ) (A).
168 Algunas desigualdades de matrices
Proposicion 9.1.3 (Ky Fan). Dada A /
n
(C), sea (A) C
n
el vector de autovalores de
A en alg un orden. Entonces
Re (A) (Re A)
Demostracion. Ordenemos al vector (A) de tal modo que
Re
1
(A) Re
2
(A) . . . Re
n
(A) .
Sea x
1
, . . . , x
n
una base ortonormal respecto a la cual A es una matriz triangular superior,
y tal que Ax
i
, x
i
) =
i
(A) (que existe por el Teorema 1 de Schur 1.6.1). Dado k I
n
, por
el Principio del maximo de Ky Fan (Proposicion 5.1.4), se tiene que
k

j=1
Re (A)

j
=
k

j=1
Re
j
(A) =
k

j=1
Re Ax
j
, x
j
) =
k

j=1
Re Ax
j
, x
j
)
k

j=1

j
(Re A) .
Para k = n hay igualdad porque Re tr(A) =
tr A+ tr A
2
= tr
A+A

2
= tr Re A.
Corolario 9.1.4. Si A /
n
(C) cumple que A+A

> 0, entonces
(A) z C : Re z > 0 .
En realidad, se puede cambiar Re z > 0 por
n
(Re A) Re z
1
(Re A).
Observacion 9.1.5. Sean A, B H(n). Se llama producto simetrizado de A y B a
S = S(A, B) = AB +BA H(n) .
Supongamos que A > 0 y S = S(A, B) > 0. Notar que, si C = A
1/2
BA
1/2
,
0 < A
1/2
SA
1/2
= A
1/2
BA
1/2
+A
1/2
BA
1/2
= Re C .
Por el Corolario 9.1.4, se tiene que (C) = (B) R

+
. Como B H(n), debe ser B > 0.
Si A /
n
(C)
+
no es inversible, notar que dado > 0 bien chico, se tiene que
S(A+I, B) = S(A, B) + 2B > 0 (porque (l (n)
+
es abierto en H(n) ) .
Luego se aplica el caso anterior, y tambien A 0 + S(A, B) > 0 = B > 0.
Ejercicio 9.1.6. Sean A, B H(n).
1. Probar que, para cada x C
n
, se tiene S(A, B)x, x) = 2 ReAx, Bx).
2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) , 0.
Proposicion 9.1.7 (Kittaneh 95). Sean A, B /
n
(C) tales que AB H(n). Entonces,
[[[AB[[[ [[[ Re BA[[[
para toda NUI [[[ [[[ en /
n
(C).
9.1 Partes reales 169
Demostracion. Comencemos notando que los autovalores de BA son los mismos que los de
AB y por ende son todos reales. Mas a un, en la Proposicion 1.5.5 vimos que (AB) = (BA).
Luego, usando la Proposicion 9.1.3, obtenemos que
(AB) = (BA) = Re (BA) (Re BA).
Como AB y Re BA H(n), podemos aplicar el Corolario 5.3.14 (usando que t [t[ es
convexa) y deducir que s(AB) = [(AB)[


w
[(Re AB)[

= s(Re AB), por lo que [[[AB[[[


[[[ Re(BA)[[[ para toda NUI.
Proposicion 9.1.8 (Corach-Porta-Recht, 93). Sean T, S H(n) y supongamos que S es
inversible. Entonces,
[[[STS
1
+S
1
TS[[[ 2 [[[T[[[
para toda NUI [[[ [[[ en /
n
(C).
Demostracion. Aplicar la desigualdad de Kittaneh a A = TS
1
y B = S.
Ejercicios 9.1.9. 1. Usando el famoso truco de las matrices de 22, extender la desigual-
dad CPR a cualquier T /
n
(C), no necesariamente autoadjunta. Se sugiere usar las
matrices

T =
_
0 T
T

0
_
/
2n
(C)
y una adecuada S
1
H(2n) invertible. Ojo con los s
k
(

T), que son los de T, pero


repetidos dos veces cada uno.
2. Con el mismo truco, probar tambien que, si T /
n
(C) y S H(n) es inversible,
entonces
[[[STS +S
1
TS
1
[[[ 2 [[[T[[[
para toda NUI [[[ [[[ en /
n
(C).
3. Vericar, ademas, que la constante 2 es optima en el primer caso (jando S y moviendo
todos los T /
n
(C) o H(n) ), pero no siempre lo es en el segundo. Para que matrices
S lo sera? (esto ultimo es difcil, pero es facil encontrar familias razonablemente grandes
de ejemplos donde vale, al menos para la norma espectral).
4. Otra manera de probar la desigualdad CPR (la original) es
(a) Primero reducir al caso en que S es diagonal.
(b) Despues escribir STS
1
+S
1
TS como un producto de Hadamard.
(c) Vericar que la matriz que multiplica Hadamard, luego de pasarla dividiendo,
es semi denida positiva.
(d) Aplicar el siguiente resultado: Si A 0, entonces para toda B /
n
(C) y para
toda nui [[[ [[[ en /
n
(C), se tiene que
[[[A B[[[ max a
ii
: i I
n
[[[B[[[ .
Esto es conocido como el Teorema de Schur (ver Corolario 8.2.5, Schur 4).
170 Algunas desigualdades de matrices
9.2 Desigualdad de Thompson
Observacion 9.2.1. A diferencia del modulo de n umeros, el de matrices no cumple la de-
sigualdad triangular. O sea que existen matrices A, B tales que [A+B[ , [A[ +[B[ (Ejercicio:
encontrar un par as en /
2
(C) ). Esto sucede porque sus partes unitarias pueden mezclar
tama nos en forma aleatoria. Lo mejor que se tiene para ese lado es el siguiente resultado,
donde uno corrige ese problema:
Teorema 9.2.2 (Thompson). Dadas A, B /
n
(C), existen U, V |(n) tales que
[A+B[ U[A[U

+V [B[V

. (9.1)
Demostracion. Hagamos la descomposicion polar A+B = W[A+B[, con W |(n). Entonces
[A+B[ = W

(A+B) = Re
_
W

(A+B)
_
= Re W

A+ Re W

B . (9.2)
Por otra parte, por la Proposicion 9.1.2 (Fan-Homan), existen U, V |(n) tales que
Re W

A U[W

A[U

= U[A[U

y Re W

B U[W

B[U

= U[B[U

,
porque (W

A)

A = A

WA = A

A y entonces [W

A[ = [A[ (lo mismo para B).


En el caso de la desigualdad triangular numerica, la igualdad se da si y solo si ambos n umeros
poseen igual argumento. Algo similar vale en el caso matricial:
Teorema 9.2.3. Dadas A, B /
n
(C), las siguientes armaciones son equivalentes:
1. Solo la igualdad puede darse en la ecuacion (9.1).
2. Existe W |(n) tal que A = W[A[ y tambien B = W[B[.
Demostracion.
1 2 Sea A+B = W[A+B[ la descomposicion polar de A+B, con W |(n). Veremos que
WA 0 y WB 0. Como en la Eq. (9.2), se tiene que
[A+B[ = Re W

A+ Re W

B .
Llamemos C = W

A y D = W

B. Siguiendo el razonamiento anterior, por la Proposi-


cion 9.1.2 (Fan-Homan), existen U, V |(n) tales que Re W

A = Re C U[A[U

y
Re D V [B[V

. Ahora bien, la hipotesis de que solo puede darse la igualdad en (9.1)


fuerza a que Re C = U[A[U

y Re D = V [B[V

. Por lo tanto,
tr
_
(Re C)
2
_
= tr [A[
2
= tr A

A =
tr AA

+ tr A

A
2
=
tr CC

+ tr C

C
2
. (9.3)
Observar que 4 tr
_
(Re C)
2
_
= tr CC

+tr C

C+tr C
2
+tr(C

)
2
, por lo que la Eq. (9.3)
se traduce como tr CC

+ tr C

C = tr C
2
+ tr(C

)
2
. Luego
tr
_
(C C

)(C

C)

= tr CC

+ tr C

C tr C
2
tr(C

)
2
= 0 .
Esto muestra que C = W

A H(n). Luego W

A = Re W

A = U[A[U

/
n
(C)
+
.
Analogamente se prueba que W

B /
n
(C)
+
.
9.3 Desigualdad aritmetico-geometrica en matrices 171
2 1 Supongamos ahora que A = W[A[ y B = W[B[ para la misma W |(n). Luego
A + B = W([A[ + [B[) = [A + B[ = [A[ + [B[. Si vale (9.1) para alg un par
U, V |(n), entonces
[A[ +[B[ U[A[U

+V [B[V

= M = U[A[U

+V [B[V

[A[ [B[ /
n
(C)
+
.
Luego, la matriz M /
n
(C)
+
y tiene traza nula, o sea que M = 0. Esto muestra que
solo la igualdad puede complirse en (9.1).
9.3 Desigualdad aritmetico-geometrica en matrices
Recordemos la siguiente desigualdad numerica, que ya haba aparecido en el Teorema 8.6.1:
Dados a
1
, . . . , a
m
R

+
y
1
. . . ,
m
[0, 1] tales que

iIm

i
= 1, se cumple que
m

i=1
a
i
i

m

i=1

i
a
i
. (9.4)
Es la llamada desigualdad aritmetico-geometrica, y se demuestra rapidamente usando que el
logaritmo es una funcion creciente y concava (de n umeros). Como se hara en la mayora de
las secciones que siguen, daremos versiones matriciales de ella. Pero en principio solo para el
caso m = 2 y
1
=
2
=
1
2
. Algunas paginas mas adelante (Teorema 9.4.1), mostraremos una
versi on mas general (solo se asume que m = 2), que es tambien conocida como la desigualdad
de Young. Igual damos una prueba de este caso, porque usa una tecnica interesante que es
bueno ver como funciona.
Proposicion 9.3.1. Sean A, B /
n
(C). Entonces
s
i
(AB

)
1
2
s
i
(A

A+B

B) para todo i I
n
.
Demostracion. Sea X =
_
A 0
B 0
_
/
2n
(C). Cuentas elementales muestran que
X

X =
_
A

A+B

B 0
0 0
_
y XX

=
_
AA

AB

BA

BB

_
.
Sean P =
_
I 0
0 0
_
y U =
_
I 0
0 I
_
= 2P I
2n
|(2n). Luego

AB

=
_
0 AB

BA

0
_
= XX

C
P
(XX

) =
1
2
_
XX

UXX

_
.
Tomemos la descomposicion

AB

=

AB


AB

. Observar que ambas matrices XX

y
UXX

/
2n
(C)
+
. Luego, la Eq. (3.7) y el tem 5.b de la Seccion 3.3 aseguran que
s
i
(AB

) =
i
_

AB

_
=
i
_

AB

+_

1
2

i
(XX

) =
1
2

i
(X

X) =
1
2
s
i
(A

A+B

B) ,
172 Algunas desigualdades de matrices
para todo i I
n
.
El siguiente resultado es mas no que el anterior, y no se generaliza tan facilmente (salvo para
la norma Frobenius, ver Teorema 9.4.7).
Proposicion 9.3.2. Sean A, B, X /
n
(C). Entonces se tiene que
[[[AXB

[[[
1
2
[[[A

AX +XB

B[[[ , (9.5)
para toda NUI [[[ [[[ en /
n
(C).
Demostracion. Debemos dividir la prueba en tres pasos:
Paso 1: Supondremos que A = B H(n) y tambien X H(n). Por la Proposicion 9.1.7,
[[[AXA[[[ [[[ Re XA
2
[[[ =
1
2
[[[A
2
X +XA
2
[[[ .
Paso 2: Ahora X es cualquiera, pero A, B H(n): Tomemeos
T =
_
A 0
0 B
_
H(2n) e Y =
_
0 X
X

0
_
H(2n) .
Por el Paso 1, s(TY T)
w
1
2
s(T
2
Y +Y T
2
). Pero cuentas faciles muestran que
TY T =
_
0 AXB
BX

A 0
_
=

A

XB y analogamente T
2
Y +Y T
2
=

A
2
X +

XB
2
.
Luego podemos deducir que s(AXB)
w
1
2
s(A
2
X +XB
2
) = s
_
1
2
[A
2
X +XB
2
]
_
.
Paso 3: El caso general. Tomemos descomposiciones polares A = U[A[ y B = V [B[, con
U, V |(n). Notar que A

AX +XB

B = [A[
2
X +X[B[
2
, mientras que
[[[AXB

[[[ = [[[ U [A[ X [B[ V

[[[ = [[[ [A[ X [B[ [[[,


con lo que la desigualdad (9.5) queda demostrada en general a partir del Paso 2.
9.4 Desigualdades de Young para matrices
La desigualdad de Young clasica dice que si a, b R
+
y p, q [1, +), entonces
1
p
+
1
q
= 1 = ab
a
p
p
+
b
q
q
, (9.6)
con igualdad si y solo si a
p
= b
q
. Observar que escrita as, es un refraseo de la desigualdad
aritmetico geometrica (9.4). Primero daremos una version de (9.6) para valores singulares de
matrices, que generaliza la Proposicion 9.3.1.
9.4 Desigualdades de Young para matrices 173
Teorema 9.4.1 (Ando [19]). Sean p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces para todo
par de matrices A, B /
n
(C) y todo j I
n
, se tiene que
s
j
(AB

) s
j
_
[A[
p
p
+
[B[
q
q
_
, (9.7)
o equivalentemente, que existe U |(n) tal que U[AB

[U


[A[
p
p
+
[B[
q
q
.
Antes de demostrar el teorema, necesitamos algunos pasos tecnicos:
Lema 9.4.2. Sean Q /
n
(C) una proyeccion ortogonal y X /
n
(C)
+
. Entonces
QX
r
Q (QXQ)
r
para 0 < r 1 y QX
r
Q (QXQ)
r
para 1 r 2 .
Demostracion. Puesto que f(t) = t
r
es concava de operadores para r [0, 1] y convexa de
operadores para r [1, 2], este lema es un respaso de la Proposicion 6.3.9.
El paso clave para probar el teorema, va el caculo de los autovalores con el principio minimax
del captulo 2, es el siguiente resultado tecniqusimo:
Lema 9.4.3. Sean p (1, 2] y q [2, +) tales que
1
p
+
1
q
= 1. Sean A /
n
(C)
+
,
B (l (n)
+
y k I
n
. Sean B = v
1
, . . . , v
n
una BON de C
n
adaptada a ([AB[), y o
k
=
Gen v
1
, . . . , v
k
. Llamemos P al proyector ortogonal sobre o
k
y Q al proyector ortogonal
sobre / := R(B
1
P) = B
1
(o
k
). Si abreviamos =
k
([AB[), se tiene que
Q
QA
p
Q
p
+
QB
q
Q
q
. (9.8)
Demostracion. Por la denicion de Q se tienen las siguientes igualdades:
QB
1
P = B
1
P y PB
1
Q = PB
1
. (9.9)
Por otra parte, sabemos que B(R(Q) ) = B(/) = o
k
= R(P) , por lo que
PBQ = BQ y QBP = QB . (9.10)
Luego, juntado esta ultima igualdad con (9.9)
(QB
2
Q)(B
1
PB
1
) = QBPB
1
= Q.
Analogamente, se ve que (B
1
PB
1
)(QB
2
Q) = Q, lo cual muestra que la inversa de QB
2
Q
dentro de / es B
1
PB
1
. Usando quien es o
k
, vemos que P [AB[. Luego,
(BA
2
B)
1/2
= [AB[ P = BA
2
B
2
P = A
2

2
B
1
PB
1
,
donde vale elevar al cuadrado por que [AB[ y P conmutan. Como p (1, 2], tenemos que la
funcion f(t) = t
p
2
es monotona de operadores. Luego, usando (9.9), se ve que
A
p

p
(B
1
PB
1
)
p
2
= QA
p
Q
p
Q(B
1
PB
1
)
p
2
Q =
p
(B
1
PB
1
)
p
2
.
174 Algunas desigualdades de matrices
Como QB
2
Q es la inversa en / de B
1
PB
1
, y en /

todo es nulo, tenemos que


QA
p
Q
p
(QB
2
Q)
p
2
(todo pensado en L(/) ) . (9.11)
Para probar (9.8), primeramente consideremos el caso q [2, 4]. Por el Lema 9.4.2
QB
q
Q (QB
2
Q)
q
2
. (9.12)
Luego, juntando (9.11) y (9.12) se tiene que
QA
p
Q
p
+
QB
q
Q
q


p
(QB
2
Q)
p
2
p
+
(QB
2
Q)
q
2
q

(QB
2
Q)
1
2
(QB
2
Q)
1
2
= Q ,
donde

se puede probar usando la desigualdad de Young numerica, puesto que (QB
2
Q)
1/2
y (QB
2
Q)
1/2
conmutan entre s. Esto concluye a demostracion para este caso. Supongamos
ahora que q (4, ). Sea s =
q
2
. Entonces 0 <
2
s
< 1, y
q
s
= 2. Por el Lema 9.4.2 se tiene
Q B
q
Q = Q (B
s
)
q
s
Q (Q B
s
Q)
q
s
y (Q B
s
Q)
2
s
Q B
2
Q . (9.13)
Por lo tanto, usando que f(t) = t
p
2
es MOP, se tiene que
(QB
s
Q)
p
s
(QB
2
Q)
p
2
= (QB
s
Q)
p
s
(QB
2
Q)
p
2
en L(/) .
Combinando esta desigualdad con (9.11) se obtiene
QA
p
Q
p
(QB
s
Q)
p
s
,
y luego combinandola con (9.13) resulta
QA
p
Q
p
+
QB
q
B
q

p
(QB
s
Q)
p
s
p
+
(QB
s
Q)
q
s
q
(QB
s
Q)
1
s
(QB
s
Q)
1
s
= Q ,
donde nuevamente en la segunda desigualdad se ha usado la version numerica de la desigualdad
de Young.
Demostracion del Teorema 9.4.1: Probaremos la Eq. (9.7), mientras que la segunda
formulacion queda como ejercicio para el lector. Supongamos primero que A, B /
n
(C)
+
.
En tal caso tenemos que [AB[ = (BA
2
B)
1/2
y la ecuacion (9.7) puede reescribirse como

j
_
(BA
2
B)
1/2
_
=
j
_
BA
2
B
_
1/2

j
_
A
p
p
+
B
q
q
_
para todo j I
n
. (9.14)
Como
j
_
BA
2
B
_
=
j
_
AB
2
A
_
para todo j I
n
, los papeles de A y B son simetricos, razon
por la cual podemos suponer que p (1, 2] y q [2, ). Mas a un, apelando a las tecnicas
9.4 Desigualdades de Young para matrices 175
usuales de continuidad, podemos tambien asumir que B > 0. Dicho todo esto, jemos k I
n
y llamemos =
k
_
BA
2
B
_
1/2
=
k
([AB[). Sean B = v
1
, . . . , v
n
una BON de C
n
adaptada
a ([AB[), y o
k
= Gen v
1
, . . . , v
k
. Llamemos P al proyector ortogonal sobre o
k
y Q al
proyector ortogonal sobre / := R(B
1
P) = B
1
(o
k
). Entonces, el Lema 9.4.3 dice que
Q
QA
p
Q
p
+
QB
q
Q
q
= mn
x,
x=1
__
A
p
p
+
B
q
q
_
x, x
_
=
k
([AB[) .
Observar que dimo
k
= dim/ = k. Luego, utilizando el principio minimax (Teorema 2.3.3)
para calcular
k
_
A
p
p
+
B
q
q
_
, la desigualdad (9.14) queda demostrada en este caso.
El caso general se deduce de lo anterior por la siguiente observacion: Dadas A, B /
n
(C),
si hacemos la descomposicion polar B = V [B[ con V |(n), se tiene que
[AB

[
2
= BA

AB

= B[A[
2
B

= V
_
[B[ [A[
2
[B[
_
V

= V

[A[ [B[

2
V

.
De ah podemos deducir que los vectores s(AB

) = ([AB

[) = ([A[ [B[). Volviendo a mirar


la Eq. (9.7) se ve que lo anterior hace suciente probar el caso positivo, cosa que ya hicimos.

Ejercicio 9.4.4. Mostrar con un ejemplo que la desigualdad (9.7) deja de ser cierta si en el
miembro izquierdo se quita la estrella en B. (Ayuda: basta considerar matrices de 2 2 y el
caso p = q = 2).
Corolario 9.4.5. Sean p, q [1, +) tales que
1
p
+
1
q
= 1 y sea N una NUI en /
n
(C).
Entonces para todo par de matrices A, B /
n
(C), se tiene que
N(AB

) N
_
[A[
p
p
+
[B[
q
q
_
.
Demostracion. Evidente a partir del Teorema 9.4.1, porque =
w
.
Las desigualdades de Hirzallah-Kittaneh
Cuando uno extiende desigualdades numericas a matriciales, aparede un ingrediente nuevo:
Dado que las matrices no conmutan, si uno multiplica por una tercera matrix X, como afecta
esto a la desigualdad? Y de que lado hay que multiplicar cada factor para que la desigualdad
se preserve?
Este tipo de analisis y generalizaciones apareceran seguido en lo que resta del Captulo.
Daremos a continuacion una primera version que camina para Young, aunque solamente para
la norma de Frobenius. Lo primero que aparecio al respecto, es un resultado de Bhatia y
Davis [22]: Dados A, B /
n
(C)
+
, X /
n
(C), y p, q conjugados, se tiene que
|AXB|
2

_
_
_
A
p
X
p
+
XB
q
q
_
_
_
2
. (9.15)
176 Algunas desigualdades de matrices
Sin embargo, mostraremos un resultado mas no, debido a Hirzallah y Kittaneh [26], que
ademas determina completamente los casos en que en (9.15) pudiera darse la igualdad. Para
ello, comenzamos por demostrar unas desigualdades numericas:
Lema 9.4.6. Sean a, b R

+
, y p, q [1, +) tales que
1
p
+
1
q
= 1. Si r = maxp, q,
entonces
_
a
p
p
+
b
q
q
_
2

1
r
2
(a
p
b
q
)
2
+a
2
b
2
. (9.16)
Demostracion. Primero observar que si p = q = 2, tenemos en realidad una igualdad.
Asumamos que q = r > p, o sea que q [2, +). Va cuentas elementales, se ve que
_
a
p
p
+
b
q
q
_
2

1
q
2
(a
p
b
q
)
2
= a
p
_
_
1
2
q
_
a
p
+
2
q
b
q
_
,
donde se usa la igualdad 1
2
q
=
1
p

1
q
=
_
1
p

1
q
__
1
p
+
1
q
_
=
1
p
2

1
q
2
. Ahora, usando la
desigualdad de Young clasica (o la aritmetico geometrica), tenemos que
_
1
2
q
_
a
p
+
2
q
b
q
a
p (1
2
q
)
b
q
2
q
= a
qp
q
b
2
,
ya que p(1
2
q
) = p(
1
p

1
q
) = 1
p
q
. Ademas, usando el hecho de que
p
q
= p 1, vemos
que p + (
qp
q
) = 2. As llegamos nalmente a que
_
a
p
p
+
b
q
q
_
2

1
q
2
(a
p
b
q
)
2
a
p
a
qp
q
b
2
= a
2
b
2
= Eq. (9.16) .
De manera analoga, si p > q, queda que
_
a
p
p
+
b
q
q
_
2

1
p
2
(a
p
b
q
)
2
+a
2
b
2
.
Teorema 9.4.7. Sean A, B /
n
(C)
+
, X /
n
(C), y p, q [1, +) tales que
1
p
+
1
q
= 1.
Si r = maxp, q, entonces
|AXB|
2
2
+
1
r
2
|A
p
X XB
q
|
2
2

_
_
_
A
p
X
p
+
XB
q
q
_
_
_
2
2
. (9.17)
Demostracion. Como A, B /
n
(C)
+
, existen U, V |(n) tales que A = UD
1
U

y B =
V D
2
V

, donde D
1
= diag((A) ) y D
2
= diag ((B) ). Llamemos Y = U

XV , = (A) y
= (B). Entonces tenemos que
A
p
X
p
+
XB
q
q
=
U D
p
1
U

X
p
+
X V D
q
2
V

q
= U
_
D
p
1
Y
p
+
Y D
q
2
q
_
V

= U
__

p
i
p
+

q
j
q
_
y
ij
_
i,jIn
V

,
9.4 Desigualdades de Young para matrices 177
A
p
X XB
q
= U (D
p
1
Y Y D
q
2
) V

= U
_
_

p
i

q
j
_
y
ij
_
i,jIn
V

y
AXB = U(D
1
Y D
2
)V

= U
_

i

j
y
ij
_
i,jIn
V

.
Por la desigualdad (9.16) aplicada a cada par a =
i
y b =
j
, tenemos que
_
_
_
_
A
p
X
p
+
XB
q
q
_
_
_
_
2
2
=
n

i,j=1
_

p
i
p
+

q
j
q
_
2
[y
ij
[
2

1
r
2
n

i,j=1
_

p
i

q
j
_
2
[y
ij
[
2
+
n

i,j=1

2
i

2
j
[y
ij
[
2
=
1
r
2
|A
p
X XB
q
|
2
2
+|AXB|
2
,
lo que completa la prueba del teorema.
Observacion 9.4.8. Para el caso p = q = 2, la desigualdad (9.17) es en realidad una igualdad.
Esto se observa en la demostracion del Teorema 9.4.7, ya que la desigualdad que se presenta
all es en realidad una igualdad, como se observo en el Lema 9.4.6.
A partir de lo anterior pueden encontrarse condiciones necesarias y sucientes para que se
satisfagan las igualdades en (9.15) y (9.7), como se demuestra a continuacion.
Corolario 9.4.9. Sean A, B, X, p y q como en el Teorema 9.4.7. Se tiene que
_
_
_
_
A
p
X
p
+
XB
q
q
_
_
_
_
2
= |AXB|
2
A
p
X = XB
q
. (9.18)
Demostracion. Si se tiene que
_
_
_
A
p
X
p
+
XB
q
q
_
_
_
2
= |AXB|
2
, la desigualdad (9.17) asegura que
que |A
p
X XB
q
|
2
= 0, o sea que A
p
X = XB
q
.
Asumamos que A
p
X = XB
q
. Como antes, tenemos A = UD
1
U

, B = V D
2
V

, donde
D
1
= diag((A) ) y D
2
= diag ((B) ). Luego
A
p
X = UD
p
1
U

X = U [D
p
1
(U

XV )] V

y XB
q
= XV D
q
2
V

= U [(U

XV ) D
q
2
] V

,
con lo cual, llamando Y = U

XV , tendremos que D
p
1
Y = Y D
q
2
, es decir que

p
i
y
ij
= y
ij

q
j
=
i
y
ij
= y
ij

q
p
j
para todos los i, j I
n
.
Llegamos a que D
1
Y = Y D
q
p
2
, y por ende AX = XB
q
p
. As,
AXB = XB
q
p
B = XB
q
=
XB
q
p
+
XB
q
q
=
A
p
X
p
+
XB
q
q
.
Vemos que vale la igualdad entre las matrices, que implica la igualdad de sus normas.
178 Algunas desigualdades de matrices
Corolario 9.4.10. Sean p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
s
j
_
A
p
X
p
+
XB
q
q
_
= s
j
(AB) para todo j I
n
A
p
= B
q
.
Demostracion. Es consecuencias del Corolario 9.4.9 aplicado a X = I. Observar que la
condicion A
p
= B
q
implicaba igualdad de matrices.
Corolario 9.4.11. Sean p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
U
_
A
p
X
p
+
XB
q
q
_
U

= [AB[ para alguna U |(n) A


p
= B
q
.
Demostracion. Es lo mismo que el Corolario 9.4.10.
Observacion 9.4.12. Sean a, b R

+
, y p, q [1, +) tales que
1
p
+
1
q
= 1. Luego
_
a
p
p
+
b
q
q
_
2

_
a
p
p
+
b
q
q
ab
_
2
+a
2
b
2
, (9.19)
_
a
p
p
+
b
q
q
+ab
_
2

_
a
p
p
+
b
q
q
ab
_
2
+ 4a
2
b
2
y (9.20)
1
s
[a
p
b
q
[
a
p
p
+
b
q
q
ab , (9.21)
donde s = mnp, q. En efecto, para probar (9.19) recordamos que =
a
p
p
+
b
q
q
ab, con lo
cual
2

2
2ab+2a
2
b
2
= (ab)
2
+a
2
b
2
. Tambien, (+ab)
2
(ab)
2
= 4ab 4a
2
b
2
,
y obtenemos (9.20). Para obtener (9.21), si a
p
b
q
, tambien tenemos a b
q/p
, y como
1/s 1/p 0,
_
1
s

1
p
_
a
p
+ab
_
1
s

1
p
_
b
q
+b
q/p
b =
_
1
s
+
1
q
_
b
q
=
=
1
s
[a
p
b
q
[
a
p
p
+
b
q
q
ab.
Si b
q
a
p
, la demostracion es analoga. Partiendo de estas desigualdades y siguiendo el
razonamiento de la demostracion de (9.17), podemos mostrar que si A, B /
n
(C)
+
, X
/
n
(C), y p, q [1, +) cumplen que
1
p
+
1
q
= 1, entonces
_
_
_
_
A
p
X
p
+
XB
q
q
_
_
_
_
2
2

_
_
_
_
A
p
X
p
+
XB
q
q
ABX
_
_
_
_
2
2
+|AXB|
2
2
, (9.22)
_
_
_
_
A
p
X
p
+
XB
q
q
+ABX
_
_
_
_
2
2

_
_
_
_
A
p
X
p
+
XB
q
q
ABX
_
_
_
_
2
2
+|AXB|
2
2
, (9.23)
1
s
|A
p
X XB
q
|
2

_
_
_
_
A
p
X
p
+
XB
q
q
AXB
_
_
_
_
2
, (9.24)
9.5 Desigualdades tipo Holder para matrices 179
donde s = mnp, q. Notar que (9.22) tambien es mas fuerte que (9.15). Ademas, (9.24)
puede usarse para demostrar de manera directa los corolarios anteriores.
Ejercicio 9.4.13. Sean A, B, C, D /
n
(C)
+
tales que AD = DA y BC = CB. Sean
X /
n
(C) y p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
_
_
_
_
1
p
A
p
XC
p
+
1
q
D
q
XB
q
_
_
_
_
2
2

1
r
2
|A
p
XC
p
D
q
XB
q
|
2
2
+|ADXCB|
2
2
. (9.25)
donde r = maxp, q. En particular, si C = D = I se recupera (9.17).
Ejercicio 9.4.14. Sean A, B, C, D /
n
(C) tales que AD = DA, A

D = DA

, BC = CB
y B

C = CB

. Sean X /
n
(C) y p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
_
_
_
_
1
p
[A[
p
X[C[
p
+
1
q
[D[
q
X[B[
q
_
_
_
_
2
2

1
r
2
|[A[
p
X[C[
p
[D[
q
X[B[
q
|
2
2
+|ADXC

|
2
2
.
donde r = maxp, q. En particular, si C = D = I, tenemos
_
_
_
_
1
p
[A[
p
X +
1
q
X[B[
q
_
_
_
_
2
2

1
r
2
|[A[
p
X X[B[
q
|
2
2
+|AXB

|
2
2
, (9.26)
que es la extension natural de (9.17) a matrices cualesquiera. Extender las desigualdades
(9.22)-(9.24) de manera analoga.
9.5 Desigualdades tipo Holder para matrices
Observacion 9.5.1 (Caso numerico). . Dados p, q (1, +) tales que
1
p
+
1
q
= 1, la forma
mas simple de la desigualdad numerica de Holder se escribe
([a[
p
+[b[
p
)
1
p
([c[
q
+[d[
q
)
1
q
[ac +bd[ , (9.27)
para todo cuarteto a, b, c, d C. Mas a un, podemos escribir:
([a[
p
+[b[
p
)
1
p
= max [ac +bd[ : [c[
q
+[d[
q
= 1 , (9.28)
que tiene que ver con la frase el dual de
p
es
q
.
Proposicion 9.5.2. Sean A, B /
n
(C). Entonces se verica que
(A

A+B

B)
1/2
= max
_
[C

A+D

B[ : C, D /
n
(C) y C

C +D

D I
_
. (9.29)
Demostracion. Dadas C, D /
n
(C) matrices cualesquiera, tenemos que
180 Algunas desigualdades de matrices
_
A

A+B

B A

C +B

D
C

A+D

B C

C +D

D
_
=
_
A C
B D
_

_
A C
B D
_
0 .
Recordemos que la Proposicion 3.8.6 asegura que, dadas X /
n
(C)
+
e Y /
n
(C),
_
X Y

Y I
_
0 X Y

Y 0 . (9.30)
Por lo tanto, si C

C + D

D I, tenemos que A

A + B

B [C

A+D

B[
2
. Usando que
f(t) = t
1/2
es monotona de operadores, llegamos a que
(A

A+B

B)
1/2
[C

A+D

B[ . (9.31)
Mas a un, cuando A

A+B

B (l (n)
+
, si consideramos
C = A(A

A+B

B)
1/2
y D = B(A

A+B

B)
1/2
,
obtenemos una igualdad en la Eq. (9.31). Cuando A

A+B

B / (l (n)
+
, observar que
o = ker(A

A+B

B) = ker(A

A) ker(B

B) = ker A ker B .
Sean A
1
= A[
S
I[
S
, B
1
= B[
S
I[
S
. Luego, A

1
A
1
+B

1
B
1
(l (n)
+
. Tomando
C = A
1
(A

1
A
1
+B

1
B
1
)
1/2
, D = B
1
(A

1
A
1
+B

1
B
1
)
1/2
,
una cuenta facil mustra que tambien obtenemos una igualdad en la Eq. (9.31).
Lema 9.5.3. Sea A, B /
n
(C)
+
, p (1, +) y [0, 1]. Entonces se tiene que
(A
p
+B
p
)
1
p

1
1
p
A+ (1 )
1
1
p
B .
Demostracion. Cuando = 0, tenemos que A
p
0, con lo cual A
p
+B
p
B
p
. Luego, como
f(t) = t
1/p
es monotona de operadores, sale que (A
p
+B
p
)
1/p
B. Caso analogo ocurre para
= 1. Consideremos entonces 0 < < 1, y llamemos = 1 . Usando que f(t) = t
1/p
tambien es concava de operadores, tenemos que
(A
p
+B
p
)
1
p
=
_

1
p
A
_
p
+
_

1
p
B
_
p
_
1
p

1
1
p
A+
1
1
p
B .
Teorema 9.5.4. Sean A, B, C y D /
n
(C), p, q [2, +) y r (1, +] que cumplen la
ecuacion
1
p
+
1
q
= 1
1
r
. Para todo (0, 1), si llamamos = 1 , se tiene que
[C[
q
+[D[
q
I =
_
[A[
p
+[B[
p
_2
p

1
r
C

A+
1
r
D

2
. (9.32)
9.5 Desigualdades tipo Holder para matrices 181
Demostracion. El caso r = (o sea, p = q = 2), fue visto en la Proposicion 9.5.2, con lo
cual asumimos r < . Dado que (1/2 1/p) + (1/2 1/q) = 1/r, tenemos que:
_

1
2
p
A

A+
1
2
p
B

B
1
r
A

C +
1
r
B

1
r
C

A+
1
r
D

B
1
2
q
C

C +
1
2
q
D

D
_
=
_

1
2

1
p
A
1
2

1
q
C

1
2

1
p
B
1
2

1
q
D
_

_

1
2

1
p
A
1
2

1
q
C

1
2

1
p
B
1
2

1
q
D
_
/
2n
(C)
+
.
De acuerdo al Lema 9.5.3, tenemos que

1
2
p
A

A+
1
2
p
B

B ([A[
p
+[B[
p
)
2
p
y
1
2
q
C

C +
1
2
q
D

D ([C[
q
+[D[
q
)
2
q
,
con lo cual concluimos que
_
([A[
p
+[B[
p
)
2
p

1
r
A

C +
1
r
B

1
r
C

A+
1
r
D

B ([C[
q
+[D[
q
)
2
q
_

_

1
2
p
A

A+
1
2
p
B

B
1
r
A

C +
1
r
B

1
r
C

A+
1
r
D

B
1
2
p
C

C +
1
2
p
D

D
_
/
2n
(C)
+
.
Usando la Eq. (9.30) y el hecho de que [C

[
q
+[D

[
q
I, estamos hechos.
Denicion 9.5.5. Dadas C, D /
n
(C)
+
, escribimos C D si C
m
D
m
, para todo
m N. Esta relacion es un orden parcial denominado orden espectral.
Proposicion 9.5.6. Sean A, B /
n
(C)
+
. Entonces se verica:
1. La funcion [1 , +) p
_
A
p
+B
p
2
_
1
p
es creciente (relativa al orden de /
n
(C)
+
).
2. El siguiente lmite existe y da el -supremo de A y B:
A B = lim
p
_
A
p
+B
p
_1
p
= mn

_
C /
n
(C)
+
: A C y B C
_
.
Demostracion. Sean r, q [1 , +) tales que r < q. Si aplicamos el Lema 9.5.3 para los
n umeros =
1
2
y p =
q
r
> 1, resulta que
(A
q
+B
q
)
r
q
=
_
(A
r
)
q
r
+ (B
r
)
q
r
_r
q

1
2
1
r
q
(A
r
+B
r
) .
Luego, usando que t
1
r
es MOP y multiplicando por 2
1
q
, llegamos a que
_
A
q
+B
q
2
_1
q

_
A
r
+B
r
2
_1
r
.
182 Algunas desigualdades de matrices
Sea M = max
1
(A),
1
(B). Para cualquier p [1, +) tenemos que
M
p
max
1
(A
p
),
1
(B
p
) = max|A
p
|
sp
, |B
p
|
sp

_
_
A
p
+B
p
2
_
_
sp
,
y por lo tanto M I
_
A
p
+B
p
2
_
1
p
. En resumen, la funcion p
_
A
p
+B
p
2
_
1
p
es creciente y
acotada superiormente. Aplicando el Ejercicio 3.9.16 vemos que debe existir el lmite
A B = sup
p[1 ,+)
_
A
p
+B
p
2
_1
p
= lim
p
_
A
p
+B
p
2
_1
p
= lim
p
(A
p
+B
p
)
1
p
.
Fijemos m N. Tomando p > m, se tiene que t
m
p
es MOP, y as
A
m
= (A
p
)
m
p
(A
p
+B
p
)
m
p
=
_
(A
p
+B
p
)
1
p
_
m

p
(A B)
m
.
Analogamente se muestra que (A B)
m
B
m
. Esto vale para cualquier m N, y as
A, B A B. Sea ahora C /
n
(C)
+
tal que A, B C. Para cada par m, k N tenemos
que A
km
, B
km
C
km
, y usando que t
1
k
es MOP, resulta que
_
A
km
+B
km
2
_
1/k
C
m
. Luego
(A B)
m
= lim
p
_
A
p
+B
p
2
_m
p
= lim
k
_
A
km
+B
km
2
_
1
k
C
m
, para todo m N .
As, A B C. Luego, A B es el supremo de A, B con respecto al orden espectral.
Corolario 9.5.7. Sean A, B, C, D /
n
(C). Fijado p [2, ), tomemos el q (1, 2] tal
que se tenga la igualdad
1
p
+
1
q
= 1. Entonces
__
_
C
_
_
q
+|D|
q
_2
q
_
[A[
p
+[B[
p
_2
p
[CA+DB[
2
. (9.33)
Por lo tanto, se tiene que
_
|C| +|D|
_
2
_
[A[ [B[
_
2
[CA+DB[
2
.
Demostracion. Fijemos p [2, ). Supongamos en principio que |C|, |D| 1. En tal caso,
se tiene que [C

[ I = [C

[ I y lo mismo para D. Por la Proposicion 9.5.6,


_
[C

[
t
+[D

[
t
2
_1
t
[C

[ [D

[ I para todo t [1, +) . (9.34)


Vamos a aplicar el Teorema 9.5.4. Para ello, tomemos t [2, +) y r (1, +] tales que
1
p
+
1
t
= 1
1
r
. Dados [0, 1] y = 1 , la Eq. (9.34) y el teorema citado aseguran que
_
[A[
p
+[B[
p
_2
p
2
1
t

1
r
CA+
1
r
DB

2
.
Haciendo t (con lo cual r q), tenemos que ([A[
p
+[B[
p
)
2
p

1
q
CA+
1
q
DB

2
.
9.6 La tecnica alternativa 183
Si ahora suponemos mas que antes: que |C|
q
+|D|
q
= 1, entonces podemos elegir = |C|
q
y = |D|
q
= 1 . Reemplazando C
t
=
1
q
C y D
t
=
1
q
D, queda que |C
t
| = |D
t
| = 1
(si alguna era nula, su prima tambien la hacemos nula). Por el caso anterior obtenemos que
|C|
q
+|D|
q
= 1 = ([A[
p
+[B[
p
)
2/p

1
q
C
t
A+
1
q
D
t
B

2
= [CA+DB[
2
. (9.35)
En el caso general, dadas C, D /
n
(C) (alguna de las dos no nulas), consideramos
E = (|C|
q
+|D|
q
)
1/q
C y F = (|C|
q
+|D|
q
)
1/q
D ,
con lo cual |E|
q
+|F|
q
= 1. Por la Eq. (9.35) nos queda que
([A[
p
+[B[
p
)
2
p
[EA+FB[
2
=
[CA+DB[
2
(|C|
q
+|D|
q
)
2
q
= la Eq. (9.33) .
La otra desigualdad se obtiene de lo anterior, considerando el lmite para p .
9.6 La tecnica alternativa
En esta seccion repasaremos y mezclaremos una serie de deniciones y resultados de los
Captulos 4 y 7 que usaremos seguido en el resto de este Captulo. Primero enunciamos los
relativos a las propiedades espectrales de los productos alternados de matrices (Seccion 7.3):
Teorema 9.6.1. Sea A /
n
(C) con autovalores
1
(A), . . . ,
n
(A). Sea k I
n
. Entonces
los autovalores de
k
A estan dados por

J
(
k
A) =

i J

i
(A) , J Q
k,n
,
contados con multiplicidad.
Corolario 9.6.2. Sea A /
n
(C). Sea k I
n
. Entonces los valores singulares de
k
A son
s
_

k
A
_
=
_
s
J
_

k
A
_ _
JQ
k,n
=
_

i J
s
i
(A)
_
JQ
k,n
,
contados con multiplicidad, y ordenados en forma decreciente. Ademas, si ordenamos a los
autovalores
1
(A), . . . ,
n
(A) de A con modulos decrecientes, se tiene que

k
A
_
=
k

i=1
[
i
(A)[ y
_
_

k
A
_
_
sp
= s
1
_

k
A
_
=
k

i=1
s
i
(A) .
Ahora vienen los resultados que relacionan la mayorizacion logartmica con la usual (ver
Seccion 4.4): Recordemos que, dados x, y R
n
+
, escribimos x
w
log
y si
k

i=1
x

i

k

i=1
y

i
para todo k I
n
. (9.36)
184 Algunas desigualdades de matrices
Si x > 0 e y > 0, escribimos x
log
y si x
w
log
y y, ademas,
n

i=1
x
i
=
n

i=1
y
i
.
Observacion 9.6.3. Sean x, y R
n
tales que x > 0 e y > 0. Si x
log
y entonces, como en
el caso de la mayorizacion com un, se cumplen desigualdades invesas para las entradas mas
peque nas de x e y. Es decir que
n

i=k
x

i

n

i=k
y

i
para todo k I
n
. (9.37)
Tener cuidado, que esto no vale si solo se tiene que x
w
log
y, porque se usa la igualdad de los
productos hasta n.
Proposicion 9.6.4. Sean x, y R
n
+
.
1. Si x
w
log
y, entonces x
p

w
y
p
para todo p R
+
.
2. Si x > 0 e y > 0, entonces x
log
y implica que x
p

w
y
p
para todo p R .
Observacion 9.6.5. 1. El caso mas usado de la Proposicion 9.6.4 es cuando p = 1. Es
decir que, si x, y R
n
+
, entonces x
w
log
y implica x
w
y. Esto sera sumamente util
cuando se lo aplique a desigualdades con valores singulares de matrices, usando tecnicas
de productos alternados. Observar que, en este caso, el Corolario 4.2.3 nos dice que, si
hubese quedado x y, deba cumplirse que x
log
y .
2. Por otra parte, la Proposicion 9.6.4 se puede generalizar, sin cambiar la prueba, si
remplazamos las funciones f(t) = t
p
por cualquier funcion f : R
+
R tal que la
aplicacion t f(e
t
) resulte convexa (o convexa creciente). Notar que, en el caso
demostrado, se usaba esa propiedad para la funcion t (e
t
)
p
= e
pt
.
9.7 Primeras aplicaciones
En esta seccion veremos tres desigualdades importantes que se prueban en forma directa
usando la tecnica de extrapolar una desigualdad conocida, pero aplicada a los productos
alternados, y luego deducir una mayorizacion va la Proposicion 9.6.4:
Desigualdad de Weyl
Proposicion 9.7.1 (Mayorante de Weyl). Sea A /
n
(C). Entonces, si (A) denota el
vector de autovalores de A, se tiene que
1. [(A)[
log
s(A).
9.7 Primeras aplicaciones 185
2. Para todo p 0 se tiene que [(A)[
p

w
s(A)
p
.
Demostracion. Veriquemos las desigualdades de la formula (9.36) para los vectores [(A)[
y s(A). Para k = 1, basta notar que (A) |A|
sp
. El caso k 1 se obtiene considerando
la desigualdad anterior para los tensores alternados
k
(A). En efecto, por el Corolario 9.6.2,
tenemos que
k

i=1
[(A)[

i
= (
k
A) |
k
A|
sp
=
k

i=1
s
i
(A) , para todo k I
n
.
La igualdad para k = n se deduce de que [ det A[ = (det A

A)
1/2
= det [A[ . La segunda parte
se deduce de la Proposicion 9.6.4.
Desigualdad de B. Simon
La que sigue es una variante de la Proposicion 9.1.7 (desigualdad de Kittaneh 95):
Proposicion 9.7.2. Sean A, B /
n
(C) tales que AB es normal. Entonces
[[[AB[[[ [[[BA[[[
para toda NUI [[[ [[[ en /
n
(C).
Demostracion. Como AB es normal, se tiene que |AB|
sp
= (AB). Luego
s
1
(AB) = |AB|
sp
= (AB) = (BA) |BA|
sp
= s
1
(BA) .
Aplicando esta desigualdad a
k
AB (1 k n), que tambien es normal, obtenemos que
s(AB)
w
log
s(BA) , i.e.
k

i=1
s
i
(AB)
k

i=1
s
i
(BA) , k I
n
.
Por la Proposicion 9.6.4, deducimos que s(AB)
w
s(BA).
Desigualdad de Horn
Proposicion 9.7.3 (Teorema de Horn). Sean A, B (l (n). Sea (AB) el vector de auto-
valores de AB ordenado con modulos decrecientes, i.e. [(AB)[ = [(AB)[

. Entonces
[(AB)[
log
s(AB)
log
s(A)s(B) = (s
1
(A)s
1
(B), . . . , s
n
(A)s
n
(B) ) .
En particular, si A, B (l (n)
+
, para todo k I
n
se tiene que
k

i=1

i
(AB)
k

i=1

i
(A)
i
(B) y
n

i=k

i
(AB)
n

i=k

i
(A)
i
(B) . (9.38)
186 Algunas desigualdades de matrices
Demostracion. Las relacion [(AB)[
log
s(AB) se deduce de la Proposicion 9.7.1. Por otro
lado, el Corolario 9.6.2 asegura que, para todo k I
n
,
k

i=1
s
i
(AB) = |
k
AB|
sp
= |
k
A
k
B|
sp
|
k
A|
sp
|
k
B|
sp
=
k

i=1
s
i
(A) s
i
(B) .
Ademas, como [ det C[ = det [C[ para cualquier C /
n
(C), se tiene que
n

i=1
s
i
(AB) = det [AB[ = [ det AB[ = [ det A[ [ det B[ = det [A[ det [B[ =
n

i=1
s
i
(A) s
i
(B) .
La Eq. (9.38) se deduce de lo anterior y de la Observacion 9.6.3, ya que podemos usar que
(AB) = (A
1/2
BA
1/2
) R

n
+
, (A) = s(A) y (B) = s(B).
Ejercicio 9.7.4. Dadas A, B (l (n)
+
, probar que (A
1/2
BA
1/2
)
2

log
(AB
2
A). Comparar
con el Teorema 9.9.4 de mas adelante.
9.8 La exponencial
Generalidades
Sea A /
n
(C). Recordemos que la exponencial de A es la matriz
e
A
= exp(A) =

m=0
A
m
m!
. (9.39)
La serie converge absolutamente, porque

m=0
|A
m
|
m!

m=0
|A|
m
m!
= e
|A|
< .
Por medio de una prueba similar a la del Corolario 1.7.2 (usando el Teorema 1 de Schur 1.6.1),
se puede ver que, si (A) = (
1
(A) , . . . ,
n
(A) ), entonces
(e
A
) = e
(A)
:= (e
1(A)
, . . . , e
n(A)
) . (9.40)
En particular, esto dice que
_
e
A
_
= e
(A)
y que e
A
(l (n) para toda A /
n
(C). Para
hacer esto se usa que, al igual que con los polinomios, se tiene que
e
SAS
1
= Se
A
S
1
, para toda S (l (n) .
Por ultimo, no es difcil vericar con el mismo tipo de argumentos que
e
A
= lim
m
_
I +
A
m
_
m
. (9.41)
9.8 La exponencial 187
Observacion 9.8.1. Sean A, B /
n
(C). Por la teora general de series de potencias (con
variables que conmutan, para usar el binomio de Newton), se puede ver que
si AB = BA = e
A+B
= e
A
e
B
.
Entre otras cosas, esto sirve para probar que (e
A
)
1
= e
A
, porque e
A
e
A
= e
AA
= I. En
forma similar puede verse que, si A H(n), entonces
e
A
(l (n)
+
y (e
A
)
1/2
= e
A
2
. (9.42)
Mas a un, cuando A H(n), se tiene que e
A
= f(A), donde f(t) = e
t
, t R, en el sentido
del calculo funcional para autoadjuntas visto en el Captulo 6. Esto puede probarse diagonal-
izando a A o bien tomando lmite de polinomios en la formula (9.39). Aplicando los resultados
conocidos para dicho calculo (en particular 6.1.3), se tienen las siguientes propiedades: Si
A H(n), entonces
1. e
A
(l (n)
+
y A = log e
A
.
2. (e
A
)
r
= e
rA
para todo r R.
3. Si A > 0, entonces A = e
log A
.
4. Mas a un, A
r
= e
r log A
para todo r R.
F ormula de Lie-Trotter
Lamentablemente, cuando A y B no conmutan, la cosa se pone mucho mas brava, y es muy
dicil encontrar las propiedades de e
A+B
en funcion de las de A y B. La unica herramienta
que se tiene, y que se usa sistematicamente para este problema, es la famosa formula de
Lie-Trotter que mostraremos a continuacion.
Teorema 9.8.2. Dadas A y B /
n
(C), se tiene la siguiente formula:
e
A+B
= lim
m
_
e
A
m
e
B
m
_
m
. (9.43)
Demostracion. Dadas X, Y /
n
(C), mediante una tpica cuenta telescopica puede verse
que X
m
Y
m
=
m1

j=0
X
m1j
(X Y )Y
j
para todo m N. Luego,
|X
m
Y
m
| = |
m1

j=0
X
m1j
(X Y )Y
j
|

m1

j=0
|X
m1j
| |X Y | |Y
j
| (9.44)
|X Y |
m1

j=0
M
m1j
M
j
= m |X Y | M
m1
,
188 Algunas desigualdades de matrices
donde M = max(|X|, |Y |). Consideremos ahora las matrices
X
m
= e
A+B
m
, Y
m
= e
A
m
e
B
m
, para cada m N .
Observar que M
m
= max(|X
m
|, |Y
m
|) e
A+B
m
. Por la desigualdad (9.44),
|X
m
m
Y
m
m
| m|X
m
Y
m
| e
m1
m
(|A|+|B|)
m|X
m
Y
m
| e
|A|+|B|
, m N.
Luego del desarrollo en series de la funcion exponencial, obtenemos que X
m
Y
m
=
= 1 +
A+B
m
+

k=2
(A+B)
k
m
k
k!

__
1 +
A
m
+

k=2
A
k
m
k
k!
__
1 +
B
m
+

k=2
B
k
m
k
k!
__
=
1
m
2
_

k=2
(A+B)
k
m
k2
k!
AB
_
I +
A
m
_

k=2
B
k
m
k2
k!

k=2
A
k
m
k2
k!
e
B
m
_
=
1
m
2
C
m
(A, B) .
Si mostraramos que C(A, B) = sup
mN
|C
m
(A, B)| < , entonces tendramos que
|X
m
m
Y
m
m
| m|X
m
Y
m
| e
|A|+|B|

C(A, B) e
|A|+|B|
m

m
0 .
Afortunadamente, las constantes |C
m
(A, B)| se pueden acotar con las series de las normas.
Aparecen varios sumandos, todos ellos elementales. Por ejemplo, |e
B
m
| e
|
B
m
|
e
|B|
y
_
_
_
_
_

k=2
A
k
m
k2
k!
_
_
_
_
_

k=2
|A
k
|
m
k2
k!

k=2
|A
k
|
k!
e
|A|
para todo m N .
Por lo tanto, |e
A+B
(e
A
m
e
B
m
)
m
| = |X
m
m
Y
m
m
|
m
0 = lim
m
(e
A
m
e
B
m
)
m
= e
A+B
.
Otras formulas relacionadas
Sean A, B /
n
(C). Conjugando la f ormula (9.43) con la sucesion e
B
2m
(que tiende a I),
obtenemos esta otra version de Lie-Trotter
e
A+B
= lim
m
e
B
2m
_
e
A
m
e
B
m
_
m
e

B
2m
= lim
m
_
e
B
2m
e
A
m
e
B
2m
_
m
, (9.45)
que es mucho mas adecuada en caso de que A, B H(n), para que la cosa pase entre matrices
positivas.
Ejercicios 9.8.3.
9.9 Desigualdades de Araki y Cordes 189
1. Si suponemos que A, B H(n), puede obtenerse la siguiente nueva formula:
e
A+B
= lim
t 0
_
e
tB
2
e
tA
e
tB
2
_
1
t
. (9.46)
Observar que e
tB
2
e
tA
e
tB
2
(l (n)
+
por lo que
_
e
tB
2
e
tA
e
tB
2
_
1
t
tiene sentido para todo
t ,= 0. Ademas,
_
e
tB
2
e
tA
e
tB
2
_
1
= e
tB
2
e
tA
e
tB
2
, por lo que el caso t < 0 no crea
problemas.
Sug: Desarrollar el producto de las tres series asociadas a e
tB
2
e
tA
e
tB
2
y aplicarles la
serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la
prueba del Teorema 9.8.2.
2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que,
dadas A
1
, A
2
, ... , A
k
/
n
(C), se tiene que
exp
_
k

i=1
A
i
_
= lim
m
_
e
A
1
m
e
A
2
m
... e
A
k
m
_
m
. (9.47)
9.9 Desigualdades de Araki y Cordes
Proposicion 9.9.1. Sean A, B (l (n)
+
. Entonces, para todo r (0, 1)

1
(A
r
B
r
)
1
(AB)
r
.
Demostracion. Podemos asumir que
1
(AB) = 1, porque si
2
=
1
(AB), basta cambiar
A, B por
1
A y
1
A, dado que ,= 0 y la desigualdad a probar es homogenea. Luego
debemos vericar que
1
(A
r
B
r
) 1. En efecto,

1
(AB) =
1
_
A
1/2
BA
1/2
_
= 1 = A
1/2
BA
1/2
I = B A
1
.
Como r (0, 1), el Teorema 6.2.6 dice que f(x) = x
r
es monotona de operadores. Luego
B
r
A
r
= A
r/2
B
r
A
r/2
I =
1
(A
r
B
r
) =
1
_
A
r/2
B
r
A
r/2
_
1 ,
como se asevero.
Proposicion 9.9.2 (Cordes 87 [5]). Sean A, B /
n
(C)
+
. Entonces
|A
r
B
r
|
sp
|AB|
r
sp
para todo r [0, 1] . (9.48)
190 Algunas desigualdades de matrices
Demostracion. Como antes, supondremos que |AB|
sp
= 1. En tal caso
1 = |AB|
sp
= |AB
2
A|
sp
= AB
2
A 1 = B
2
A
2
= B
2r
A
2r
(por el Teorema 6.2.6)
= A
r
B
2r
A
r
1 = |A
r
B
2r
A
r
|
sp
1
= |A
r
B
r
|
sp
1 .
El caso general sale por homogeneidad.
DadasA, B H(n), recordar que escribimos A B en lugar de (A) (B) para notar la
mayorizaci on entre los autovalores de A y los de B.
Denicion 9.9.3.
1. Sean A, B /
n
(C)
+
. Escribiremos A
w
log
B si (A)
w
log
(B). Es decir, si
k

i=1

i
(A)
k

i=1

i
(B) para todo k I
n
. (9.49)
2. Si A, B (l (n)
+
, decimos que A
log
B si det A = det B y A
w
log
B.
Observar que, A
log
B log A log B , ya que la funcion t e
t
es creciente.
Teorema 9.9.4 (Araki 90 [21]). Sean A, B /
n
(C)
+
. Para todo r (0, 1) se tiene que
(A
r/2
B
r
A
r/2
)
1/r

log
A
1/2
BA
1/2
Demostracion. Fijemos un r (0, 1). Como
(A
r/2
B
r
A
r/2
) = (A
r
B
r
) y (A
1/2
BA
1/2
) = (AB) ,
basta ver que
k

j=1

j
(A
r
B
r
)
1/r

j=1

j
(AB) , k I
n
y
n

j=1

j
(A
r
B
r
)
1/r
=
n

j=1

j
(AB) .
Aplicando la Proposicion 9.9.1 a
k
A y
k
B, y usando la Proposicion 7.4.4 se obtiene

1/r
1
((
k
A)
r
(
k
B)
r
) =
1/r
1
(
k
A
r

k
B
r
)
1
(
k
A
k
B) .
Como (
k
A)(
k
B) =
k
(AB), podemos deducir que
k

j=1

1/r
j
(A
r
B
r
) =
1/r
1
(
k
(A
r
B
r
))
1
(
k
(AB)) =
k

j=1

j
(AB) .
La igualdad en el caso k = n se obtiene tomando determinantes.
9.10 Desigualades entre exponenciales 191
Corolario 9.9.5. Sea [[[ [[[ una NUI en /
n
(C). Dados A, B /
n
(C)
+
, se tiene que
[[[A
r
B
r
A
r
[[[ [[[(ABA)
r
[[[ para todo r (0, 1) .
Demostracion. Aplicando el Teorema 9.9.4 a las matrices A
2
y B y la Proposicion 4.4.3,
obtenemos
k

j=1
s
j
(A
r
B
r
A
r
)
k

j=1
s
j
(ABA)
r
(k I
n
) = s(A
r
B
r
A
r
)
w
s( (ABA)
r
) . (9.50)
Se usa que s
i
( (ABA)
r
) =
i
( (ABA)
r
) =
i
(ABA)
r
= s
i
(ABA)
r
, para todo i I
n
.
Observacion 9.9.6. En las Proposiciones 9.9.1 y 9.9.2, el Teorema 9.9.4 y el Corolario 9.9.5,
valen las desigualdades inversas si uno considera exponentes t 1. En efecto, basta aplicar
lo conocido a las matrices A
t
y B
t
, con el exponente r = t
1
. En el caso del Corolario 9.9.5,
se puede corregir el exponente externo en la Eq. (9.50)
Proposicion 9.9.7. Dadas A, B (l (n)
+
, se cumple que
log A+ log B log(A
1/2
BA
1/2
) . (9.51)
Demostracion. Por la formula de Lie-Trotter, en la version dada por la formula (9.46),
e
log A+log B
= lim
r0
(A
r/2
B
r
A
r/2
)
1/r
Por el Teorema de Araki, (A
r/2
B
r
A
r/2
)
1/r

log
(A
1/2
BA
1/2
) para todo r (0, 1). Aplicando
el Corolario 2.3.8, obtenemos que
e
log A+log B

log
(A
1/2
BA
1/2
) = log A+ log B log(A
1/2
BA
1/2
) .
Ejercicio 9.9.8. Usando el Corolario 9.9.5 para las NUIs |A|
p
= (tr [A[
p
)
1/p
, mostrar la
famosa desigualdad de Araki-Lieb-Thirring: Dadas matrices A, B (l (n)
+
, se tiene que
tr
_
(B
1/2
AB
1/2
)
st
_
tr
_
(B
t/2
A
t
B
t/2
)
s
_
,
para todo par de n umeros s, t 1.
9.10 Desigualades entre exponenciales
Si z C, uno tiene que [e
z
[ = e
Re z
= [e
Re z
[. Veamos que pasa en matrices:
Proposicion 9.10.1. Sea [[[ [[[ una NUI en /
n
(C). Para toda A /
n
(C), se tiene que
[[[e
A
[[[ [[[e
Re A
[[[ .
192 Algunas desigualdades de matrices
Demostracion. Usando que |B
m
|
sp
|B|
m
sp
y que s
1
(B)
2
= |B|
2
sp
= |B

B|
sp
, obtenemos
que
s
1
(B
m
)
2
s
1
(B)
2m
= s
1
( (B

)
m
B
m
) s
1
(B

B)
m
,
para todo m N y toda B /
n
(C). Aplicando esto a
k
B, tenemos mas:
k

i=1
s
i
( (B

)
m
B
m
)
k

i=1
s
i
(B

B)
m
para todo k I
n
y todo m N .
Eligiendo ahora B = exp
A
m
y aplicando Lie-Trotter llegamos a que
k

i=1
s
i
( e
A

e
A
)
k

i=1
s
i
_
[e
A

m
e
A
m
]
m
_

m
k

i=1
s
i
_
e
A

+A
_
para todo k I
n
.
Tomando raices cuadradas, llegamos a que s(e
A
)
w
log
s(e
Re A
). Usando ahora la Proposicion
4.4.3, tenemos nalmente que s(e
A
)
w
s(e
Re A
).
Ejercicio 9.10.2. Encontrar A /
2
(C) tal que [[[e
A
[[[ < [[[e
Re A
[[[ para toda NUI.
Recordemos que si C, D /
n
(C)
+
, entonces (CD) R
+
y mas a un, al vector de autoval-
ores (CD) = (D
1/2
CD
1/2
) R
n
+
, se lo puede pensar ordenado en forma decreciente. En
particular, se tiene que tr CD R
+
.
Lema 9.10.3. Dadas A, B /
n
(C), se tiene que
[(e
A+B
)[
w
(e
Re A
e
Re B
) y [ tr e
A+B
[ tr (e
Re A
e
Re B
) .
Demostracion. Fijado k I
n
, denamos las siguiente funcion continua:
f
k
: /
n
(C) R
+
dada por f
k
(X) =
k

i=1
[(X)[

i
, para X /
n
(C) .
Notar que todas estas f
k
cumplen que, para todo par X, Y /
n
(C) y todo m N,
f
k
(XY ) = f
k
(Y X) y f
k
(X
2m
) f
k
([X

X]
m
) . (9.52)
En efecto, observar que para todo r I
n
y todo m N, se tiene que
(
r
X
2m
) = (
r
X)
2m
|
r
X|
2m
sp
= |
r
X

X|
m
sp
= (
r
[X

X]
m
) .
Por la Proposicion 9.6.4, deducimos que [(X
2m
)[
w
([X

X]
m
), o sea la desigualdad de
(9.52) para todo k I
n
. La igualdad vale porque (XY ) = (Y X). Por lo tanto,
f
k
_
(XY )
2
m
_
f
k
_
[ (XY )

(XY ) ]
2
m1
_
= f
k
_
[ Y

XY ]
2
m1
_
= f
k
_
[ (X

X) (Y Y )

]
2
m1
_
.
9.10 Desigualades entre exponenciales 193
donde la ultima igualdad vale porque [ Y

XY ]
2
m1
diere de [ X

XY Y

]
2
m1
tan solo en
pasar el primer Y

al nal. Repitiendo esto, se llega a que


f
k
_
(XY )
2
m_
f
k
_
[ (X

X)
2
(Y Y

)
2
]
2
m2_
f
k
_
(X

X)
2
m1
(Y Y

)
2
m1_
Pongamos ahora X = exp
A
2
m
, Y = exp
B
2
m
y M
m
= 2
m
. Queda
f
k
_
(e
A
Mm
e
B
Mm
)
Mm
_
f
k
_
(e
A

Mm
e
A
Mm
)
1
2
Mm
(e
B
Mm
e
B

Mm
)
1
2
Mm
_
.
Tomando lmite m , y usando Lie-Trotter (y que las f
k
son continuas), tenemos que
f
k
(e
A+B
) f
k
(e
A

+A
2
e
B+B

2
) = f
k
(e
Re A
e
Re B
) .
Como esto vale para todo k I
n
, llegamos a que [(e
A+B
)[
w
(e
Re A
e
Re B
). La otra
desigualdad se prueba usando que la funcion f(X) = [ tr X[ tambien cumple las condiciones
de (9.52) (sale usando que f(Y ) f
n
(Y ), pero coinciden si Y /
n
(C)
+
), y haciendo el
resto de la cuenta igual.
Observacion 9.10.4. Si una funcion f : /
n
(C) R es continua y cumple las condiciones
f(XY ) = f(Y X) y [f(X
2m
)[ f([XX

]
m
) (9.53)
para todo m N y todo par X, Y /
n
(C), decimos que f es de la clase T. La sutil
diferencia con la Eq. (9.52) es que aca no pedimos que f sea positiva, pero no ponemos
modulo en el ultimo termino de (9.53). Toda la cuenta del Lema 9.10.3 puede rehacerse para
una tal funcion, con lo que se obtiene la desigualdad mas general: Si f es de la clase T,
f(e
A+B
) f(e
Re A
e
Re B
) ,
para todo par A, B /
n
(C).
Proposicion 9.10.5. Sea [[[ [[[ una NUI en /
n
(C). Dadas A, B H(n), se tiene que
[[[ e
A+B
[[[ [[[ e
A
e
B
[[[ .
Demostracion. Por el Lema 9.10.3 y el hecho de que A, B H(n), tenemos que
s(e
A+B
) = (e
A+B
) = [(e
A+B
)[
w
(e
A
e
B
)
w
s(e
A
e
B
) ,
donde la ultima mayorizacion sale de la Proposicion 9.7.1 (mayorante de Weyl).
Proposicion 9.10.6 (Desigualdad de Golden-Thompson). Si A, B H(n), entonces
tr e
A+B
tr e
A
e
B
. (9.54)
Demostracion. Es consecuencia directa del Lema 9.10.3.
Ejercicio 9.10.7. Usando la Proposicion 9.10.5, mostrar que
tr e
A+B
tr
_ _
e
B
e
2A
e
B

1/2
_
para A, B H(n) .
Esto es mejor o peor que Golden-Thompson?
194 Algunas desigualdades de matrices
9.11 Desigualdad de Ando-Johnson-Bapat
Logaritmos
Proposicion 9.11.1. Sean A (l (n)
+
y B (l (m)
+
. Entonces se verica que
log(AB) = (log A) I
m
+I
n
(log B) .
Demostracion. Supongamos que A =
k

i=1

i
P
i
y que B =
h

j=1

j
Q
j
. Luego
AB =
k

i=1
h

j=1

j
P
i
Q
j
.
Notemos que (P
i
Q
j
)
(i,j)
es un sisitema de proyectores para C
n
C
m
. Luego, si u v
C
n
C
m
y abreviamos L = log(AB)(u v), se tiene que
L =
k

i=1
h

j=1
log(
i

j
)[P
i
Q
j
(u v)]
=
k

i=1
_
_
log(
i
)
h

j=1
P
i
(u) Q
j
(v)
_
_
+
h

j=1
_
log(
j
)
k

i=1
P
i
(u) Q
j
(v)
_
=
k

i=1
log(
i
)
_
_
P
i
(u)
_
_
h

j=1
Q
j
(v)
_
_
_
_
+
h

j=1
log(
j
)
__
k

i=1
P
i
(u)
_
Q
j
(v)
_
=
k

i=1
log(
i
)[P
i
(u) v] +
h

j=1
log(
j
)[u Q
j
(v)]
=
_
k

i=1
log(
i
)P
i
(u)
_
v +u
_
_
h

j=1
log(
j
)Q
j
(v)
_
_
= [(log A) I
m
] (u v) + [I
n
(log B)] (u v) .
La igualdad en el resto de los elementos de C
n
C
m
se obtiene por linealidad.
Corolario 9.11.2. Sean A, B (l (n)
+
. Entonces
log(A B) (log A+ log B) I
n
.
Demostracion. Consideremos la funcion : L(H
n
H
n
) /
n
(C) denida en la Proposicion
8.1.4. Recordar que (T) = T
S
(T L(H
n
H
n
) ) para cierto subespacio o H
n
H
n
,
y que (A B) = A B, para A, B /
n
(C). Ademas, por el Corolario 6.3.14, la funcion
t log T es OP en (0, +). Luego, aplicando el Teorema 6.3.6 deducimos que
(log X) = (log X)
S
log(X
S
) = log (X) para todo X (l(H
n
H
n
)
+
.
9.11 Desigualdad de Ando-Johnson-Bapat 195
Ahora bien, por la Proposicion 9.11.1, log AB = (log A) I
n
+I
n
(log B), as que
log(A B) = log (AB)
_
log(AB)

=
_
(log A) I
n
+I
n
(log B)

= (log A) I
n
+I
n
(log B) ,
como se armaba.
La desigualdad
Ahora daremos la prueba obtenida por T. Ando de la que fue llamada muchos a nos conjetura
de Johnson-Bapat:
Teorema 9.11.3. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(AB) para todo k I
n
.
Demostracion. Por el Corolario 9.11.2 sabemos que
log(A B) (log A+ log B) I
n
.
Por el Teorema de Weyl 2.3.5, para todo k I
n
, tenemos que
log
_
n

i=k

i
(A B)
_
=
n

i=k

i
(log(A B) )
n

i=k

i
( (log A+ log B) I
n
) .
De acuerdo al Teorema de mayorizacion de Schur 5.1.1,
(log A+ log B) I
n
log A+ log B,
y entonces
n

i=k

i
( (log A+ log B) I
n
)
n

i=k

i
(log A+ log B) , k I
n
.
Por la Proposicion 9.9.7, log A+ log B log(A
1/2
BA
1/2
). Luego
n

i=k

i
(log A+ log B)
n

i=k

i
(log(A
1/2
BA
1/2
)) = log
_
n

i=k

i
(AB)
_
, k I
n
.
Combinando estos resultados obtenemos que
n

i=k

i
(A B)
n

i=k

i
(AB) , k I
n
,
como se quera demostrar.
196 Algunas desigualdades de matrices
Observacion 9.11.4. Este teorema mejora el resultado de Bapat-Sunder:
n

i=k

i
(A B)
n

i=k

i
(A)
i
(B) para todo k I
n
.
pues, de acuerdo al Teorema de Horn (Proposicion 9.7.3), se tiene que
n

i=k

i
(AB)
n

i=k

i
(A)
i
(B) para todo k I
n
.
Tambien vericaremos la siguiente variante del Teorema 9.11.3:
Teorema 9.11.5. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(AB
t
) para todo k I
n
.
Demostracion. Como log B
t
= (log B)
t
, tenemos que
(log B
t
) I = (log B)
t
I = (log B) I.
Por lo tanto, podemos reemplazar log A+log BI por log A+log B
t
I en la demostracion
anterior, con lo que queda demostrado el teorema.
De los Teoremas 9.11.3 y 9.11.5 se deducen los clasicos teoremas de Fiedler que aseguran que,
para A, B (l (n)
+
,
A B
n
(AB)I y A B
n
(AB
t
)I
9.12 Medias de operadores positivos
Denicion 9.12.1. Cuando 0 1, la -media de A, B (l (n)
+
es lo siguiente
A#

B = A
1/2
(A
1/2
BA
1/2
)

A
1/2
.
En particular, la media geometrica A#B es la
1
2
-media, o sea,
A#B = A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
.
Proposicion 9.12.2. Sean A, B (l (n)
+
. Entonces A
1/2
(A#B)B
1/2
|(n).
Demostracion. Sea T = A
1/2
B
1/2
. Consideremos su descomposicion polar a derecha, dada
por T = [T

[U, con U |(n). Luego


A
1/2
(A#B)B
1/2
= A
1/2
(A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
)B
1/2
= (A
1/2
BA
1/2
)
1/2
A
1/2
B
1/2
= (TT

)
1/2
T
1
= [T

[ T
1
= U |(n) ,
como queramos demostrar.
9.12 Medias de operadores positivos 197
Lema 9.12.3. Sean A (l (n)
+
, B /
n
(C)
+
y C /
n
(C). Entonces
_
A C
C

B
_
0 B C

A
1
C .
Demostracion. Para abreviar llamemos X = A
1
C. Entonces
_
I X
0 I
_
es inversible. Un
calculo sencillo nos muestra que
_
I 0
X

I
__
A C
C

B
__
I X
0 I
_
=
_
A 0
0 B C

A
1
C
_
. (9.55)
Entonces de aqu resulta claro el enunciado.
Proposicion 9.12.4. Dados A, B (l (n)
+
, la media geometrica A#B es la mayor matriz
autoadjunta del siguiente conjunto:
=
_
C H(n) :
_
A C
C B
_
0
_
.
Demostracion. Observemos que como (A#B)A
1
(A#B) = A
1/2
(A
1/2
BA
1/2
)A
1/2
= B,
entonces por el Lema 9.12.3, la matriz
_
A A#B
A#B B
_
es semidenida positiva. Luego, A#B . Para demostrar que es efectivamente el maximo
tomemos C arbitrario. Entonces el Lema 9.12.3 nos dice que B CA
1
C. Por lo tanto,
(A
1/2
CA
1/2
)
2
= A
1/2
(CA
1
C) A
1/2
A
1/2
BA
1/2
y por el Teorema 6.2.6, tenemos
A
1/2
CA
1/2
[ A
1/2
CA
1/2
[ (A
1/2
BA
1/2
)
1/2
.
Luego
C A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
= A#B,
lo cual demuestra que A#B es el maximo del conjunto .
Corolario 9.12.5. Sean A, B (l (n)
+
. Entonces
_
A A#B
A#B B
_
0 y
_
B A#B
A#B A
_
0 .
Demostracion. Es inmediato a partir de la Proposicion 9.12.4.
198 Algunas desigualdades de matrices
Observacion 9.12.6. Puede probarse que (A#B)
2

log
A
1/2
BA
1/2
, lo que implica que
n

i=k

i
(A#B)
2

i=k

i
(AB) para todo k I
n
.
En consecuencia, el siguiente resultado mejora el Teorema 9.11.3.
Teorema 9.12.7. Sean A, B (l (n)
+
. Entonces
n

i=k

i
(A B)
n

i=k

i
(A#B)
2
para todo k I
n
.
Demostracion. Por la Proposicion 9.12.5 y el Teorema de mayorizacion de Schur 5.1.1
_
A A#B
A#B B
_

_
B A#B
A#B A
_
=
_
A B A#B A#B
A#B A#B A B
_
0 .
Ahora, usando 3.7.8, se deduce que A B (A#B) (A#B) y por ende
n

i=k

i
(A B)
n

i=k

i
[(A#B) (A#B)] para todo k I
n
.
Finalmente, aplicando el Teorema 9.11.3 al miembro de la derecha se obtiene
n

i=k

i
[(A#B) (A#B)]
n

i=k

i
(A#B)
2
para todo k I
n
.
completanto la demostracion.
9.13 Ejercicios
Ejercicios del texto
9.13.1. Sean A, B H(n).
1. Probar que, para cada x C
n
, se tiene S(A, B)x, x) = 2 ReAx, Bx).
2. Dar un ejemplo de matrices positivas A y B tales que S(A, B) , 0.
9.13.2. Encontrar dos matrices A, B /
2
(C) tales que [A+B[ , [A[ +[B[.
9.13.3. Mostrar que la desigualdad (9.7) deja de ser cierta si en el miembro izquierdo se quita
la estrella en B. (Ayuda: basta considerar matrices de 2 2 y el caso p = q = 2).
9.13 Ejercicios 199
9.13.4. Sean A, B, C, D /
n
(C)
+
tales que AD = DA y BC = CB. Sean X /
n
(C) y
p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
_
_
_
_
1
p
A
p
XC
p
+
1
q
D
q
XB
q
_
_
_
_
2
2

1
r
2
|A
p
XC
p
D
q
XB
q
|
2
2
+|ADXCB|
2
2
.
donde r = maxp, q.
9.13.5. Sean A, B, C, D /
n
(C)
+
tales que AD = DA, A

D = DA

, BC = CB y
B

C = CB

. Sean X /
n
(C) y p, q [1, +) tales que
1
p
+
1
q
= 1. Entonces
_
_
_
_
1
p
[A[
p
X[C[
p
+
1
q
[D[
q
X[B[
q
_
_
_
_
2
2

1
r
2
|[A[
p
X[C[
p
[D[
q
X[B[
q
|
2
2
+|ADXC

|
2
2
.
donde r = maxp, q. En particular, si C = D = I, mostrar que
_
_
_
_
1
p
[A[
p
X +
1
q
X[B[
q
_
_
_
_
2
2

1
r
2
|[A[
p
X X[B[
q
|
2
2
+|AXB

|
2
2
,
que es la extension natural de (9.17) a matrices cualesquiera. Extender las desigualdades
(9.22)-(9.24) de manera analoga.
9.13.6. Dadas A, B (l (n)
+
, probar que (A
1/2
BA
1/2
)
2

log
(AB
2
A).
9.13.7. Dada A /
n
(C), probar que
e
A
= lim
m
_
I +
A
m
_
m
. (9.56)
9.13.8. Encontrar A /
2
(C) tal que [[[e
A
[[[ < [[[e
Re A
[[[ para toda NUI.
9.13.9. 1. Dades A, B H(n), mostrar la siguiente nueva formula:
e
A+B
= lim
t 0
_
e
tB
2
e
tA
e
tB
2
_
1
t
.
Observar que e
tB
2
e
tA
e
tB
2
(l (n)
+
por lo que
_
e
tB
2
e
tA
e
tB
2
_
1
t
tiene sentido para todo
t ,= 0. Ademas,
_
e
tB
2
e
tA
e
tB
2
_
1
= e
tB
2
e
tA
e
tB
2
, por lo que el caso t < 0 no crea
problemas.
Sug: Desarrollar el producto de las tres series asociadas a e
tB
2
e
tA
e
tB
2
y aplicarles la
serie de potencias de 1 < x log(1 + x). Despues seguir pasos similares a los de la
prueba del Teorema 9.8.2.
200 Algunas desigualdades de matrices
2. Extendiendo el argumento que utilizamos para probar el Teorema 9.8.2 probar que,
dadas A
1
, A
2
, ... , A
k
/
n
(C), se tiene que
exp
_
k

i=1
A
i
_
= lim
m
_
e
A
1
m
e
A
2
m
... e
A
k
m
_
m
.
9.13.10 (Desigualdad de Araki-Lieb-Thirring). Si A, B (l (n)
+
, probar que
tr
_
(B
1/2
AB
1/2
)
st
_
tr
_
(B
t/2
A
t
B
t/2
)
s
_
, para todo par s, t 1 .
Sug: Usar el Corolario 9.9.5 para las NUIs |A|
p
= (tr [A[
p
)
1/p
.
Ejercicios nuevos
9.13.11. Sean A, B, C /
n
(C). Demostrar:
1. e
A+B
= lim
r0
(e
rA/2
e
rB
e
rA/2
)
1/r
2. Si A, B 0 y r (0, 1), entonces (A
r/2
B
r
A
r/2
)
1/r
A
1/2
BA
1/2
3. Nuevamente bajo el supuesto que A, B 0, se tiene que para toda norma unitariamente
invariante [[[ [[[:
[[[A
r/2
B
r
A
r/2
[[[
1/r

r0
[[[e
A+B
[[[,
en forma decreciente.
4. Si A, B > 0, entonces [[[ log(A) + log(B)[[[ [[[ log(A
1/2
BA
1/2
)[[[ para toda norma
unitariamente invariante [[[ [[[.
5. (Golden-Thompson) Si A, B H(n), entonces tr(e
A+B
) tr(e
A
e
B
).
6. Dar un ejemplo que muestre que la desigualdad tr(e
A+B+C
) tr(e
A
e
B
e
C
) es falsa.
Onda Cauchy-Schwarz
9.13.12. Sean A, B /
n
(C). Probar que, para todo r (0, +),
s
r
(AB)
w
log
s
r
(A)s
r
(B) = s
r
(AB)
w
s
r
(A)s
r
(B) .
9.13.13. Sean una fgs, y p, q [1, +) tales que
1
p
+
1
q
= 1. Dados x, y R
n
, se tiene que
([x y[) ([x[
p
)
1
p
([y[
q
)
1
q
.
Sug: usando Holder (de n umeros, en las coordenadas) mostrar que, para todo t > 0 se tiene
([x y[)
t
p
([x[
p
)
p
+
([y[
q
)
q t
q
.
Luego calcular el mnimo de esas cosas.
9.13 Ejercicios 201
9.13.14. Sea N una NUI en /
n
(C).
1. Sean p, q [1, +) tales que
1
p
+
1
q
= 1. Mostrar que
N(AB) N([A[
p
)
1
p
N([B[
q
)
1
q
para todo par A, B /
n
(C) .
2. Mas a un, si tomamos p, q y r positivos tales que
1
p
+
1
q
=
1
r
, probar que
N([AB[
r
)
1
r
N([A[
p
)
1
p
N([B[
q
)
1
q
para todo par A, B /
n
(C) .
3. Deducir que N([AB[
1/2
) N(A)
1/2
N(B)
1/2
y que N(AB) N(A

A)
1/2
N(B

B)
1/2
.
4. Otra mejora: Dadas A, B, X /
n
(C) se tiene que
N(AXB

)
2
N(A

AX) N(X B

B) .
5. Peor todava: si r R

+
, entonces debe valer que
N( [AXB

[
r
)
2
N( [A

AX[
r
) N( [X B

B[
r
) .
6. Ahora deducir que, si s [0, 1], entonces se cumple que
N(A
s
XB
1s
) N(AX)
s
N(XB)
1s
y que N(A
s
XB
s
) N(X)
1s
N(AXB)
s
.
Observar que tomando X = I en la de la derecha, se obtiene una generalizacion de la de-
sigualdad de Cordes (9.48) a todas las NUIs (porque |I|
sp
= 1).
202 Algunas desigualdades de matrices
Captulo 10
Rango y Radio Numericos
En este captulo consideraremos espacios de Hilbert H nito deimensionales (con su producto
interno y la norma eucldea). Por lo tanto, puede pensarse que H = C
n
, e identicar el
algebra de operadores L(H) con /
n
(C). La mayora de los resultados de este captulo valen
tambien para el caso innitodimensional, salvo el hacho de que en varias de las igualdades e
inclusiones que aparecen, el rango numerico (o las capsulas convexas) deberan cambiarse por
sus clausuras. Una version general aparece en el tomo II de este libro.
10.1 Deniciones y propiedades basicas
Denicion 10.1.1. Sea A L(H).
1. El Rango numerico de A es el conjunto
W(A) = Ax, x) : x H, |x| = 1 .
2. Recordemos que el radio numerico de A se dene como
w(A) = max
W(A)
[[ = max [Ax, x)[ : x H, |x| = 1
y que dene una norma en L(H) (si el cuerpo es C).
10.1.2. A continuacion enumeraremos una serie de propiedades elementales del rango y radio
numericos que se siguen facilmente sus deniciones. Las pruebas que no esten escritas deben
considerarse como ejercicios. Sea A L(H).
1. Se cumplen las siguientes desigualdades:
(A) w(A) |A|
sp
.
204 Rango y Radio Numericos
La segunda se deduce de Cauchy-Schwarz. La primera se deduce de la formula (10.1)
de un poco mas abajo.
2. Tomando T =
_
0 0
2 0
_
, se ve que las desiguadades pueden ser estrictas. En efecto, es
claro que (T) = 0 y |T|
sp
= 2. Por otra parte, como la funcion
f : z C : [z[ 1 R dada por f(z) = 2[z[ (1 [z[
2
)
1/2
alcanza el maximo f(z) = 1 cuando [z[
2
= 1/2, podemos deducir que w(T) = 1.
3. Vimos en el Corolario 2.1.4 que, si A es normal, entonces (A) = w(A) = |A|
sp
.
4. Recordemos que Re A =
A+A

2
e ImA =
AA

2i
. Se tiene que
| Re A|
sp
= w(Re A) = max
|x|=1
[ Re Ax, x)[ w(A) ,
y lo mismo vale para ImA. Luego |A|
sp
2 w(A).
5. Dado B L(H) se cumple que W(A+B) W(A) +W(B).
6. Dado C, se tiene que W(A+I) = W(A) + y W( A) = W(A).
7. Si U |(H), entonces W(UAU

) = W(A) y w(UAU

) = w(A).
8. W(A) es compacto (por serlo la c ascara de la bola unidad de H).
Proposicion 10.1.3. Sea A L(H). Entonces
(A) W(A) . (10.1)
Demostracion. Si es autovalor de A, es claro que = Ax, x) W(A) para cualquier
autovector unitario x asociado a .
10.2 El Teorema de Hausdor Toeplitz
El Teorema de Hausdor Toeplitz dice que, para todo A L(H), se cumple que W(A) es
convexo. Para probarlo se necesitan una serie de reducciones. La principal es ver que basta
probarlo para matrices en /
2
(C) (esto lo veremos en la prueba del Teorema). Pero a un entre
ellas, necesitamos dos reducciones especiales:
Lema 10.2.1. Dada A /
2
(C), existe U |(2) tal que,
B = U

AU =
_
c a
b c
_
, con c =
trA
2
.
10.2 El Teorema de Hausdor Toeplitz 205
Demostracion. Cambiando A por A
tr A
2
I, podemos suponer que tr A = 0 y tratar de
hacer que la diagonal de B sea nula. Si (A) = 0, esto es facil (por el Teorema 1 de Schur
1.6.1). Sino, (A) = , con ,= 0. Sean x
1
y x
2
autovectores unitarios asociados a
y , respectivamente. Tomemos la curva x(t) = e
it
x
1
+ x
2
, para t [0, 2]. Observar que
x(t) ,= 0, por que x
1
y x
2
son LI. Entonces,
Ax(t), x(t)) = +e
it
Ax
1
, x
2
) +e
it
Ax
2
, x
1
)
= e
it
x
1
, x
2
) e
it
x
2
, x
1
) = 2iIm(e
it
x
1
, x
2
)) .
Eligiendo t
0
[0, 2] tal que e
it0
x
1
, x
2
) R, tenemos que Ax(t
0
), x(t
0
)) = 0, con x(t
0
) ,= 0.
Normalizando a x(t
0
), completando a una BON de C
2
, y tomando U |(2) tal que tenga a
esa BON en sus columnas, obtenemos
B = U

AU =
_
0 a
b 0
_
, con a, b C ,
donde B
22
= 0 porque B
11
= 0 = tr B.
Lema 10.2.2. Dada B /
2
(C) con diagonal nula, existen V |(2) y w C con [w[ = 1
tales que,
w V BV

=
_
0 a
b 0
_
, con a 0 y b 0 .
Demostracion. Si B =
_
0 a
b 0
_
, tomando V =
_
u 0
0 1
_
|(2) y w C con [w[ = 1,
tenemos que
w V B
1
V

=
_
0 wua
wub 0
_
.
Si a = e
i1
[a[ y b = e
i2
[b[, tomando u = e
i
2
(21)
y w = e
i
2
(2+1)
, se obtiene que
w V B
1
V

=
_
0 [a[
[b[ 0
_
,
como deseabamos.
Teorema 10.2.3 (Hausdor-Toeplitz). Sea A L(H). Entonces W(A) es convexo.
Demostracion. Sean , W(A) distintos, y sean x, y H unitarios tales que Ax, x) =
y Ay, y) = . Tomemos B
0
= v
1
, v
2
una BON de o = Gen x, y. Consideremos la
compresion A
S
L(o). La matriz de A
S
en la base B
0
es B = (Av
j
, v
i
))
i,jI2
/
2
(C).
Dado z = (z
1
, z
2
) C
2
, se tiene que
w = z
1
v
1
+z
2
v
2
o , |w| = |z|
2
y Bz, z) = Aw, w) ,
206 Rango y Radio Numericos
por lo que , W(B) y, para probar que las combinaciones convexas de y estan en
W(A), basta vericar que estan en W(B). En otras parabras, alcanza con probar el teorema
en el caso de que A /
2
(C). Para ello, por los Lemas 10.2.1 y 10.2.2, se puede asumir que
A =
_
0 a
b 0
_
, con a 0 y b 0 ,
puesto que W(C +I) = W(C) + y W(u V CV

) = u W(C) para cualquier C /


2
(C),
C, V |(2) y u C con [u[ = 1. Obervar que los cambios inducidos por las reduc-
ciones anteriores (translaciones y rotaciones) no perturban el hecho de que W(A) sea convexo.
Veremos que en este caso,
W(A) =
_
t
_
(a +b) cos +i(a b) sen
_
: t [0, 1/2] y [0, 2]
_
, (10.2)
que es una elipse (o eventualmente un segmento) centrada en el origen, y por lo tanto convexa.
En efecto, dado z C
2
con |z| = 1, como
Az, z) =

Ae
i
z, e
i
z
_
para todo R ,
podemos suponer que z = (t, (1 t
2
)
1/2
e
i
) para t [0, 1] y [0, 2]. En tal caso, cuentas
elementales muestran que
Az, z) = t(1 t
2
)
_
(a +b) cos +i(a b) sen

.
Observar que los n umeros t(1t
2
) recorren el intervalo [0, 1/2] cuando t [0, 1]. Esto prueba
la formula (10.2).
Corolario 10.2.4. Sea A L(H).
1. En general se cumple que conv [ (A) ] W(A).
2. Si A es normal, entonces conv [ (A) ] = W(A).
Demostracion. La inclusion (A) W(A) ya fue vista en la Proposicion 10.1.3. Pero por
el Teorema 10.2.3, sabemos que esa incuson arrastra a la capsula convexa. Si A es normal,
sea x
1
, . . . , x
n
una BON de H formada por autovectores de A asociados a sus autovalores

1
, . . . ,
n
. Si x H tiene |x| = 1, entonces
Ax, x) =
_
A
n

k=1
x, x
k
) x
k
,
n

k=1
x, x
k
) x
k
_
=
n

k=1
[ x, x
k
) [
2

k
conv [ (A) ] ,
porque
n

k=1
[ x, x
k
) [
2
= |x|
2
= 1. Por lo tanto W(A) conv [ (A)].
Denicion 10.2.5. 1. Dados dos espacios de Hilbert H y K, notamos
HK = (x, y) : x H , y K ,
que es un espacio de Hilbert con el producto

(x
1
, y
1
) , (x
2
, y
2
)
_
= x
1
, x
2
) +y
1
, y
2
).
10.2 El Teorema de Hausdor Toeplitz 207
2. Dados A L(H) y B L(K), se dene el operador
AB L(HK) dado por AB(x, y) = (Ax, By), (x, y) HK .
3. Matricialmente tenemos que
AB :=
_
A 0
0 B
_
H
K
L(HK) .
4. En forma similar se denen sumas directas de muchos espacios de Hilbert y de muchos
operadores en ellos.
Corolario 10.2.6. Sean A L(H) y B L(K). Entonces
W(AB) = conv [W(A) W(A) ] y w(AB) = maxw(A), w(B) . (10.3)
Idem con muchos bloques diagonales.
Demostracion. La inclusion W(A) W(A) W(A B) se testea inmediatamente usando
vectores con una coordenada nula. Por el Teorema 10.2.3, esto arrastra a la capsula convexa
de W(A) W(A). Recprocamente, dados x H e y K no nulos tales que |(x, y)|
2
=
|x|
2
+|y|
2
= 1, tenemos que
AB(x, y), (x, y) ) = Ax, x) +By, y)
= |x|
2
_
A
x
|x|
,
x
|x|
_
+|y|
2
_
B
y
|y|
,
y
|y|
_
,
quien claramente pertenece a conv [W(A) W(A) ].
Corolario 10.2.7. Sea A /
n
(C). Entonces existe U |(n) tal que, si B = U

AU, luego
B
ii
=
tr A
n
para todo i I
n
.
Demostracion. Cambiando A por A
tr A
n
I, lo que debemos probar es que, si tr A = 0,
entonces podemos conseguir U |(n) tal que la diagonal de U

AU sea nula. Lo probaremos


por induccion en n. Para n = 1 es trivial. Observar que el caso n = 2 es el Lema 10.2.1. Si
n > 2, aplicando el Corolario 10.2.4 obtenemos que
0 =
tr A
n
conv [ (A)] W(A) .
Luego existe un vector unitario x C
n
tal que Ax, x) = 0. Completando x a una BON de
C
n
que lo tenga como primer elemento, y tomando U
1
|(n) la matriz con esa BON en sus
columnas, obtenemos que
C = U

1
AU
1
=
_
0
D
_
1
n 1
,
208 Rango y Radio Numericos
porque C
11
= Ax, x) = 0. Como D /
n1
(C) cumple que tr D = 0, podemos aplicar la
hipotesis inductiva y encontrar V |(n1) tal que la diagonal de V

DV sea nula. Deniendo


U
2
= 1 V |(n) y U = U
1
U
2
|(n), se ve que
U

AU = U

2
CU
2
=
_
1 0
0 V

_ _
0
D
_ _
1 0
0 V
_
=
_
0 V
V

DV
_
,
que tiene la diagonal nula.
10.3 Caracterizaciones
Observacion 10.3.1. Sea W C un conjunto convexo compacto, y sea z
0
/ W. Entonces
existe un unico w
0
W tal que
d(z
0
, W) = [z
0
w
0
[ = d > 0 .
El tal w
0
existe (y es unico) por la teora usual de espacios de Hilbert, usando que W es
convexo y cerrado (para una cuenta ad hoc, ver el Ejercicio 10.5.2). Mas a un, si x
0
= z
0
w
0
,
entonces Re (x
0
w
0
) +d
2
= Re (x
0
z
0
) y
Re (x
0
z) Re (x
0
w
0
) para todo z W . (10.4)
Esto se deduce de que w
0
es la proyecci on ortogonal de z
0
sobre W, y de que el producto
escalar en C pensado como R
2
esta dado por z , w) = Re (wz). Observar que la recta
z C : Re [x
0
(z w
0
)] = 0 es ortogonal a z
0
w
0
y pasa por w
0
.
Teorema 10.3.2. Sea A L(H). Entonces
W(A) =
_
z C : [z [ w(AI) para todo C
_
=
_
z C : [z [ |AI|
sp
para todo C
_
.
Demostracion. Notemos W = W(A), X al conjunto de arriba e Y al conjunto de abajo. Es
claro, por las deniciones, que X Y . Usando que W(A) = W(AI), es facil ver que
W X. En lo que sigue probaremos que Y W: Supongamos que z
0
/ W, y sea w
0
la
proyeccion ortogonal de z
0
sobre W (como en la Observacion 10.3.1).
Para facilitar las cuentas, rotaremos y transladaremos el problema para que z
0
R
+
, w
0
= 0
y W z C : Re z 0. Para hacerlo, sean
d = [z
0
w
0
[ = d(z
0
, W) > 0 , y B = e
i
(Aw
0
I) L(H) ,
donde z
0
w
0
= e
i
d. Luego W
B
= W(B) = e
i
(W(A) w
0
) y si tomamos el conjunto
Y
B
=
_
z C : [z [ |B I|
sp
, C
_
, entonces Y
B
= e
i
(Y w
0
) .
10.3 Caracterizaciones 209
Por lo tanto, para ver que z
0
/ Y , alcanza probar que d = e
i
(z
0
w
0
) / Y
B
. Observar que,
como la funcion x e
i
(x w
0
) preserva distancias, la proyeccion de d a W
B
es, ahora,
e
i
(w
0
w
0
) = 0. Ademas, como d = d 0 > 0, si z W
B
, la Eq. (10.4) dice que
Re (z d ) = d Re z 0 = Re z 0 ,
como queramos. Ahora, dados x C
n
con |x| = 1 y m N, tendremos que
|(B +mI)x|
2
=

(B +mI)x, (B +mI)x
_
= |Bx|
2
+m
2
+ 2mRe Bx, x)
|B|
2
sp
+m
2
,
porque Bx, x) W
B
. Es decir que |B + mI|
sp
(|B|
2
sp
+ m
2
)
1/2
. Por otro lado, es facil
ver que (|B|
2
sp
+m
2
)
1/2
m
m
0. Por lo tanto, debe existir m N tal que
|B +mI|
sp
m (|B|
2
sp
+m
2
)
1/2
m < d .
En otras palabras, para ese m se tiene que
|B +mI|
sp
< d +m = [d +m[ ,
por lo que d / Y
B
y entonces z
0
/ Y . Resumiendo, vimos que si z
0
/ W, entonces z
0
/ Y , o
sea que Y W.
A continuacion damos un adelanto del libro II. Se trata de una caracterizacion obtenida por
T. Ando [17] del radio numerico, que es tan util como la caracetrizacion de la norma espectral
dada en la Proposicion 3.7.6. Su prueba necesita bastantes desarrollos especcos que se
trabajaran en el libro II, por lo que no creemos necesario reproducirlos aqu. Sin embargo lo
enunciamos ahora, en su version matricial, porque es uno de los criterios basicos para trabajar
con rangos numericos.
Teorema 10.3.3 (Ando 1973). Sea A /
n
(C). Son equivalentes:
1. w(A) 1.
2. Para todo [0, 2) se tiene que Re(e
i
A) I.
3. Existen C /
n
(C) e Y /
n
(C)
+
tales que
Y I , |C|
sp
2 y (I Y )
1/2
C Y
1/2
= A .
4. Existe Y /
n
(C)
+
tal que M
1
=
_
I Y A

/2
A/2 Y
_
/
2n
(C)
+
.
5. Existe L H(n) tal que M
2
=
_
I +L A

A I L
_
/
2n
(C)
+
.
210 Rango y Radio Numericos
Demostracion. Si vale la condicion 2, como existen x C
n
unitario y [0, 2) tales que
w(A) = [

Ax, x
_
[ = e
i

Ax, x
_
=

(e
i
A) x, x
_
=

Re (e
i
A) x, x
_

I x, x
_
= 1 ,
tenemos que 2 1. Por otro lado, la implicacion 1 2 es bien facil. Siguiendo, tenemos que
la equivalencia 3 4 no es otra cosa que el Teorema 3.8.6. Veamos que 4 5 : Supongamos
que M
1
/
2n
(C)
+
,, para cierto Y /
n
(C)
+
. Luego, si L = I 2Y H(n), se tiene que
I +L = 2(I Y ) y I L = 2Y =
_
I +L A

A I L
_
= 2
_
I Y A

/2
A/2 Y
_
0 .
Ahora veamos que 5 2 : Dados x C
n
y [0, 2), tomemos el vector y = e
i
x. Luego,
si asumimos que L cumple la condicion 5, tendremos que
2|x|
2
=
_
_
_
_

x
y

_
_
_
_
2

__
L A
A

L
_

x
y

x
y

_
= 2

Re(e
i
A) x, x
_
. (10.5)
Luego Re(e
i
A) I. Lamentablemente, la implicacion 1 4 quedara para el libro II.
10.4 Comparaci on con NUIs
Proposicion 10.4.1. Sea A L(H). Entonces
1
2
|A| w(A) |A| .
Admas, las constantes 1 y 1/2 son optimas para la desigualdad anterior.
Demostracion. Tomemos partes real e imaginaria: A = Re A+i ImA. Luego
w(A) |A| | Re A| +| ImA| = w(Re A) +w(ImA) 2 w(A) ,
donde la ultima desigualdad se deduce de que W(Re A) = Re z : z W(A), por lo que
w(Re A) w(A), y lo mismo para ImA. La optimalidad de las constantes 1 y 1/2 se ve
tomando las matrices E
11
y 2E
21
.
Proposicion 10.4.2 (Marcus-Sandy 1985). Sea A /
n
(C). Entonces
1
n
n

i=1
s
i
(A) w(A)
n

i=1
s
i
(A) = |A|
1
.
Admas, las constantes 1 y 1/n son optimas para la desigualdad anterior.
Demostracion. Tomemos la descomposicion polar A = U[A[, con U |(n). Conjugando con
otra matriz unitaria (lo que no cambia ni w(A) ni |A|
1
), podemos suponer que que U es
diagonal. Observar que [V AV

[ = V [A[V

, si V |(n). Pongamos U = diag (w


1
, . . . w
n
),
10.4 Comparacion con NUIs 211
con [w
i
[ = 1, i I
n
. Veremos que, en este caso, el n umero
1
n
n

i=1
s
i
(A) es superado por alguno
de los modulos de los elementos diagonales de A. En efecto, si notamos e
1
, . . . , e
n
a la base
canonica de C
n
, y llamamos P = [A[, dado k I
n
tenemos que
[A
kk
[ = [ Ae
k
, e
k
) [ = [ UPe
k
, e
k
) [ = [ Pe
k
, U

e
k
) [ = [w
k
Pe
k
, e
k
) [ = [P
kk
[ = P
kk
,
donde la ultima igualdad surge de que P /
n
(C)
+
. Por otra parte,
n

k=1
P
kk
= tr P = tr [A[ =
n

i=1
s
i
(A) =
1
n
n

i=1
s
i
(A) P
kk
= [ Ae
k
, e
k
) [ w(A)
para alg un k I
n
. Para ver que 1 y 1/n son optimas, tomar las matrices E
11
e I.
Denicion 10.4.3. Llamemos A =
_
0 0
2 0
_
/
2
(C) y V =
_
0 1
1 0
_
|(2). Dado
n N, si n = 2m consideremos las matrices diagonales de bloques
C
n
= AA A =
m

k=1
2E
2k,2k1
/
n
(C) y
U
n
= V V V =
m

k=1
E
2k,2k1
+E
2k1,2k
|(n) .
Si n = 2m+ 1 e I
1
denota a la matriz [ 1 ] /
1
(C),
C
n
= A AI
1
= E
n,n
+
m

k=1
2E
2k,2k1
/
n
(C) y
U
n
= V V I
1
= E
n,n
+
m

k=1
E
2k,2k1
+E
2k1,2k
|(n) .
Como w(A) = w(I
1
) = 1, la Eq. (10.3) asegura que w(C
n
) = 1 para todo n N.
Los resultados anteriores fueron usados por C.R. Johnson y C.K. Li [27] para calcular, para
N una NUI ja en /
n
(C), las mejores constantes m y M tales que
m N(T) w(T) M N(T) para todo T /
n
(C) .
Proposicion 10.4.4 (Johnson-Li 1988). Sea N una NUI en /
n
(C). Luego
N(C
n
)
1
N(T) w(T) N(E
11
)
1
N(T) para toda T /
n
(C) .
Ademas, las constantes N(C
n
)
1
y N(E
11
)
1
son optimas.
212 Rango y Radio Numericos
Demostracion. Fijemos T /
n
(C). Si T = 0, el resultado es claro. Si no, sea A = w(T)
1
T,
que tiene w(A) = 1. Por las Proposiciones 10.4.1 y 10.4.2 se tiene que
1 s
1
(A) 2 y
n

k=1
s
k
(A) n .
Observar que s(E
11
) = e
1
y s(C
n
) = v
n
, donde
v
n
=
_

_
(2, . . . , 2, 0, . . . , 0) =
m

k=1
2e
k
si n = 2m
(2, . . . , 2, 1, 0, . . . , 0) =
m

k=1
2e
k
+e
m+1
si n = 2m+ 1 .
(10.6)
Por lo tanto, s(E
11
)
w
s(A)
w
s(C
n
). Como N es una NUI, el Teorema de Ky Fan 5.3.8
dice que que
N(E
11
) N(A) =
N(T)
w(T)
N(C
n
) .
Invirtiendo y multiplicando por N(T), se obtienen las desigualdades buscadas. Tomando
T = C
n
y T = E
11
y observando que w(C
n
) = w(E
11
) = 1, podemos deducir que las
constantes dadas son optimas.
Proposicion 10.4.5. Sea N es una NUI en /
n
(C). Entonces
w(T) N(T) , para toda T /
n
(C) = |T|
sp
N(T) , para toda T /
n
(C) .
Demostracion. Observar que |T|
sp
= | [T[ |
sp
= w([T[) N([T[) = N(T).
El siguiente teorema es el contenido del paper de T. Ando [18]:
Teorema 10.4.6 (Ando 2005). Si denimos la norma
N
0
(T) = max
_
|T|
sp
2
,
|T|
1
n
_
para T /
n
(C) ,
se tiene que
1. N
0
es una NUI.
2. N
0
(T) w(T) para todo T /
n
(C).
3. N
0
es la mayor NUI en /
n
(C) tal que N(T) w(T) para todo T /
n
(C). Es decir,
si N es una NUI en /
n
(C),
N(T) w(T) , T /
n
(C) = N(T) N
0
(T) , T /
n
(C) .
10.5 Ejercicios 213
Demostracion. Los dos primeros items son claros de lo anterior. Fijemos T /
n
(C).
Como la desigualdad a probar es entre normas unitariamente invariantes, podemos asumir
que T = (T) = diag (s
1
(T), . . . , s
n
(T)). Mas a un, supongamos que
N
0
(T) = max
_
s
1
(T)
2
,
1
n
n

i=1
s
i
(T)
_
= 1 .
En este caso deberamos probar que N(T) 1. Las desigualdades resultantes de la igualdad
anterior implican que s(T)
w
v
n
, donde v
n
es el vector denido en la Eq. (10.6). Tomemos
C
n
y U
n
las matrices de la Denicion 10.4.3. Notar que U
n
C
n
= B
n
, donde
B
n
= diag (2, 0, 2, 0, . . . , 2, 0) o bien B
n
= diag (2, 0, 2, 0, . . . , 2, 0, 1) .
Observar que s(B) = v
n
. Luego, como s(T)
w
v
n
= s(B
n
) y N es una NUI, el Teorema de
Ky Fan 5.3.8 nos dice que que N(T) N(B
n
), con lo que bastara probar que N(B
n
) 1.
Por otra parte, en la Denicion 10.4.3 se ve que w(C
n
) = 1 para todo n N. Como U |(n)
y N es una NUI, tenemos que
N(T) N(B
n
) = N(U
n
C
n
) = N(C
n
) w(C
n
) = 1 = N
0
(T) .
Observar que recien al nal usamos la hipotesis sobre N.
10.5 Ejercicios
Ejercicios que aparecen en el texto
10.5.1. Sea A L(H). Probar las siguientes armaciones:
1. (A) w(A) |A| .
2. Tomando T =
_
0 0
1 0
_
, se tiene que (T) = 0, w(T) = 1/2 y |T| = 1, por lo que las
desiguadades de arriba pueden ser estrictas.
3. Si A es normal, entonces (A) = w(A) = |A|
sp
.
4. | Re A|
sp
= w(Re A) = max
|x|=1
[ Re Ax, x)[ w(A) y lo mismo vale para ImA.
5. |A|
sp
2 w(A).
6. Dado B L(H) se cumple que W(A+B) W(A) +W(B).
7. Dado C, se tiene que W(A+I) = W(A) + y W( A) = W(A).
8. Si U |(H), entonces W(UAU

) = W(A) y w(UAU

) = w(A).
9. W(A) es compacto.
214 Rango y Radio Numericos
10.5.2. Sea W C
n
un conjunto convexo compacto no vaco, y sea v
0
C
n
W. Entonces:
1. Existe un unico w
0
W tal que
0 < d = |v
0
w
0
| = d(v
0
, W) := mn
wW
|v
0
w| .
Para mostrar la unicidad, se suguiere asumir que v
0
= 0 y usar que, dados x, y C
n
vale la igualdad del paralelogramo, que dice que |x y|
2
+|x +y|
2
= 2(|x|
2
+|y|
2
).
2. Probar que el hiperplano H = w
0
+v
0
w
0

R
separa a W de v
0
en el sentido de que
Re

v
0
, v
0
w
0
_
> Re

w
0
, v
0
w
0
_
Re

w, v
0
w
0
_
para todo w W .
Nota: Lo anterior vale en espacios de Hilbert generales, y alcamza con que W sea cerrado
(no hace falta compacto). Sin embargo, proponemos este caso especial porque es lo que se
usa para la Observacion 10.3.1.
Ejercicios nuevos
10.5.3. Sean
1
, . . . ,
n
,
1
, . . . ,
n
, C, todos de modulo uno. Son equivalentes:
1. Existen A, B |(n) tales que (A) = , (B) =

y ademas (BA).
2. Existe un p conv [
1
, . . . ,
n
] conv
_

1
, . . . ,
n

.
Sugerencia: Usar el ejercicio 1.10.21
10.5.4. Sea w
t
(A) = max
w(B)=1
[ tr A

B[, la norma dual del radio numerico en /


n
(C). Denota-
mos por B
w
= A /
n
(C) : w
t
(A) 1 a su bola unidad. Probar que
B
w
= conv [x x : x C
n
y |x| = 1] ,
o sea que los puntos extremales de B
w
son los proyectores de rk uno.
Sugerencia: Cuanto vale tr
_
B x x
_
?
Captulo 11
Teora de Perron-Frobenius
Repasemos algunas notaciones que usaremos sistematicamente en los siguientes captulos.
Dados A, B /
n,m
(R) y x R
n
, diremos que
1. A0 , si A
ij
0 para todo par i I
n
, j I
m
.
2. A > 0 , si A
ij
> 0 para todo par i I
n
, j I
m
.
3. Las mismas notaciones (x0 o x > 0) se usaran para vectores.
4. Denotaremos por
MP
n,m
= A /
n,m
(R) : A0 y MEP
n,m
= A /
n,m
(R) : A > 0 .
para matrices cuadradas, abreviaremos MP
n
y MEP
n
.
5. [A[ = ([a
ij
[)
iIn
jIm
y analogamente [x[ = ([x
1
[, . . . , [x
n
[).
6. AB, si B A MP
n,m
. O sea que a
ij
b
ij
para todo i, j I
n
. Analogamente,
escribiremos A < B siempre que B A MEP
n,m
.
7. El vector (1, 1, . . . , 1) R
n
sera denotado por medio de 1.
Advertencia: Hay overlaps de notaciones entre lo anterior y las que solemos usar para
matrices denidas positivas. Esto es lamentable, pero necesario; porque buscar otras com-
plicara notablemente la exposicion. Las convenciones que usaremos de ahora en mas seran
las siguientes:
1. Mantendremos la notacion A 0 (resp. B A) para decir que A /
n
(C)
+
(resp.
B A /
n
(C)
+
). Observar que los smbolos y son diferentes.
2. Al escribir A > 0 o B > A solamente aludiremos a los signos de las entradas. Para
evitar confuciones, si A /
n
(C) es denida positiva, no usaremos la notacion A > 0,
sino A (l (n)
+
(o que B A (l (n)
+
).
216 Teora de Perron-Frobenius
3. [A[ solo se usara para los modulos de las entradas. El viejo modulo se escribira (A

A)
1/2
.
El objetivo de este captulo es la demostracion del Teorema de Perron, para matrices de
entradas estrictamente positivas y sus generalizaciones a matrices de entradas no negativas.
11.1 Matrices de entradas positivas
Empezamos esta seccion con el objetivo nal de la misma: el teorema de Perron para matrices
de entradas estrictamente positivas. La idea es anunciar de entrada las propiedades princi-
pales de tales matrices y, ademas, dar una orientacion estrategica a los numerosos resultados
parciales (aunque muchos de ellos son son interesantes de por s) que iremos probando para
llegar a una demostracion completa del teorema.
Teorema 11.1.1 (Teorema de Perron). Sea A MEP
n
, es decir que A > 0. Entonces se
verican las siguientes propiedades:
1. (A) > 0 y (A) (A).
2. Existe un x R
n
tal que x > 0 y Ax = (A)x.
3. Dado y R
n
0, si y 0 y Ay = y, entonces = (A) e y > 0.
4. (A) es raz simple del polinomio caracterstico de A.
5. Si (A) y ,= (A), entonces [[ < (A).
6. Si (A) = 1, entonces A
m

m
L = xy
T
, donde x, y R
n
son vectores tales que
x > 0 , y > 0 , x, y) = 1 , Ax = x y A
T
y = y .
Antes de demostrar el Teorema de Perron, presentaremos varios resultados generales para
matrices A MP
n
, su radio espectral y los autovectores correspondientes. En lo que sigue
de la seccion, y salvo mencion explcita al contrario, asumiremos que todas las matrices
mencionadas con las letras A y B estar an en /
n
(R), para alg un n N.
Proposicion 11.1.2. Sean A, B MP
n
tales que AB. Entonces, (A) (B).
Demostracion. Como 0 AB, entonces, para todo n 1 se tiene que 0 A
n
B
n
. Por lo
tanto |A
n
|
1/n
2
|B
n
|
1/n
2
y, tomando lmite, se obtiene la desigualdad buscada .
Corolario 11.1.3. Sea A MEP
n
. Entonces se cunple que (A) > 0.
Demostracion. Como A > 0, existe un > 0 tal que I A. As (A) (I) = > 0.
Corolario 11.1.4. Sean A MP
n
, J I
n
y A[J] = (a
ij
)
i,j J
. Entonces (A[J]) (A).
11.1 Matrices de entradas positivas 217
Demostracion. Basta extender A[J] a MP
n
poniendo ceros en las entradas que le faltan, y
aplicar la Proposicion 11.1.2.
Observacion 11.1.5. Recordemos (ver Ejercicio 3.4.2) que, dada A /
n
(C),
[[[A[[[

= max
|x|

=1
|Ax|

= max
iIn
|F
i
(A)|
1
.
Por otra parte, observar que si A MP
n
, entonces |F
i
(A)|
1
= tr F
i
(A).
A continuacion vienen tres Lemas que sirven para ubicar el radio espectral de una matriz
A MP
n
usando la Observacion anterior:
Lema 11.1.6. Sea A MP
n
. Supongamos que 1 R
n
es un autovector de A. Entonces el
autovalor asociado es [[[A[[[

y ademas (A) = [[[A[[[

.
Demostracion. La desigualdad (A) [[[A[[[

vale siempre, porque [[[ [[[

es matricial y
podemos aplicar la Proposicion 3.4.6. Por otro lado, si A1 = 1, entonces
|F
i
(A)|
1
= tr F
i
(A) = F
i
(A) , 1) = (A1)
i
= para todo i I
n
.
Por la Observacion 11.1.5, podemos deducir que = [[[A[[[

. Finalmente, el hecho de que


[[[A[[[

(A) implica que [[[A[[[

(A).
Lema 11.1.7. Sea A MP
n
. Llamemos
= max
iIn
tr F
i
(A) = [[[A[[[

y = mn
iIn
tr F
i
(A) .
Entonces se verica que (A) .
Demostracion. La desigualdad (A) es conocida (Proposicion 3.4.6), por lo tanto solo
probaremos que (A). Podemos suponer que > 0, porque sino todo es facil. Denamos
entonces la matriz B MP
n
cuyas las son:
F
i
(B) =

tr F
i
(A)
F
i
(A) F
i
(A) para todo i I
n
.
De este modo, tr F
i
(B) = para todo i 1. En consecuencia, usando el Lema 11.1.6 y la
Proposicion 11.1.2, = (B) (A), ya que, por su construccion, 0 BA.
Lema 11.1.8. Sean A MP
n
y x > 0. Notemos y = Ax. Entonces se tiene que
= mn
iIn
y
i
x
i
(A) y = max
iIn
y
i
x
i
(A) .
Demostracion. Sea D = diag (x). Entonces, por cuentas elementales, obtenemos que
D
1
AD = (x
1
i
x
j
a
ij
)
ijIn
MP
n
.
218 Teora de Perron-Frobenius
Ademas (D
1
AD) = (A) (porque el espectro no cambia). Por otro lado,
tr F
i
(D
1
AD) = x
1
i
n

j=1
a
ij
x
j
=
(Ax)
i
x
i
=
y
i
x
i
.
Luego basta aplicar el Lema 11.1.7.
Teorema 11.1.9. Sea A MP
n
y jemos un vector x > 0.
1. Dados , R, se tiene que
xAx = (A) y Axx = (A) .
2. Si x es un autovector de A (y es x > 0), entonces Ax = (A)x.
Demostracion. La primera parte se deduce inmediatamente del Lema 11.1.8. Supongamos
que Ax = x. Como Ax0, debe cumplirse que 0, en particular R. Luego se
verican las hipotesis de la primera parte con = = .
Observacion 11.1.10. En las condiciones del Teorema 11.1.9, tambien vale que
si A MP
n
y x > 0 , x < Ax = < (A) y Ax < x = (A) < .
En efecto, si en los Lemas 11.1.7 y 11.1.8 se toma estrictamente menor que los mnimos
correspondientes
0
, se obtiene <
0
(A). Lo mismo para .
Observacion 11.1.11. Sean A MEP
n
y x R
n
0. Notar que, si x0, entonces tiene
que valer que Ax > 0. Este hecho se usara reiteradas veces.
Corolario 11.1.12. Sean A MEP
n
, x R
n
0 y C tales que x0 y Ax = x.
Entonces = (A) y x > 0. Otra manera de decirlo es que si un autovector de A es no
negativo, en realidad deba ser positivo y corresponder al radio espectral.
Demostracion. Por la Observacion 11.1.11 sabemos que Ax > 0, y por ende x > 0. Entonces
se puede aplicar el Teorema 11.1.9.
Proposicion 11.1.13. Sean A MEP
n
y (A) un autovalor de modulo maximo, o sea
que [[ = (A). Dado un autovector y C
n
0 para , es decir que Ay = y, entonces:
[y[ > 0 y A[y[ = (A) [y[ .
Demostracion. Llamemos x = [y[. Por la desigualdad triangular, se tiene que
(A)x = [[x = [y[ = [Ay[ A[y[ = Ax.
11.1 Matrices de entradas positivas 219
Sea z = Ax (A)x0. Queremos mostrar que z = 0. Supongamos que eso no pasa.
Entonces, por la Observacion 11.1.11, tenemos que Az > 0. Si ahora llamamos
u = Ax , entonces Az = A(u (A)x) = Au (A)u > 0 .
Por lo tanto tenemos que u > 0 y Au > (A)u. Aplicando la Observacion 11.1.10, se obtiene
la contradictoria desigualdad (A) > (A). Dado que esta provino de suponer que z ,= 0,
ahora sabemos que z = 0 y por ende Ax = (A)x. Notar que, como Ax > 0, esto implica que
[y[ = x > 0.
Corolario 11.1.14. Si A MEP
n
, entonces
(A) (A) y existe un x R
n
tal que x > 0 y Ax = (A)x .
Proposicion 11.1.15. Sean A MEP
n
y (A) tales que [[ = (A). Si y C
n
0
cumple que Ay = y, entonces, existe [0, 2) tal que y = e
i
[y[, por lo que = (A).
Demostracion. Por la Proposicion 11.1.13 sabenos que A[y[ = (A)[y[. Ademas
[Ay[ = [y[ = (A)[y[ = A[y[ = [Ay[ .
Mirando las primeras coordenadas, tenemos que

iIn
A
1j
[y
j
[ =


iIn
A
1j
y
j

. Luego vale la
igualdad en la desigualdad triangular, y todos los y
j
deben apuntar para el mismo lado. O
sea que debe existir un [0, 2) tal que y
j
= e
i
[y
j
[ para todo j I
n
.
Corolario 11.1.16. Si A MEP
n
, entonces (A) es el unico autovalor de modulo maximo.
Corolario 11.1.17. Sea A MEP
n
. Entonces dimker(A(A)I) = 1.
Demostracion. Sean x, y ker(A (A)I). Probaremos que son linealmente dependientes.
Por la Proposicion 11.1.15 se puede suponer que x > 0 e y > 0. Sea = mn
iIn
x
i
y
i
, y denamos
z = x y. Como cada x
i
y
i
x
i

xi
yi
y
i
= 0, se tiene que z 0.
Dado que Az = (A)z, si sucesidese que z ,= 0, entonces se tendra que z > 0. Pero, si
tomamos un k I
n
tal que =
x
k
y
k
, entonces la coordenada k-esima de z debera ser nula.
Este absurdo proviene de suponer que z ,= 0. Por lo tanto, z = 0 y x = y.
El siguiente resultado, que describe el lmite de las potencias de una matriz A MP
n
que
cumple ciertas hipotesis, sera prontamente aplicado para probar el item 6 del Teorema de
Perron. Lo enunciaremos pidiendo lo esctrictamente necesario que debe cumplir A para que
la tesis pueda probarse. Esto complica su formulacion, pero igual es conveniente para poder
aplicarlo luego a matrices primitivas, en las que todas las hipotesis que pedimos se verican.
Proposicion 11.1.18. Sea A MP
n
con (A) = 1. Supongamos que A cumple que:
1. dimker(AI) = 1.
220 Teora de Perron-Frobenius
2. 1 (A) es el unico autovalor de modulo maximo.
3. Existen x, y R
n
tales que
x > 0 , y > 0 , x, y) = 1 , Ax = x y A
T
y = y .
Entonces, se tiene que A
m

m
xy
T
.
Demostracion. Llamemos L = xy
T
= (x
i
y
j
)
i,jIn
. Este L es, en realidad, el proyector
espectral asociado al 1 (A). Esto no lo probaremos ahora, pero es util tenerlo en cuenta
para entender las propiedades de L que veremos a continuacion:
1. L
2
= L. En efecto, L
2
= xy
T
xy
T
= xx, y) y
T
= xy
T
= L.
2. AL = LA = L. Esto se deduce de que Axy
T
= xy
T
= xy
T
A.
3. (AL)
m
= A
m
L, para todo m N.
Para mostrarlo, razonemos por induccion sobre m. El caso m = 1 es trivial. Ademas,
(AL)
m+1
= (AL)(AL)
m
= (AL)(A
m
L) (por la HI)
= A
m+1
AL LA
k
+L = A
m+1
L L +L
= A
m+1
L .
4. (AL) 0 (A) 1. En particular, se tiene que (AL) < 1.
En efecto, sean C 0 y z C
n
0 tales que (AL)z = z. Entonces
Lz =
1

L(z) =
1

L(L A)z = 0 ,
por que en 1 y 2 vimos que L(L A) = 0. Luego Az = z y por lo tanto (A). Si
tuvieramos que = 1 = (A), entonces x Gen z (recordar que dimker(AI) = 1),
lo que nos dira que (A L)x = x. Pero Ax = x y Lx = xy
T
x = x. En consecuencia
uno tendra que (AL)x = 0 = x, lo que no vale.
5. Como el unico (A) con [[ = 1 es = 1, se tiene que (A L) < 1. Entonces el
Corolario 3.4.9 sirve para armar que A
m
L = (AL)
m

m
0.
Final de la demostraci on del Teorema de Perron
Recordemos el enunciado que escribimos al principio de la seccion:
Teorema de Perron 11.1.1. Sea A MEP
n
. Entonces se verica que
1. (A) > 0 y (A) (A).
11.1 Matrices de entradas positivas 221
2. Existe un x R
n
tal que x > 0 y Ax = (A)x.
3. Dado y R
n
0, si y 0 y Ay = y, entonces = (A) e y > 0.
4. (A) es raz simple del polinomio caracterstico de A.
5. Si (A) y ,= (A), entonces [[ < (A).
6. Si (A) = 1, entonces A
m

m
L = xy
T
, donde x, y R
n
son vectores tales que
x > 0 , y > 0 , x, y) = 1 , Ax = x y A
T
y = y .
Demostracion. Los items 1 y 2 fueron vistos en los Corolarios 11.1.3 y 11.1.14. El item 3 se
probo en el Corolario 11.1.12. El item 5 es el Corolario 11.1.16. El item 6 se deduce de la
Proposicion 11.1.18. Observar que ya hemos visto (aqu se usa el Corolario 11.1.17) que si
A MEP
n
, entonces A cumple las tres condiciones que pide la Proposicion 11.1.18.
Solo falta vericar el item 4, que dice que (A) es raz simple de P
A
(x) = det(xI A) C[x].
Con las notaciones del resto del libro esto signica que, si tomamos el vector (A) C
n
de
autovalores de A (que cuenta las multiplicidades como raices de P
A
) con un orden en el que
los modulos decrezcan, entonces
1
(A) = (A) pero [
2
(A)[ < (A) (aca se usa el item 5).
Supongamos, sin perdida de generalidad, que (A) = 1. Apliquemosle a A el Teorema 1
de Schur 1.6.1, considerando en (A) el orden mencionado. Luego tendremos U |(n) y
T T o(n) tales que U

AU = T y d (T) = (A). Por otra parte,


T
m
= U

A
m
U
m
U

LU = M .
Observar que todos los T
m
T o(n), por lo que tambien M T o(n). Ademas, se tiene que
rk M = rk L = 1. Sin embargo, como T T o(n), sabemos que
(T
m
)
ii
= (T
ii
)
m
=
i
(A)
m
para todo i I
n
y todo m N .
Para cada i I
n
tal que
i
(A) = 1, podemos deducir que M
ii
= 1. Al estar M T o(n),
es facil ver que su rk sera, por lo menos, el n umero de unos que tenga en la diagonal. Como
sabemos que rk M = 1, deducimos que tan solo
1
(A) = 1 y los demas tienen menor modulo
(porque sus potencias deben converger a cero), como se quera demostrar.
Denicion 11.1.19. Sea A MEP
n
. El unico vector x R
n
tal que
Ax = (A)x , x > 0 y tr x = 1 ,
se llamara vector de Perron de A.
222 Teora de Perron-Frobenius
11.2 Matrices de entradas no negativas
El Teorema de Perron falla en general si A MP
n
pero A ,> 0. Por ejemplo, si
A =
_
0 1
1 0
_
,
entonces A
m
= A o I, seg un m sea impar o par. Ademas, (A) = 1, 1. En este caso el
autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa si tomamos la matriz
B =
_
1 0
0 0
_
. Es mas, todas las partes del Teorema (salvo una) pueden hacerse fallar
tomando matrices diagonales de bloques adecuadas (Ejercicio). La que se salva es la siguiente:
Proposicion 11.2.1. Sea A MP
n
. Entonces
1. (A) (A).
2. Existe x R
n
0 tal que x0 y Ax = (A)x.
Demostracion. Sea E = 11
T
MEP
n
(todas las entradas de E son iguales a 1). Dado
> 0, tenemos que A

= A+ E MEP
n
. Por la Proposicion 11.1.2, si 0 <
t
< , entonces
(A) (A

) (A

).
Llamemos x

> 0 al vector de Perron de cada A

, normalizado para que tr x

= 1. Como
la bola de R
n
es compacta, se puede tomar una sucesion decreciente
m

m
0 tal que, si
llamamos A
m
= A
m
y x
m
= x
m
, entonces existen M R y x R
n
tales que
(A
m
)
m
M (A) y x
m

m
x0 .
Observar que tr x = 1, por lo que x ,= 0. Ademas, A
m
x
m
= (A
m
)x
m

m
Mx y, como
A
m

m
A, entonces A
m
x
m

m
Ax. Por lo tanto deducimos que Ax = Mx, con
M (A). Luego M = (A) y x0 es un autovector.
Matrices primitivas
Denicion 11.2.2. Sea A MP
n
. Diremos que A es una matriz primitiva si existe un
m N tal que A
m
MEP
n
.
Las matrices primitivas son casi tan buenas como las de MEP
n
. Veamos que cumplen el
Teorema de Perron tutti, que enunciamos por tercera vez.
Teorema 11.2.3. Sea A MP
n
una matriz primitiva. Entonces valen:
1. (A) > 0 y (A) (A).
11.2 Matrices de entradas no negativas 223
2. Existe un x R
n
tal que x > 0 y Ax = (A)x.
3. Dado y R
n
0, si y 0 y Ay = y, entonces = (A) e y > 0.
4. (A) es raz simple del polinomio caracterstico de A.
5. Si (A) y ,= (A), entonces, [[ < (A).
6. Si (A) = 1, entonces A
m

m
L = xy
T
, donde x, y R
n
son vectores tales que
x > 0 , y > 0 , x, y) = 1 , Ax = x y A
T
y = y .
Demostracion. Sea m N tal que A
m
> 0. Por el Corolario 1.7.2,
(A
m
) =
m
: (A).
Por el Teorema 11.1.1 aplicado a A
m
, concluimos que (A) = (A
m
)
1/m
> 0. Sea (A)
tal que [[ = (A) y sea y C
n
0 tal que Ay = y. Entonces
A
m
y =
m
y y [[
m
= (A
m
) =
m
= (A
m
) y A
m
y = (A
m
)y .
Por el Teorema 11.1.1 aplicado a A
m
, podemos deducir que alg un x Gen y cumple que
x > 0, y por ello = (A) y Ax = (A)x.
Ademas, cada
m
(A
m
) posee una multiplicidad en el polinomio caracterstico de A
m
mayor o igual que la de en el de A (esto se ve facil triangulando con el Teorema 1.6.1).
Por lo tanto (A) posee multiplicidad algebraica uno como autavalor de A. Razonamientos
similares permiten concluir que (A) es el unico autovalor de modulo maximo (item 5), y
tambien la condicion 3. Finalmente, con los items anteriores ya demostrados, estamos en
condiciones de asegurar que A cumple las hipotesis de la Proposicion 11.1.18, lo que prueba
el item 6.
Observacion 11.2.4. Dada una matriz A MP
n
, para saber si es primitiva hace falta
calcular muchas potencias A
m
hasta que caiga en MEP
n
. Obviamente hace falta un teorema
que diga hasta donde es necesario probar. Algo del tipo: Dado n N, existe un M(n) N
(que uno debera poder calcular) tal que toda A MP
n
que sea primitiva debe cumpir que
A
m
> 0 para alg un m M(n). Esta teora existe, y se calculan los M(n) optimos. Pero las
cuentas son muy complicadas y no las desarrollaremos aqu.
El lector interesado puede buscar data al respecto en el libro de Horn-Johnson [7]. Sin
embargo, con una hipotesis razonable (si A MP
n
cumple que d (A) > 0), sale mucho mas
facilmente que la constante M(n) = n1 sirve. Obsrvar que en tal caso, una vez que A
m
> 0,
eso sigue pasando para las potencias mayores (lo que no es cierto para todas las primitivas).
Esperen algunos renglones y veran.
224 Teora de Perron-Frobenius
Matrices irreducibles
Denicion 11.2.5. Sea A /
n
(C). Decimos que:
1. A es reducible si existe P |
1
(n), una matriz de permutacion, tal que
PAP
1
=
_
B C
0 D
_
k
n k
,
donde 1 k n1 y B /
k
(R). Otra manera de decirlo es que existe un J I
n
tal
que 1 [J[ < n (o sea que es propio) que cumpla que
A
_
Gen e
j
: j J
_
Gen e
j
: j J . (11.1)
Se dice que A es irreducible si no es reducible.
2. Denotemos momentaneamente por V
n
= (p, q) I
2
n
: p ,= q, al conjunto de pares de
ndices distintos en I
n
.
3. Decimos que un par (p, q) V
n
se conecta por A (o que A conecta p con q), si existen
p = i
0
, i
1
, . . . , i
m
= q en I
n
tales que a
i
k1
i
k
,= 0 para todo k I
m
.
Observar que se puede suponer que todos los i
k
son distintos entre s, porque si hubiera
repeticiones, una parte de la sucesion se podra borrar (los intermedios entre los dos
repetidos), quedando otra sucesion mas corta que seguira conectando a p con q. Por lo
tanto, puede suponerse que m n 1.
4. A es fuertemente conexa (FC) si todo par (p, q) V
n
se conecta por A.
Lema 11.2.6. Sea A MP
n
. Dado un par (p, q) V
n
, son equivalentes:
1. El par (p, q) se conecta por A.
2. Existe 1 m n 1 tal que la entrada (A
m
)
p q
> 0.
Demostracion. Basta notar que, como mostrara una induccion adecuada,
(A
m
)
p q
=
n

i1=1
n

i2=1

n

im1=1
a
p i1

kIm2
a
i
k
i
k+1
a
im1 q
,
y que todos estos terminos son no negativos. En caso de que alguno de esos sumandos no se
anule, les sacamos aquellos terminos que vivan en la diagonal de A, y nos queda una sucesion
que conecta p con q. Recordar que si A conectaba a (p, q), entonces existe alguna sucesion de
no mas de n ndices que los conecta.
Ejemplo 11.2.7. Ahorita vamos a ver que irreducible es lo mismo que FC (se lo enunciara
pra matrices de MP
n
, pero obviamente eso es irrelevante). Veamos una serie de ejemplos
donde se ve independientemente que pasa lo mismo: Sea A /
n
(C) tal que F
i
(A) = 0, para
11.2 Matrices de entradas no negativas 225
alg un i I
n
. Tomemos cualquier S
n
tal que (i) = n, y P

|
1
(n) su matriz asociada.
Por la Eq. (4.3), se tiene que F
n
(P

A) = 0. Como multiplicar del otro lado permuta solo sus


ceros, tambien vale que F
n
(P

AP
1

) = 0. O sea que A es reducible.


Veamoslo desde otro punto de vista: Si F
i
(A) = 0, entonces a i no se lo puede conectar con
ning un otro j I
n
i, porque todos los a
ik
son nulos. Luego A no es FC. Ya que estamos
dejamos un peque no ejercicio: A /
n
(C) es reducible si y solo si A
T
lo es. Por lo tanto, lo
anterior vale tambien para columnas nulas.
Proposicion 11.2.8. Sea A MP
n
. Entonces son equivalentes:
1. A es irreducible.
2. A es FC.
3. (I +A)
n1
> 0.
4. I +A es primitiva.
En particular se tiene que, si A es primitiva, entonces es irreducible y FC.
Demostracion. 2 3: Por el Lema anterior, es claro que 3 implica 2, porque conectar por A
es lo mismo que conectar por I +A, dado que los elementos de la diagonal no se usan para las
conexiones. Recprocamente, por el teorema del binomio de Newton, se tiene que (I +A)
n1
es combinacion lineal, a coecientes positivos, de las potencias A
k
, 0 k n 1. Luego, si
A es FC, el Lema 11.2.6 asegura que todas las entradas de (I +A)
n1
(afuera de la diagonal)
deben ser estrictamente positivas. Ademas, (I +A)
n1
I
n1
= I.
1 2: Si A no es FC, existe un par (p, q) V
n
que no se conecta por A. Sean
J
1
= i I
n
p : A conecta al par (p, i) p y J
2
= I
n
J
1
.
Entonces p J
1
y q J
2
, por lo que ambos son no vacos. En particular, a
ij
= 0 si i J
1
y
j J
2
(sino el par (p, j) sera conectado por A, pasando por i). Si reordenamos I
n
poniendo
primero a J
2
y luego a J
1
, encontraremos una matriz P |
1
(n) de permutacion tal que
PAP
1
=
_

0
_
J
2
J
1
.
3 4: Obvio.
4 1: Si A es reducible, sea P |
1
(n) tal que PAP
1
=
_
B C
0 D
_
. Entonces
P(I +A)
m
P
1
= (I +PAP
1
)
m
=
_

0
_
/ MEP
n
para todo m N .
Por lo tanto ning una potencia (I +A)
m
MEP
n
, o sea que I +A no es primitiva.
226 Teora de Perron-Frobenius
Teorema 11.2.9 (Teorema de Perron-Frobenius). Sea A MP
n
, y asumamos que A es
irreducible. Entonces se verica que
1. (A) > 0 y (A) (A).
2. Existe x > 0 tal que Ax = (A)x.
3. (A) es raz simple del polinomio caracterstico de A.
Demostracion. Como A es ireducible, el Ejemplo 11.2.7 nos dice que A no puede tener ninguna
la nula. Usando el Lema 11.1.7, tenemos que
(A) = mn
iIn
tr F
i
(A) > 0 .
Por otra parte, por la Proposicion 11.2.1, (A) (A) (para esto alcanza con el hecho de
que A MP
n
). Ademas, (I +A) = 1 + (A). Mas a un, por el Teorema 1 de Schur 1.6.1,
se tiene que (I +A) = 1 +(A) (contando multiplicidades, y en alg un orden). Por lo tanto
(I +A) = 1 +(A) (porque el maximo esta a la derecha y no en la tercera posicion). Como
I +A es primitiva, si denotamos por x al vector de Perron de I +A, entonces tenemos que
x > 0 y Ax = (I +AI) x = (1 +(A) ) x x = (A) x .
Por ultimo, la igualdad (I + A) = 1 + (A) dice que cada
i
(A) = (A) produce un

i
(I +A) = 1 +(A). Como de estos hay uno solo, sale el item 3.
A continuacion presentamos dos resultados sobre matrices irreducibles de MP
n
que son muy
utiles, pero que quedaron medio aislados:
Corolario 11.2.10. Sean A MP
n
irreducible y x R
n
0. Si se tiene que
x0 y Ax(A)x = x > 0 y Ax = (A)x .
Demostracion. Como A es irreducible, tambien A
T
lo es (porque?). Por el Teorema de
Perron-Frobenius existe un vector y > 0 tal que A
T
y = (A)y, o sea que y
T
A = (A)y
T
. Por
otra parte, sabemos que Ax (A)x0. Si sucediera que Ax (A)x ,= 0, entonces
y
T
> 0 = 0 < y
T
(Ax (A)x) = y
T
Ax (A)y
T
x = (A)y
T
x (A)y
T
x = 0.
Esta contradiccion nos convence de que Ax = (A)x. Usando lo anterior, el hecho de que
x > 0 puede deducirse ahora del Teorema de Perron-Frobenius.
Proposicion 11.2.11. Sean A, B MP
n
tales que A es irreducible y BA. Si ademas
asumimos que B ,= A, entonces (B) < (A).
Demostracion. La Proposicion 11.2.1 nos dice que existe un x R
n
0 tal que x0 y
Bx = (B)x. Supongamos que (B) = (A). En tal caso, por el Corolario 11.2.10,
x0 y AB = AxBx = (B)x = (A)x = Ax = (A)x y x > 0 .
Por lo tanto Ax = (A)x = (B)x = Bx, o sea que (A B)x = 0. Sin embargo, esto es
imposible porque A ,= B, A B0 y x > 0. La contradiccion provino de suponer que
(B) = (A). Luego (B) < (A).
11.2 Matrices de entradas no negativas 227
Observacion 11.2.12. Sea A MP
n
una matriz irreducible. En este caso, (A) no es,
necesariamente, el unico autovector de modulo maximo. En efecto, tomando
A =
_
0 1
1 0
_
, se tiene que A es irreducible porque I +A > 0, pero (A) = 1, 1 .
En general, puede verse que los otros autovalores de modulo maximo en el (A) son los
siguientes:
1
(A) , . . . ,
k1
(A), donde los
i
son las races k-esimas de la unidad, para
cierto k n. En el caso anterior, k era 2. El lector interesado puede buscar mas informacion
al respecto en el libro de A. Benedek y R. Panzone [1], el de Horn y Johnson [7] o en los
siguientes ejercicios.
Ejercicio 11.2.13. Sea A MP
n
. Probar que:
1. A es primitiva si y solo si A es irreducible y (A) es el unico autovector de modulo
maximo de A.
2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A0),
entonces A es primitiva.
Ejercicio 11.2.14. Sean B /
n
(C) y A MP
n
una matriz irreducible.
1. Supongamos que [B[ A, (A) = (B) y = e
i
(B) es un autovalor de B de modulo
maximo. Entonces, existen n umeros reales
1
, . . . ,
n
tales que
B = e
i
D A D
1
donde D = diag
_
e
i1
, . . . , e
in
_
.
2. Supongamos que (A) = 1 y sea o =
1
, . . . ,
k
= (A) : [[ = 1.
(a) Pongamos que cada
j
= e
ij
(A). Probar que (A) e
ij
(A).
(b) Concluir a partir del item anterior que o es un grupo abeliano.
(c) Probar que o = G
k
= e
2ip
k
: p I
k
y que cada
p
o tiene multiplicidad
algebraica igual a uno.
(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor
de modulo maximo, o bien A posee n autovalores distintos.
Ejemplo 11.2.15. Sea J
n
/
n
(R) el bloque de Jordan de tama no n n (con n 2). Es
decir que J
n
e
1
= 0 y J
n
e
k
= e
k1
, para 2 k n. Llamemos
A = J +J
T
=
_

_
0 1 0 0 .. .. .. 0
1 0 1 0 .. .. .. 0
0 1 0 1 .. .. .. 0
0 0 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
. 1 0 0
0 .. .. .. 1 0 1 0
0 .. .. .. 0 1 0 1
0 .. .. .. 0 0 1 0
_

_
H(n) ,
228 Teora de Perron-Frobenius
que act ua en R
n
por Ax = (x
2
, x
1
+x
3
, x
2
+x
4
, . . . , x
n2
+x
n
, x
n1
), x R
n
. No es difcil
vericar que A es irreducible, ya sea mostrando que (I +A)
n1
> 0, o viendo que satisface la
denicion de ser FC (con la diagonal de arriba si p < q y con la de abajo si q < p). Tambien
puede probarse que A (l (n) si y solo si n es par. Esta matriz es muy famosa y es, tal ves,
la primera matriz a la que se le calcularon todos los autovalores y autovectores. Esto lo hizo
Lagrange en 1759, para resolver un sistema de ecuaciones diferenciales ordinarias asociado al
problema de la cuerda que vibra. Sus autovalores son, en orden decreciente,

k
(A) = 2 cos
k
n + 1
, 1 k n ,
por lo que |A| = (A) = 2 cos

n+1
. Notar que
n
(A) =
1
(A), luego A no es primitiva.
Ademas, si n+1 = 2k (es decir, si n es impar), entonces
k
(A) = 2 cos /2 = 0, lo que prueba
lo antedicho. Los autovectores asociados son, respectivamente,
x
k
=
_
sen
k
n + 1
, sen
2k
n + 1
, . . . , sen
nk
n + 1
_
, 1 k n .
Notar que el unico con entradas positivas es x
1
, porque
n
n+1
no llego a un a . La vericacion
de lo anterior es tediosa pero elemental. Se basa en las formulas del seno y coseno de sumas
y restas, y en que sen( t) = sen t y cos( t) = cos t.
A es el prototipo de matriz tridiagonal o de Jacobi. En realidad cumple que I+A es totalmente
positiva, lo que justica (mas bien digamos que sugirio) las propiedades de sus autovalores y
autovectores, como se vera en el Captulo 13.
Veamos que Ax
1
=
1
(A)x
1
, lo que nos dira que (A) = 2 cos

n+1
y que x
1
es el vector de
Perron-Frobenius de A. En efecto, se tienen dos casos: para las entradas 1 y n:
A(x
1
)
1
= sen
2
n+1
= 2 cos

n+1
sen

n+1
y
A(x
1
)
n
= sen
(n1)
n+1
= cos

n+1
sen
n
n+1
cos
n
n+1
sen

n+1
= 2 cos

n+1
sen
n
n+1
.
Para las entradas 2 k n 1 se tiene que A(x
1
)
k
= (x
1
)
k+1
+ (x
1
)
k1
. Pero
(x
1
)
k+1
= sen
(k+1)
n+1
= cos

n+1
sen
k
n+1
+ cos
k
n+1
sen

n+1
y
(x
1
)
k1
= sen
(k1)
n+1
= cos

n+1
sen
k
n+1
cos
k
n+1
sen

n+1
.
Sumando se obtiene la formula buscada. Los n umeros c
m
= 2 cos

m
para m 3, que
aparececn como normas de las matrices anteriores, son muy importantes en varias ramas de
la matematica. Por ejemplo, aparecen en la teora del ndice de V. Jones. Tienen la siguiente
particularidad: Sea ^(Z) R el conjuntos de normas espectrales de matrices de cualquier
tama no (incluso rectangulares) con entradas en Z. Entonces
^(Z) (0, 2) = 2 cos

m
: m 3.
11.3 Ejercicios 229
Notar que realizamos todos estos valores con las matrices cuadradas anteriores. Sin embargo,
se los puede realizar con matrices mas peque nas. En efecto, si n = 2k, sea B /
k
(Z) dada
por B = I
k
+J
k
. Entonces la matriz

B =
_
0 B
B
T
0
_
H(n)
diere de la matriz A del principio solo en una reordenacion de la base canonica (poniendo
los pares primero y los impares al nal). Es decir que existe una matriz de permutacion
P |
1
(n) tal que PAP
1
=

B. Por lo tanto
|B| = s
1
(B) =
1
(

B) = |

B| = |A| = c
n+1
.
Por eso era que
nj+1
(A) =
j
(A) = s
j
(B), para todo j I
k
(ver Proposicion 3.7.5). Algo
similar puede hacecrse si n = 2k + 1, tomando B
t
= (B, e
k
) /
k, k+1
(Z).
11.3 Ejercicios
Ejercicios que aparecen en el texto
11.3.1. El Teorema de Perron falla en general si A0 pero A ,> 0. Por ejemplo, si
A =
_
0 1
1 0
_
,
entonces A
m
= A o I, seg un m sea impar o par. Ademas, (A) = 1, 1. En este caso
el autovector asociado al 1 es positivo estricto (es 1). Pero eso no pasa para la matriz
A =
_
1 0
0 0
_
. Es mas, todas las partes del Teorema (salvo una) pueden hacerse fallar
tomando matrices diagonales de bloques adecuadas
11.3.2. Sea A MP
n
. Probar que:
1. A es primitiva si y solo si A es irreducible y (A) es el unico autovector de modulo
maximo de A.
2. Si A es irreducible y semidenida positiva (o sea que A es irreducible, A 0 y A0),
entonces A es primitiva.
11.3.3. Sean B /
n
(C) y A MP
n
una matriz irreducible.
1. Supongamos que [B[ A, (A) = (B) y = e
i
(B) es un autovalor de B de modulo
maximo. Entonces, existen n umeros reales
1
, . . . ,
n
tales que
B = e
i
D A D
1
donde D = diag
_
e
i1
, . . . , e
in
_
.
230 Teora de Perron-Frobenius
2. Supongamos que (A) = 1 y sea o =
1
, . . . ,
k
= (A) : [[ = 1.
(a) Pongamos que cada
j
= e
ij
(A). Probar que (A) e
ij
(A).
(b) Concluir a partir del item anterior que o es un grupo abeliano.
(c) Probar que o = G
k
= e
2ip
k
: p I
k
y que cada
p
o tiene multiplicidad
algebraica igual a uno.
(d) Mostrar que si A es no singular y n es primo, entonces, (A) es el unico autovalor
de modulo maximo, o bien A posee n autovalores distintos.
11.3.4. Completar las pruebas de lo enunciado en la Observacion 11.2.15.
Ejercicios nuevos
11.3.5. Sean A /
n
(R) y x R
n
. Probar que:
1. Si A > 0 y x0, pero x ,= 0, entonces Ax > 0.
2. Si A0 y x > 0, entonces Ax = 0 A = 0. Mas a un, (Ax)
k
= 0 F
k
(A) = 0.
3. Si A > 0 y es inversible, entonces A
1
/ MP
n
.
4. Si A0 y es inversible, entonces A
1
0 A tiene exactamente una entrada no
nula por columna.
11.3.6. Si A MP
n
posee un autovalor positivo, probar que A es similar a una matriz de
MP
n
tal que la traza se sus las es constante. Cual es esa constante?.
11.3.7. Sea A MP
n
. Demostrar que
(A) = max
x>0
mn
iIn
1
x
i
n

j=1
a
ij
x
j
= mn
x>0
max
iIn
1
x
i
n

j=1
a
ij
x
j
.
11.3.8. Sea A MP
n
. Probar que
lim
m
_
tr F
i
(A
m
)
_
1/m
= (A) para cualquier i I
n
.
11.3.9. Sea A /
n
(R) tal que las entradas fuera de la diagonal de A son no negativas
1
.
Mostrar que A posee un autovalor real r(A) tal que r(A) Re() para todo (A).
11.3.10. Sean S
n
y P

|
1
(n) MP
n
su matriz asociada. Decir que debe cumplir
para que P

sea irreducible. Se recomienda mirar la Eq. (11.1). De paso, calcular (P

).
11.3.11. Probar que si A es una matriz doble estocastica reducible, entonces existe una
permutaci on P

|
1
(n) tal que
P

AP
1

=
_
A
1
0
0 A
2
_
.
1
estas matrices se conocen con el nombre de esencialmente no-negativas.
Captulo 12
Complementos de Schur y
determinantes
12.1 Notaciones y deniciones
Recordemos las notaciones asociadas a submatrices vistas en Captulos anteriores:
1. Sea n N y k I
n
. Notamos por Q
k,n
al conjunto de sucesiones estrictamente crecientes
de k enteros elegidos en I
n
:
Q
k,n
=
_
= (
1
,
2
, ,
k
) I
k
n
: 1
1
<
2
< <
k
n
_
.
Otra manera de verlo es Q
k,n
=
_
J I
n
: [J[ = k
_
, si pensamos a los conjuntos J
ordenados en forma creciente. Luego [Q
k,n
[ =

n
k

.
2. Dado Q
k,n
, denotaremos por
t
= I
n
Q
nk ,n
a su complemento (ordenado
convenientemente).
3. Sean A /
n,m
(C), Q
k,n
y Q
r,m
. Entonces denotaremos por A[[] a la
submatriz de k r de A dada por
A[[] =
_
A
ij
_
(i,j)I
k
Ir
/
k, r
(C) .
Llamaremos A([) = A[
t
[
t
] /
nk , mr
(C) . Analogamente se denen
A[[) = A[[
t
] /
k , mr
(C) y A([] = A[
t
[] /
nk , r
(C) .
4. Cuando = , A[[] se abreviara como A[] y A([) = A(). Si = I
n
(resp.
= I
m
), notaremos A[[] = A[[] (resp. A[[] = A[[]).
232 Complementos de Schur y determinantes
5. Dadas A /
n,r
(C) y B /
r,m
(C) , sea k mnn, r, m. Luego, para cada par
Q
k,n
, Q
k,m
se tiene la formula de Cauchy Binnet para AB:
det (AB)[[] =

Q
k,r
det A[[] det B[[] . (12.1)
6. Dada Q
k,n
, usaremos la abreviacion:
e

= e
(n)

:= e
(n)
1
e
(n)
2
e
(n)

k

k
H
n
.
Luego, por la multilinealidad de la funcion H
k
n
(x
1
, . . . , x
k
) x
1
x
k
(ver 7.2.1,
item 3 y Denicion 7.3.4), y por la Eq. (7.18), el conjunto
c

k,n
=

k! e

: Q
k,n

es una base ortonormal de


k
H
n
, y se la llama base canonica. Por lo tanto, tenemos
que dim
k
H
n
= [Q
k,n
[ =

n
k

.
El complemento de Schur
Denicion 12.1.1. Sea A /
n
(C), k I
n
y , Q
k,n
.
1. Supongamos que A[[] es inversible. En tal caso denimos el complemento de Schur
de A[[] en A, como la matriz
A/[[] = A([) A([] A[[]
1
A[[) /
nk
(C) , (12.2)
indexada por
t
y
t
.
2. Si = , escribiremos A/ en lugar de A/[[].
Observacion 12.1.2. Sean A /
n
(C)
+
y Q
k,n
. Si A[] (l (k)
+
y consideramos el
subespacio o = Gen e
j
: j / , entonces el Corolario 3.8.9 dice que
_
A/ 0
0 0
_
o
o

=
_
A() A([] A[]
1
A([]

0
0 0
_
o
o

= (A, o) .
Denicion 12.1.3. Sea Q
k,n
.
1. Llamaremos tr =
k

i=1

i
.
2. Llamaremos sgn() al signo de la permutacion

S
n
dada por

(
i
) = i para i I
k
,
y

(
t
j
) = k +j para j I
nk
. Es decir que

pone a los buenos al principio y a los


malos al nal, preservando sus ordenes. Por lo tanto,
sgn() =
k

i=1
(1)
ii
= (1)
r
, con r = tr
k(k + 1)
2
. (12.3)
12.1 Notaciones y deniciones 233
En efecto, se puede ver que

= (k, . . . ,
k
) . . . (2, . . . ,
2
)(1, 2, . . . ,
1
),
donde (a
1
, . . . , a
r
) denota al r-ciclo asociado. Esto se deduce de que el primer ciclo (que
consta de
1
1 trasposiciones) manda
1
al lugar 1. El segundo (que consta de
2
2
trasposiciones) manda
2
al lugar 2 (observar que (1, 2, . . . ,
1
) no movio a
2
) y deja
a
1
en el lugar 1. Se sigue as hasta mandar
k
al lugar k . Lo demas (los valores
que toma en
t
) queda armado para producir la permutacion

, porque se mantuvo
su orden interno, y van a donde deben ir. Por ejemplo, los ndices 1, . . . ,
1
1 estan
en
t
(si
1
> 1) y se corren un lugar a la derecha por el primer ciclo. Luego, los
lugares 2, . . . ,
2
1 estan ocupados por mas elementos de
t
y se vuelven a corren
con el segundo ciclo (manteniendo su orden original). Luego de aplicar los k ciclos,
quedan todos los de
t
ordenaditos y al nal.
3. Sea T

|
1
(n), la matriz de permutacion asociada a

, dada por
_
T

e
i
= e
i
si i = 1, . . . , k
T

e
k+j
= e

j
si j = 1, . . . n k .
(12.4)
Tenemos entonces que det T

= sgn(

) = sgn().
El siguiente resultado generaliza la Proposicion 3.8.7 y el Corolario 3.8.9 a matrices y bloques
cualesquiera (siempre que sean cuadrados).
Teorema 12.1.4. Sean A /
n
(C), k I
n
y , Q
k,n
. Se tiene que
A[[] (l (k) = det A = sgn() sgn() det A[[] det A/[[] . (12.5)
Si tambien A (l (n), entonces A/[[] (l (n k) y
_
A/[[]
_
1
= A
1
([) . (12.6)
Demostracion. Empecemos con el caso particular = = I
k
. En este caso, se puede aplicar
una argumento igual al de la prueba de la Proposicion 3.8.7, que mostraremos brevemente:
Un calculo elemental prueba que A admite la factorizacion
A =
_
I
n
[] 0
A([]A[]
1
I
n
()
_ _
A[] 0
0 A/
_ _
I
n
[] A[]
1
A[[)
0 I
n
()
_
. (12.7)
A partir de esto podemos deducir sin problemas la Eq. (12.5), porque los factores de la
derecha y de la izquierda en el lado derecho de Eq. (12.7) tienen determinante 1, mientras
que el factor central tiene determinante igual a det A[] det(A/). Tambien, Eq. (12.6) es
consequencia de la Eq. (12.7), tomando inversas de ambos lados.
234 Complementos de Schur y determinantes
Para probar el caso general, consideremos las matrices T

, T

denidas en Eq. (12.4). Llame-


mos B = T
1

AT

. Usando la Eq. (12.4) vemos que, como matrices de sus tama nos,
B[I
k
] = A[[] , B(I
k
) = A([) , B(I
k
[I
k
] = A([] y B[I
k
[I
k
) = A[[) . (12.8)
Mostraremos la primera igualdad de la Eq. (12.8), ya que las demas se muestran de manera
analoga: dados i, j I
k
, tenemos que
B[I
k
]
ij
= (T
1

AT

)[I
k
]
ij
=

T
1

AT

e
j
, e
i
_
= AT

e
j
, T

e
i
)
=

Ae
j
, e
i
_
= A
ij
= A[[]
ij
.
Observar que las igualdades de (12.8) aseguran que B/[I
k
] = A/[[] . Luego
sgn() sgn() det A = det B = det B[I
k
[I
k
] det B/[I
k
[I
k
] = det A[[] det A/[[] ,
ya que det T

= sgn(). Finalmente, la Eq. (12.6) resulta de la relacion:


A
1
([) = (T
1

A
1
T

)(I
k
) = B
1
(I
k
) =
_
B/[I
k
]
_
1
=
_
A/[[]
_
1
.
En el siguiente enunciado veremos que toda matriz A /
n
(C) puede ser aproximada tanto
como se quiera por matrices tales que todas sus submatrices cuadradas son inversibles. Esto
sera usado para obtener varias identidades de determinantes a partir del Teorema 12.1.4.
Lema 12.1.5. Dada A /
n
(C) y > 0, existe B /
n
(C) tal que
1. |AB| < , donde | | es una norma en /
n
(C).
2. Todas las submatrices cuadradas de B son inversibles.
Demostracion. La cantidad total de submatrices cuadradas de A es M =
n

k=1

n
k
2
. Consider-
emos la funcion : /
n
(C) C
M
que asigna a cada B /
n
(C) la lista de los determinantes
de todas sus submatrices cuadradas, en alg un orden prejado. Notar que es una funcion
continua. Llamemos
=
1
_
_
a C
M
: a
i
,= 0 para todo i I
M
_
_
.
Para probar el Lema, basta ver que es denso en /
n
(C). Llamemos, para cada i I
M
,

i
=
1
_
_
a C
M
: a
i
,= 0
_
_
.
Es claro que todos estos conjuntos son abiertos y que =
M

i=1

i
. Por otra parte, cada
i
es denso en /
n
(C), porque (l (k) es denso en /
k
(C) para todo k N. Por ejemplo, si
(A)
1
= det A, entonces
1
= (l (n). El resultado se sigue de que una interseccion nita de
abiertos densos es densa. En efecto, si U y V son abiertos densos y Z es abierto, entonces
Z U es un abierto no vaco. Entonces (Z U) V = Z (U V ) ,= para todo abierto Z.
Por lo tanto U V es denso. Por induccion, quien dice 2, dice M.
12.2 Identidades asociadas a determinantes 235
12.2 Identidades asociadas a determinantes
Teorema 12.2.1 (Identidad de Jacobi). Sea A (l (n). Entonces
det A
1
[[] = sgn() sgn()
det A([)
det A
, para todo par , Q
k,n
. (12.9)
Demostracion. Se sigue de las ecuaciones (12.6) y (12.5), aplicadas a
t
y
t
:
det A
1
= sgn() sgn() det A
1
[[] det A
1
/[[] =
= det A
1
[[] =
sgn() sgn()
det A
(det A
1
/[[])
1
=
sgn() sgn()
det A
det A([) ,
lo que culmina la prueba.
Observacion 12.2.2. Cuando k = 1, la Eq. (12.9) induce la identidad:
(A
1
)
ij
= (1)
i+j
det A(j[i)
det A
, i, j I
n
, (12.10)
conocida como la regla de Cramer.
12.2.3. Sean J
n
= diag
_
1, 1, 1, 1, . . . , (1)
n1
_
|(n), y , Q
k,n
. Luego
det J
n
[[] =

sgn()(1)
k(k1)
2
,
donde
,
= 1 o 0 de acuerdo a si = o ,= . En efecto, si ,= , en J
n
[[] hay una
columna de ceros, y por lo tanto su determinante es cero. Cuando = tenemos que, si p

denota al n umero de elementos pares de , entonces


p

i=1
(
i
1) = tr k (modulo 2) .
Luego
det J
n
[] = (1)
p
= (1)
tr k
= sgn() (1)
k(k+1)
2
k
= sgn()(1)
k(k1)
2
,
lo que culmina la prueba. Si A (l (n), suele notarse A
#
= J
n
A
1
J
n
a la llamada inversion
de A. La siguiente igualdad se sigue de la Eq. (12.9), usando (12.1) (Cauchy-Binnet):
det(J
n
A
1
J
n
)[[] =
det A([)
det A
para , Q
k,n
, (12.11)
dado que det J
n
[] sgn() = det J
n
[] sgn() = (1)
k(k1)/2
.
236 Complementos de Schur y determinantes
12.2.4. La siguiente igualdad es valida para toda A /
n
(R): dados , Q
k,n
,

Q
k,n
sgn() det A[[] det A([) =
,
sgn() det A . (12.12)
De hecho, cuando A es inversible, por Eq. (12.9), el lado izquierdo de la Eq. (12.12) da
sgn() det A

Q
k,n
det A[[] det A
1
[[] = sgn() det A det I
n
[[] ,
por la formula de Cauchy Binnet (12.1). El caso no inversible se deduce por continuidad.
Observar que, tomando k = 1, y jando cualquier r I
n
como = , nos queda el algoritmo
usual propuesto en el Ejercicio 7.5.11 (y usando n veces) desarrollando por la la r:
det A =

iIn
sgn r sgni A
r,i
det A(r[i) =

iIn
(1)
r+i
A
r,i
det A(r[i) . (12.13)
El desarrollo por columnas sale aplicando esto a A
T
.
12.2.5. Dados , Q
k,n
y, ademas, , Q
l,n
tales que
t
,
t
, sean
= = (
1
,
2
, . . . ,
k+l
) y = = (
1
,
2
, . . . ,
k+l
) Q
k+l,n
.
Existen entonces y Q
k,k+l
tales que
i
=
i
y
i
=
i
, i I
k
. Luego denimos
sgn


= sgn() = (1)
tr
k(k+1)
2
, sgn


= sgn() . (12.14)
Con estas notaciones, se tiene la siguiente version local del Teorema 12.1.4:
det A[[] det
_
(A/[[])[[]
_
= sgn


sgn


det A[ [ ] (12.15)
En efecto, consideremos la matriz B = (a
ij
)
i,jI
k+l
/
k+l
(R). Entonces vemos que Eq.
(12.15) coincide con Eq. (12.5) para B, , en lugar de A, , , respectivamente. De hecho,
como B = A[[] = A[ [ ], entonces B[[] = A[[] y, por otra parte,
B/[[] = B([) B([] B[[]
1
B[[)
= A([)[[] A([] A[[]
1
A[[)[[]
= (A/[[])[[] .
Una consecuencia inmediata es la siguiente caracterizacion de las entradas de un complemento
de Schur: Dados , Q
k,n
, se tiene
A/[[]
(

i
,

j
)
= sgn


t
i

sgn


t
j

det A[
t
i
[
t
j
]
det A[[]
(12.16)
12.2 Identidades asociadas a determinantes 237
Corolario 12.2.6. Sea A /
n
(R) y sea r I
n
tal que A
rr
,= 0. Entonces, para todo
Q
k,n
tal que r / , se tiene que
(A/[r])[] = A[r ]/[r] .
Todas esas letras signican que las submatrices principales de A/[r] solo dependen de las
entradas correspondientes de A (y no de las demas).
Demostracion. Dados i, j , la formula (12.16) asegura que
_
(A/[r])[]
_
ij
=
_
(A/[r]
_
ij
= sgn
r
i, r
sgn
r
j, r
det A[i, r[j, r]
A
rr
=
_
A[r ]/[r]
_
ij
,
por lo ambas matrices coinciden.
12.2.7 (Identidad de Sylvester). Dados A /
n
(R) y , Q
k,n
, se cumple que
det
_
_
det A[
t
i
[
t
j
]
_
i,jI
nk
_
= det A det A[[]
nk1
(12.17)
Para probarlo, tomemos los n umeros

i
= sgn


t
i

y
j
= sgn


t
j

, para todo i, j I
nk
.
Por la Eq. (12.16), vemos que el lado izquierdo de la Eq. (12.17) es igual a
det
_
det A[[] (A/[[])
ij

i

j
_
=
det A[[]
nk
det
_
diag(
1
, . . . ,
nk
) A/[[] diag(
1
, . . . ,
nk
)
_
=
det A[[]
nk1
det A[[] det(A/[[])
nk

i=1
sgn


t
i


nk

i=1
sgn


t
j

.
La formula (12.17) se sigue ahora de la Eq. (12.5) y del siguiente resultado:
Lema 12.2.8. Sea Q
k,n
. Entonces
nk

i=1
sgn


t
i

= sgn() . (12.18)
238 Complementos de Schur y determinantes
Demostracion. Recordemos la denicion de los signos de y de

i
]
, para cada entrada
i I
nk
. En ambos casos, es calcular el signo de la permutacion que manda a los buenos
al principio y los malos al nal. En otras palabras, estan determinados por la cantidad
de trasposiciones necesarias para efectuar tales ordenamientos. Pero miremos el siguiente
proceso: empezamos por el ultimo elemento de
t
y lo corremos hasta el nal (si no estaba
all). Al pen ultimo, lo corremos hasta justo despues de
k
. Y seguimos as con todos los de

t
hasta llegar al primero. El n umero de trasposiciones en cada paso es justo el que determina
el correspondiente sgn

i
]
, porque los
j
que tiene arriba quedaron pegados entre s, al
haber sacado antes los de
t
mayores que
t
i
. Pero al nal de todo mandamos prolijamente
a todo
t
hasta el nal, por lo que la suma total da el sgn().
Observacion 12.2.9. La prueba anterior es un poco charlada, pero creanme que ustedes
lo preferiran as, antes que tener que leer una cuenta explcita. Igual daremos una version
guiada de esa cuenta en los ejercicios. Como aval de la prueba anterior, se vera all que
la suma de los exponentes de la productoria de (12.18) da igual (y no solo congruente) al
exponente de 1 en sgn(), seg un las Eqs (12.3) y (12.14).
12.3 Un poco mas de complementos de Schur
Recordemos que, si A /
n
(C), k I
n
y , Q
k,n
satisfacen que A[[] es inversible, el
complemento de Schur A[[] en A es la matriz
A/[[] = A([) A([] A[[]
1
A[[) /
nk
(C) ,
indexada por
t
y
t
. Llamemos C

= Gen e
j
: j
t
y C

= Gen e
k
: k . Rep-
resentemos C
n
= C

, poniendo que un vector C


n
x = x

+ x

. Analogamente
C
n
= C

. Observar que A[[] opera desde C

hacia C

, lo que denotaremos
A[[] : C

. Por lo tanto A[[]


1
: C

. Los otros cachos de A operan en


forma coherente, por ejemplo A[[) : C

y as. Con estas notaciones, podemos


pensar que A/[[] : C

.
Proposicion 12.3.1. Sea A /
n
(C) y supongamos que A[[] es inversible para ciertos
, Q
k,n
. Denamos
P(A, , ) /
n
(C) dado por P(A, , ) x = x

A[[]
1
A[[) x

,
para x = x

+x

C
n
. Entonces, si abreviamos P(A, , ) = P, se tiene que
1. P
2
= P.
2. ker P = Gen e
j
: j = C

.
3. (AP)([) = A/[[] y las demas coordenadas de AP son nulas.
12.3 Un poco mas de complementos de Schur 239
Demostracion. Observar que Px = Px

y que A[[]
1
A[[) x

para todo x C
n
.
Por ello es claro que P
2
= P y que ker P = C

, porque los sumandos que denen a P no


intereren entre s, por lo que nunca se anula en C

0.
De lo anterior, deducimos que si x = x

, entonces APx = 0. Esto dice que (AP)[[] y


(AP)([] son matrices nulas, porque son las partes de AP que act uan en C

y van a lugares
que no intereren entre s. Por lo tanto, para cualquier x C
n
, se tiene que
APx = APx

=
_
A([) +A[[)


_
A([] +A[[]

A[[]
1
A[[) x

=
_
A([) A([]A[[]
1
A[[)
_
x

= A/[[] x

.
Esto muestra que (AP)[[) 0 y que (AP)([) = A/[[].
Corolario 12.3.2. Sean A /
n
(C) y , Q
k,n
tales que A[[] es inversible.
1. Para todo x

existe un x

tal que A/[[] x

= A(x

+x

) .
2. Sea Q /
n
(C) tal que
Q
2
= Q , ker Q = C

y R(A Q) C

. (12.19)
Entonces se tiene que Q = P(A, , ).
Demostracion. Sea P = P(A, , ) la proyeccion de la Proposicion 12.3.1. Luego
A/[[] x

= APx

= Ax

A
_
A[[]
1
A[[) x

_
.
Luego basta tomar x

= A , A[[]
1
A[[) x

. Si me dan ahora un Q que cumple (12.19),


entonces Q
2
= Q y ker Q = C

. Luego, como en el Ejercicio 3.9.19, se puede ver que


Qx = Qx

= x

+Q[, )x

, para todo x = x

+x

C
n
.
El hecho de que R(AQ) C

indica que (AQ)[[) = 0. De lo anterior, uno deduce que


0 = (AQ)[[) = A[[) +A[[]Q[, ) = A[[]Q[, ) = A[[) .
Como A[[] es inversible, tenemos que Q[, ) = A[[]
1
A[[), o sea que Q = P.
El siguiente teorema es un resultado analogo a la Proposicion 3.8.5.
Teorema 12.3.3. Sea A /
n
(C) y supongamos que A[[] es inversible para ciertos ,
Q
k,n
. Sean , Q
r,n
, tales que
t
y
t
. Entonces
1. (A/[[])[[] (l (r) si y solo si A[ [ ] (l (k +r).
2. En este caso se cumple la siguiente igualdad de matrices:
_
A/[[]
_
/[[] = A/[ [ ] . (12.20)
240 Complementos de Schur y determinantes
Demostracion. El item 1 se deduce en forma inmediata de la Eq. (12.15). Por la Proposicion
12.3.1, tenemos tres proyectores: P(A, , ), P(A/[[], , ) y P(A, , ) tales que
A/[[] = A P(A, , ) , A/[ [ ] = A P(A, , ) y
_
A/[[]
_
/[[] = A/[[] P(A/[[], , ) = A P(A, , ) P(A/[[], , ) , (12.21)
salvo los ceros. Ahora bien, ker P(A, , ) = C

, mientras que A/[[] opera solo en C

por lo que, si pensamos a P(A/[[], , ) /


n
(C) con ceros fuera de
t
, se tiene que
ker P(A/[[], , ) = C

. En particular, como C

, se tiene que
P(A/[[], , )
_
I P(A, , )
_
= 0 = P(A/[[], , )P(A, , ) = P(A/[[], , )
y la matriz Q = P(A, , ) P(A/[[], , ) /
n
(C) cumple que
Q
2
= Q , ker Q = C

y R(A Q) C
()

, (12.22)
donde igualdad del medio es un ligero ejercicio, y la ultima inclusion surge de que, como dice
la Eq. (12.21), se tiene que
_
A/[[]
_
/[[] = AQ. Ahora, la Eq. (12.22) asegura, va el
Corolario 12.3.2, que Q = P(A, , ), por lo que
_
A/[[]
_
/[[] = AQ = A/[ [ ] .
Observacion 12.3.4. Otra forma de probar la formula (12.20), con tecnicas mas parecidas a
las del resto de este Captulo, sera calculando las coordenadas como determinantes por medio
de las ecuaciones (12.15) y (12.16). En efecto, sean i ( )
t
y j ( )
t
, llamemos
= i y = j y obsevemos que, en el lado izquierdo de (12.20) tenemos
_
(A/[[])/[[]
_
i,j
= sgn

sgn

det(A/[[])[ [ ]
det (A/[[])[[]
=
det A[ [ ]
det A[ [ ]
, donde
= sgn

sgn

sgn

sgn

sgn

sgn

.
La misma entrada del lado derecho de (12.20) es igual a
_
A/[ [ ]
_
ij
= sgn

sgn

det A[ [ ]
det A[ [ ]
.
Por lo tanto, ambas matrices tienen todas sus coordenadas iguales, salvo los signos. Para ver
que ellos coniciden, bastara vericar que, para todo i ( )
t
y todo j ( )
t
,
= sgn

sgn

, donde = i y = j . (12.23)
Esto sale usando la Eq. (12.14) y un sinn umero de cuentas que, con gran alegra, le dejamos
al lector interesado como ejercicio.
12.4 Ejercicios 241
12.4 Ejercicios
Ejercicios que aparecen en el texto
12.4.1. Completar los detalles de la prueba de la Eq. (12.3).
12.4.2. Dar una prueba numerica de la Eq. (12.18). Es decir: Dada Q
k,n
probar que
nk

i=1
sgn

i
]
= sgn() . Se suguieren los siguientes pasos:
1. Para cada i I
nk
, sea
i
Q
k,k+1
, denido como en 12.2.5 para y
t
i
.
Recordemos que en la Eq. (12.14) se vio que sgn

i
]
= sgn(
i
) = (1)
tr
i

k(k+1)
2
,
donde
i
S
k+1
manda
t
i
al nal de
t
i
. El tema es ver en que lugar de entre las
entradas de que ubicado el
t
i
. Pongamos, por conveniencia, que
0
= 0 y
k+1
= .
En tal caso, mostrar que
tr
i
=
(k + 2)(k + 1)
2
j , cuando se tiene que
j1
<
t
i
<
j
.
2. Deducir que sgn

i
]
= sgn(
i
) = (1)
kj+1
si
j1
<
t
i
<
j
.
3. Contemos cuantos hay de cada tipo: probar que
[i I
nk
:
t
i
<
1
[ =
1
1 , [i I
nk
:
k
<
t
i
[ = n
k
y
[i I
nk
:
j1
<
t
i
<
j
[ =
j

j1
1 cuando 2 j k .
4. Ahora s, calcular el exponente de la productoria:
nk

i=1
_
tr
i

k(k + 1)
2
_
=
k

j=1
(k j + 1)(
j

j1
1) + 0 (n
k
)
=
k

j=1

j

k

j=1
(k j + 1) = tr
k(k + 1)
2
.
5. Usando la Eq. (12.3), concluir la prueba de la formula (12.18).
12.4.3. Dar una prueba de la formula (12.20) basandose en el camino delineado en la Ob-
servacion 12.3.4. En otras palabras, probar la Eq. (12.23). Se sugieren dos caminos. El
primero es encontrar permutaciones que tengan esos signos y que hagan lo mismo, como en la
prueba del Lema 12.2.8. El segundo es contar todo a lo bestia, y mostrar que son congruentes
modulo 2. En ambos casos, se puede reducir el trabajo a probar dos identidades mas cortas
y similares, a saber: Dados Q
k,n
, Q
r,n
y = i, todos disjuntos,
sgn


sgn


sgn


= sgn


,
y lo mismo para , y . Por ejemplo, se puede mandar al nal, despues mandar a
al ultimo lugar, y despues volver a mezclar a con .
242 Complementos de Schur y determinantes
Ejercicios nuevos
Notacion: Sea A /
m,n
(C) tal que m > n y rk(A) = n.
1. Dado I I
m
con [I[ = r y dado b C
m
, denotaremos por b
I
al vector de C
r
que se
obtiene dejando solo las coordenadas de b que pertenecen a I.
2. J(A) := I I
m
: [I[ = n y det A[I] ,= 0. Observar que rk(A) = n = J(A) ,= .
12.4.4 (Ben Tal - Teboulle). Dada A /
m,n
(C) tal que m > n y rk(A) = n, sea c C
n
la
solucion del problema de cuadrados mnimos
mn
xC
n
|Ax b|
2
para un b C
m
jo .
Si para cada I J(A) denotamos c
I
= A[I]
1
b
I
, probar que c pertenece a la capsula convexa
de los c
I
. Se suguiere probar que c es la unica solucion de la denomina ecuacion normal
A

Ax = A

b.
Luego, usar la regla de Cramer y la formula de Cauchy-Binet.
Captulo 13
Matrices totalmente positivas
Este captulo esta basado en un trabajo de T. Ando [20], aparecido en 1987, y esta escrito
utilizando como punto de partida un trabajo de A. Iglesias. Las herramientas fundamentales
para las demostraciones son los intrincados resultados del Captulo anterior.
13.1 Deniciones y criterios de positividad total
En esta seccion introducimos las nociones de regularidad de signo y positividad total.
Denicion 13.1.1. 1. Llamaremos sucesion de signatura a una sucesion
= (
i
)
iN
1, 1
N
, es decir, tal que
i
= 1 para todo i N .
2. Dado R con [[ = 1, notaremos a la sucesion de signatura = (
i
)
iN
.
3. Si es otra sucesion de signatura, llamaremos = (
i

i
)
iN
.
Denicion 13.1.2. Sean A /
n,m
(R) y una sucesion de signatura. Sea r = mnn, m.
1. Decimos que A es de signo regular con signatura , y abreviaremos diciendo que A es
-RS si, en la base canonica c

k,n
=

k! e

: Q
k,n
de
k
H
n
, se tiene que

k

k
A0 para todo k I
r
, (13.1)
La regularidad de signo de A es equivalente a la condicion

k
a
1
a
2
a

k
0, para Q
k,m
k I
r
, (13.2)
o, por la Eq. (7.19), en forma de determinantes,

k
det A[[] 0 para Q
k,n
, Q
k,m
k I
r
, (13.3)
244 Matrices totalmente positivas
2. A se dice estrictamente de signo regular con signatura (A es -ERS) si, en la Eq. (13.1)
(o, equivalentemente, en la Eq. (13.2) o la Eq. (13.3)), reemplazamos por >.
3. Decimos que A es totalmente positiva (y abreviaremos TP) si es -RS respecto de la
sucesion 1, es decir, si

k
A0, k I
r
, (13.4)
o equivalentemente si
a
1
a
2
a

k
0, para Q
k,m
k I
r
, (13.5)
es decir, si
det A[[] 0 para Q
k,n
, Q
k,m
k I
r
. (13.6)
4. A se dice estrictamente totalmente positiva (ETP) si es reemplazado por > en las
ecuaciones (13.4), (13.5) o (13.6).
Para testear la regularidad de signo de A se requiere chequear los signos de un n umero muy
grande de determinantes. Pero si el rango de A es conocido, en particular si A es inversible,
el n umero necesario de determinantes a chequear puede ser considerablemente reducido. La
prueba de este resultado, que es bastante complicada, se posterga a un Apendice al nal
del Captulo. Esto se debe a que su aplicacion es clave en el desarrollo de la teora y la
construcci on de ejemplos, pero estas aplicaciones son de un grado mucho menor de dicultad.
Una ves apreciado el efecto devastador del siguiente Teorema, es probable que el lector afronte
con mayor entusiasmo la difcil lectura de su demostracion.
Denicion 13.1.3. Sea n N, k I
n
y Q
k,n
. La dispersion de es el n umero
d() =
k

1
(k 1) =

iI
k1

i+1

i
1 ,
con la convencion de que d() = 0 para los Q
1,n
. Observar que d() = 0 si y solo si las
entradas de son consecutivas, i.e.
i+1
=
i
+ 1 para todo i I
k1
.
Teorema 13.1.4. Sea A /
n,m
(R) con rk A = r, y sea una sucesion de signatura.
1. Para que A sea -RS, es suciente que las Eqs. (13.2) o (13.3) se veriquen en los casos
en que d() mr.
2. En particular, si las Eqs. (13.5) o (13.6) son validas en esos casos, A es TP.
Ahora pasemos a los criterios para la regularidad de signo estricta. El n umero de determi-
nantes se reduce a un mas. La prueba de este criterio tambien se dara en el Apendice.
Teorema 13.1.5. Sean A /
n,m
(R) y una sucesion de signatura.
1. Para que A sea -ERS es suciente que, para todo k I
mn(n,m)
,

k
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .
13.1 Deniciones y criterios de positividad total 245
2. En particular A es ETP si
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .
Ejemplo 13.1.6 (Vandermonde). Sea t = (t
1
, . . . , t
n
) R
n
. Se llama matriz de Vander-
monde de t a V (t) /
n
(R) dada por V (t)
ij
= t
j1
i
. O sea que
V (t) =
_

_
1 t
1
. . . t
n1
1
1 t
2
. . . t
n1
2
.
.
.
.
.
. . . .
.
.
.
1 t
n
. . . t
n1
n
_

_
. Es conocido que det V (t) =

i<j
(t
j
t
i
) . (13.7)
La prueba es un ejercicio tradicional de induccion (ver Ejercicio 7.5.12). Supongamos que
0 < t
1
< < t
n
. Entonces V (t) es ETP.
En efecto, observar en principio que V (t) (l (n). Luego, para probar que V (t) es ETP, el
Teorema 13.1.5 nos dice que basta ver que det V (t)[[ ] > 0 para los pares , Q
k,n
,
tales que d() = d() = 0. Si = (r + 1, r + 2, . . . , r + k) y llamamos t

= (t
1
, . . . , t

k
),
entonces se ve facilmente que
det V (t)[[ ] =
k

i=1
t
r
i
det V (t

) > 0 .
El argumento clave es que, gracias a que d() = 0, la submatriz V (t)[[ ] tiene en sus las,
potencias consecutivas de los t
i
, por lo que, dividiendo a cada la por V (t)[[ ]
i,1
= t
r
i
, se
obtiene la matriz V (t

) que es tambien una matriz de Vandermonde de una k-upla ordenada.


La positividad del determinante en este caso se deduce de la formula (13.7). Observar que la
ETPcidad se mantendra si uno inventara matrices de Vandermonde rectangulares (donde no
coincidan necesariamente el n umero de potencias y de n umeros t
i
) pero siempre pidiendo que
el vector t tenga entradas estrictamente crecientes.
Corolario 13.1.7. Una matriz A (l (n) triangular inferior es TP si det A[[1, 2, . . . , k] 0
para cada k I
n
y cada Q
k,n
.
Demostracion. Sea A triangular inferior. Como el rk A = n, de acuerdo al Teorema 13.1.4,
basta mostrar que detA[[] 0, para , Q
k,n
, con d() = 0. Si
1
<
1
, entonces
det A[[] = 0 por ser A triangular inferior. Si
1

1
, sea = 1, 2, . . . ,
1
1. Por ser
A triangular inferior, es claro que A[[] 0. Entonces, por hipotesis,
0 det A[ [1, 2, . . . ,
k
] = det A[ [ ]
= det A[] det A[[] =
11

i=1
a
ii
det A[[].
Aplicando la hipotesis a los conjuntos = I
r
, se obtiene que
r

i=1
a
ii
0 para todo r I
n
.
Pero como det A =
n

i=1
a
ii
,= 0, se sigue que detA[[] 0.
246 Matrices totalmente positivas
La prueba del Teorema 13.1.5, combinada con el Corolario 13.1.7, genera el siguiente criterio
alternativo:
Corolario 13.1.8. Sea A /
n
(R) triangular inferior. Entonces es TP si se verica que
det A[[1, 2, . . . , k] > 0 para cada k I
n
y cada Q
k,n
, con d() = 0.
Demostracion. Ejercicio (hace falta ver la prueba del Teorema 13.1.5).
Denicion 13.1.9. Una matriz A /
n
(C) es llamada una matriz de Jacobi (o tridiagonal )
si a
ij
= 0 siempre que [i j[ > 1.
Teorema 13.1.10. Sea A /
n
(R) una matriz de Jacobi. Supongamos que
1. A0.
2. Para todo k I
n
y Q
k,n
tal que d() = 0, se tiene que det A[] 0.
Entonces A es TP y, para cualquier t = (t
1
, t
2
, . . . , t
n
) R

n
+
,
det
_
A+ diag ( t )
_
det A+
n

i=1
t
i
. (13.8)
Demostracion. Por induccion en n. La armacion es trivial para n = 1. Supongmos que el
Teorema es valido para n 1 en lugar de n. Consideremos primero el caso en que det A > 0.
Por el Teorema 13.1.4, tenemos que chequear
det A[[] 0 , para , Q
k,n
con d() = 0.
Para k = n, esto es la hipotesis. Para k n1, usaremos la hipotesis inductiva, que asegura
que las matrices A(1) y A(n) son TP. Supongamos que 1 / . Si 1 / , entonces A[[]
es submatriz de A(1) y det A[[] 0. Si 1 , entonces la primera la de A[[] es
(a
1,1
, 0, . . . , 0). Luego
det A[[] = a
1,1
det A
_

2
, . . . ,
k
[
2
, . . . ,
k

0 ,
porque la ultima matriz tambien vive dentro de A(1). El analisis es similar si 1 , porque
en tal caso, como d() = 0, debe vericarse que n / , y puede usarse que A(n) es TP. Por
lo anterior, deducimos que A es TP en este caso (i.e., det A > 0).
Supongamos ahora que a
11
> 0 (es facil ver que este caso es suciente). Veamos que, en tal
caso, A/1 cumple las hipotesis del Teorema. En efecto, es facil ver que A/1 diere de
A(1) solo en la entrada 2, 2 (es decir la 1,1 si la numeraramos de corrido). Por lo tanto, dado
2, . . . , n con d() = 0, si 2 / entonces det (A/1[]) = det (A(1)[]) 0. Si 2 ,
por la Eq. (12.15) se tiene que
det (A/1[]) = det (A/1[2, 3, . . . , k]) =
det A[1, 2, . . . , k]
a
11
0 .
13.1 Deniciones y criterios de positividad total 247
La hipotesis inductiva nos asegura que A/1 es TP y
det
_
A/1 + diag(t
2
, . . . , t
n
)
_
det A/1 +
n

i=2
t
i
.
Por lo tanto, por el Teorema 12.1.4 y el hecho de que A0, se tiene que
det
_
A+ diag(t)
_
= (a
11
+t
1
) det
_
(A+ diag(t) )/1
_
= (a
11
+t
1
) det
_
A/1 + diag(t
2
+
a
12
a
21
a
11

a
12
a
21
a
11
+t
1
, . . . , t
n
)
_
a
11
det A/1 +
n

i=1
t
i
= det A+
n

i=1
t
i
.
Resta ver que A es TP. Para ello basta observar que, para todo > 0, la matriz A + I
tiene det(A + I)
n
> 0 y cumple las hipotesis del Teorema (para ambas cosas se usa la
formula (13.8), que fue probada para A, y vale para los los A[] con d() = 0 por la hipotesis
inductiva). Luego A+I es TP por el argumento del principio. Como estas matrices convergen
a A, ella tambien debe ser TP.
Corolario 13.1.11. Sea A /
n
(R) de Jacobi y TP. Entonces, dado t R
n
+
, se tiene que
A+ diag (t) es tambien TP.
Demostracion. Se sigue del Teorema 13.1.10, aplicado a las submatrices principales, que
A+ diag (t) es una matriz de Jacobi positiva con menores principales no negativos.
Corolario 13.1.12. Sea A /
n
(R) de Jacobi tal que A0. Entonces exite R tal que
I +A es TP.
Demostracion. Ejercicio.
Conclumos esta seccion con un teorema de aproximacion de una matriz TP con otras ETPs.
Teorema 13.1.13. Toda matriz -RS puede ser aproximadada arbitrariamente cerca por
matrices -ERS con la misma signatura. En particular, toda matriz TP puede ser aproximada
arbitrariamente cerca por matrices estrictamente TPs.
Demostracion. Sea A /
n,m
una matriz -RS. Podemos asumir que n = m, considerando
[A, 0] o [
0
A
] si es necesario. Como veremos en la Seccion 8, existe una sucesion G
p
de
matrices n-cuadradas ETPs tales que G
p

p
I
n
. Ahora procedamos por induccion hacia
atras en k = rk A. Notemos que la Eq. (7.17) implica

i

i
(G
p
AG
p
) > 0 si i rk A y
i
(G
p
AG
p
) = 0 si i > rk A . (13.9)
Esto se deduce de que, dadas matrices X, Y, Z /
n
(R) tales que X > 0, Z > 0 pero
0 ,= Y 0, entonces XY Z > 0. Cuando rk A = n, la armacion se sigue inmediatamente
248 Matrices totalmente positivas
de la Eq. (13.9). Asumamos que la armacion es cierta para todas las matrices regulares de
signo de rango k+1. Si rk A = k, tomemos un p para el que B := G
p
AG
p
esta sucientemente
cerca de A. De acuerdo a las ecuaciones (13.9) y (7.19), B tiene la propiedad

i
det B[[] > 0 para , Q
i,n
i I
k
. (13.10)
Sea
= mn
1ik
mn
_
[ det B[[][ : , Q
i,n
_
max
_
[ det B[[][ : , Q
i1,n
_ , donde det B[] = 1 .
Fijemos 0 < t < y consideremos la matriz C = B + t
k

k+1
E
11
. Dados , Q
r,n
,
desarrollando por la primera columna, se tiene que
det C[[] = det B[[] +t
k

k+1
det B[ 1[ 1] si 1 ,
y det C[[] = det B[[] en otro caso .
Para ver que C es -RS se consideran tres casos: submatrices de tama nos r k (ah se usa
que t < y el sumando extra no puede cambiar signos), r > k + 1 (ah da todo cero porque
rkB = rkA = k) o r = k +1. Por ejemplo, tomando , Q
k+1,n
tales que 1 , se ve
que
k+1
det C[[] > 0, porque det B[[] = 0 pero
k
det B[ 1[ 1] > 0, por la Eq.
(13.10). En particular, esto muestra que rk C = k + 1. Para t chicos, C esta sucientemente
cerca de B, y por lo tanto de A. Ahora, por hipotesis inductiva C puede ser aproximada
arbitrariamente cerca por matrices estrictamente regulares de signo con signatura . Esto
completa la induccion.
13.2 Permanencia de la positividad total
Esta seccion esta dedicada a metodos canonicos de produccion de matrices TP nuevas a partir
de otras dadas. Es claro que si A es de -RS, tambien lo es su adjunta A

= A
T
.
Teorema 13.2.1. Si A /
n,m
(R) es
A
-RS y B /
m,l
(R) es
B
-RS, entonces:
1. El producto AB es -RS, con =
A

B
.
2. En este caso, AB se convierte en -ERS si
(a) A es
A
-ERS y rk B = l, o si
(b) rk A = n y B es
B
-ERS.
3. Si A y B son ETP, tambien lo es AB.
Demostracion. Los tems 1 y 3 son consecuencia inmediata de las ecuaciones (7.17) o (12.1)
(Cauchy-Binnet). El tem 2 se deduce de los siguientes hechos:
* Si C > 0 y D0 no tiene columnas nulas (y se puede multiplicar), entonces CD > 0.
13.2 Permanencia de la positividad total 249
* Si rk B = l, las columnas de B son LI. Luego para todo k l y todo Q
k,l
, se tiene
que rk B[[] = k, por lo que debe existir un Q
k,m
tal que det A[[] ,= 0.
La suma de dos matrices TPs no es en general TP. Por lo tanto, es poco com un que una
matriz A /
n
(R) genere un semigrupo TP de un parametro. Esto signicara que e
tA
sea
TP para todo t > 0. La excepcion la dan las matrices de Jacobi TP:
Teorema 13.2.2. Sea A /
n
(R). Son equivalentes:
1. e
tA
es TP para todo t > 0.
2. A = I +B para alg un R y una matriz B /
n
(R) que es de Jacobi y TP.
Demostracion. Supongamos primero que A es de la forma mencionada. Entonces, como
e
tA
= e
t
e
tB
= e
t
lim
p
_
I +
tB
p
_
p
,
por la Eq. (9.41), la positividad total de e
tA
resulta del Teorema 13.2.1, ya que B es una
matriz de Jacobi y es TP, as que I +
t
p
B sigue siendo TP por el Corolario 13.1.11.
Supongamos recprocamente que e
tA
es TP para todo t > 0. Por el Corolario 13.1.12, basta
mostrar que A es una matriz real de Jacobi con elementos no negativos fuera de la diagonal.
Usando el desarrollo en serie e
tA
=

kN
t
k
A
k
k!
, es facil ver que
A = lim
t0
e
tA
I
t
o equivalentemente que lim
t0
I +tAe
tA
t
= 0 . (13.11)
Como e
tA
0, esto muestra que todas las entradas no diagonales de A son no negativas.
Veamos que a
ij
= 0 si [i j[ > 1. Por ejemplo, si i + 1 < j, entonces
det
_
e
tA
[i, i + 1[i + 1, j]
_
0 para todo t > 0 ,
lo que, va la Eq. (13.11), implica que
0 lim
t0
det
I +tA
t
_
i, i + 1[i + 1, j

= lim
t0
ta
i,i+1
a
i+1,j
(1 +ta
i+1,i+1
)a
ij
= a
ij
.
El caso j + 1 < i es analogo. Luego A es de Jacobi y I + A0 para alg un R. Para
encontrar una B que sea TP, basta usar el Corolario 13.1.12.
Teorema 13.2.3. Sea A /
n,m
(R) -RS. Sean Q
k,n
y Q
k,m
. Entonces,
1. A[[] es -RS.
2. Si n = m, d() = 0 y A() (l (n k), entonces A/
t
es

-RS, donde la sucesion de


signos

= (
nk

nk+i
)
iI
k
.
250 Matrices totalmente positivas
3. Si n = m y A es inversible, entonces A
#
= J
n
A
1
J
n
es
J
-RS, donde
J
= (
n

ni
)
iN
,
con la convencion de que
j
= 1 si j 0.
4. En particular, si A es TP, tambien lo seran A[[], A/
t
y J
n
A
1
J
n
.
Ademas, los mismos resultados valen reemplazando regular de signo por estrictamente
regular de signo (o TP por ETP) en todos los casos.
Demostracion. Fijemos , Q
p,n
tales que , .
1. Es trivial, ya que

p
det A[[][[] =
p
det A[[] 0 (resp. > 0) .
2. Supongamos ahora que . Se sigue de la la Eq. (12.15) que
det
_
A/
t
_
[[] = sgn

t

t

sgn

t

t


det A[
t
[
t
]
det A[
t
]
.
Notar que det A[
t
[
t
] tiene signo
nk+p
y detA() tiene signo
nk
. Pero
como d() = 0, se ve facilmente que sgn(
t
/
t
) = sgn(
t
/
t
) (ambos dependen
solo de cuantos elementos de
t
estan despues del bloque ).
3. Observar que
n
det A > 0 y, por la Eq. (12.11), tenemos que
det
_
J
n
A
1
J
n
_
[[] =
det A([)
det A
,
donde
nk
det A([) =
nk
det A[
t
[
t
] 0 (resp > 0).
Las ultimas armaciones se deducen de lo anterior.
En lo que sigue, se usara varias veces el Corolario 12.2.6, cuya formula repasaremos para
comodidad del lector: Sea A /
n
(R) y sea r I
n
tal que A
rr
,= 0. Entonces, para todo
Q
k,n
tal que r / , se tiene que
(A/[r])[] = A[r ]/[r] . (13.12)
Proposicion 13.2.4 (Pinching). Sea B /
m
(R) una matriz TP. Entonces
det B det B[I
k
] det B(I
k
) para todo k I
m1
. (13.13)
Demostracion. Probaremos la Eq. (13.13) por induccion en m. Para m = 2, tenemos que
b
12
0 y b
21
0 = det B = b
11
b
22
b
12
b
21
b
11
b
22
.
13.2 Permanencia de la positividad total 251
Asumamos que la armacion es cierta para todos los casos de orden menor que m. Asumamos
que k > 1 y que b
11
> 0. Por la Eq. (12.5) se tiene que
det B[I
k
] det B(I
k
) = b
11
det B[I
k
]/1 det B(I
k
) = b
11
det B/1[2, . . . , k] det B(I
k
) ,
donde la ultima igualdad se deduce de la Eq. (13.12), que deca que
B/1[] = B[1 ]/1 para todo tal que 1 / .
Como la matriz B[1, k+1, k+2, . . . , m] es de orden menor que m y es TP, la hipotesis inductiva
nos asegura que
b
11
det B(I
k
) det B[1, k + 1, k + 2, . . . , m]
= b
11
det B[1, k + 1, k + 2, . . . m]/1
= b
11
det B/1(I
k
) ,
Usando nuevamente la hipotesis inductiva en la matriz B/1 que es de orden m1, y es TP
por el Teorema 13.2.3, obtenemos
det B[I
k
] det B(I
k
) = b
11
det
_
B/1[2, . . . , k]
_
det B(I
k
)
b
11
det
_
B/1[2, . . . , k]
_
det B/1(I
k
)
b
11
det
_
B/1[2, . . . , m]
_
= b
11
det B/1 = det B .
Si k = 1, asumiendo ahora que b
mm
> 0, tenemos que
det B = b
mm
det(B/m) b
mm
det(B/m[1]) det(B/m[2, . . . , m1])
Ahora, det(B/m[1]) = b
11

b
1m
b
m1
b
mm
b
11
por ser B0. Ademas, por la Eq. (13.12),
tenemos que B/m[2, . . . , m1] = B[2, . . . , m]/m = B(1)/m . As,
det B b
11
b
mm
det B(1)/m = b
11
det B(1) = det B[1] det B(1) .
Los casos en que b
11
= 0 o b
mm
= 0 se pueden anlizar a mano (mostrando que en tal caso
det B = 0 por tener una la o columna nula) o bien cambiando b
11
por b
11
+
1
n
(con lo que B
sigue siendo TP) y tomando lmite.
Corolario 13.2.5. Si A (l (n) es TP, entonces
det A[] > 0 para cada k I
n
y cada Q
k,n
. (13.14)
En particular, en este caso siempre existen los complementos de Schur A/[].
Demostracion. Por induccion en n. El caso n = 1 es trivial. Asumamos que la armacion
vale para n1. Por la Proposicion 13.2.4, tenemos que 0 < det A a
11
det A(1). Luego A(1)
252 Matrices totalmente positivas
es TP e inversible y a
11
> 0. Si
1
> 1, entonces I
n
1 y la desigualdad det A[] > 0
se sigue de la hipotesis inductiva aplicada a A(1). Si
1
= 1, la Eq. (13.12) aplicada a 1
con r = 1, muestra que
det A[] = a
11
det A[]/1 = a
11
det A/1[ 1] .
Entonces la desigualdad detA[] > 0 se deduce de la hipotesis inductiva aplicada a A/1,
que es inversible por el Teorema 12.1.4 y es TP por el Teorema 13.2.3.
13.3 Factorizaciones LU y UL
Una factorizacion A = BC es llamada una LU-factorizacion (resp, UL-factorizacion) si B
(resp. C) es triangular inferior y C (resp. B) es triangular superior.
Teorema 13.3.1. Sea A /
n,m
(R) TP con n m. Entonces A admite una LU-factoriza-
cion A = A
L
A
U
y una UL-factorizacion A =

A
L

A
U
, donde las matrices triangulares A
L

/
n
(R),

A
U
/
m
(R) y A
U
,

A
L
/
n,m
(R) son todas TPs.
Para demostrar el Teorema necesitamos dos largos Lemas tecnicos: Para ellos necesitaremos
una notaci on nueva: Dados x
1
, . . . , x
m
R
n
, denotaremos por X = [x
1
, . . . , x
m
] /
nm
(R)
a la matriz cuyas columnas estan dadas por C
i
(X) = x
i
, para todo i I
m
.
Lema 13.3.2. Sea A = (a
ij
)
i,jIn
= [a
1
, . . . , a
n
] /
n
(R) una matriz TP. Si a
1k
,= 0,
entonces tambien es TP la matriz B = [b
1
, . . . , b
n
] /
n
(R) denida por
b
i
= a
i
si i I
k
y b
i
= a
i

a
1i
a
1k
a
k
, si i I
n
I
k
.
Demostracion. Por el Teorema 13.1.13 podemos asumir que detA > 0. Como obviamente
det A = det B, de acuerdo al Teorema 13.1.4 basta mostrar que
b
i
b
i+1
b
j
0 para 1 i j n, (13.15)
i.e., la positividad para los tales que d() = 0. Si j k o i k j, entonces
b
i
b
i+1
b
j
= a
i
a
i+1
a
j
,
y la Eq. (13.15) es valida porque A es TP. Si k < i, consideremos la matriz
C = [a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] /
n
(R) ,
que es TP, por serlo A. Se ve facilmente de la denicion de C/1 que
M = [b
k+1
, b
k+2
, . . . , b
n
, 0, . . . , 0] =
_
0
C/1
_
/
n, n1
(R) .
13.3 Factorizaciones LU y UL 253
En efecto, observar que todas las primeras coordenadas de los b
j
(j I
n
I
k
) son nulas, por
lo que la primera la va bien. Si j I
nk
e i I
n1
, entonces
(C/1)
ij
= c
i+1 , j+1

c
i+1 , 1
c
1 , j+1
c
11
= a
i+1 , k+j

a
1 , k+j
a
1 , k
a
i+1 , k
=
_
b
k+j
_
i+1
= M
i+1 , j
.
En los demas casos, debe ser (C/1)
ij
= 0 (y la otra tambien). Ahora la ecuacion (13.15) se
deduce de la positividad total de C/1 y de M, garantizada por el Teorema 13.2.3
Lema 13.3.3. Sea A /
n
(R) una matriz TP. Entonces existen C y S /
n
(R), ambas
TP, tales que C[1, 1) 0 (i.e., F
1
(C) = c
11
e
1
), S es triangular superior y A = CS.
Demostracion. Para cada j I
n1
, consederemos la matriz
T
j
:= [e
1
, e
2
, . . . , e
j1
, 0, e
j
, e
j+1
, . . . , e
n1
] =
_
I
j1
0
0 N
nj+1
_
/
n
(R) ,
donde N
nj+1
/
nj+1
(R) es el bloque de Jordan con los unos arriba (Jacobi nos robo
la J). Observar que T
1
= N
n
el bloque de Jordan tutti. Cada T
j
es una matriz de Jacobi
positiva y triangular superior. Luego las T
j
son TP por el Teorema 13.1.10.
Estas matrices nos permitiran correr hacia la izquierda las columnas no nulas de A. Si
a
1
= a
2
= . . . = a
k1
= 0 pero a
k
,= 0, entonces
A = [a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] T
k1
1
,
y la matriz A
1
= [a
k
, a
k+1
, . . . , a
n
, 0, . . . , 0] es TP. Si seguimos sin columnas nulas hasta a
k+p
y a
k+p+r
es la primera columna no nula de las que quedan, como antes obtenemos que
[a
k+p+1
, . . . , a
n
, 0, . . . , 0] = [a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
1
o, mirando como dan las cuentas,
A
1
= [a
k
, . . . , a
k+p
, a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
p+2
.
Es decir,
A = [a
k
, . . . , a
k+p
, a
k+p+r
, . . . , a
n
, 0, . . . , 0] T
r1
p+2
T
k1
1
.
Observar que todo queda TP, y T
r1
p+2
T
k1
1
es triangular superior. Aplicando entonces este
procedimiento nitas veces, obtenemos que A = BT, donde T triangular superior y TP y
B = [b
1
, b
2
, . . . , b
n
] es una matriz TP tal que b
i
= 0 implica que b
j
= 0, para j > i . Si
B[1[1) ,= 0, tomemos el mayor i para el cual b
1i
,= 0. Armamos que b
1,i1
,= 0. En efecto, si
b
1,i1
= 0, para todo j I
n
, tendramos
det B[1, j[i 1, i] = b
1i1
b
ji
b
1i
b
ji1
= b
1i
b
ji1
0 ,
lo que implicara que todos los b
j,i1
= 0, o sea b
i1
= 0, lo que contradice que b
i
,= 0.
Entonces B admite una factorizacion B = DU
1
, donde
D := [b
1
, . . . , b
i1
, b
i

b
1,i
b
1,i1
b
i1
, b
i+1
, . . . , b
n
] y
254 Matrices totalmente positivas
U
1
:= [e
1
, . . . , e
i1
,
b
1,i
b
1,i1
e
i1
+e
i
, e
i+1
, . . . , e
n
] .
Notemos que ahora D
1i
= 0. Por otro lado, U
1
es una matriz de Jacobi positiva, triangular
superior, y por lo tanto TP por el Teorema 13.1.10. La positividad total de D se sigue del
Lema 13.3.2, porque, como b
1,j
= 0 si j > i, entonces
b
j
= b
j

b
1,j
b
1,i1
b
i1
, para j = i + 1, i + 2, . . . , n .
Repitiendo este procedimiento, llegamos a una factorizacioin B = CU
p
U
p1
U
1
, donde
cada U
i
es triangular superior y TP mientras que C es una matriz TP tal que C[1[1) = 0,
como se buscaba. Ahora basta tomar S = U
p
U
p1
U
1
T que es como se peda.
Demostracion del Teorema 13.3.1: Considerando la matriz [A, 0] /
n
(R), podemos
connar la prueba al caso n = m. Ademas, usando conversiones, basta tratar solo la factor-
izacion LU. Cuando n = 1, es trivial. Asumamos que la armacion es cierta para n 1 en
lugar de n. Para conseguir hacer el paso inductivo, alcanzara con probar que existen R, F y
S /
n
(R), todas TP, con S es triangular superior, R es triangular inferior y
F =
_
f
11
0
0 F(1)
_
, tales que A = RFS ,
porque en tal caso se factoriza F(1) por hipotesis inductiva, y se agrandan las matrices
triangulares (y TP) de /
n1
(R) obtenidas, poniendoles (f
11
)
1/2
en el lugar 1, 1. Recordar
que producto de triangulares es triangular, y lo mismo con TPs (por el Teorema 13.2.1).
Pero por el Lema 13.3.3, existen S como antes y C /
n
(R) tal que C es TP, C[1[1) 0
y A = CS. Y por el mismo Lema, existen R como arriba y F /
n
(R) tal que F es TP,
F(1[1] 0 y C
T
= F
T
R
T
. Observar que multiplicar por una triangular superior a derecha,
solo cambia a la primera columna multiplicandola por un escalar, asi que F hereda lo bueno
que tena C (ceros en la primera la) pero gana ceros en la primera columna, quedando como
queramos.
Corolario 13.3.4. Toda A (l (n) triangular superior (inferior) y TP es producto de un
cierto n umero de matrices de Jacobi triangulares superiores (inferiores) y TPs.
Demostracion. Por induccion en n. El caso n = 1 es trivial. Asumamos que la armacion
es cierta para n 1, y sea A (l (n) triangular superior (inferior) y TP. Por el Lema 13.3.3
(y su prueba), tenemos una factorizacion A = DS con S un producto de matrices de Jacobi
triangulares superiores, todas ellas TP, y D tambien TP, con D[1, 1) 0. Pero como A es
triangular superior, tambien se da que D(1, 1] 0. Luego
D =
_
d
11
0
0 D(1)
_
y D(1) (l (n 1) es totalmente positva y triangular superior. Por hipotesis inductiva
tenemos D(1) =

W
1

W
2


W
s
para algunas matrices de Jacobi TPs y triangulares superiores
13.3 Factorizaciones LU y UL 255

W
i
(l (n 1), i I
s
. Sean
W
i
=
_
d
1/2
11
0
0

W
i
_
, i I
s
.
Entonces A = W
1
W
2
W
s
S es una factorizacion como la buscada.
Denicion 13.3.5. Ademas de la relacion de orden usual AB entre matrices en /
n
(R),
introduzcamos una mas fuerte: Diremos que A
t
B si
k
A
k
B para todo k N. En otras
palabras, si
det A[[] det B[[] para todo k I
n
y , Q
k,n
. (13.16)
En esta notacion, A
t
0 signica que A es TP.
Observacion 13.3.6. Es claro que la relacion A
t
B implica que A[[]
t
B[[] para
cualquier par , Q
k,n
, pero no que AB
t
0, como puede verse con las matrices
A =
_
2 1
1 1
_
y B =
_
1 0
0 1
_
.
Tampoco A
t
B
t
0 implica que A/1
t
B/1 o que J
n
B
1
J
n
t
J
n
A
1
J
n
.
Teorema 13.3.7. Si A /
n
(R) es TP, y = I
k
o = k, k +1, . . . , n, entonces, si A()
es inversible, se cumple que
A[]
t
A/
t
. (13.17)
Demostracion. Prueba para el caso = I
k
: Fijemos , Q
l,n
tales que y .
Deberamos probar que det
_
A[]
_
[[] det A/
t
[[]. Observar que la Eq. (12.15) nos dice
que
det A/
t
[[] =
A[
t
[
t
]
det A()
,
porque los dos signos que intervienen en la Eq. (12.15) son iguales en este caso, por ser
t
quien es. Por lo tanto, bastara probar que
det A[
t
[
t
] det
_
A[]
_
[[] det A() = det A[[] det A() .
Consideremos A[
t
[
t
] /
nk+l
(R) con su numeracion de corrido en I
nk+l
. Como
, = I
k
, entonces
A[[] = A[
t
[
t
] [1, . . . , l] y A() = A[
t
[
t
] [l + 1, . . . , n k +l] ,
y el resultado se deduce de la Proposicion 13.2.4.
Las factorizaciones LU y UL en el Teorema 13.3.1 dan lugar a otras desigualdades.
256 Matrices totalmente positivas
Teorema 13.3.8. Si A /
n
(R) es TP, y = I
k
o = I
n
I
k
, entonces, si A() es
inversible,
A[] A/
t
t
0 (13.18)
Demostracion. Prueba para el caso = I
n
I
k
= k + 1, k + 2, . . . , n: Sea A = A
L
A
U
una
factorizaci on LU con A
L
y A
U
TP, garantizada por el Teorema 13.3.1. Entonces, por las
propiedades de A
L
y A
U
, se tiene que A() = A
L
()A
U
() (por lo que ambas submatrices
son inversibles), A([] = A
L
()A
U
([] y A[[) = A
L
[[)A
U
(). Por lo tanto,
A[] A/
t
= A[[)A()
1
A([]
= A
L
[[)A
U
()(A
L
()A
U
())
1
A
L
()A
U
([]
= A
L
[[)A
U
([].
Como A
L
[[) y A
U
([] son TPs, tambien lo es su producto A
L
[[)A
U
([]. La prueba
para el caso = I
k
se hace usando una factoriacion UL.
13.4 Matrices oscilatorias
Una matriz A /
n
(R) se dice oscilatoria (abreviaremos OSC) si es TP y una cierta potencia
A
p
es ETP. Las OSC juegan el rol de las primitivas en el Captulo 11. En esta seccion
presentaremos un criterio simple para que una matriz TP sea OSC. Observemos que una
matriz OSC es inversible, y su adjunta es tambien OSC. por lo tanto, por el Corolario 13.2.5,
si A /
n
(R) es OSC, entonces se tiene que det A[] > 0 para todo Q
k,n
.
Teorema 13.4.1. Sea A /
n
(R) una matriz OSC. Entonces
1. A
#
= J
n
A
1
J
n
es OSC.
2. A[] y A/
t
son OSCs para cada Q
k,n
tal que d() = 0.
Demostracion. Supongamos que A es TP y A
p
es ETP.
1. El Teorema 13.2.3 asegura que J
n
A
1
J
n
es TP y que (J
n
A
1
J
n
)
p
= J
n
(A
p
)
1
J
n
es
ETP. As, J
n
A
1
J
n
es OSC.
2. Probemos primero que A[] es OSC para el caso = I
n1
. Sea B = A[I
n1
] = A(n).
Tomemos , Q
k,n1
, y sean = n y = n. Por la formula de Cauchy-
Binnet (12.1), el hecho de que det A
p
[[] > 0 implica que existe una sucesion
_

(i)
_
p
i=0
en Q
k+1,n
tal que
0
= ,
(p)
= , y
p

i=1
det A[
(i1)
[
(i)
] > 0 .
Llamemos
(i)
Q
k,n1
a la k-upla obtenida eliminando la ultima componente de
(i)
.
Como A[
(i1)
[
(i)
] es TP con determinante positivo, por la Eq. (13.13) se tiene que
det B[
(i1)
[
(i)
] > 0 , para todo i I
p
.
13.4 Matrices oscilatorias 257
Entonces, nuevamente por la positividad total de B y la Eq. (12.1),
det B
p
[[]
p

i=1
det B[
(i1)
[
(i)
] > 0 ,
lo que prueba que B
p
es ETP. El caso A[2, 3, . . . , n] se trata de manera analoga. El
resto de los casos ( Q
k,n
con k < n 1 y d() = 0) ahora se pueden probar por
induccion en n, dado que I
n1
o I
n
1.
Veamos que A/
t
es OSC: Observar que J
n
A
1
J
n
[] = J
k
A
1
[]J
k
, dado que d() = 0
(puede aparecer un J
k
, pero se cancela). Por los casos anteriores, sabemos que
J
n
A
1
J
n
es OSC = J
k
A
1
[]J
k
= J
n
A
1
J
n
[] es OSC
= (A
1
[])
1
es OSC .
Pero la Eq. (12.6) dice que A/
t
= (A
1
[])
1
.
Lo siguiente da un criterio para la oscilatoriedad.
Teorema 13.4.2. Sea A = (a
ij
)
i,jIn
/
n
(R) una matriz TP. Entonces
A es OSC A (l (n) , a
i, i+1
> 0 y a
i+1, i
> 0 , para todo i I
n1
. (13.19)
Demostracion. Supongamos que A es OSC. Por el Teorema 13.4.1,
B := A[i, i + 1] =
_
a
i, i
a
i, i+1
a
i+1, i
a
i+1, i+1
_
debe ser OSC. Luego B
p
> 0 para alg un p. Pero esto es posible solo cuando a
i,i+1
> 0
y a
i+1,i
> 0, ya que si alguno de los dos se anulara, entonces B y todas sus potencias
seran triangulares. La otra implicacion sera probada como consecuencia de un resultado mas
general, hacia el n de la seccion.
Corolario 13.4.3. Sean A, B /
n
(R), ambas TP. Si A es OSC y B es inversible, entonces
AB y BA son OSC.
Demostracion. Observar que A (l (n), por se OSC. Luego AB y BA (l (n). Ademas,
como B es inversible y TP, entonces b
ii
> 0 para todo i I
n
(Corolario 13.2.5). Por lo tanto
AB y BA satisfacen la condicion (13.19), ya que
(AB)
i, i+1
=
n

j=1
a
i, j
b
j, i+1
a
i, i+1
b
i+1 , i+1
> 0 para todo i I
n1
.
La prueba para (AB)
i+1 , i
y las entradas correspondientes de BA es analoga.
El siguiente teorema presenta una extension de la condicion (13.19) para matrices OSCs.
258 Matrices totalmente positivas
Proposicion 13.4.4. Supongamos que A (l (n) y es TP. Si A satisface la Eq. (13.19),
entonces det A[[] > 0 para cada par , Q
k,n
tal que
[
i

i
[ 1 y max
i
,
i
< mn
i+1
,
i+1
para todo i I
k
, (13.20)
donde usamos la convencion
k+1
=
k+1
= n + 1.
Demostracion. Haremos la prueba por induccion en k. El caso k = 1 se sigue del Corolario
13.2.5 (si = ) y la suposicion (13.19). Fijemos k > 1, y supongamos que la armacion
es cierta para cada par en Q
k1,n
que satisface las hipotesis. Tomemos un par , Q
k,n
que cumpla la Eq. (13.20). Si d() = d() = 0, entoces la Eq. (13.20) impica que = .
Luego det A[[] = det A[[] > 0, nuevamente por el Corolario 13.2.5. Ahora, asumiendo
que d() > 0, sea B = A[[] = [b
1
, b
2
, . . . b

k
], donde cada b
i
R

= R
k
. Supongamos
que det B = 0. En principio, por la hipotesis inductiva, sabemos que
det B[
1
, . . . ,
k1
[
1
, . . . ,
k1
] > 0 y det B[
2
, . . . ,
k
[
2
, . . . ,
k
] > 0 .
Junto con la positividad total de B, esto implica que
0 ,= b
1
b
2
. . . b

k1
0 y 0 ,= b
2
b
3
. . . b

k
0 . (13.21)
Entonces el hecho de que det B = 0 garantiza que b

k
Gen b
i
: i I
k1
, y ademas
b

k
=
k1

i=1

i
b
i
para ciertos
i
R , donde
1
,= 0 (13.22)
(sino b
i
: i I
k
1 sera LD). Sustituyamos b

k
en la Eq. (13.21) para obetener
(1)
k2

1
b
1
b
2
b

k1
0 . (13.23)
Como d() > 0, el conjunto ordenado := j / :
1
< j <
k
es no vaco. Mostremos
que, para cada j , la -proyeccion b
j
de C
j
(A) cumple que b
j
Gen
_
b
1
, b
2
, . . . , b

k1
_
.
Es decir que
b
j
b
1
b
2
. . . b

k1
= 0 (13.24)
Para esto, tomemos i tal que
i
< j <
i+1
. Entonces, como A[[ j] es TP,
b
1
. . . b
i
b
j
b
i+1
. . . b

k1
0 y b
2
. . . b
i
b
j
b
i+1
. . . b

k
0. (13.25)
Ahora sustituyamos la expresion (13.22) para b

k
en la Eq. (13.25) para obtener
(1)
k1

1
b
1
. . . b
i
b
j
b
i+1
. . . b

k1
0. (13.26)
es claro que las ecuaciones (13.21) y (13.23) versus (13.25) y (13.26) son consistentes solo si
la igualdad se da en la Eq. (13.26). Pero como
1
,= 0, solo queda que la Eq. (13.24) sea
valida. El argumento muestra que rk
_
A[[ ]
_
= k 1. Si lo que pasaba era que d() > 0,
consideremos el conjunto ordenado := i / :
1
< i <
k
. El argumento anterior,
aplicado a los vectores las (o a A
T
), dice que rkA[ [ ] = k 1.
13.4 Matrices oscilatorias 259
Por ultimo, se sigue de la Eq. (13.20) y de que d() > 0 o d() > 0, que existe alg un Q
k,n
tal que d() = 0, , y . Pero, como rkA[ [ ] = k 1, se debe
cumplir que det A[] = 0, lo que contradice al Corolario 13.2.5. Esto completa la prueba en
todos los casos.
La ida del Teorema 13.4.2 se vera como consecuencia del siguiente resultado mas general.
Teorema 13.4.5. Sean A
1
, . . . , A
p
/
n
(R), inversibles y TPs, con p n 1. Si cada A
i
satisface la Eq. (13.19), entonces el producto A
1
A
2
A
p
es ETP.
Demostracion. Por el Teorema 13.1.5 basta mostrar que
det(A
1
A
2
A
p
)[[] > 0 para , Q
k,n
tales que d() = d() = 0 .
Asumamos que
1

1
y sea
(0)
= . Denamos
(l)
Q
k,n
, para l I
p1
, como

(l)
i
= mn
_

i
,
i
+ max l +i k, 0
_
, i I
k
.
Es facil ver que
(p)
= y que cada par
(l1)
,
(l)
satisface la Eq. (13.20). Usando la
Proposicion 13.4.4, podemos deducir que det A
l
[
(l1)
[
(l)
] > 0, para todo l I
p
. Por lo
tanto, se sigue de la Eq. (12.1) (Cahuchy-Binnet) y la positividad total que
det(A
1
A
2
A
p
)[[]
p

l=1
det A
l
[
(l1)
[
(l)
] > 0 ,
lo que prueba el Teorema.
Corolario 13.4.6. Sea A /
n
(R).
1. Si A es OSC, entonces A
n1
es ETP.
2. Si A es -RS, es inversible y cumple que
a
ii
,= 0 para i I
n
y a
i , i+1
a
i+1 , i
> 0 , para i I
n1
,
entonces A
2(n1)
es ETP.
Demostracion.
1. Se sigue inmediatamente del Teorema 13.4.5.
2. A
2
es TP por ser A -RS. Por la hipotesis se tiene que (A
2
)
i , i+1
> 0 y (A
2
)
i+1 , i
> 0
para todo i I
n1
. Entonces satisface la Eq. (13.19), y podemos usar la parte 1.
260 Matrices totalmente positivas
13.5 Variacion de signos
Esta secci on esta dedicada a caracterizaciones de la regularidad de signo de una matriz en
terminos de algunas propiedades de disminucion de variacion del operador lineal que esta
induce.
Denicion 13.5.1. Sea x R
n
. Dada una sucesion de signatura , decimos que
1. es una sucesion de signo de x si para todo i I
n
se cumple que
i
x
i
= [x
i
[.
2. En tal caso, el n umero de cambios de signo de x asociado a , denotado por C(), es el
n umero de ndices i I
n1
tales que
i

i+1
< 0. Es decir que
C() =
1
2
n1

i=1
(1
i

i+1
) .
3. La maxima variacion de signos V
+
(x) (resp. mnima variacion de signos V

(x) ) es el
maximo (resp. mnimo) de los valores C(), cuando recorre todas las sucesiones de
signo de x. Vemos que
0 V

(x) V
+
(x) n 1 para todo x R
n
.
Si ninguna componente de x se anula, x tiene una unica sucesion de signo, y por lo tanto
V

(x) = V
+
(x). Este valor com un es llamado la variacion de signo exacta y denotado
por V (x).
Observacion 13.5.2. Sea x R
n
.
1. Ojo que x puede tener variacion de signo exacta, aunque tenga coordenadas nulas. Por
ejemplo si x = (1, 0, 1), entonces V

(x) = V
+
(x) = 1.
2. Pero si x tiene variacion de signo exacta, es facil ver que
(a) x
1
,= 0 ,= x
n
.
(b) Si x
i
= 0, entonces x
11
x
i+1
< 0.
(c) En particular, x no puede tener dos coordenadas nulas seguidas.
3. Si Q
k,n
y x

es la -proyeccion de x a R

, entonces
V

(x

) V

(x) y V
+
(x

) V
+
(x) .
En efecto, si es una sucesion de signo de x, entonces

lo sera para x

(y todas se
consiguen as). Pero es facil ver que C(

) C().
Proposicion 13.5.3. Sean a
1
, a
2
, . . . , a
m
R
n
, linealmente independientes, con n > m.
Entonces son equivalentes:
13.5 Variacion de signos 261
(1) V
+
(b) m1, para todo b Gen a
1
, a
2
, . . . , a
m
0.
(2) a = a
1
a
2
a
m
es estrictamente denido (como vector), i. e. a > 0.
Demostracion. Sea A = [a
1
, a
2
, . . . , a
m
] /
n,m
(R). Es claro que la condicion a > 0 equivale
a que det A[[] > 0 para todo Q
m,n
. Para ver la suciencia, supongamos que a > 0
y que existe b Gen a
1
, a
2
, . . . , a
m
0 tal que V
+
(b) m. Es facil ver que existe
Q
m+1,n
tal que la -proyeccion de b tiene variacion maxima m. Como det A[[] > 0
para todo Q
m,n
, en particular aquellos , deducimos que las -proyecciones a
t
i
de
a
i
para i I
m
tambien cumplen a
t
1
a
t
2
a
t
m
> 0 y que b

Gen a
t
1
, . . . , a
t
m
. Por lo
tanto, considerando la -proyecci on si es necesario, podemos suponer que
n = m+ 1 y que (1)
i1
b
i
0 , para todo i I
n
.
Como los e

(i)
= e
1
e
i1
e
i+1
e
n
, i I
n
forman una base completa ortogonal
de
m
R
n
, tenemos que
a
1
a
m
=
n

i=1

i
e

(i)
, donde
i
=

ma
1
a
m
, e

(i)
) = det A( i [] > 0 ,
para todo i I
n
.
Como b Gen a
1
, a
2
, . . . , a
m
y, ademas, b =
n

i=1
b
i
e
i
, tenemos que
0 = b a
1
a
2
a
m
=
_
n

i=1
(1)
i1

i
b
i
_
e
1
e
2
e
n
,
porque e
i
e

(j)
=
ij
(1)
i1
e
1
e
2
e
n
. Pero las condiciones (ya vericadas)
i
> 0 y
(1)
i1
b
i
0, i I
n
implican entonces que b
i
= 0, i I
n
, o sea b = 0, una contradiccion.
Esto completa la prueba de la suciencia.
Probemos ahora la necesidad. Como vimos al principio, bastara vericar que
det A[[] det A[[] > 0 para todo par , Q
m,n
.
Fijados y , podemos unirlos por una sucesion =
(0)
,
(1)
, . . . ,
(k)
= en Q
m,n
que
verica la siguiente propiedad: para cada i I
k
existe

(i)
Q
m+1,n
tal que
(i1)

(i)
y
(i)

(i)
.
Observar que la desigualdad det A[[] det A[[] > 0 se sigue de las desigualdades
det A[
(i1)
] det A[
(i)
[] > 0 , 1 i k , (13.27)
dado que
sgn (det A[[] det A[[]) = sgn
_
k

i=1
det A[
(i1)
] det A[
(i)
[]
_
.
262 Matrices totalmente positivas
Considerando, en el caso i-esimo de la Eq. (13.27), la proyeccion sobre
(i)
, podemos asumir
nuevamente que n = m + 1, ya que estamos trabajando en dos subconjuntos de
(i)
y, sobre
todo, porque la hipotesis V
+
(b) m1, para todo b Gen a
1
, a
2
, . . . , a
m
0 se preserva
al proyectar sobre
(i)
, por la Observacion 13.5.2. Ahora, como antes,
a
1
a
2
a
m
=
n

i=1

i
e

(i)
con
i
= det A(i[] .
Si
i
= 0 para alg un i, entonces e
i
Gen a
1
, a
2
, . . . , a
m
. Pero en tal caso tendramos que
V
+
(e
i
) = n 1 = m, lo que contradice la condicion (1). Ademas, si no todos los
j
tienen
el mismo signo, entonces
l

l+1
< 0 para alg un l. Entonces, si b =
l+1
e
l
+
l
e
l+1
, tenemos
como antes que
b a
1
a
2
a
m
=
_
(1)
li

l+1

l
+ (1)
l

l+1
_
e
1
e
2
. . . e
n
= 0 ,
por lo que b Gen a
1
, a
2
, . . . , a
m
. Pero como
l

l+1
< 0, tenemos V
+
(b) = n 1 = m, lo
que tambien contradice la condicion (1). Luego todos los signos de
i
son iguales, es decir, se
cumple (2).
Lema 13.5.4. Sea x R
n
. Entonces
V
+
(x) +V

(J
n
x) = V

(x) +V
+
(J
n
x) = n 1 . (13.28)
Demostracion. Cuando recorre todas las sucesiones de signo de x, J
n
recorre todas las
sucesiones de signo de J
n
x. Observar que
C() +C(J
n
) =
1
2
n1

i=1
(1
i

i+1
) +
1
2
n1

i=1
(1 (J
n
)
i
(J
n
)
i+1
)
=
1
2
_
n1

1=1
(1
i

i+1
) + (1 (1
i1
)
i
(1)
i

i
)
_
=
1
2
n1

i=1
(1
i

i+1
) + (1 +
i

i+1
) = n 1 ,
lo que muestra la Eq. (13.28).
Teorema 13.5.5. Sea / un subespacio de R
n
tal que 0 < dim / < n. Entonces, las
siguientes dos condiciones son equivalentes:
(1) V
+
(x) dim/1 para todo x / 0.
(2) V

(y) dim/ para todo y /

0.
Demostracion. Tomemos bases completas ortonormales
a
1
, a
2
, . . . , a
m
para /, y a
m+1
, a
m+2
, . . . , a
n
para /

.
13.5 Variacion de signos 263
Si A = [a
1
, a
2
, . . . , a
n
], entonces A es unitaria y podemos asumir que detA = 1. Por la
Proposicion 13.5.3 (y su prueba), la condicion (1) es equivalente a que detA[[I
m
] sea no nulo
y tenga el mismo signo para todo Q
m,n
. Como A |(n) y det A = 1,
det(J
n
AJ
n
)([I
m
) = det(J
n
(A

)
1
J
n
)([I
m
) = det A

[I
m
[]
= det A[[I
m
] ,
por la Eq. (12.11). Luego det(J
n
AJ
n
)[[m + 1, . . . , n] es no nulo y tiene el mismo signo
para todo Q
nm,n
. Llamemos b
i
= J
n
AJ
n
e
i
= (1)
i
J
n
a
i
, para i > m. La condicion
anterior es equivalente a que b
m+1
b
m+2
b
n
> 0 (o bien < 0). Por lo tanto, tambien
J
n
a
m+1
J
n
a
m+2
J
n
a
m
es estrictamente denida. Entonces, nuevamente por la Proposi-
cion 13.5.3, obtenemos que V
+
(J
n
y) nm1 para todo y /

0. Aplicando el Lema
13.5.4, deducimos la condicion (2). La implicacion (2) (1) se prueba igual.
Una version local del Teorema 13.5.5 da la siguiente caracterizacion de la regularidad de signo
estricta en terminos de una propiedad de disminucion de variacion.
Teorema 13.5.6. Sea A /
n,m
(R), con n m. Entonces A es -ERS si y solo si el
operador lineal A : R
m
R
n
disminuye la variacion de signos, en el sentido de que
V
+
(Ax) V

(x) para todo x R


m
0 (13.29)
Demostracion. Supongamos que A = [a
1
, a
2
, . . . , a
m
] es -ERS. Tomemos x R
m
0, y
llamemos k = V

(x). Entonces existen , Q


k+1,m
tales que

i

i
<
i+1
para todo i I
k
y
k
<
k+1

k+1
,
que describen los signos de x de la siguiente manera:

1
= mnj I
n
: x
j
,= 0 y
k+1
= maxj I
n
: x
j
,= 0.
Las componentes de x tienen signo constante (no nulo en los bordes) para todo j entre

i
y
i
.
x
j
= 0 si
i
< j <
i+1
para alg un i.
Para cada i I
k
, hay un cambio de signo entre x
i
y la siguinete entrada no nula de
x, que es x
i+1
.
Si, para cada i I
k+1
, llamamos
b
i
=

iji
x
j
a
j
= Ax =
k+1

i=1
b
i
, ya que Ax =
n

i=1
x
i
a
i
,
y x
j
= 0 para aquellos j que no aparecen en alg un b
i
. Ahora la regularidad estricta de signo de
A implica que, si vamos eligiendo k+1-tuplas (j
1
, . . . , j
k+1
) tales que
i
j
i

i
, i I
k+1
,
tenemos que

k+1
a
j1
a
j2
a
j
k+1
> 0 .
264 Matrices totalmente positivas
Por lo tanto, si =
k+1
sgn
_
k+1

i=1
x
i
_
, se tiene que
b
1
b
2
b
k+1
> 0 ,
dado que es una suma de vectores tales que todas sus coordenadas tienen signo . Entonces
el Lema 13.5.3 dice que
V
+
(Ax) = V
+
_
k+1

i=1
b
i
_
k = V

(x) ,
lo que prueba la Eq. (13.29).
Supongamos recprocamente que A = [a
1
, a
2
, . . . , a
m
] satisface la condicion (13.29). Sean
Q
k,m
y x R
m
tales que x

=
k

i=1
x
i
e
i
,= 0. Por otra parte, puede obsevarse que
Ax

=
k

i=1
x
i
a
i
Gen a
1
, . . . , a

k
. Es claro que V

(x

) k 1, de donde por hipotesis,


V
+
(Ax

) V

(x

) k 1. Esto dice que


V
+
(y) k 1 para todo y Gen a
1
, . . . , a

k
0 .
Entonces se sigue del Lema 13.5.3 que a
1
a
2
a

k
es estrictamente denida. Por lo
tanto, A sera -ERS si el signo a
1
a
2
a

k
depende solo de k. Para k = m esto es
trivial. Fijemos 1 k m1 y tomemos , Q
k,m
. Como en la prueba del Lema 13.5.3,
existe una sucesion =
(0)
,
(p)
, . . . ,
(r)
= en Q
k,n
que verica la siguiente propiedad:
para cada i I
r
, existe

(i)
Q
k+1,n
tal que
(i1)

(i)
y
(i)

(i)
.
Por lo tanto, basta probar que, para cada Q
k+1,m
e i I
k+1
, se cumple que
a
1
a
i1
a
i+1
a

k+1
y a
1
a
i
a
i+2
a

k+1
tienen el mismo signo. Mediante un argumento de continuidad esto sera establecido si
a
1
a
i1
(1 t)a
i
+ta
i+1
a
i+2
a

k+1
es estrictamente denido para cada 0 < t < 1. Y esto se deduce del Lema 13.5.3, va la Eq.
(13.29), porque, si x R
k
0, entonces
V

_
_
i1

j=1
x
j
e
j
+x
i
((1 t)e
i
+te
i+1
) +
k+1

j=i+2
x
j1
e
j
_
_
k 1 ,
puesto que los signos de las coordenadas
i
y
i+1
son iguales.
13.5 Variacion de signos 265
Lema 13.5.7. Sea x R
n
. Si una sucesion x
p

p
x, entonces
V

(x) liminf
p
V

(x
p
) y limsup
p
V
+
(x
p
) V
+
(x) . (13.30)
Demostracion. Si llamamos J = i I
n
: x
i
,= 0, debe existir alg un p
0
N tal que
[(x
p
)
j
x
j
[ < mn[x
i
[ : i J para todo j J y p p
0
.
Entonces, sgn(x
p
)
j
= sgn(x
j
) para j J. Luego, si p p
0
, toda sucesion de signo
p
para
x
p
es tambien una sucesion de signo para x, porque los signos (de x y x
p
) coinciden en J,
mientras que en los i / J no hay problemas, porque x
i
= 0. Resumiendo, para todo p p
0
debe cumplirse que V

(x) V

(x
p
) para p p
0
(porque x tiene mas sucesiones de signo que
x
p
). O sea que V

(x) liminf
p
V

(x
p
). La otra desigualdad se prueba igual.
La regularidad de signo esta caracterizada por una propiedad de variacion de signo mas debil.
Corolario 13.5.8. Sea A /
n,m
(R) con rkA = m. Entonces A es -RS si y solo si
V

(Ax) V

(x) para todo x R


m
0 . (13.31)
Demostracion. Como veremos en la Seccion 7, existe una sucesion (G
p
)
pN
en (l (n) de
matrices ETPs , tales que G
p

p
I
n
. Supongamos primero que A es -RS. Como rkA = m,
el Teorema 13.2.1 asegura que G
p
A es -ERS para todo p N. Ademas G
p
A
p
A.
Entonces el Teorema 13.5.6 garantiza que
V
+
(G
p
Ax) V

(x) para todo x R


m
0 .
Luego, por la Eq. (13.30), tenemos que
V

(Ax) liminf
p
V
+
(G
p0
Ax) V

(x) ,
lo que muestra la Eq. (13.31). Supongamos ahora que la Eq. (13.31) es valida. Por el
Teorema 13.5.6, aplicado a G
p
, como A es inyectiva,
V
+
(G
p
(Ax) ) V

(Ax) V

(x) para todo p N y x R


m
0 ,
El Teorema 13.5.6 (al reves) muestra que G
p
A debe ser -ERS para todo p N. Tomando
lmite, vemos que A debe ser -RS.
Usando la relacion de dualidad (13.28), podemos hablar de algunas propiedades de aumento
de signo.
Corolario 13.5.9. Sea A /
n,m
(R) con rkA = m. Entonces J
n
AJ
m
es ERS (respectiva-
mente, RS) si y solo si
n m+V
+
(x) V

(Ax) ( resp. V
+
(Ax) ) ,
para todo x R
m
0.
266 Matrices totalmente positivas
Cuando n = m, la regularidad de signo admite varias caracterizaciones equivalentes.
Teorema 13.5.10. Sea A (l (n). Entonces las siguientes condiciones son equivalentes:
1. A es regular de signo.
2. V
+
(Ax) V
+
(x) para todo x R
n
0.
3. V

(Ax) V
+
(x) para todo x R
n
0.
4. V

(Ax) V

(x) para todo x R


n
0.
Demostracion.
1 2: Si A es regular de signo (e inversible), tambien lo es J
n
A
1
J
n
por el Teorema 13.2.3.
Entonces 13.5.10 se sigue del Corolario 13.5.9, reemplazando x por Ax y A por A
1
(en
nuestro caso, n m = 0).
2 3: Trivial.
3 4: Uusaremos la sucesion G
p
que aparece en la prueba del Corolario 13.5.8. El mismo
argumento de la prueba de 1 2, muestra que,
V
+
(G
p
Ax) V

(x) para todo p N y x R


n
0 ,
porque G
p
A es ERS. Luego, como G
p
Ax
p
Ax, el Lema 13.5.7 nos da que
V

(Ax) liminf V

(G
p
Ax) liminf V
+
(G
p
Ax) V

(x) , x R
n
0 .
4 1: Se sigue del Corolario 13.5.8.
13.6 Totalmente Perron-Frobenius
En esta seccion estudiaremos propiedades espectrales de las matrices regulares de signo o
totalmente positivas. La herramienta clave para esto son los resultados de Perron y Frobenius
para matrices positivas. Recordemos la parte mas elemental del teorema de Perron-Frobenius:
Observacion 13.6.1. Sea A /
n
(R) tal que A0.
1. Llamaremos
1
(A), . . . ,
n
(A) a sus autovalores, ordenados de forma que
[
1
(A)[ [
2
(A)[ [
n
(A)[ .
2. El mayor autovalor de A es real y no negativo, i.e., (A) =
1
(A) 0, y hay un
autovector positivo u
1
0 correspondiente a
1
(A).
13.6 Totalmente Perron-Frobenius 267
3. Si A > 0, entonces

1
(A) > [
2
(A)[ y ker(A
1
(A)I) = Gen u
1
,
para cierto u
1
> 0.
Teorema 13.6.2. Sea A /
n
(R) una matriz -ERS. Entonces todos los autovalores de A
son reales y distintos. Mas a un,

m1

m
(A) > [
m+1
(A)[ , para todo m I
n
, (13.32)
donde usamos la convencion
0
= 1 y
n+1
(A) = 0. Adem as, los correspondientes autovectores
u
1
, u
2
, . . . , u
n
pueden ser elegidos en R
n
, y de modo tal que
u
1
u
2
u
m
> 0 (como vector) , para todo m I
n
. (13.33)
Demostracion. La prueba se hara por induccion en m. El caso m = 1 es consecuencia de la
Observacion 13.6.1 porque
1
A > 0 por hipotesis. Supongamos que el resultado es cierto para
1 i m1. Como
m

m
A > 0, la Observacion 13.6.1 dice que
0 < (
m

m
A) =
1
(
m

m
A) =
m
m

i=1

i
(A) .
Por la hipotesis inductiva, que en particular nos dice que
i
i1

i
(A) = [
i
(A)[ > 0, para
i < m, y del hecho de que (
m

m
A) es el unico autovalor de
m

m
A de modulo maximo,
deducimos que

m
m

i=1

i
(A) =
m

i=1

i1

i
(A) =

m

m1

m
(A)
m1

i=1
[
i
(A)[ > [
m+1
(A)[
m1

i=1
[
i
(A)[ .
Luego la Eq. (13.32) se cumple para m. Ahora, como
m
(A) es real, u
m
puede ser elegido real.
Por lo tanto tenemos que u
1
u
2
u
m
es autovector no nulo de
m

m
A correspodiente
a
1
(
m

m
A), y tiene coordenadas reales. Entonces, por la Observacion 13.6.1, tomando
= 1 o bien = 1, tenemos que u
1
u
2
u
2
u
m
> 0. Ahora, reemplazando a u
m
por u
m
en caso de que sea necesario, obtenemos la Eq. (13.33) para todo m I
n
.
Los autovectores reales u
1
, u
2
, . . . , u
n
conseguidos en el Teorema 13.6.2 posee propiedades
oscilatorias interesantes. Para sus formulaciones, necesitamos algunas deniciones.
Denicion 13.6.3. Sea x R
n
.
1. Notaremos por x(t) : [1, n] R
n
a la funcion linear a trozos
x(t) = (k + 1 t)x
k
+ (t k)x
k+1
si k t k + 1 , k I
n1
. (13.34)
Observar que x(t) es continua, lineal a trozos, y que x(j) = x
j
para todo j I
n
.
268 Matrices totalmente positivas
2. Los nodos de x(t) son las races de la ecuacion x(t) = 0, ordenados de manera creciente
(si son nitos, i.e., si no hay dos coordenadas nulas consecutivas de x).
3. Diremos que dos sucesiones ordenadas
1
<
2
< <
k
y <
2
<
k+1
estan
entrelazadas si se cumple que

k
<
k
<
k+1
, para todo k I
k
.
Teorema 13.6.4. Sea A /
n
(R) una matriz -ERS. Sean u
1
, . . . , u
n
sus autovectores
reales, correspondientes a los autovalores
k
(A), k I
n
(ordenados con modulos decre-
cientes). Entonces
1. La variaci on de signo de cada u
k
es exacta. Mas a un,
V (u
k
) = k 1 , para todo k I
n
. (13.35)
2. Ademas, los nodos de u
k
(t) y los de u
k+1
(t) estan entrelazados.
Demostracion. Fijemos k I
n
. Por el Teorema 13.6.2 podemos asumir que u
1
u
2

u
k
> 0. Luego, por el Lema 13.5.3, sabemos que V
+
(u
k
) k 1. Consideremos
J
n
A
1
J
n
, la cual es nuevamente ERS por el Teorema 13.2.3. Como J
n
u
k
es un autovector
de J
n
A
1
J
n
correspondiente a 1/
k
(A) =
nk+1
(J
n
A
1
J
n
), el argumento anterior da que
V
+
(J
n
u
k
) n k. Por la Eq. (13.28), deducimos que
V

u
k
= n 1 V
+
(J
n
u
k
) k 1 V
+
(u
k
) ,
lo que prueba el item 1. Para probar el item 2, necesitamos varios pasos previos:
Clamor 1: Para todo k I
n1
y todo (, ) R
2
0, se cumple que
V
+
(u
k
+u
k+1
) 1 V

(u
k
+u
k+1
) . (13.36)
En efecto, como u
1
u
k
u
k+1
> 0 (o < 0), la Proposicion 13.5.3 garantiza que, si
llamamos z = u
k
+u
k+1
, entonces V
+
(z) (k +1) 1 = k. Aplicando el mismo argumento
a J
n
u
n
, . . . , J
n
u
k+1
, J
n
u
k
, que son los primeros n k + 1 autovectores de las matriz ERS
J
n
A
1
J
n
, obtenemos, va la Eq. (13.28), que
V
+
(J
n
z) n k = V

(z) k 1 V
+
(z) 1 ,
lo que termina de mostrar la Eq. (13.36).
Sean x(t) = u
k
(t) e y(t) = u
k+1
(t). Por la Eq. (13.35) y la Observacion 13.5.2, si un nodo
de e x(t) o de y(t) es entero, la coordenada correspondiente de u
k
o u
k+1
es nula, no es ni la
primera ni la ultima, y las dos adyacentes son no nulas y de signos opuestos. Por lo tanto,
x(t) tiene k 1 nodos e y(t) tiene k nodos.
Clamor 2: Sean (, ) R
2
0 y j I
n
1, n. Si x(j) +y(j) = 0, entonces
_
x(j 1) +y(j 1)
_ _
x(j + 1) +y(j + 1)
_
< 0 . (13.37)
13.6 Totalmente Perron-Frobenius 269
En efecto, como en la Observacion 13.5.2, si z R
n
cumple que V
+
(z) 1 V

(z), entonces
z
j
= 0 implica que j = 1, j = n, o z
j1
z
j+1
< 0. Luego basta aplicar lo anterior y la Eq.
(13.36) al vector z = u
k
+u
k+1
.
Ahora vamos a por el item 2: Sean t
1
< t
2
< < t
k
los nodos de y(t). Entonces bastara
probar que, para todo l I
k1
, hay al menos un nodo de x(t) en el intervalo abierto (t
l
, t
l+1
).
Clamor 3: Supongamos que x(t) > 0 para todo t (t
l
, t
l+1
). Entonces
x(t
l
) ,= 0 ,= x(t
l+1
) y, por ende, 0 < = mnx(t) , t [t
l
, t
l+1
] .
Supongamos, por ejemplo, que x(t
l
) = 0. Tomemos i N tal que i 1 < t
l
< i (o bien j 1
y j + 1 si t
l
= j es entero). Como x(t) es lineal en [i 1, i], tenemos que x(i 1)x(i) < 0
(resp. x(j 1)x(j + 1) < 0, en este caso por la ecuacion (13.37) ). Tomando
=
y(i)
x(i)
_
resp. =
y(j + 1)
x(j + 1)
_
,
se tiene que x(t)+y(t) se anula en el intervalo [i1, i], ya que x(i)+y(i) = x(t
l
)+y(t
l
) = 0,
y es una funcion lineal en [i 1, i] (resp. se anula en [j, j + 1] por las mismas razones). Pero
esto contradice la Eq. (13.37).
Recta nal: Por la denicion de nodos, y(t) es denido, supongamos que 0, en el intervalo
[t
l
, t
l+1
]. Sea el mnimo de los > 0 para los cuales z

(t) = x(t) y(t) tiene un nodo


s [t
l
, t
l+1
]. Observar que s ,= t
l
porque y(t
l
) = 0 ,= x(t
l
). Por lo mismo s ,= t
l+1
. Ahora, por
la minimalidad de , tenemos que z

(t) 0 en [t
l
, t
l+1
]. Pero como z

(t) = (u
k
u
k+1
)(t) es
lineal en los intervalos [j, j + 1], j I
n1
, esto es posible solo cuando s N, o cuando z

(t)
se anula en todo el intervalo [j, j + 1] que contiene a s. Pero cada una de estas psibilidades
produce una contradiccion con la Eq. (13.37), en el primer caso porque z

(t) no cambia de
signo, en el otro porque z

(t) tiene dos ceros enteros consecutivos.


Si A /
n
(R) es estrictamente regular de signo, su adjunta A

es tambien estrictamente
regular de signo. Por el Teorema 13.6.2, los autovectores reales v
1
, v
2
, . . . , v
n
de A

pueden
ser elegidos de forma tal que
v
1
v
2
v
k
> 0 , para todo k I
n
.
Las propiedades (13.33) y (13.38) de los autovectores de A y A

caracterizan en alg un sentido


la regularidad de signo estricta.
Teorema 13.6.5. Si A /
n
(R) es inversible, tiene n autovalores reales de distinto modulo,
y los autovectores reales u
k
de A y v
k
de A

, correspondientes a
k
(A) =
k
(A

), son elegidos
de forma tal que satisfagan las ecuaciones
u
1
u
2
u
k
> 0 y v
1
v
2
v
k
> 0, para todo k I
n
, (13.38)
entonces alguna potencia de A es estrictamente regular de signo.
270 Matrices totalmente positivas
Demostracion. Notemos
k
=
k
(A), para k I
n
. Sean
U = [u
1
, u
2
, . . . , u
n
] y V = [v
1
, v
2
, . . . , v
n
] .
Entonces U y V son inversibles. Si notamos = diag(
1
,
2
, . . . ,
n
), entonces
A = U U
1
y A

= V V
1
. (13.39)
Es facil ver que u
i
, v
j
) = 0 para i ,= j. Esto dice que V

U es diagonal. Sea C
n
tal que
diag ()
1
= V

U = U
1
= diag () V

. (13.40)
Se tiene que > 0 (es decir que sus entradas son positivas), ya que para todo k I
n
,
0 < k! u
1
u
2
u
k
, v
1
u
2
v
k
) = det V

U[I
k
] =
k

i=1

1
i
.
Por las ecuaciones (12.1) (Cauchy-Binnet), (13.39) y (13.40), y varias reducciones elementales,
podemos ver que, para todo p N y para todo par , Q
k,n
,
det A
p
[[] = det(U
p
U
1
)[[] =

Q
k,n
det U[[]
_
k

i=1

i
_
p
det U
1
[[]
=

Q
k,n
det U[[]
_
k

i=1

i
_
p

_
k

i=1

i
_
det V [[]
=
_
k

i=1

i
_
p

_
k

i=1

i
_
det U[[I
k
] det V [[I
k
] +
+

Q
k,n
,= I
k
det U[[]
_
k

i=1

i
_
p
_
k

i=1

i
_
det V [[].
Notar que, como [
1
[ > [
2
[ > > [
n
[ > 0, entonces
k

i=1
[
i
[ >
k

i=1
[

[ para todo Q
k,n
I
k
,
mientras que las ecuaciones de (13.38) implican que
U[[I
k
] > 0 y V [[I
k
] > 0 para todo k N y , Q
k,n
.
Entonces para un p sucientemente grande, det A
p
[[] es no nulo y tiene el mismo signo que
_
k

i=1

i
_
p
para cada , Q
k,n
. Entonces A
p
es ERS.
Ahora compararemos los autovalores de A con los de A[], para un adecuado. El siguiente
Teorema generaliza un hecho que sabamos para A H(n) y Q
n1,n
(entrelace de Cauchy)
y que habamos mencionado para tambien para Q
k,n
(ver Teorema 2.4.2).
13.6 Totalmente Perron-Frobenius 271
Teorema 13.6.6. Sea A /
n
(R) una matriz ETP. Dados k N y Q
k,n
con compo-
nentes consecutivas (i.e., tal que d() = 0), se tiene que, para todo j I
k
,

j
(A) >
j
(A[]) >
n+jk
(A) (13.41)
y

j
(A) >
j
(A/
t
) >
n+jk
(A) . (13.42)
Demostracion. El caso que concentra la diculatad es cuando k = n1, donde = I
n1
o bien
= I
n
1. Supongamos que = I
n1
, y llamemos B = A[]. Observar que (A) consta
de las n raices distintas del polinomio caracterstico P
A
(t) = det(tI A). Analogamente
(B) consta de las n 1 raices distintas del polinomio caracterstico P
B
(t) = det(tI B).
Llamemos
i
=
i
(A), i I
n
y notemos A
t
= tI
n
A y B
t
= tI
n
B, t R. Para mostrar
la Eq. (13.41) para este , basta ver que
P
B
(
i
)P
B
(
i+1
) < 0 , para todo i I
n1
. (13.43)
Consideremos los vectores x
t
, con parametro real t, denidos por
x
t
:=
_
(1)
n+i
det A
t
[[i)

iIn
.
Entonces la Regla de Cramer (12.10) muestra que, para todo t / (A), se tiene la igualdad
x
t
= d
A
(t)A
1
t
e
n
. Luego, A
t
x
t
= P
A
(t)e
n
para esos t, pero por continuidad,
A
t
x
t
= 0 si t (A) = Ax
j
=
j
x
j
, para j I
n
. (13.44)
La n-esima componente x
t
(n) de x
t
coincide con P
B
(t), mientras que la primera componente
x
t
(1) admite la representacion
x
t
(1) =
n

j=2
t
nj

Q
j,n
1=1,j=n
det A[ n[ 1]. (13.45)
Esto ultimo sale del hecho de que
A
t
[I
n1
[2, . . . , n] =
_

_
a
12
a
23
. . . a
1,n1
a
1,n
t a
22
a
23
. . . a
2,n1
a
2,n
a
32
t a
33
. . . a
3,n1
a
3,n
.
.
.
.
.
.
a
n1,2
a
n1,3
. . . t a
n1,n1
a
n1,n
_

_
y viendo que subdeterminantes le correponden a cada potencia de t.
Clamor: Se cumple que x
t
(1) > 0 para todo t > 0.
En efecto, como A es TP, la Eq. (13.45) muestra que x
t
(1) es un polinomio en t con coecientes
no negativos. Luego bastara mostrar que existe un > 0 tal que x

(1) ,= 0 (as ya sabramos


272 Matrices totalmente positivas
que alg un coeciente no se anula). Para ello usaremos que, como P
B
(t) tiene solo n1 raices,
existe j I
n
tal que x
j
(n) = P
B
(
j
) ,= 0. Por la Eq. (13.44), x
j
es un autovector vector no
nulo (porque x
j
(n) ,= 0) de A, que es ETP. Luego, por el Teorema 13.6.4, x
j
tiene variacion
exacta, por lo que su primer componente x
j
(1) ,= 0.
Aplicando el Clamor a los otros
i
, junto con la Eq. (13.44), concluimos que x
i
es el
i-esimo autovector de A con x
i
(1) > 0, para todo i I
n
. Luego se sigue del Teorema
13.6.4 que la n-esima componente tiene signo (1)
i1
. Esto establece la Eq. (13.43), porque
x
i
(n) = P
B
(
i
), i I
n
. Para = 2, 3, . . . , n, tomamos nuevamente B = A[] y ahora
y
t
=
_
(1)
1+i
det A
t
[[i)

iIn
.
En este caso tenemos A
t
y
t
= P
A
(t)e
1
, lo que tambien implica que Ay
j
=
j
y
j
. Aqu,
y
t
(1) coincide con P
B
(t), mientras que la ultima admite un representacion como la anterior.
Entonces la primera tiene signo (1)
i1
y obtenemos as la Eq. (13.41) para este .
El caso k < n 1 se probara por induccion descendente. Supongamos que la Eq. (13.41)
es cierta para cierto k > 1 y tomemos Q
k1,n
con d() = 0. Supongamos que =
i, i + 1, . . . , i + k 2 con i + k 1 n. Llamemos = i + k 1. Aplicando el caso
anterior a la matriz ETP A[] /
k
(R), obtenemos que

j
(A[]) >
j
(A[]) >
j+1
(A[]) , para todo j I
k1
.
Por otro lado, la hipotesis inductiva asegura que

j
(A) >
j
(A[]) >
n+jk
(A) , para todo j I
k
.
Combinando estas desigualdades, se obtien la Eq. (13.41) para el caso k 1, lo que completa
la induccion. Resta ver el caso en que i +k 2 = n, i. e. = i, i +1, . . . , n, que se obtiene
de manera analoga, aplicando el segundo argumento a la matriz A[i 1]. Veamos ahora
la Eq. (13.42): Sabemos que J
n
A
1
J
n
es tambien ETP por el Teorema 13.2.3. Ademas, por
el Teorema 12.1.4, se ve facilmente que (J
n
A
1
J
n
)[] = J

(A/
t
)
1
J

. Observemos que

_
J
n
A
1
J
n
_
= (A)
1
. Luego,
1

j
(A)
=
nj+1
(J
n
A
1
J
n
) y
1

j
(A/
t
)
=
kj+1
((J
n
A
1
J
n
)[]) .
Aplicando la Eq. (13.41) a J
n
A
1
J
n
, tenemos que

j
(J
n
A
1
J
n
) >
j
(J
n
A
1
J
n
[]) >
n+jk
(J
n
A
1
J
n
) .
Luego

j
(A) =
nj+1
(J
n
A
1
J
n
)
1
>
kj+1
(J
n
A
1
J
n
[])
1
=
j
(A/
t
)
>
j
(J
n
A
1
J
n
)
1
=
n+jk
(A) ,
lo que completa la prueba.
Con la ayuda del Teorema de aproximacion 13.1.13, algunos de los resulatdos anteriores
pueden ser genarlizados al caso en que A es regular de signo o TP.
13.6 Totalmente Perron-Frobenius 273
Corolario 13.6.7. Si A /
n
(R) es regular de signo con signatura , entonces todos sus
autovalores son reales, y

k1

k
(A) > 0 , para todo k = 1, 2, . . . , rkA .
Si A es TP, entonces para cada k I
n
y cada Q
k,n
tal que d() = 0, se tiene que

j
(A)
j
(A[])
n+jk
(A) ,
para todo j I
n
.
Dado x = (x
i
) R
n
, denotemos por x

a su reordenacion decreciente:
x

1
x

2
x

n
y x

i
= x
(i)
para alguna S
n
. (13.46)
Teorema 13.6.8. Sea A /
n
(R) una matriz TP. Entonces
diag (A) (A) .
Demostracion. Dada una matriz L /
m
(R), llamemos

(L) = diag (L)

, a su diagonal
reordenada. Probaremos el teorema por induccion en n. El caso n = 1, es trivial. Asumamos
que el teorema es cierto en /
n1
(R). Como tr (A) = tr A = tr diag (A), y
i
(A) =

i
(A),
i I
n
, basta mostrar que
k

i=1

i
(A)
k

i=1

i
(A) para k I
n1
. (13.47)
Sean p, q I
n
tales que A
11
=

p
(A) y A
nn
=

q
(A). Tomando la conversion de A en
caso de que sea necesario, podemos asumir que p > q. Sea B = A(n) y C = A(1). Como
B, C /
n1
(R) son ambas TP, la hipotesis inductiva determina que
k

i=1

i
(B)
k

i=1

i
(B) y
n1

i=k

i
(C)
n1

i=k

i
(C) , k I
n1
. (13.48)
Observar que

i
(B) =

i
(A) para 1 i p (aca se usa que p > q). Por el Corolario 13.6.7,

i
(A)
i
(B), para i I
n1
. Luego, las desigualdades de (13.48) implican la Eq. (13.47)
para los casos 1 k p. Veamos ahora que
n

i=k+1

i
(A)
n

i=k+1

i
(A) , para k > p . (13.49)
En efecto, como

i
(A) =

i
(C) si p +1 i n, y
i1
(C)
i
(A), para todo i I
n1
(por
el Corolario 13.6.7 ), observamos que la Eq. (13.48) implica (13.49), y por ende tambien la
Eq. (13.47) para estos valores de k.
274 Matrices totalmente positivas
13.7 Algunos ejemplos
En esta seccion presentamos algunos ejemplos de matrices TPs y la caracterizacion de estas
matrices.
13.7.1. [N ucleos totalmente positivos] La mayor parte de las matrices TPs no triviales surgen
de la restriccion de n ucleos totalmente positivos a conjuntos nitos adecuados. Daremos
a continuacion algunas formulas de produccion de n ucleos totalmente positivos: Sean ,
conjuntos totalmente ordenados (en general, subconjuntos de R o Z).
1. Una funcion a valores reales K(s, t) para s , t es un n ucleo totalmente
positivo (TP) si la matriz [K(s
i
, t
j
)]
i,jIn
es TP para todo n N y toda eleccion
s
1
< s
2
< . . . < s
n
en y t
1
< t
2
< . . . < t
n
en .
La positividad total estricta de un n ucleo se dene analogamente.
2. Si K(s, t) es TP y f(s), g(t) son funciones positivas en y respectivamente, entonces
el n ucleo f(s)K(s, t)g(t) es TP.
3. Si K(s, t) es TP y (s) es un operador monotonamente creciente de un conjunto total-
mente ordenado
1
a , y (t) es un operador monotonamente creciente de un conjunto
totalmente ordenado
1
a , entonces K((s), (t)) es un n ucleo TP en
1

1
.
4. Si dos n ucleos L(s, t) y M(s, t) son TPs y d() es una medida en , entonces el n ucleo
K(u, v) :=
_
T
L(s, u)M(s, v)d(s) , para u, v , (13.50)
es TP en , si la integral existe. Esto es solo una modicacion del Teorema 13.2.1.
Pasemos ahora a la construccion de ejemplos concretos
1. El n ucleo L(k, t) = t
k
, denido en en N
0
R
+
es TP. Esto es una consecuencia de la
positividad total de las matrices de Vandermonde, vista en el Ejemplo 13.1.6.
2. Dados k I
n
y R
n+1
+
, el n ucleo K(s, t) =
n

k=0

k
s
k
t
k
es TP en R
+
R
+
. En efecto,
a K(s, t) se lo puede realizar como una composicion del tipo (13.50), con dos copias del
n ucleo L del item anterior (con la medida en N
0
dada por los
k
).
3. Para cualquier > 0 el n ucleo K(s, t) = exp(st) es TP en R
+
R
+
, ya que es un
lmite de n ucleos del item anterior (con
k
=
k
/k! ).
4. El n ucleo K(s, t) = exp[(s t)
2
] es ETP en R
+
R
+
, porque
exp
_
(s t)
2

= exp(s
2
) exp(2st) exp(t
2
) , para todo par s , t R
+
.
13.7 Algunos ejemplos 275
5. Por lo tanto, para todo n N y todo p R

+
, la matriz
G
p
=
_
exp
_
p (i j)
2

_
i,j In
/
n
(R)
es ETP por el item 3. Ademas, se tiene que G
p

p
I
n
. Esta sucesion (tomando
p N) ha sido usada varias veces en secciones anteriores.
6. Para cada 0 < < 1 y 0 ,= p R, consideremos el promedio pesado en R
+
R
+
M
,p
:= s
p
+ (1 )t
p

1/p
. (13.51)
Entonces M
,p
(s, t) o 1/M
,p
(s, t) es TP de acuerdo a si p < 0 o p > 0. Esto se sigue
de la observacion de que para cualquier > 0
1
(s +t)

=
1
()
_
0

e
us
e
ut
du
[u[
1
, (13.52)
donde () es la funcion gamma, y el n ucleo exp(us) es TP en R
+
R
+
.
7. El n ucleo K(s, t) = mns, t es TP en R
+
R
+
, porque
K(s, t) = lim
p
M
,p
(s, t) (13.53)
8. Si f(t), g(t) son funciones positivas en R
+
tales que h(t) =
f(t)
g(t)
es no decreciente,
entonces el n ucleo
K(s, t) = f
_
mns, t
_
g
_
maxs, t
_
es TP en R
+
R
+
. En efecto, es facil ver que se la puede reescribir como
K(s, t) = mnh(s), h(t) g
_
mns, t
_
g
_
maxs, t
_
= g(s) mnh(s), h(t) g(t) .
9. Dado > 0, poniendo g(t) = exp(t) y f(t) = exp(t) (con lo que nos queda h(t) =
exp(2t), que es creciente), obtenemos que el n ucleo del item 8,
K(s , t) = exp
_
mns, t maxs, t
_
= exp ( [st[ ) es TP en R
+
R
+
.
10. Sean b
i

iIn
y c
i

iIn
dos sucesiones en R

+
. Entones la matriz
/
n
(R)
_
b
mn(i,j)
c
max(i,j)

i ,j In
es TP
b
1
c
1

b
2
c
2

b
n
c
n
.
Esto se sigue inmediatamente del item 8, ya que podemos considerar las funciones
f(t) = b
i
, si i 1 t < i y g(t) = c
i
, si i 1 t < i .
Una matriz de este tipo es llamada matriz de Green.
276 Matrices totalmente positivas
13.7.2 (Matriz de Hurwitz). Un conocido teorema de A. Hurwitz dice que un polinomio
p(z) = d
0
z
n
+ d
1
z
n1
+ . . . + d
n
a coecientes reales (d
0
> 0) tiene todos sus ceros en
semiplano abierto Re z < 0 si y solo si la matriz
H
p
=
_
d
2ji

i,j In
=
_

_
d
1
d
3
d
5
d
7
d
9
0
d
0
d
2
d
4
d
6
d
8
0
0 d
1
d
3
d
5
d
7
0
0 d
0
d
2
d
4
d
6
0
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 0 0 d
n
_

_
/
n
(R) , (13.54)
donde ponemos que d
k
= 0 para k < 0 o k > n, tiene menores principales positivos:
det H
p
[1, 2, . . . , k] > 0 , para todo k I
n
. (13.55)
Un tal polinomio p(z) es llamado un polinomio de Hurwitz y la matriz H es la matriz de
Hurwitz asociada a el.
Mostraremos, por induccion en n, que en tal caso la matriz de Hurwitz es TP. Observar que
d
1
> 0 para cualquier n, por la Eq. (13.55). Luego el caso n = 1 es trivial. Supongamos
que es cierto para n 1. Tomemos una H
p
/
n
(R) para un buen polinomio p. Llamemos
G = H/1 /
n1
(R), indexada en 2, 3, . . . , n. La Eq. (12.15) nos asegura que
d
1
det
_
H/1[2, . . . , k]
_
= det H
p
[I
k
] > 0 para todo k I
n
1 . (13.56)
Sean g
j
= F
j
(G) R
n1
, para j = 2, 3, . . . , n. Llamemos c =
d0
d1
. Entonces las matriz
T /
n1
(R), indexada en 2, 3, . . . , n, cuyas las f
j
= F
j
(T) estan denidos por
f
2
= g
2
, f
2j1
= g
2j1
, y f
2j
= g
2j
c g
2j1
para j 2 , (13.57)
tambien tiene menores principales positivos. Haciendo la cuenta vemos que T es una matriz
de la forma (13.54) con n 1 en lugar de n, y d
t
j
en lugar de d
j
, donde
d
t
2j
= d
2j+1
y d
2j1
= d
2j
c d
2j+1
, para j = 0, 1, 2, . . . (13.58)
Por la hipotesis inductiva, tenemos que T es TP, por lo que tambien lo es

T :=
_
0 0
0 T
_
/
n
(R) .
Haciendo algunas cuentas, podemos deducir de la Eq. (13.58) que
H
p
[1, 2, . . . , n 2] = H
p
(n 1, n) =
__
S +
c
2
(I
n
J
n
)
_
S

TS

_
(n 1, n), (13.59)
donde S = [0, e
1
, e
2
, . . . , e
n1
]. Las matrices S y S

son TPs, y lo es la matriz triangular


superior S +
c
2
(I
n
J
n
). Ahora la positividad total de H
p
sale de la Eq. (13.59) por los
Teoremas 13.2.1 y 13.1.4.
13.8 Apendice: La prueba del criterio clave 277
13.7.3 (Matrices de Toeplitz). Para una sucesion (bi-)innita a
n
: < n < , la
matriz (a
ij
)
i,jN
es llamada su matriz de Toeplitz, y la funcion f(z) =

a
n
z
n
, su funcion
generadora. Un matriz de Toeplitz es TP si y solo si su funcion generadora es de la forma
f(z) = Cz
k
exp
_

1
z +

1
z
_

1
(1 +
n
z)

1
_
1 +
n
z
_

1
(1
n
z)

1
_
1
n
z
_
,
donde k es un entero, C 0,
1
,
1
0 y
n
,
n
,
n
,
n
0 son tales que

1
(
n
+
n
+
n
+
n
) < .
Cuando a
n
= 0 para n < 0, la matriz de Toeplitz es TP si y solo si su funcion generadora es
de la forma
f(z) = Ce
z

1
(1 +
n
z)

1
(1
n
z)
,
donde C 0, 0, y
n
,
n
0 son tales que

1
(
n
+
n
) < . Las pruebas de estos
hechos, basadas fuertemente en la teora de funciones analticas estan mas alla del alcance de
este trabajo. Cuando es aplicada a un polinomio la caracterizacion anterior implica que el
polinomio p(z) = d
0
z
n
+d
1
z
n1
+. . .+d
n
(d
0
> 0) tiene todos sus ceros en eje real no negativo
si y solo si la matriz innita (d
n+ji
)
i,jN
es TP, donde d
k
= 0 para k < 0 o k > n. Notemos
que la matriz de Hurwitz H
p
introducida antes es una submatriz de T, mas precisamente
H
p
= T[n + 1, n + 2, . . . , 2n[2, 4, . . . , 2n].
13.7.4 (Funcion de frecuencia de Polya). Una funcion f(t) en (, ) es llamada una
funcion de frecuencia de Polya si el n ucleo K(s, t) := f(s t) es TP. La siguiente caracteri-
zaci on se debe a Schoenberg (1953), f(t) es una funcion de frecuencia de Polya si y solo si su
transformada bilatera de Laplace existe en una tira abierta que contenga al eje imaginario y
tiene la forma
_

e
st
f(s)ds = C exp(t
2
+t)

1
exp(
n
t)
1 +
n
t
,
donde C > 0, 0, y
n
son reales tales que 0 <

1
[
n
[
2
< . La prueba de este
resultatdo esta mas alla del alcance de este trabajo.
13.8 Apendice: La prueba del criterio clave
Las pruebas de los criterios de positividad total se basan en intrincados calculos de deter-
minantes que permiten usar un argumento inductivo. Para ello usaremos fuertemente los
278 Matrices totalmente positivas
resultados de la seccion 2 del Captulo 12. Recordemos, dado que las usaremos bastante,
algunas ecuaciones de all:
Dados , Q
k,n
y, ademas, , Q
l,n
tales que
t
,
t
, sean
= = (
1
,
2
, . . . ,
k+l
) y = = (
1
,
2
, . . . ,
k+l
) Q
k+l,n
.
Existen entonces y Q
k,k+l
tales que
i
=
i
y
i
=
i
, i I
k
. Luego denimos
sgn


= sgn() = (1)
tr
k(k+1)
2
, sgn


= sgn() . (13.60)
Repasemos la Eq. (12.15): Sea A /
n
(R). Dados , Q
k,n
y ademas, , Q
l,n
tales
que
t
,
t
, entonce se tiene que
det A[[] det
_
(A/[[])[[]
_
= sgn


sgn


det A[ [ ] (13.61)
Una consecuencia inmediata es la siguiente caracterizacion de las entradas de un complemento
de Schur, vista como (12.16): Dados , Q
k,n
, se tiene
A/[[]
(

i
,

j
)
= sgn


t
i

sgn


t
j

det A[
t
i
[
t
j
]
det A[[]
(13.62)
La siguiente igualdad, vista en (12.12), es valida para toda A /
n
(R): Dado Q
k,n
,

Q
k,n
sgn() det A[[] det A([) = sgn() det A . (13.63)
Identidad de Sylvester (Eq. (12.17) ): Dados A /
n
(R) y , Q
k,n
, se cumple que
det
_
_
det A[
t
i
[
t
j
]
_
i,jI
nk
_
= det A det A[[]
nk1
(13.64)
Necesitamos ademas el siguiente resultado especco:
Lema 13.8.1. Sea A /
n
(R). Dados Q
n1,n
y Q
n2,n
tales que , se tiene
det A[[1, n) det A[[q) = det A[[1, q) det A[[n) + det A[[q, n) det A[[1) , (13.65)
para todo 1 < q < n. Notar que asumimos que n 3.
Demostracion. Fijemos p y sean = p y = 1, q, n
t
. Ademas sean m = .
Dividiendo ambos lados de la Eq. (13.65) por det A[[]
2
tenemos que el lado izquierdo de la
(eventual) igualdad queda
det A[ p[ q] det A[ p, m[ 1, n]
det A[[]
2
=
13.8 Apendice: La prueba del criterio clave 279
y el derecho,
det A[ p[ n] det A[ p, m[ 1, q]
det A[[]
2
+
det A[ p[ 1] det A[ p, m[ q, n]
det A[[]
2
= .
Llamemos B = A/[[] . Notar que, por las ecuaciones (13.61) y (13.62), se tiene que
= sgn

p]
sgn

q]
sgn

p,m]
sgn

1,n]
B
p,q
det
_
B[p, m[1, n]
_
,
Por otra parte, =
2
B
p,n
det B[p, m[1, q] +
3
B
p,1
det B[p, m[q, n] , donde

2
= sgn

p]
sgn

n]
sgn

p,m]
sgn

1,q]
y

3
= sgn

p]
sgn

1]
sgn

p,m]
sgn

q,n]
.
Sacando como factor a sgn

p]
sgn

p,m]
, se ve que la Eq. (13.65) es equivalente a la
siguiente relacion: sgn

q]
sgn

1,n]
B
p,q
det B[p, m[1, n] =
sgn

n]
sgn

1,q]
B
p,n
det B[p, m[1, q] + sgn

1]
sgn

q,n]
B
q,1
det B[p, m[q, n] .
Por otra parte, usando la Eq. (13.60), una cuidadosa cuenta muestra que
sgn

q]
sgn

1,n]
= sgn

n]
sgn

1,q]
= sgn

1]
sgn

q,n]
. (13.66)
En efecto, observar que por la denicion usando permutaciones tenemos que
sgn

q]
= sgn

q,n]
, sgn

1]
= sgn

1,n]
, y que sgn

n]
= 1 .
Luego las igualdades de (13.66) surgen de que sgn

1,q]
= sgn

1]
sgn

q]
. Usando
ahora la Eq. (13.66), nos queda que la Eq. (13.65) es equivalente a la relacion:
B
p,q
det B[p, m[1, n] = B
p,n
det B[p, m[1, q] +B
p,1
det B[p, m[q, n] ,
que se verica facilmente para cualquier matrix B (notar que son determinantes de matrices
de 2 2).
Sean A /
n,m
(R) y una sucesion de signatura. Sea r = mnn, m. Recordemos las
deniciones: A es -RS (resp. -ERS) si

k
det A[[] 0 (resp. > 0) para todo k I
r
, Q
k,n
, Q
k,m
. (13.67)
Recordemos el enunciado del Teorema 13.1.4:
Teorema 13.1.4 Sea A /
n,m
(R) con rk A = r, y sea una sucesion de signatura.
280 Matrices totalmente positivas
1. Para que A sea -RS es suciente que, para todo k I
mnn,m]
y Q
k,n
,

k
det A[[] 0 para Q
k,m
tal que d() mr . (13.68)
2. En particular, A es TP si det A[[] 0 en esos casos.
Demostracion. Observar que cualquier con d() ,= 0 cumple que d() m 2. Eso hace
innecesario estudiar los casos en que r 2, en particular si n 2 o m 2. Asumamos
entonces que n, m 3. Probaremos la la Eq. (13.67) por induccion en k, asumiendo que A
cumple la condicion (13.68). Cuando k = 1, la Eq. (13.67) es cierta porque d() = 0 para
cualquier Q
1,m
. Supongamos que se cumple la Eq. (13.67) para todos los j < k pero no
para k. Luego deben existir un Q
k,m
y un Q
k,n
tales que

k
det A[[] < 0 , (13.69)
y que d() es el mnimo para los que cumplen tal cosa. En particular tenemos que
l = d() > mr . (13.70)
Armamos el tal cumple que para todo p / tal que
1
< p <
k
, debe pasar que
a
p
a
2
a

k1
= 0 . (13.71)
En el caso k = 2 esto sera que a
p
= 0. Observar que si (13.71) fuera cierta, tendramos
que dimGen a
j
:
1
j
k
k, y estamos considerando k + l columnas. Por lo tanto
r = rk A ml, lo que contradira la Eq. (13.70). Esta contradiccion mostrara que la Eq.
(13.67) es valida para d() = k.
As que vamos a por la formula (13.71): Para esto jemos un p como antes, y llamemos
=
2
,
3
, . . . ,
k1
. Una reformulacion de (13.71) es decir que para todo tal p vale que el
rk(A[[ p] ) k 2. Dado Q
k1,n
, con , el Lema 13.8.1 nos dice que
det A[[ p] det A[[
1
,
k
] =
det A[[
k
] det A[[
1
, p] + det A[[
1
] det A[[ p,
k
] (13.72)
Como
1
,
k
= , d(
1
, p) l 1 y d( p,
k
) l 1, se sigue de la Eq.
(13.69), la hipotesis inductiva y la propiedad minimal de l que la identidad arriba mencionada
solo puede ser valida cuando
det A[[ p] = 0 , para todo Q
k1,n
, , (13.73)
pues el lado derecho de la igualdad (13.72) tiene signo
k1

k
(o 0) y en el izquierdo hay,
por hipotesis, un factor cumple que
k
det A[[] < 0 y el otro
k1
det A[[ p] 0.
Por otro lado, si k 3, al calcular det A[[] ,= 0 va la Eq. (13.63), vemos que existe un
Q
k2 ,n
tal que y det A[[] ,= 0. Luego, para probar que rkA[[ p] k 2,
13.8 Apendice: La prueba del criterio clave 281
sera suciente mostrar que todo vector la de A[[ p] es una combinacion lineal de los
vectores la con ndices en , o equivalentemente que
det A[ q[ p] = 0 , para todo q I
n
. (13.74)
En el caso k = 2 el tal = (al igual que ), pero es claro que (13.74) equivale a que a
p
= 0,
y el resto de la cuenta funciona. Cuando q , (13.74) se deduce de la Eq. (13.73), ya que
q Q
k1,n
y esta dentro de . Fijemos ahora un q / . Sean =
1
,
2
,
3
=
( ) q, y =
1
, p,
k
. Consideremos la matriz
B /
3
(R) dada por b
ij
= det A[
i
[
j
] , para i , j I
3
.
Entonces por hipotesis inductiva todos los b
ij
tienen el mismo signo
k1
y, por la Identidad
de Sylvester (13.64), todos los subdeterminantes de matrices 2 2 de B[[1) y B[[3) tienen
el mismo signo
k2

k
. Por otro lado, la Eq. (13.73) implica que b
i,2
= 0 siempre que
i
,= q.
Luego la Eq. (13.74) equivale a que C
2
(B) = b
2
= 0. Si q =
1
, tendramos
B =
_
_
det A[ q[
1
] det A[ q[ p] det A[ q[
k
]
det A[
2
[
1
] 0 det A[
2
[
k
]
det A[
3
[
1
] 0 det A[
3
[
k
]
_
_
,
con todas las entradas del mismo signo. Si b
2
,= 0, las condiciones anteriores solo son consis-
tentes cuando b
2,1
= b
3,1
= 0 o bien b
2,3
= b
3,3
= 0. Esto es as porque los de la izquierda
producen determinantes (de 2 2) de un signo y los de la derecha del signo contrario, cosa
solo permitida si del lado malo (el signo que no concuerda con
k2

k
) son ambos cero. En
el caso de que q =
3
pasa lo mismo (b
1,1
= b
2,1
= 0 o bien b
1,3
= b
2,3
= 0).
Aplicando nuevamente la Eq. (13.64) tendramos que, si = a
1
a
2
, entonces
det
_
det A[ a
1
[
1
] det A[ a
1
[
k
]
det A[ a
2
[
1
] det A[ a
2
[
k
]
_
= det A[[] det A[[] (13.75)
es nulo, mientras que det A[[] ,= 0. Llegamos a que det A[[] = 0, lo que no vale.
Supongamos ahora que q =
2
. Queda
B =
_
_
det A[
1
[
1
] 0 det A[
1
[
k
]
det A[ q[
1
] det A[ q[ p] det A[ q[
k
]
det A[
3
[
1
] 0 det A[
3
[
k
]
_
_
,
Ahora debe pasar que, si b
22
,= 0, entonces b
1,1
= b
3,3
= 0 o bien b
1,3
= b
3,1
= 0. Esto sale
porque det B[1, 2[1, 2] y det B[1, 2[2, 3] deben tener signo
k2

k
, pero deberan ser opuestos,
porque todos los b
ij
tienen el mismo signo. Si por ejemplo el malo es el de la derecha, debe
pasar que b
1,3
= 0. Y la misma idea obligara a que b
3,1
= 0, por lo que B tendra una diagonal
con tres tipos del mismo signo. Pero en tal caso, la matriz de (13.75), que es B[1, 3[1, 3], sera
diagonal y su determinante tendra signo
k2

k
, por lo que el de det A[[] sera
k
. Minga.
En el caso opuesto (b
1,1
= b
3,3
= 0), un razonamiento semejante lleva a la misma concluson
282 Matrices totalmente positivas
absurda. As b
2
= 0, lo que establece la validez de la Eq. (13.71). Ya habamos visto que ello
muestra que la Eq. (13.67) es valida para d() = k, lo que completa la induccion.
Recordemos el enunciado del Teorema 13.1.5:
Teorema 13.1.5 Sean A /
n,m
(R) y una sucesion de signatura.
1. Para que A sea -ERS es suciente que, para todo k I
mn(n,m)
,

k
det A[[] > 0 para Q
k,n
, Q
k,m
tales que d() = d() = 0 .
2. En particular, A es ETP si det A[[] > 0 es esos casos.
Demostracion. Probemos las desigualdades

k
det A[[] > 0 para Q
k,n
, Q
k,m
, k I
mn(n,m)
, (13.76)
por induccion en k. Cuando k = 1, esto es trivial porque d() = d() = 0 para Q
1,n
y
Q
1,m
. Asumamos que la Eq. (13.76) es cierta con k 1 en lugar de k. Primero jemos
un Q
k,n
con d() = 0, y probemos la Eq. (13.76) para este por induccion en l = d().
Cuando l = 0, esto se sigue de la hipotesis del teorema. Supongamos que
k
det A[[] > 0
siempre que Q
k,m
y d() l 1. Sea Q
k,m
con d() = l. Entonces existe p tal que

1
< p <
k
, d(
1
, p) l 1 y d( p ,
k
) l 1 ,
donde =
2
, . . . ,
k1
. Se sigue de la Eq. (13.65), como en la Eq. (13.72) de la prueba
del Teorema 13.1.4,
det A[[ p] det A[[
1
,
k
] =
det A[[
k
] det A[[
1
, p] + det A[[
1
] det A[[ p,
k
]
para cualquier Q
k1 ,n
tal que . Usando las dos hipotesis inductivas vemos que
el lado de la derecha es no nulo con signo
k1

k
, mientras que det A[[ p] en el lado
izquierdo es no nulo con signo
k1
. Por lo tanto la igualdad es consistente solo cuando

k
det A[[] > 0. Esto prueba la Eq. (13.76) para los Q
k,n
con d() = 0. Luego jamos
cualquier Q
k,m
y hacemos una induccion similar sobre l = d(), dado que el caso d() = 0
es lo que probamos antes. Hay que usar la Eq. (13.65) para las, que se deduce de la usual
tomando traspuestas de las matrices involucradas. As podemos concluir que la Eq. (13.76)
es cierta en general.
13.9 Ejercicios
13.9.1. Sea A /
n
(R) triangular inferior. Entonces es TP si se verica que
det A[[1, 2, . . . , k] > 0 para cada k I
n
y cada Q
k,n
con d() = 0 .
13.9 Ejercicios 283
13.9.2. Sea A /
n
(R) tal que A es de Jacobi y A0 (entradas positivas). Probar que
exite un R tal que I +A es TP.
13.9.3. Sea A /
n
(R) la matriz del Ejemplo 11.2.15. Porbar que, si R, entonces
I +A es TP 1 .
Cotejar las propiedades de sus autovalores y autovectores con los resultados desarrollados en
las secciones 13.5 y 13.6.
13.9.4. Probar detalladamente el Teorema 13.2.1 que deca:
Sean A /
n,m
(R) y B /
m,l
(R). Probar que entonces
1. Si A es
A
-RS y B es
B
-RS, el producto AB es -RS, con =
A

B
.
2. En este caso, AB se convierte en -ERS si
(a) A es
A
-ERS y rk B = l, o si
(b) rk A = n y B es
B
-ERS.
3. Si A y B son ETP, tambien lo es AB.
13.9.5. Si dos n ucleos L, M : son TPs y d() es una medida positiva en , entonces
K(u, v) :=
_
T
L(s, u)M(s, v)d(s) , para u, v , es un n ucleo TP. (13.77)
Se sugiere replantearlo para que se pueda deducir del Teorema 13.2.1, en principio para
medidas concentradas en nitos atomos.
13.9.6. Vericar la veracidad de los otros 4 + 10 items del apartado 13.7.1, donde se muestran
los mas interesantes ejemplos de matrices TP.
284 Matrices totalmente positivas
Bibliografa
Libros
[1] A. Benedek y R. Panzone; La matriz positiva y su espectro, Informe Tecnico
interno No.86, INMABB, Baha Blanca, 2003.
[2] G. Golub y C. F. Van Loan, Matrix computations (Third edition) Johns Hopkins
Studies in the Mathematical Sciences, Johns Hopkins University Press, Balti-
more, MD, 1996.
[3] R. Bhatia; Matrix Analysis, Springer, New York, 1997.
[4] R. Bhatia; Positive Denite Matrices, Princeton Series in Applied Mathematics,
Princeton University Press, 2006.
[5] O. Cordes, Spectral theory of linear dierential operators and comparison alge-
bras, London Mathematical Society Lecture Note Series, 76. Cambridge Univer-
sity Press, Cambridge, 1987
[6] K. Homan y R. Kunze, Linear algebra, Prentice-Hall Mathematics Series,
Prentice-Hall, Inc., Englewood Clis, N.J. 1961.
[7] R. Horn y C. Johnson; Matrix Analysis, Cambridge University Press, Cambridge,
1985.
[8] R. Horn y C. Johnson; Topics in Matrix Analysis, Cambridge University Press,
Cambridge, 1991.
[9] T. Kato, Perturbation theory for linear operators, Reprint of the 1980 edition,
Classics in Mathematics, Springer-Verlag, Berlin, 1995.
[10] P. D. Lax, Linear Algebra, Springer Verlag, Berln, 1998.
[11] L. Mirsky, An introduction to Linear Algebra, Clarendon Press, Oxford, 1963.
[12] M. L. Metha, Matrix Theory, 2a Ed., Hindustan Publishing Co. 1989.
286 BIBLIOGRAF

IA
[13] R. Bellman, Introduction to Matrix Analysis, 2a Ed., McGraw-Hill, New York,
1970.
[14] W. F. Donoghue, Jr., Monotone matrix functions and analytic continuation,
Springer-Verlag, Berln, 1974.
[15] A. W. Marshall and I. Olkin, Inequalities: Theory of Mayorization and its Ap-
plications, Academic Press, New York, 1979.
[16] B. Simon, Trace ideals and their applications, London Mathematical Society Lec-
ture Note Series, 35, Cambridge University Press, Cambridge-New York, 1979.
Papers
[17] T. Ando; Structure of Operators with Numerical Radius One, Acta Sci. Math
(Szeged) 34 (1973), 11-15.
[18] T. Ando; Unitarily invariant norms related to the numerical radius, Linear Al-
gebra and its Applications, In Press, Corrected Proof, Available online 22 April
2005.
[19] T. Ando; Matrix Young inequalities, Operator theory in function spaces and
Banach lattices, 3338, Oper. Theory Adv. Appl., 75, Birkhauser, Basel, 1995.
[20] T. Ando, Totally positive matrices, Linear Algebra Appl. 90 (1987), 165-219.
[21] H. Araki On an inequality of Lieb and Thirring, Lett. Math. Phys. 19 (1990),
no. 2, 167-170.
[22] R. Bhatia y C. Davis, More matrix forms of the arithmetic-geometric mean in-
equality, SIAM J. Matrix Anal. Appl. 14 (1993), no. 1, 132136.
[23] J. L. Dalecki, S. G. Kren, Formulas of dierentiation according to a parameter
of functions of Hermitian operators, (Russian) Doklady Akad. Nauk SSSR (N.S.)
76, (1951). 1316.
[24] J. L. Dalecki, S. G. Kren, Integration and dierentiation of functions of Hermi-
tian operators and applications to the theory of perturbations, (Russian) Voronez.
Gos. Univ. Trudy Sem. Funkcional. Anal. 1956 (1956), no. 1, 81105.
[25] M. C. Gonzalez; Relaciones de Mayorizacion para el Producto de Hadamard,
Tesis de licenciatura, Depto. Mat. FCEA-UNC, Neuquen, 2003.
[26] O. Hirzallah and F, Kittaneh, Matrix Young inequalities for the Hilbert-Schmidt
norm, Linear Algebra Appl. 308 (2000), 77-84.
[27] C.R. Johnson, C.K. Li, Inequalities relating unitarily invariant norms and the
numerical radius, Linear and Multilinear Algebra 23 (1988) 183-191.
BIBLIOGRAF

IA 287
[28] Chi-Kwong Li; R. Mathias The Lidskii-Mirsky-Wielandt theorem - additive and
multiplicative versions, Numer. Math. 81 (1999), no. 3, 377413.
[29] V. I. Paulsen, S. C. Power and R.R. Smith, Schur products and matrix comple-
tions, J. Funct. Anal. 85 (1989), 151-178.
[30] E. L. Pekarev, Shorts of operators and some extremal problems, Acta Sci. Math.
(Szeged) 56 (1992), 147-163.

Indice alfabetico
adjunto, 5
autovalor, 7
base ortonormal, 5
adaptada, 28
capsula convexa, 97
complemento de Schur, 56, ver shorted ,
232
completaci on, 157
compresion, 121
conjunto
ortogonal, 4, 5
calculo funcional, 109
derivada, ver diferencial
direccional, 113
parcial, 113
descomposicion
polar, 41
valores singulares, 41
desigualdad
Ando-Johnson-Bapat, 195
Araki, 190
aritmetico-geometrica, 161, 171
Aronszajn, 33, 36
Cauchy-Schwarz para matrices, 200
Corach-Porta-Recht, 169
Cordes, 189
Fisher, 163
Golden-Thompson, 193
Hadamard, 161, 165
Hirzallah-Kittaneh, 175
Horn, 185
Holder para matrices, 179
Kittaneh, 168
Oppenheim, 162
Simon, 185
Thompson, 169
Weyl (mayorante de Weyl), 184
Young, 171, 172
determinante, 2, 137, 140, 147, 161, 230,
234
diagonales de una matriz, 78
diferencial, 113
dispersion, 244
espacio
de Hilbert, 4
espectro, 7
formula
Cauchy-Binnet, 141
Dalekii y Kren, 115
del radio espectral, 48
Lie-Trotter, 187
minimax, 31
factorizacion
Cholewsky, 41
LU, 24, 252
QR, 19, 20, 25, 162
UL, 24, 252
funcional, 155
adjunta, 155
autoadjunta, 155
positiva, 155
funcion
convexa, 74

INDICE ALFAB

ETICO 289
convexa de operadores, 120
concava de operadores, 120
diferencial, ver diferencial
gauge simetrica, 91
monotona de operadores, 115
g-inversa reexiva, 62
identidad
de Jacobi, 234
de Sylvester, 237, 278
k-potencia exterior, 139
k-tensor alternado, 136
k-tensor elemental, 136
k-tensor simetrico elemental, 148
matrices
similares, 8
unitariamente equivalentes, 9
matriz
anti-hermitiana, 6
con entradas positivas, 68
de Jacobi (tridiagonal), 246
de permutacion, 69
de signo estrictamente regular, 244
de signo regular, 243
denida positiva, 6
diagonal dominante, 38
doblemente estocastica, 69
esencialmente no-negativas, 230
estrictamente totalmente positiva, 244
estrictamente triangular inferior, 10
estrictamente triangular superior, 10
fuertemente conexa, 224
hermitiana, 6, 29
identidad, 1
incompleta, 157
inversible, 2
normal, 6, 27
primitiva, 222
reducible, 224
semidenida positiva, 6
totalmente positiva, 244
traspuesta, 1
triangular inferior, 10
triangular superior, 10
unitaria, 6
mayorizacion, 68
conjunta, 107
debil (submayorizacion), 67
de matrices, 94
medias de operadores, 196
menor, ver submatriz
modulo de una matriz, 41
modulo mnimo reducido, 62
n ucleo, 4
norma, 4
dual, 107
espectral, 8
Frobenius, 8
Ky-Fan, 45
matricial, 46
unitariamente invariante, 46, 91
unitariamente invariante debil, 103
n ucleos totalmente positivos, 274
operador
anti-hermitiano, 5
de multiplicacion, 153
denido positivo, 5
hermitiano, 5
normal, 5
semidenido positivo, 5
unitario, 5
orden
espectral: , 181
estrella
*
, 65
mayorizacion debil:
w
, 67
mayorizacion: , 67
por entradas: , 68, 73, 215
usual: , 39
parte real de una matriz, 167
permanente, 148
pinching, 95, 98, 99, 103, 250
polarizacion, 6
polinomio caracterstico, 2
primera diferencias dividida, 113
290

INDICE ALFAB

ETICO
producto
alternado, 136
de Hadamard, 50, 151
de Kronecker, 132, 133
simetrico, 147
simetrizado, 168
pseudoinversa, 62
de Moore-Penrose, 62
radio espectral, 8
radio numerico, 8, 98, 203
raiz cuadrada de una matriz, 41
rango numerico, 203
regla de Cramer, 235
shorted, 56
signo de una permutacion, 232
sistema de proyectores, 49, 95
subespacio
ortogonal, 4
submatriz, 33
principal, 33
submayorizacion, 68
sucesion de signatura, 243
supramayorizacion, 68
Teorema
1 de Schur: A = UTU

, 15
2 de Schur: A B /
n
(C)
+
, 50
3 de Schur: d (A) (A), 84
4 de Schur: K
A
= max
iIn
A
ii
, 154
5 de Schur: per A det A, 149
Ando, (radio numerico), 209
Birkho (extremales de To (n) ), 79
Courant-Fischer (minimax), 31
entrelace de Cauchy, 33
Fan-Homan, 167
Haagerup, 160
Hahn Banach, 157, 165
Hall (de los casamientos), 77
Hamilton-Cayley, 18
Hausdor Toeplitz, 204
Johnson-Li, 211
Konig-Frobenius, 78
Ky Fan Re (A) (Re A), 167
Ky Fan (Caracterizacion de NUIs), 93
Lowner, 117
Lidskii, 99
Marcus-Sandy, 210
Parrot, 61
Perron, 216
Perron-Frobenius, 225
Schur-Horn, 86
Weyl:
j
(A) +
1
(B)
j
(A+B),
32
Weyl: (A+B) (A) +(B), 85
traza, 2
valores singulares, 41
Vandermonde, 147, 245, 274
variacion de signos, 259
vector
de Perron, 221
ortogonal, 4
ortonormal, 5
unitario, 4
Notaciones y abreviaturas
Se enumeran las principales notaciones y abreviaturas del libro, por orden de aparicion:
Captulo 1
In = |1, 2, . . . , n.
R
+
= |x R : x 0 y R

+
= |x R : x > 0.
/n(C) = C
nn
y /n,m(C) = C
nm
/n(R) = R
nn
y /n,m(R) = R
nm
(l (n) = |A /n(C) : A es inversible
PA(x) = det(xI A) C[x] es el polinomio caracterstico de A /n(C).
tr A =
n
P
i=1
Aii para una A /n(C).
Ci(A) = (a1i , a2i , . . . , ani) C
n
es la i-esima columna de A /n,m(C).
Fj(A) = (aj1 , aj2 , . . . , ajm) C
n
es la j-esima la de A /n,m(C).
d (A) = (A11 , . . . , Ann) C
n
, la diagonal de A /n(C).
diag (a) = diag (a1, . . . , an) =
2
6
6
4
a1 0 0
.
.
.
.
.
.
.
.
.
0 0 an
3
7
7
5
/n(C) , para a C
n
.
cm = |e
(m)
1
, . . . , e
(m)
m es la base can onica de C
m
.
1 = 1n =
n
P
k=1
e
(n)
k
= (1, . . . , 1) C
n
.
En = 1n 1n /n(C)
+
, la matriz de puros unos.
Gen |X = Gen |x1 , . . . , xm es el subespacio generado por X = |x1 , . . . , xm.
ker A = |x C
m
: Ax = 0 y R(A) = A(C
m
) = Im(A) C
n
, para A /n,m(C).
rk(A) = dimR(A) = dimGen |C1(A), . . . , Cm(A) , para A /n,m(C).
x, y) =
n
P
k=1
x
k
y
k
, x, y C
n
.
|x| = |x|
2
= x, x)
1/2
=

n
P
k=1
[x
k
[
2

1/2
para x C
n
.
L(H, K) es el espacio de operadores lineales de H en K (dos espcios de Hilbert).
292 NOTACIONES Y ABREVIATURAS
BON : base ortonormal.
A

= A
T
/m,n(C) la adjunta de A /n,m(C) .
1(n) = |A /n(C) : A = A

, matrices autoadjuntas.
|(n) = |U /n(C) : U

U = I, matrices unitarias.
A(n) = |N /n(C) : N

N = NN

, matrices normales.
/n(C)
+
= |A /n(C) : A 0 1(n), semidenidas positivas.
(l (n)
+
= |A /n(C) : A > 0 = (l (n) /n(C)
+
, denidas positivas.
(A) = | C : ker(AI) ,= |0 , el espectro de A /n(C).
(A) = (1(A), . . . , n(A) ) los n autovalores (con multiplicidad) de A /n(C).
w(A) = m ax| [Ax, x)[ : x C
n
, |x| = 1 , el radio numerico de A /n(C).
(A) = m ax| [[ : (A), el radio espectral de A /n(C).
|A|sp = max||Ax| : x C
n
, |x| = 1 = mn|C 0 : |Ax| C|x| , x C
n
.
|A|
2
2
=
n
P
i,j=1
[aij[
2
= tr(A

A), la norma Frobenius de A /n(C).


A

= B (unitariamente equivalentes) si existe U |(n) tal que A = U

BU .
T S(n) = | T /n(C) : Tij = 0 para i j las triangulares superiores.
A[I[J] = AIJ = (A
rl
)rI
lJ
/
k, m
(C) , para A /n(C), I, J In con [J[ = k, [K[ = m.
A[I[J) = A[I[In \ J] y A(I[J] = A[In \ I[J].
Ar = A(|r) = |aij
i=r=j
/n1(C) , para A /n(C) y r In .
QR es la factorizaci on A = QR con Q |(n) y R T S(n) tal que Rjj 0, para todo j In .
x y = xy

= (xi yj )
iIn
jIm
/n,m(C), para x C
n
e y C
m
.
Sn = | : In In biyectiva , el n-grupo simetrico.
LA y RB : /n(C) /n(C) dadas por LA(X) = AX y RB(X) = XB , para X /n(C).
Captulo 2
(A) R
n
es el vector creciente de autovalores de A 1(n).
(A) R
n
es el vector decreciente de autovalores de A 1(n).

mn
(A) = 1(A) = n(A) = mn (A) y
max
(A) = n(A) = 1(A) = m ax (A) .
Captulo 3
B C Bx, x) C x, x) para todo x unitario en C
n
(con B, C 1(n) ).
/1 = |x / : |x| = 1 para un subespacio / C
n
.
PS /n(C) es la proyecci on ortogonal sobre un subespacio S C
n
.
AS = PSAPS

S
L(S) , la compresi on de A /n(C) a un subespacio S C
n
.
A
[k]
= A[I
k
] = |aij
i,jI
k
/
k
(C) y
A
(k)
= A(I
k
) = |aij
i,j>k
/
nk
(C) , ambos para A /n(C) y k In .
A
1/2
/n(C)
+
es la raiz cuadrada de A /n(C)
+
.
NOTACIONES Y ABREVIATURAS 293
[A[ = (A

A)
1/2
, el m odulo de A /n(C).
si(A) = i([A[) = i(A

A)
1/2
, los valores singulares de A /n(C), para i In .
s(A) = (s1(A), . . . , sn(A) ) = ([A[) R
n
+
y
(A) = diag (s(A) ) /n(C)
+
, para A /n(C).
A = U[A[ = [A

[U es una descomposici on polar de A /n(C) si U |(n).


A = W(A)V

es una descomposicion en valores singulares de A /n(C) si W, V |(n).


A
+
=
|A|+A
2
y A

=
|A|A
2
son las partes positiva y negativa de A 1(n).
|A|p =

n
P
i=1
si (A)
p

1/p
= (tr [A[
p
)
1/p
(norma de Schatten) para A /n(C) y 1 p < .
|A|
(k)
=
k
P
i=1
si (A) (norma de Ky Fan) para A /n(C) y k In .
[[[A[[[N = max
N(x)=1
N(Ax) la norma matricial inducida en /n(C) por una norma N en C
n
.
A B =
`
aij bij

iIn
jIm
/n,m(C) el producto de Hadamard (o Schur) de A, B /n,m(C) .
b
A =
"
0 A
A

0
#

=
"
(A) 0
0 (A)
#
1(2n) para A /n(C).
/(A, S) = |D /n(C)
+
: D A y R(D) S para A /n(C)
+
.
(A, S) = m ax

/(A, S) el shorted de A /n(C)


+
a un subespacio S C
n
.
A

la seudoinversa de Moore-Penrose de A /n(C).


(A) = mn

|Ax| : x ker A

|x| = 1

el modulo mnimo de A /n(C).


x, y)
A
= Ax, y) para A /n(C)
+
y x , y C
n
.
1(A, S) = |Q /n(C) : Q
2
= Q, AQ = Q

A y R(Q) = S para A /n(C)


+
.
A
*
B si BA

= AA

y B

A = A

A (orden ), para A, B /n(C).


Captulo 4
x

y x

los reordenados de x R
n
en forma decreciente y creciente.
tr x = x, 1) =
n
P
j=1
xi , para x C
n
.
x y si y R
n
mayoriza a x R
n
.
x w y (resp. x
w
y) si y R
n
submayoriza (supramayoriza) a x R
n
.
AB si Aij Bij para todo par i In , j Im , con A, B /n,m(R).
xy si xi yi para todo i In , con x, y R
n
.
[x[ = ([x1[, . . . , [xn[), para x R
n
.
TS (n) = |A /n(C) : A0 , tr Fi(A) = 1 y tr Ci(A) = 1 para todo i In.
x = (x
(1)
, . . . , x
(n)
), para Sn y x C
n
.
P |(n) la matriz de permutaci on dada por P x = x, para Sn y x C
n
.
|P(n) = |P : Sn |(n).
I denota un intervalo en R.
f(x) = (f(x1), . . . , f(xn) ) R
n
, para una funci on f : I R, y un vector x I
n
.
294 NOTACIONES Y ABREVIATURAS
x
log
y log-mayorizaci on (con productos), para x, y R

n
+
(x, y > 0).
x w
log
y log-mayorizaci on debil, para x, y R
n
+
.
Captulo 5
1
k
(n) = |P 1(n) : P
2
= P y rk(P) = k, los proyectores ortogonales de rango k, para k In .
|
k
(n) = |U /
n,k
(C) : U

U = I
k
, el espacio de isometras de C
k
en C
n
.
NUI : norma unitariamente invariante.
gN : C
n
R
+
dada por gN(x) = N (diag (x) ) para N una NUI en /n(C) y x C
n
.
fgs : funci on gauge simetrica.
A B si (A) (B), para A, B 1(n).
CP (A) = PAP + (I P)A(I P) el pinching de A /n(C) por P 1
k
(n).
CP(A) =
r
P
i=1
PiAPi el pinching de A por el sistema de proyectores 1 = |P1, . . . , Pr 1(n).
conv [(] =
n
m
P
k=1

k
b
k
: m N, b
k
(, R
m
y (1, 0, . . . , 0)
o
, la c apsula convexa de (.
|(A) = |UAU

: U |(n) = |B 1(n) : (B) = (A), la orbita unitaria de A 1(n).


NDUI : norma debilmente unitariamente invariante.
Captulo 6
1
I
(n) =

A 1(n) : (A) I

.
f(A) : el c alculo funcional de A 1
I
(n) por f : I R.
e
A
= exp(A) =

P
m=0
A
m
m!
, la exponencial de A /n(C).
|f g|
I,
:= sup

[f(t) g(t)[ : t I

.
f
[1]
(x, y) es la primera diferencia dividida de una funci on f : I R de clase C
1
.
Dgx
0
/mn(C) es la derivada o diferencial de g : U R
n
R
m
(U abierto) en x0 U .
f (t) = f
`
(t)

es la composici on de una curva y el c alculo funcional por f.


MOP : funci on mon otona de operadores.
OP : funci on convexa de operadores.
OP : funci on c oncava de operadores.
Captulo 7
Hn = C
n
con su producto interno.
Hn H
k
= | funcionales F : Hn H
k
C bilineales el producto tensorial.
x y = xy
T
Hn H
k
es el tensor elemental, dado por x y(u, v) = u, x)v, y) , u Hn , v H
k
.
c
n,k
= |e
(n)
i
e
(k)
j
: i In , j I
k
|Eij /
n,k
(C) : i In , j I
k
, la BON de Hn H
k
.
AB(x y) = Ax By , x Hn , y H
k
, con A L(Hn) y B L(H
k
).
NOTACIONES Y ABREVIATURAS 295
AB =
2
6
6
4
a11B . . . a1nB
.
.
.
.
.
.
.
.
.
an1B . . . annB
3
7
7
5
/
nk
(C), el producto de Kroneker de A L(Hn) y B L(H
k
).
N
k
Hn es el espacio k-tensorial sobre Hn , el producto tensorial de Hn por s mismo k veces.
x1 x
k
(u1, , u
k
) =
Q
k
i=1
ui, xi), los k-tensores elementales.
N
k
A :
N
k
Hm
N
k
Hn , la potencia k-tensorial de A, dada por
N
k
A (x1 x
k
) = Ax1
Ax
k
.
P
(n)
|(
N
k
Hn) dado por P
(n)
(F) (x1 , , x
k
) = F(x
(1)
, , x
(k)
), para Sn .

k
Hn =

F
N
k
Hn : P
(n)
F = sgn() F para toda S
k

, el espacio k-alternado sobre


Hn .
P
n
k
=
1
k!
P
S
k
sgn() , la proyecci on ortogonal de
N
k
Hn sobre
k
Hn .
x1 x
k
= P
n
k
(x1 . . . x
k
) =
1
k!
P
S
k
sgn() x
(1)
x
(k)
, el k tensor alternado.

k
A L(
k
Hn ,
k
Hm) dado por
k
A (x1 x
k
) = Ax1 Ax
k
, k-potencia alternada de A.
Q
k,n
=

= (1, 2, ,
k
) I
k
n
: 1 1 < 2 < <
k
n

|J In : [J[ = k.

= In \ Q
nk,n
, el complemento de un Q
k,n
.
e

= e
(n)
= e
(n)

1
e
(n)

2
e
(n)

k

k
Hn , para Q
k,n
.
c

k,n
= |

k! e

: Q
k,n
, la BON de
k
Hn .
det A =
P
Sn
sgn()
n
Q
j=1
a
j,(j)
=
n
A, para A /n(C).
per A =
P
Sn
n
Q
j=1
a
j,(j)
C, la permanente de A.
V (t) =

t
j1
i

i,jIn
=
2
6
6
6
6
6
4
1 t1 . . . t
n1
1
1 t2 . . . t
n1
2
.
.
.
.
.
. . . .
.
.
.
1 tn . . . t
n1
n
3
7
7
7
7
7
5
/n(C), el Vandermonde de t = (t1, . . . , tn) C
n
.
Captulo 8
C(A) = m ax
i Im
|Ci(A)|
2
y F(A) = m ax
i In
|Fi(A)|
2
, para A /n,m(C).
KN(A) = m ax
N(B)=1
N(AB) = mn

k : N(AB) k N(B) , B /n(C)

, con N norma en /n(C).


KA = K
sp
(A), para A /n(C).

la adjunta de una funcional : S /n(C) C, dada por

(A) = (A

), A S.
B : /n(C) C dada por B(A) = A, B) = tr(AB

), con B /n(C).
SJ =

C /n(C) : cij = 0 para todo (i, j) / J

, para J In In .
J In In cumple (P) si (i, j) J = (j, i) J y tambien (i, i) J para todo i In .
A
(k)
= E
k
A =
2
6
6
4
A . . . A
.
.
.
.
.
.
.
.
.
A . . . A
3
7
7
5
/
kn
(C), para A /n(C).
296 NOTACIONES Y ABREVIATURAS
Captulo 9
Re A =
A+A

2
1(n) e ImA =
AA

2i
, para A /n(C).
S(A, B) = AB +BA 1(n) es el producto simetrizado de A, B 1(n).
C D si C
m
D
m
, para todo m N, con C, D /n(C)
+
.
A B = lim
p
`
A
p
+B
p
1
p
= mn

C /n(C)
+
: A C y B C

, para A, B /n(C)
+
.
f : /n(C) R es clase T si es continua, f(XY ) = f(Y X) y [f(X
2m
)[ f([XX

]
m
), m, X, Y .
A#B = A
1/2
(A
1/2
BA
1/2
)

A
1/2
, para [0, 1], A, B /n(C)
+
.
A#B = A#1
2
B = A
1/2
(A
1/2
BA
1/2
)
1/2
A
1/2
.
Captulo 10
W(A) = |Ax, x) : x C
n
, |x| = 1 es el rango numerico de A /n(C).
Captulo 11
MPn,m = |A /n,m(R) : A0, matrices de entradas positivas.
MEPn,m = |A /n,m(R) : A > 0, matrices de entradas estrictamente positivas.
Vn = |(p, q) I
2
n
: p ,= q.
FC : matriz fuertemente convexa.
Captulo 12
A/[[] = A([) A([] A[[]
1
A[[) /
nk
(C), el complemento de Schur de A /n(C).
sgn() =
k
Q
i=1
(1)

i
i
= (1)
r
con r = tr
k(k+1)
2
, para un Q
k,n
.
Jn = diag
`
1, 1, 1, 1, . . . , (1)
n1

|(n).
sgn

= sgn(), donde manda al principio de .


Captulo 13
= (i)
iN
|1, 1
N
es una sucesi on de signatura.
Si es otra sucesi on de signatura, llamaremos = (i i)
iN
.
A es -RS si es de signo regular con signatura .
A es -ERS si es estrictamente de signo regular con signatura .
A es TP si es totalmente positiva, o sea que A es -RS respecto de la sucesi on 1.
A es ETP si es estrictamente totalmente positiva, o sea que A es -ERS respecto de la sucesi on 1.
d() =
k
1 (k 1) =
P
iI
k1
i+1 i 1 , es la dispersi on de Q
k,n
.
LU-factorizaci on: A = LU con L triangular inferior y U triangular superior.
NOTACIONES Y ABREVIATURAS 297
UL-factorizaci on: A = UL con L triangular inferior y U triangular superior.
[x1 , . . . , xm] = X /nm(C) si Ci(X) = xi C
n
para cada i Im .
A
t
B si
k
A
k
B, i.e. det A[[] det B[[] para todo k In y , Q
k,n
.
A es OSC si es TP y una cierta potencia A
p
es ETP.
V+(x) la m axima variaci on de signos de x R
n
.
V(x) la mnima variaci on de signos de x R
n
.
Gp =

exp

p (i j)
2

i,j In
/n(R).
Hp =

d2ji

i,j In
/n(R) , matriz de Hurwitz p(z) = d0z
n
+d1z
n1
+. . . +dn .

Anda mungkin juga menyukai