Anda di halaman 1dari 77

Apuntes de lgebra

28

4. Polinomios.

4.1 Definicin de polinomio de igualdad de polinomios.

Los polinomios pueden ser tratados como una expresin o como una funcin.
Al considerar el polinom9io como expresin los smbolos x
0
, x
1
, x
2
, , x
n
son i9ndicadores de
la posicin de los nmeros a0, a1, a2, , an y los signos + deben interpretarse nicamente como
medios de conexin. Si el polinomio es considerado como funcin, los smbolos x
0
, x
1
, x
2
, , x
n

representan potencias de la variable x: a0x
0
, a1x
1
, a2x
2
, , anx
n
representan producto y los
signos + se interpretan como smbolos de adicin.
Al considerar los polinomios como expresiones, se tendr el siguiente proceso algebraico.

Definicin:
Se llama polinomio en x con coeficientes en C a una expresin de la forma:
=

++

, ,



A las expresiones a0x
0
, a1x
1
, a2x
2
, , anx
n
se les identifica como trminos del polinomio y a los
nmeros a0, a1, a2, , an coeficientes de x
0
, x
1
, x
2
, , x
n
, respectivamente.

Se conoce como grado de un polinomio al mayor ndice superior que se encuentra en la
expresin, siempre y cuando el coefic9ientes correspondiente sea diferente de cero.

Definicin:
Sea el polinomio en x con coeficiente en C. =

++

si a el
entero no negativo n es el grado del polinomio, lo que se representa como = .

Igualdad de polinomios.
Dos polinomios se consideran iguales si tienen los mismos trminos, con excepcin de
aquellos que tengan coeficientes cero, de acuerdo con la siguiente definicin.

Definicin:
Sean los polinomios en x con coeficientes en C.
=


Se dice que son iguales, f(x)=g(x) cuando:

= < , <

, =

= < , >


Ejemplos:
Apuntes de lgebra



29



Al considerar al polinomio como una funcin e C en C, si los polinomios f(x) y g(x) son iguales,
entonces f(x) = g(x), indica que las funciones f y g son iguales. As pues, dos polinomios que
son iguales en el sentido algebraico lo son tambin como funciones.

Adicin de polinomios.
La adicin de polinomios en el sentido algebraico, de be ser consistente con la definicin de
adicin de funciones y las propiedades de las operaciones en complejos.

Definicin:
Sean los polinomios en x con coeficientes en C:
=


El polinomio f(x) + g(x) se define como:
+ =



Esta suma es de carcter general ya que siempre es posible considerar que dos polinomios
tienen el mismo nmero de trminos.

Ejemplo.


Para representar el grado del polinomio obtenido de la suma se tiene que:
> , + =
< , + =
= = , + =

Propiedades de la adicin:

Teorema:
Si f(x), g(x), h(x) son polinomios en x con coeficientes en C, entonces:
+ + = + + .
+ = +
+ =
+ =

El polinomio x se conoce como polinomio cero debido a que todos sus coeficientes son
iguales a cero, su grado no est definido.

Apuntes de lgebra



30

Multiplicacin de polinomios.

Definicin:
Sean los polinomios en x con coeficientes en C. =

. El
polinomio f(x) g(x) se define como: =

.
gr(fg) = gr(f) + gr(g)

Ejemplos:

Se pueden escribir los polinomios en el orden que resulte mas conveniente de acuerdo con lo
que se est tratando.

Propiedades.
Teorema
Si f(x), g(x), h(x) son polinomios en x con coeficientes en C, entonces:

=
=
=

Tomando simultneamente la adicin y la multiplicacin de polinomios satisfacen tambin la
propiedad distributiva, es decir:

Teorema:
Si f(x), g(x), h(x) son polinomios en x con coeficientes en C, entonces: + =
+

Multiplicacin de un polinomio por un escalar.
NOTA: Los polinomios de grado cero son, a fin de cuentas, nmeros.
Debido a esto la multiplicacin de un nmero complejo por un polinomio es un caso particular
de la multiplicacin de polinomios. As, si c es un numero complejo, ste puede expresarse
como: c = cx
0
, y si f(x) es un polinomio en x con coeficientes en C, entonces:
=


Por lo que: =

++



Ejercicios.




Apuntes de lgebra



31

4.2 Divisin de polinomios

Definicin.
Sean f(x) y g(x) dos polinomios en x con coeficientes en C y gx : gx es un factor de fx
si existe un polinomio q(x) con coeficientes en C tal que: f(x) = g(x) q(x) se dice entonces que
f(x) es divisible entre g(x).

Algoritmo de la divisin para polinomios.

Teorema:
Sean fx y gx dos polinomios en x con coeficientes en C. Si gx , existen dos polinomios
nicos q(x) y r(x) con coeficientes en C tales que: f(x) = g(x) q(x) + r(x) donde gr(r) < gr(g)
o bien r(x)=0.

De manera similar al caso de los nmeros enteros, los polinomios f(x), g(x), q(x) y r(x)
reciben el nombre de dividendo, divisor, cociente y residuo respectivamente.

Dividir fx entre gx debe interpretarse como encontrar los polinomios q(x) y r(x) cuya
existencia garantiza el teorema de divisibilidad. Estos polinomios pueden obtenerse mediante
el procedimiento de lgebra elemental

Ejemplo
Ley de la cancelacin.
Teorema:
Sean f(x), g(x), h(x) polinomios en x con coeficientes en C. Si hx entonces
f(x) h(x)=g(x) h(x) f(x) = g(x)

Teorema de residuo y del factor.

Dado un polinomio en x con coeficientes en C puede ser considerado como una funcin de
complejos a complejos de la forma:
=

++


Al sustituir un numero complejo c en lugar de la variable x y efectuar las operaciones
indicadas, se obtienen un numero al que se llama valor del polinomio en c y que, de acuerdo
con la notacin para funciones, se representa con p( c), esto es:
=

++



Cuando un polinomio cualquiera p(x) se divide entre un polinomio de primer grado, el
residuo que se obtiene es un nmero. En particular, si el polinomio de primer grado es de la
forma x-c, dicho nmero coincide con el valor del polinomio en c, de acuerdo al siguiente
teorema.

Apuntes de lgebra



32

Teorema: (del residuo)
Sea p(x) un polinomio en x con coeficientes en C y c C. El residuo de dividir p(x) entre x-c es
igual a p(c ).

Ejemplos:

Sea p(x) un polinomio en x con coeficientes en C. Si el residuo que se obtiene al dividir p(x)
entre x-c es igual a cero si y solo si p c=. Este resultado se conoce como teorema del
factor.

Teorema: (del factor)

Sea p(x) un polinomio en x con coeficientes en C y c C. p(x) es divisible entre x-c si y solo si
p(c ) = 0.

Divisin sinttica.
Cuando se presenta que el divisor es un polinomio de la forma x-c, es posible introducir
algunas simplificaciones al procedimiento general hasta llegar a lo que se conoce con el
nombre de divisin sinttica.

Ejemplo.

Formalmente el procedimiento es el siguiente:
Considerando los polinomios:
=

++

=

Como g(x) es de grado uno, el cociente q(x) ser de grado n-1 y se puede escribir:
=

++


Adems el residuo ser cero o de grado cero, es decir, un numero r.
Entonces de f(x)= g(x) q(x) + r(x)

++

++

+
Por igualdad de polinomios:





Por lo que los coeficientes del cociente y el residuo se obtienen como:
Apuntes de lgebra



33



Para efectuar los clculos indicados en las expresiones anteriores se puede utilizar el
siguiente arreglo.



Ejemplos:


4.3 Races de un polinomio: Definicin de raz.
A los valores para los cuales el polinomio vale cero, se les denomina races del polinomio.

Definicin:
Sea px un polinomio en x con coeficientes en C y sea un nmero complejo. es una raz de
px si p =

Los conceptos de raz de un polinomio y solucin de una ecuacin algebraica son
equivalentes ya que se conoce como ecuacin algebraica (de grado n) a una ecuacin de la
forma:

++



Teorema fundamental del lgebra y numero de races de un polinomio.
Existen polinomios con coeficientes en R que no tienen races en R. Podra pensarse entonces
en la existencia de polinomios con coeficientes en C que no tuviesen races en C que no
tuvieses races en C, por lo tanto surge la necesidad de ampliar el sistema de los nmeros
complejos, pero tal posibilidad queda excluida por el Teorema fundamental de lgebra.

Teorema: fundamental de lgebra.
Si p(x) es un polinomio en x con coeficientes en C de grado mayor o igual que uno, entonces
p(x) tiene al menos una raz en C.

Este teorema establece la existencia de al menos una raz, pero no proporciona ningn
mtodo para determinarla.
Apuntes de lgebra



34


Por el teorema anterior px tiene por lo menos una raz 1 tal que

= , x-1 es factor
de p(x), por lo que se puede escribir p(x) = ( x- 1) q1(x) donde q1(x) es un polinomio de
grado n-1.
Si n-1 1 entonces, q1x tiene por lo menos una raz 2 C y se puede escribir:
q1(x) = ( x- 2) q2(x) donde q2(x) es un polinomio de grado n-2.
Si todava n-2 1, se repite el razonamiento un nmero finito de veces hasta obtener un
polinomio qn de grado cero, esto es:

y como qn es de grado cero, no


tiene races y el proceso termina. Por lo que:
=


Donde el polinomio p(x) se encuentra expresado como el producto de n polinomios de grado
uno, y qn al ser un polinomio de grado cero es un nmero y coincide con el coeficiente an. A
esta expresin se le conoce como descomposicin de px en factores lineales y se concluye
con el siguiente teorema.

Teorema:
Si p(x) es un polinomio en x con coeficientes en C de grado n 1, entonces p(x) tiene n races.

Se debe hacer notar que las n races a las que se refiere el teorema no son necesariamente
diferentes.
Si el nmero se presenta ms de una vez como raz se dice que es una raz mltiple, y el
nmero de factores de la forma x- en la descomposicin de p(x) se conoce como
multiplicidad de .

Ejemplo.

4.4 Tcnicas elementales para buscar races: posibles races racionales.

Las races de un polinomio con coeficientes en Q pueden ser de tres tipos:
a) Races racionales
b) Races irracionales
c) Races complejas
Aunque los tres tipos son races complejas, suela hacerse esta clasificacin para facilitar su
estudio.
Races Racionales.
Los polinomios con coeficientes en Q con races racionales son las mas fciles de encontrar y
pueden obtenerse de entre un conjunto finito de nmeros mediante un procedimiento de
prueba directa.

Apuntes de lgebra



35

Teorema:
Sea =

++

un polinomio en x con coeficientes enteros,


donde an , a0 y n 1. Si un nmero racional es raz de p(x) y

es su mnima expresin,
entonces p es un factor de a0 y q es un factor de an.
Ejemplo.
Teorema:
Sea p(x) un polinomio en x con coeficientes en R. Si a y b son dos nmeros reales tales que
a < b y p(a), p(b) tienen signos contrarios, entonces p(x) tiene al menos una raz real en el
intervalo a<<b.
Se acota el intervalo en que se encuentran las races reales, utilizando el siguiente teorema:
Teorema:
Sea =

++

un polinomio en x con coeficientes reales y


an>0.
i) Si s R, s >0, y no existen nmeros negativos en el tercer rengln de la divisin
sinttica de p(x) entre x s, entonces para toda raz real de px se tiene que
<s.
ii) Si t R, t <0, y los nmeros del tercer rengln de la divisin sinttica de p(x) entre
x t son alternadamente positivos y negativos, entonces para toda raz real de
px se tiene que t<. Los ceros en este tercer rengln podrn considerarse
positivos o negativos a efecto de lograr los signos alternados.
Ejemplo.

Regla de los signos de Descartes.
Cuando un polinomio no tiene races nulas (cuando coeficiente a0 =0) es posible obtener
informacin acerca del nmero de races positivas y negativas, analizando los signos de sus
coeficientes con base en el siguiente teorema:
Teorema: Regla de los signos de Descartes.
Sea =

++

un polinomio en x con coeficientes reales y


a0.
Apuntes de lgebra



36

i) El numero de races reales positivas de p(x) es igual al nmero de cambios de
signo en la secuencia de coeficientes del polinomio p(x), o menor que ste en un
nmero par.
ii) El nmero de races reales negativas de p(x) es igual al nmero de cambios de
signo en la secuencia de coeficientes del polinomio en x que se obtiene al sustituir
x por x en p(x), o menor que ste en un nmero par.
Solo se consideran los coeficientes distintos de cero
Ejemplo.

Races complejas:
Teorema:
Sea px un polinomio en x con coeficientes en R. Si = a+bi, con b, es una raz de px
entonces = es otra raz de p(x).
Ejemplo.


El problema de determinar las races de un polinomio no admite un mtodo general, ms bien,
un procedimiento que debe seguirse en cada caso est determinado por la naturaleza del
polinomio. Una secuencia sugerida para el caso de polinomios con coeficientes en Q es:
1.- Se aplica la regla de los signos de Descartes y se obtienen las diferentes alternativas en
cuanto al nmero y tipo de races del polinomio.
2.- Se obtienen las posibles races racionales.
3.- Con base en la informacin del paso 1, se prueba con las posibles races enteras positivas
(o negativas segn sea el caso) hasta encontrar una raz o un l9imite superior de las races,
observando durante el proceso si existen cambios de signo en el residuo de la divisin
sinttica.
4.- En caso de encontrar un lmite superior se descartan las posibles races racionales
mayores a dicho lmite y se prueba con las restantes, empezando con aquellas que se
encuentren entre dos valores para los cuales se presento un cambio de signo en el residuo de
la divisin sinttica.
Apuntes de lgebra



37

5.- Si durante los pasos 3 o 4 se obtiene una raz del polinomio, se factoriza este y se trabaja
con el cociente obtenido, aprovechando la informacin que se tenga respecto a las races del
polinomio original.
6.- Agotadas las posibles races racionales positivas se repiten los pasos 3, 4 y 5 para las races
racionales negativas.
7.- Si con los pasos anteriores se logra llegar a un polinomio de segundo grado, se obtienen las
races de este por medio de la formula, con la que termina el proceso.
8.- En caso de no haberse obtenido un polinomio de segundo grado se proceder a localizar el
intervalo donde se encuentran las races irracionales, si estas existen.


















Apuntes de lgebra



38

5. Sistemas de ecuaciones lineales.
5.1 El sistema de ecuaciones lineales como modelo matemtico de problemas.
Su propsito fundamental es el de establecer un mtodo para obtener soluciones.
Definicin de ecuacin lineal y de su solucin.
Definicin:
Una ecuacin lineal sobre C es una expresin de la forma

++

= donde

, ,


A los smbolos

, ,

se les conoce como incgnitas de la ecuacin, a los nmeros ai


como coeficientes de las xi y a b como el trmino independiente.
Una solucin de la ecuacin lineal

++

= es un conjunto ordenado de n
valores

, ,

tales que

++

=
En la bsqueda de soluciones para la ecuacin

++

= pueden
distinguirse tres casos.
i) Al menos uno de los coeficientes es diferente de cero.
ii) Todos los coeficientes son nulos y el trmino independiente tambin lo es,
entonces la ecuacin es de la forma:

++

= y es claro que
cualquier conjunto de n valores es una solucin de dicha ecuacin.
iii) Todos los coeficientes son nulos y el trmino independiente no lo es, entonces a
ecuacin es de la forma

++

= y es claro que
ningn conjunto de n valores podr ser una solucin de la ecuacin, por lo que la
ecuacin no tiene solucin.
Definicin de sistemas de ecuaciones lineales y de su solucin.
Un sistema es un conjunto de ecuaciones lineales que tienen las mismas incgnitas, como lo
establece la siguiente definicin.
Definicin:
Un sistema de m ecuaciones lineales con n incgnitas sobre C es una expresin de la forma:

++

++

++


Donde

, ,

, ,


Apuntes de lgebra



39

Puesto que un sistema de ecuaciones lineales es un conjunto de ecuaciones con las mismas
incgnitas, resulta natural considerar como una solucin del sistema a un conjunto de valores
que satisface a todas las ecuaciones del sistema, por lo que se establece la siguiente
definicin.
Definicin:
Una solucin del sistema de ecuaciones lineales.

++

++

++


Es un conjunto ordenado de n valores

, ,

tales que:

++

++

++


La definicin establece lo que deber entenderse por solucin de un sistema de ecuaciones
lineales; sin embargo no dice que cualquier sistema de ecuaciones lineales habr de tener
solucin.
Clasificacin de los sistemas de ecuaciones lineales en cuanto a la existencia y al nmero de
soluciones.
Hay sistemas de ecuaciones que no admiten solucin. A este tipo de sistemas se les llama
incompatibles.
Si por el contrario, un sistema de ecuaciones lineales tienen solucin se dice que es
compatible. Los sistemas compatibles pueden tener una sola solucin, en cuyo caso se dice
que son determinados o ms de una solucin en cuyo caso se dice que son
indeterminados.






Apuntes de lgebra



40

Sistemas homogneos, soluciones triviales y varias soluciones.
Si se considera el caso en el que se tiene un sistema de ecuaciones lineales con m ecuaciones y
n incgnitas, donde el trmino independiente ser igual a cero, = , se le llamar sistema
homogneo. Y solo admitir la solucin trivial:

= =

= .
La condicin necesaria y suficiente para que un sistema homogneo tenga soluciones distintas
de la trivial es que el nmero de ecuaciones sea menor al nmero de incgnitas.
Ejemplo:
5.2 Sistemas equivalentes y transformaciones elementales.
Cuando dos sistemas de ecuaciones lineales tienen las mismas soluciones se dice que son
equivalentes.
Para encontrar estas soluciones se utiliza un mtodo que se basa en el empleo de ciertas
transformaciones, llamadas transformaciones elementales, que no alteran las soluciones del
sistema; son transformaciones que al aplicarse a un sistema dan como resultado un sistema
equivalente.
Las transformaciones elementales pueden ser tres tipos y consisten en:
I) Intercambiar dos ecuaciones.
II) Multiplicar una ecuacin por un nmero diferente de cero.
III) Multiplicar una ecuacin por un nmero y sumarla a otra ecuacin, remplazando
esta ltima por el resultado obtenido.
Ejemplo:
Resolucin de sistemas de ecuaciones lineales por el mtodo de Gauss.
El procedimiento ms cmodo para obtener las soluciones de un sistema de ecuaciones
lineales, es tal vez, el mtodo de Gauss.
Este mtodo consiste en la eliminacin consecutiva de las incgnitas con el propsito de llegar
a un sistema que tenga forma escalonada. Para llevar a cabo dicha eliminacin sin alterar las
soluciones del sistema, se recurre a las transformaciones elementales.
Ejemplo:
El sistema de ecuaciones puede quedar completamente definido por el valor de sus
coeficientes y trminos independientes, los cuales pueden presentarse convenientemente en
un arreglo tabular matriz.
Ejemplo:
Apuntes de lgebra



41

A esta matriz se le pueden aplicar transformaciones anlogas a las descritas con las
ecuaciones. Estas transformaciones son conocidas como transformaciones elementales por
rengln, que consisten en:
I) Intercambiar dos renglones
II) Multiplicar un rengln por un nmero diferente de cero.
III) Multiplicar un rengln por un nmero y sumarlo a otro rengln, reemplazando
este ultimo por el resultado obtenido.
Se llega a una matriz escalonada. Se dice que una matriz esta en forma escalonada si el
numero de ceros anteriores al primer elemento no nulo de cada rengln aumenta al pasar de
un rengln al siguiente, hasta llegar eventualmente a renglones cuyos elementos son todos
nulos.
Ejemplos:

Por lo que al utilizar el mtodo de Gauss es conveniente representar el sistema mediante una
matriz y efectuar en ella las transformaciones necesarias para llevarla a la forma escalonada.
Ejemplos:
Generalizando; el mtodo de Gauss consiste en aplicar a un sistema de m ecuaciones con n
incgnitas (o a la matriz que lo representa) una sucesin de transformaciones elementales
hasta llevarla hasta la forma escalonada.
Si durante el proceso se obtiene una ecuacin nula:
0x1+0x2+0x3+... + 0xn = 0 se desecha, puesto que cualquier conjunto de n valores
es una solucin a la misma.
Si se obtiene una ecuacin de la forma:
0x1+0x2+0x3+ ... + 0xn = b; b=0 es un sistema incompatible, ya que dicha ecuacin no
tiene solucin, de otra manera el sistema es compatible.
Si el sistema es compatible y al reducirlo a la forma escalonada se obtienen n ecuaciones no
nulas, entonces el sistema es determinado y su solucin se obtiene por sustitucin sucesiva de
los valores de las incgnitas, a partir de la ltima cuyo valor es inmediato.
Si el sistema es compatible y al reducirlo a la forma escalonada se obtiene r<n ecuaciones no
nulas, entonces le sistema es indeterminado y su solucin general se obtiene dejando n-r
incgnitas libres (como parmetros) y expresando a las otras r incgnitas en funcin de estas.

Apuntes de lgebra



42

a a a
n 11 12 1

6. Matrices y determinantes.
6.1 Definicin de matriz y de igualdad de matrices.
MATRIZ: Es una tabla o arreglo rectangular de elementos reales o complejos.
Para trabajar con matrices se ha desarrollado una notacin especial. La posicin de un
elemento en una matriz se describe al dar el rengln y la columna en la que ste se encuentra.
El elemento en el rengln i y la columna j de una matriz A se denota como aij.
El primer subndice indica el rengln y el segundo subndice indica la columna.
Una matriz A de m x n es un arreglo de la forma:

A =


En forma abreviada, la matriz de la definicin anterior puede expresarse como:
a
ij
Donde i = , , , , m y j = ,,,, n.
Al arreglo horizontal: se le conoce como el primer rengln de
la matriz, as hasta el i-simo rengln de la matriz.
En forma anloga, el arreglo vertical

Se le conoce como la j-sima columna.

Comnmente se representa a las matrices con letras maysculas y a sus elementos con letras
minsculas.
Una matriz de orden x n es conocida como matriz rengln o vector rengln y una matriz
de orden n x 1 es conocida como matriz columna o vector columna.
Ejemplo:

a a a
a a a
a a a
n
n
m m mn
11 12 1
21 22 2
1 2
. . .
. . .














a
a
a
ij
j
mj
2













Apuntes de lgebra



43

A a y B b i m j n
ij ij
= = = = para y ; , , ..., , , ,..., 12 3 12 3
c a b
ij ij ij
= +
El desarrollo de una teora algebraica de matrices se inicia al definir el concepto de igualdad
de matrices.
IGUALDAD DE MATRICES:
Se dice que dos matrices son iguales cuando tienen los mismos elementos y stos se
encuentran dispuestos de la misma manera en ambos arreglos. Por lo tanto A = B si aij = bij
donde
Ejemplo:
Operaciones con matrices y sus propiedades: adicin, sustraccin, multiplicacin por un
escalar y multiplicacin.
ADICIN.
La primera de las operaciones con matrices y tambin la ms sencilla, es la adicin. Esta
operacin puede efectuarse cuando las matrices son del mismo orden y el resultado se
obtiene sumando los elementos correspondientes de ambas matrices. Si las matrices no son
del mismo tamao u orden, se dice que las matrices no son conformables y no se pueden
sumar, y en consecuencia la suma no existe
Si C = A + B, entonces
Ejemplo:
La adicin de matrices, satisface las propiedades que se enuncian a continuacin.
Teorema:
Si A, B y C son matrices de mxn cuyos elementos son nmeros complejos, entonces:
1) Asociatividad; A + (B + C) = (A + B) + C
2) Conmutatividad; A + B = B + A
3) Elemento idntico; Existe una matriz 0 de mxn tal que A + 0 = A
4) Elemento inverso; Existe una matriz A de mxn tal que A + (-A) = 0
A la matriz 0, que es una matriz de mxn cuyos elementos son todos nulos, se le conoce como
matriz nula o matriz cero de mxn.
A la matriz A, que es una matriz de mxn cuyos elementos son los simtricos de los elementos
de A, se le conoce como la simtrica de A o la negativa de A
Auxilindonos de la definicin anterior, se pueden definir la Sustraccin de Matrices.
Apuntes de lgebra



44

a
ij
e
ij
e a i m j n
ij ij
= = = o ; ,..., ,..., para y 1 1
Para obtener la diferencia A B, bastar con restar los elementos de la matriz A con los
elementos correspondientes de la matriz B.
A B = A + (-B)
Ejemplo:
MULTIPLICACIN POR UN ESCALAR.
En ocasiones, se requiere multiplicar una matriz por un nmero, al que genricamente se le
conoce como escalar. La multiplicacin del escalar por una matriz A, es la matriz que se
obtiene al multiplicar cada uno de los elementos de A por el escalar. La matriz resultante ser
del mismo orden que la matriz A.
Sea A = una matriz de mxn con elementos en C, y C. El producto A
Es una matriz E = de mxn, definida por

Ejemplo:

La multiplicacin por un escalar satisface las siguiente propiedades.
Teorema:
Si A y B son matrices de mxn con elementos en C y , C, entonces:
A + B = A + B
+ A = A + A
A = A
Se define A como la matriz (-1)A. Esto significa que para negar una matriz, se multiplica cada
elemento de la matriz por -1.
De aqu se tiene que A B = A + (-1) B
MULTIPLICACIN DE MATRICES.
La manera ms natural de multiplicar dos matrices A y B parecera ser multiplicar elementos
correspondientes de A y de B. Sin embargo, se ha encontrado que sta no es la manera ms
til para multiplicar matrices. Los matemticos han dado una regla alternativa que consiste en
multiplicar, de manera sistemtica, los renglones de la primera matriz A por las columnas de
Apuntes de lgebra



45

a a a
i i in 1 2

c a b a b a b
ij i j i j in nj
= + + +
1 1 2 2

c a b
ij ik
k
n
kj
=
=

1
la segunda matriz B. Esta regla se establece al dar un mtodo para obtener un elemento
arbitrario de la matriz producto AB.
En general si A y B son dos matrices tales que el nmero de columnas de A coincide con el
nmero de renglones de B, el elemento que se encuentra en la posicin correspondiente al
rengln i y la columna j de la matriz producto AB, se obtiene sumando los productos de los
elementos del rengln i de la matriz A por sus elementos correspondientes en la columna j de
la matriz B.
Si el nmero de columnas de A no es igual al nmero de renglones de B, se dice que el
producto no existe, las matrices no son conformables para el producto de matrices.
Sea A una matriz de n columnas y B una matriz de n renglones. El rengln i de A es


Y la columna j de B es .

Si C = AB, entonces


Generalizando esto es:
A = [ aij ] m x n y B = [ bij ] de n x q, el producto AB es una matriz C = [ cij ] de m x q definida
por:


Ejemplo:
La multiplicacin de matrices no es conmutativa; es decir, no puede establecerse que para dos
matrices A y B (conformables para el producto AB) se tenga que AB = BA
Puesto que AB y BA representan en general matrices diferentes, es importante hacer nfasis
en el orden en que se multiplican. As, en el producto AB se dice que la matriz A
premultiplica a la matriz B mientras que en el producto BA se dice que A postmultiplica a
B.
b
b
b
j
j
nj
1
2













Apuntes de lgebra



46

En algunos casos, la multiplicacin puede efectuarse en un sentido, digamos AB, pero no en el
otro, es decir BA. En otros casos la multiplicacin puede efectuarse tanto en un sentido como
en el otro, pero los resultados pueden ser diferentes o iguales segn las matrices de que se
trate.
Cuando dos matrices Ay B son tales que AB = BA se dice que son permutables tambin
suele decirse que conmutan.
Ejemplo:
Orden de una matriz producto:
Sea A una matriz de m x r y B una matriz de r x n. A tiene r columnas y B tiene r renglones,
entonces AB existe. El primer rengln de AB se obtiene al multiplicar el primer rengln de A
por cada una de las columnas de B. Por lo tanto, el nmero de columnas de AB es igual al
nmero de columnas de B. La primera columna de AB es el resultado de multiplicar cada uno
de los renglones de A por la primera columna de B; entonces el nmero de renglones de AB es
igual al nmero de renglones de A. AB ser una matriz de m x n.
Esto se representa como sigue:




Ejemplo:
La multiplicacin de matrices satisface la ley asociativa que establece el siguiente enunciado.
Teorema:
Sean A, B y C matrices de orden mxn, nxp y pxq, respectivamente, cuyos elementos son
nmeros complejos, entonces:
A (BC) = (AB) C
Consideradas simultneamente, la adicin y la multiplicacin de matrices tienen las
propiedades que se enuncian a continuacin, conocidas como leyes distributivas de la
multiplicacin sobre la adicin.
Teorema:
Sean A, B y C matrices de orden mxn, nxp, y nxp, respectivamente, y D, E y F matrices de mxn,
mxn y nxp, respectivamente, cuyos elementos son nmeros complejos; entonces:




A B AB
m x r r x n m x n
interiores coinciden
exteriores dan el tama o de AB
=



Apuntes de lgebra



47

A (B + C) = AB + AC
(D+ E) F = DF +EF
MATRIZ IDENTIDAD.
Las matrices cuadradas desempean un papel muy importante en la teora de matrices,
especialmente en lo que se refiere a sus aplicaciones. Es por ello que se establece cierta
terminologa especial para este tipo de matrices.
Si el nmero de renglones m es igual al nmero de columnas n, se dice que la matriz A es una
matriz cuadrada.
Se conoce como matriz identidad de orden n a una matriz cuadrada de orden n que es de la
forma:




Como puede verse, esta matriz est formada con unos y ceros nicamente. Los elementos
iguales a uno son aquello en que coinciden el nmero del rengln y el de la columna donde se
encuentran, y todos los dems elementos son iguales a cero.
Definicin.
Se llama matriz identidad de orden n a la matriz cuadrada In = ij ], tal que
ij = , si i = j ij = , si i j.
Al smbolo ij de la definicin anterior se le conoce como delta de Kronecker.
La matriz identidad juega un papel muy importante en el lgebra de matrices, ya que
constituye un elemento idntico para la multiplicacin. Las matrices cero juegan un papel
semejante al del cero en los nmeros reales, y las matrices identidad juegan un papel
semejante al del 1.



Teorema:
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1





















Apuntes de lgebra



48

Sea A una matriz de orden m x n y 0mn la matriz cero de m x n. Sea B una matriz cuadrada de
n x n, On e In las matrices cero e identidad de n x n. Entonces:
A + 0mn = Omn + A = A
B0n = 0nB = 0n
BIn = InB = B
ImA = A
6.2 Definicin y propiedades de la inversa de una matriz. Clculo de inversa por
transformaciones elementales.
Definicin y propiedades de la inversa de una matriz.
No toda matriz cuadrada tiene inversa. A las matrices que tienen inversa les llamamos no
singulares regular y a las que no tienen inversa singulares
Definicin:
Sea A una matriz de nxn con elementos en C. Se dice que A es no singular si existe

, en caso
contrario se dice que A es singular.
En cuanto a la unicidad, la inversa de una matriz cuadrada (si existe) es nica.
Propiedades:
Teorema:
Si A y B son dos matrices no singulares del mismo orden y C, entonces:
A
-1
es nica
(A-
1
)
-1
= A
(AB)
-1
= B-1 A-1
A
-1
=
-1
A
-1
, si .
NOTA: El producto de dos matrices no singulares es una matriz no singular.
Clculo de la inversa por transformaciones elementales.
Existe un mtodo prctico que se basa en el empleo de las transformaciones elementales por
rengln. Este mtodo consiste en aplicar una sucesin de transformaciones elementales a la
matriz A, hasta obtener la matriz identidad, y aplicar esta misma sucesin de
transformaciones a la matriz In con lo que se obtiene A
-1
. Si no es posible transformar la
matriz A en la matriz identidad entonces no existe A
-1
.
Apuntes de lgebra



49

AI I A
n
T T
n
k 1
1

- Transformaciones elementales:
- Intercambiando renglones
- Sumando renglones
- Multiplicar el rengln por un escalar
- Multiplicar el rengln por un escalar y sumando el resultado a otro rengln.
Ejemplos:
Obteniendo la inversa.
Sea A una matriz de n x n.
1.- Se adjunta a A la matriz identidad del mismo orden In, para formar la matriz
AIn].
2.- Se calcula la forma escalonada reducida de AIn].
Si la forma escalonada reducida es de la forma [InB, entonces B es la inversa de A.
Si la forma escalonada reducida no es de la forma [InB, debido a que la primera submatriz de
n x n no es In, entonces A no tiene inversa.
Inicialmente el arreglo tiene del lado izquierdo a la matriz A y del lado derecho a la matriz
identidad In. Se efectan entonces (en ambas matrices simultneamente) las
transformaciones necesarias para obtener en el lado izquierdo la matriz In, y al finalizar el
proceso se obtiene en el lado derecho a la matriz A
-1
.
Esquematizando:


Ejemplos:


6.3 Ecuaciones matriciales y su resolucin. Representacin y resolucin matricial de los
sistemas de ecuaciones lineales.
Ecuaciones matriciales y su resolucin.
Considerando la siguiente ecuacin entre matrices:
AX + B = 3X, donde X es la matriz incgnita.
Apuntes de lgebra



50

En ciertos casos estas ecuaciones, conocidas como ecuaciones matriciales, pueden resolverse
siguiendo el mismo procedimiento que se emplea para resolver ecuaciones planteadas con
nmeros, esto es, tratando de despejar la incgnita en trminos de los otros elementos que
intervienen en la ecuacin. Sin embargo, las propiedades de las operaciones con matrices
presentan algunas diferencias con respecto a las operaciones con nmeros, por lo que se debe
tener especial cuidado en que los pasos efectuados en el despeje son vlidos en el lgebra de
matrices.
Siguiendo el ejemplo anterior y dando valores a A y B.
Ejemplo:
Representacin y resolucin matricial de los sistemas de ecuaciones lineales.
Otro ejemplo de ecuacin matricial, de uso frecuente en las aplicaciones, los constituye la
llamada representacin matricial de un sistema de ecuaciones.
Un sistema de m ecuaciones lineales con n incgnitas puede quedar representado por la
expresin:
AX = B donde A es una matriz de mxn que se conoce como matriz de coeficientes del
sistema, X es una matriz de nx conocida como vector de incgnitas y B es una matriz de m
x1 conocida como vector de trminos independientes
Ejemplo:
6.4 Matrices triangulares, diagonales y sus propiedades. Definicin de traza de una matriz y sus
propiedades.
En una matriz cuadrada, los elementos que tienen los dos subndices iguales, es decir, a11. a22,
, ann, forman la diagonal principal. Dichos elementos se encuentran ubicados en lo que
geomtricamente sera una de las diagonales del cuadrado formado por la matriz (la diagonal
que va de izquierda a derecha y de arriba hacia abajo)


Es una matriz de orden nxn




diagonal principal
A
a a a
a a a
a a a
n
n
n n nn

\
=












11 12 1
1 22 2
1 2




Apuntes de lgebra



51

a i j
ij
tales que <
a i j
ij
tales que >
A a
ij
=





El tringulo superior, est constituido por lo elementos
Estos elementos se encuentran situados por arriba de la diagonal principal.

El tringulo inferior constituido por los elementos
Estos elementos se encuentran situados por debajo de la diagonal principal.
Los tipos especiales de matrices cuadradas que veremos en esta seccin se refieren a la
naturaleza y disposicin de los elementos de acuerdo con estas tres regiones.
Matrices triangulares.
Sea una matriz de nxn con elementos en C. Se dice que:
A es triangular superior si aij = 0 para i > j
A es triangular inferior si aij = 0 para i< j
De acuerdo a esta definicin, en una matriz triangular superior los elementos
correspondientes al tringulo inferior son todos nulos. En consecuencia, en una matriz de
este tipo slo pueden hallarse elementos distintos de cero en el tringulo superior y en la
diagonal principal.


Por el contrario, en una matriz triangular inferior los elementos del tringulo superior deben
ser nulos.


Con relacin a las matrices triangulares, superiores e inferiores se tiene el siguiente teorema.
A
a a a
a a a
a a a
n
n
n n nn
=












11 12 1
21 22 2
1 2




Tringulo Superior
Tringulo inferior
a a a
a a
a
11 12 13
22 23
33
0
0 0










a
a a
a a a
11
21 22
31 32 33
0 0
0










Apuntes de lgebra



52

a i j
diag a a a
ij
nn
= = 0
11 22
para y se represent a con:
( , ,..., )
Teorema:
Si A y B son dos matrices triangulares superiores inferiores del mismo orden y C,
entonces:
A + B es triangular superior (inferior)
A es triangular superior inferior
AB es triangular superior (inferior)
Matriz Diagonal
Una matriz que es triangular superior e inferior a la vez; esto es, una matriz cuyos elementos
situados fuera de la diagonal principal son todos nulos, recibe el nombre de matriz diagonal;
dicho de otra forma, es una matriz en la que todos los elementos, fuera de la diagonal
principal son cero.
Sea A = [ aij ] una matriz de orden n x n con elementos C. Se dice que A es una matriz diagonal
si

Ejemplo:
Los clculos para efectuar operaciones con matrices se simplifican notablemente cuando se
trata de matrices diagonales, especialmente la multiplicacin.
Teorema:
Si A y B son dos matrices diagonales tales que A = diag (a11, a22, , ann) y B = diag (b11, b22, ,
bnn y C, entonces:
A + B = diag (a11 + b11 , a22+b22, , ann+bnn)
A = diag(a11, a22, ..., ann)
AB = diag(a11b11, a22b22, ..., annbnn)
Un caso particular de matriz diagonal es aquel en que todos los elementos de la diagonal
principal son iguales. A una matriz de este tipo se le conoce como matriz escalar es decir,
una matriz
A = [ aij) de nxn con elementos en C se dice que es una matriz escalar si aij = para i j y aii=
.
As una matriz escalar es de la forma:
Apuntes de lgebra



53




Definicin de traza de una matriz y sus propiedades.
Se conoce como traza de una matriz cuadrada al nmero que se obtiene sumando los
elementos de su diagonal principal.
Definicin.
Sea A = [ aij ] una matriz de orden nxn con elementos en C. Se llama traza de A, y se
representa con tr A, al nmero:

Ejemplo.
PROPIEDADES.
Teorema:
Si A y B son dos matrices de nxn con elementos en C y C:
tr (A + B) = (tr A) + (tr B)
tr A = tr A
tr (AB) = tr (BA)
6.5 Transposicin de una matriz y sus propiedades. Matrices simtricas, antisimtricas y
ortogonales. Conjugacin de una matriz y sus propiedades. Matrices hermitianas,
antihermitianas y unitarias. Potencia de una matriz y sus propiedades.
La transposicin es una operacin que transforma una matriz en otra, llamada su transpuesta,
cuyos renglones son las columnas de la matriz original y cuyas columnas son los renglones de
la matriz original.
Definicin:
Sea A = [ aij ] una matriz de m x n con elementos en C. Se llama transpuesta de A a la matriz de
n x m A
T
= [cij ] tal que:
cij = aji
De acuerdo con esta definicin, el elemento correspondiente al rengln i y columna j de A
T
es
el que se encuentra en el rengln j y columna i de la matriz A.
o
o
o
0 0
0 0
0 0
















tr A a
ii
i
n

=
=

1
Apuntes de lgebra



54

a a
ij ji
=
a a
ij ji
=
a a a
ii ii ii
= = 0
Ejemplo:
Propiedades.
Teorema:
Si A y B son dos matrices con elementos en C y C, entonces:
(A
T
)
T
= A
(A)
T
= A
T

(A + B)
T
= A
T
+ B
T
, A + B puede obtenerse.
(AB)
T
= B
T
A
T
, si AB puede obtenerse.

Matrices simtricas y antisimtricas.
La transposicin da lugar a la definicin de dos tipos especiales de matrices cuadradas.
Definicin.
Sea A una matriz de n x n con elementos en C. Se dice que:
A es simtrica si A
T
= A
A es antisimtrica si A
T
= -A
Las caractersticas que tienen los elementos de una matriz simtrica y antisimtrica son las
siguientes:
A = A
T
en consecuencia:
Es decir que los elementos simtricos con respecto a la diagonal principal son iguales.
Ejemplo:
De manera similar, para las matrices antisimtricas se tiene:
A = -A
T
esto es:
Es decir que los elementos simtricos con respecto a la diagonal principal deben ser uno el
negativo del otro. Adems, de la expresin anterior se tiene, para i = j, que:

Por lo que los elementos de la diagonal principal deben ser nulos.
Apuntes de lgebra



55

A c c a
ij ij ij
= = t al
Ejemplo.

Propiedades.
Teorema:
Si A y B son dos matrices simtricas antisimtricas de nxn y C, entonces:
A + B es simtrica (antisimtrica)
A es simtrica antisimtrica
Teorema:
Si A es una matriz de nxn con elementos en C, entonces:
A + A
T
es simtrica
A A
T
es antisimtrica.
Matriz Ortogonal.
Una matriz A no singular se dice que es ortogonal si

.
Ejemplo.
Conjugacin de una matriz y sus propiedades.
La conjugacin transforma una matriz en otra, llamada su conjugada, cuyos elementos son los
conjugados de los elementos correspondientes en la matriz original, como lo establece la
siguiente definicin.
Definicin.
Sea A = [aij] una matriz mxn con elementos en C. Se llama conjugada de A a la matriz de mxn
Ejemplo.
Propiedades.




Apuntes de lgebra



56

Teorema:
Si A y B son dos matrices con elementos en C y C, entonces:

, +

,
Transposicin-Conjugacin de una matriz y sus propiedades.
Se conoce como transposicin-conjugacin a la aplicacin sucesiva de las dos operaciones
definidas anteriormente. A la matriz que se obtiene se le llama conjugada-transpuesta de la
matriz original.
Definicin.
Sea A una matriz de mxn con elementos en C. Se llama conjugada transpuesta de A, y se
representa con A*, a la matriz de nxm definida por:

El orden es que se efecten las operaciones de transposicin y conjugacin es indiferente,
como lo seala el siguiente teorema.
Teorema.
Si A es una matriz de mxn con elementos en C, entonces:

Ejemplo:
Teorema.
Si A y B son dos matrices con elementos en C y C, entonces:

, +

,
Matrices hermitianas, antihermitiana y unitarias.
A partir de la conjugacin-transposicin se definen otros dos tipos especiales de matrices
cuadradas, de acuerdo a la siguiente definicin.

A A
T
-
=

A A A
T
T -
= =

Apuntes de lgebra



57


Definicin:
Sea A una matriz de nxn con elementos en C. Se dice que:
A es hermitiana si A

= A
A es antihermitiana si A

= A
A es unitaria si A

= A


Los elementos de una matriz hermitiana deben ser tales que los elementos simtricos con
respecto a la diagonal principal deben ser conjugados, adems los elementos de la diagonal
principal deben ser nmeros reales.
Ejemplo:
Para los elementos de una matriz antihermitiana los elementos simtricos con respecto a la
diagonal principal deben ser tales que sus partes reales slo difieran en el signo y sus partes
imaginarias sern iguales y los elementos de la diagonal principal deben ser nmeros
imaginarios.
Ejemplo.

Teorema:
Si A y B son dos matrices hermitianas (antihermitianas) de nxn, entonces A+B es hermitiana
(antihermitiana)
Teorema:
Si A es una matriz de mxn con elementos en C, entonces:
A A* es hermitiana
A* A es hermitiana
A+A* es hermitiana, si A es cuadrada
A-A* es antihermitiana, si A es cuadrada.
Potencia de una matriz y sus propiedades.
De manera similar al caso de los nmeros, se conoce como potencia ensima de una matriz
cuadrada al producto. A A A n factores.
Apuntes de lgebra



58


Definicin:
Sea A una matriz de mxm con elementos en C y sea n N. Se llama potencia ensima de A, y se
representa con A
n
, a la matriz definida por A
0
= Im, An = A A
n-1
, para n
Teorema:
Si A es una matriz cuadrada con elementos en C y m,n N, entonces:
A

= A

= A


A partir de la definicin de potencia ensima se establecen los siguientes tipos especiales de
matrices cuadradas.
Definicin:
Sea A una matriz de mxm con elementos en C. Se dice que A es:
Idempotente si A
2
= A
Involuntaria si A
2
= I
Nilpotente (de ndice n) si n es el menor nmero natural tal que A
n
=0
Peridica si n es el menor nmero natural distinto de uno tal que A
n
= A
Teorema:
Sea A una matriz de mxm con elementos en C:
Si A es indempotente entonces A
n
= A, n N
Si A es involuntaria entonces A2
n
= I, A
2n+1
= A, n N

6.6 Definicin de determinante de una matriz y sus propiedades. Clculo de determinantes.
Regla de Sarrus, desarrollo por cofactores y mtodo de condensacin. Clculo de la inversa por
medio de la adjunta. Regla de Cramer para la resolucin de sistemas de ecuaciones lineales de
orden superior a tres.
Definicin de determinante de una matriz y sus propiedades.
Apuntes de lgebra



59

a a
a a
a a a a
11 12
21 22
11 22 12 21
=
La forma de representar al determinante de una matriz consiste en escribir sus elementos tal
y como aparecen en el arreglo, pero reemplazando los parntesis rectangulares por barras
verticales para indicar que se trata de un determinante.
As, para una matriz de dos por dos se tiene:


Expresin que puede considerarse como la definicin del determinante de orden dos.
Es importante resaltar que una matriz es un arreglo de nmeros mientras que su
determinante es un nmero.
Ejemplo:
Determinante:
Es la suma de n! productos, la mitad de ellos con signo + y la mitad con signo -.
Cada uno de los productos consta de n factores.
En cada producto hay un elemento de cada rengln y un elemento de cada columna.
Determinante de orden tres, se define como sigue.
det A
a a a
a a a
a a a
a a a a a a a a a a a a a a a a a a b g = = + +
11 12 13
21 22 23
31 32 33
11 22 33 12 23 31 13 21 32 13 22 31 12 21 33 11 23 32

Obsrvese que hay seis productos, cada uno de tres elementos de la matriz diagonal. Tres de
los productos aparecen con signo positivo (conservan su signo), y tres con signo negativo
(cambian su signo)
Ejemplo:
Propiedades.
Las principales propiedades de los determinantes pueden ser consideradas en dos grupos: las
primeras se refieren a las condiciones bajo las cuales se puede concluir que un determinante
es nulo mediante la simple inspeccin de las lneas de la matriz (renglones y columnas), as
como a los efectos producidos en el determinante al efectuar transformaciones elementales
como las lneas de la matriz. El segundo grupo se refiere a las propiedades del determinante
en relacin con las operaciones definidas para las matrices.

Apuntes de lgebra



60

a a
a a
a a a a
11 12
21 22
11 22 21 12
=
Teorema:
Sea A= [aij] una matriz de nxn con elementos en C.
Si los elementos de una lnea de A (rengln o columna) son todos nulos, entonces det A = 0.
Si B se obtiene de A multiplicando los elementos de una de sus lneas por un nmero C,
entonces det B = det A.
Si B se obtiene de A intercambiando dos lneas paralelas (dos renglones o dos columnas),
entonces det B = - det A.
Si dos lneas paralelas de A son proporcionales entonces det A = 0.
Si B se obtiene de A sumando a los elementos de una lnea los elementos de una lnea paralela
multiplicados por un nmero C, entonces det B = det A.
Teorema:
Si A = [aij] y B= [bij] son dos matrices de nxn con elementos en C, entonces:
det A = det A
T

det (A) = n det A
det (AB) = (det A) (det B)
Ejemplo.
Regla de Sarrus:
Es el mtodo ms sencillo para el clculo de determinantes. Este mtodo se emplea para
calcular determinantes de segundo y tercer orden exclusivamente.
Para calcular el valor de un determinante de segundo orden empleando la regla de Sarrus, se
efecta el producto de los elementos de la diagonal principal y a ste se resta el producto de
los elementos de la diagonal secundaria, esquematizando:


Como se ve, el resultado que arroja la regla de Sarrus coincide con la definicin de
determinante de segundo orden.
Ejemplo.

Apuntes de lgebra



61

a a a
a a a
a a a
a a a a a a a a a a a a a a a a a a
a a a
a a a
11 12 13
21 22 23
31 32 33
11 22 33 21 32 13 31 23 12 31 22 13 11 32 23 21 12 33
11 12 13
21 22 23
= + +


det A a a a a a a a a a a a a a a a a a a = + +
11 22 33 11 23 32 12 21 33 12 23 31 13 21 32 13 22 31
Para calcular el valor de un determinante de tercer orden empleando la regla de Sarrus, se
efecta el producto de los elementos de la diagonal principal y de las dos diagonales
paralelas a ella el trmino diagonales paralelas se debe a que, cuando se emplea el artificio
que consiste en volver a escribir los dos primeros renglones a continuacin del tercero, los
elementos en cuestin aparecen formando diagonales paralelas a la principal. A la suma de
dichos productos se restan los productos de los elementos de la diagonal secundaria y de las
dos paralelas a ella.
En forma esquemtica:




Ejemplo.
Tambin se pueden agregar las dos primeras columnas a la derecha y formar los productos de
los elementos que atraviesas las flechas. A los productos de las flechas que van de la izquierda
superior a la derecha inferior se les asigna el signo positivo y a los otros el signo negativo.
a a a
a a a
a a a
a a
a a
a a
11 12 13
21 22 23
31 32 33
11 12
21 22
31 32

Ejemplo.
Es importante subrayar que la regla de Sarrus slo se aplica a determinantes de segundo y
tercer orden. En ocasiones se pretende errneamente generalizar esta regla para calcular
determinantes de orden mayor; sin embargo se puede comprobar fcilmente que al aplicar la
regla de Sarrus a un determinante de orden superior al tercero se obtiene un desarrollo que
no coincide con el de la definicin.
Desarrollo por Cofactores.
Este mtodo es aplicable al clculo de determinante de cualquier orden y constituye el
fundamento de todos los mtodos de aplicacin prctica.
Considerando nuevamente el desarrollo del determinante de tercer orden de la definicin se
tiene:

Apuntes de lgebra



62

det ( ) ( ) ( ) A a a a a a a a a a a a a a a a = + + +
11 22 33 23 32 12 21 33 23 31 13 21 32 22 31
( ) a a a a
a a
a a
22 33 23 32
22 23
32 33
=
a a a
a a a
a a a
a a
a a
11 12 13
21 22 23
31 32 33
21 23
31 33

Como en cada trmino hay un elemento de cada rengln y de cada columna, podemos
seleccionar una lnea cualquiera y factorizar los elementos de sta. Por ejemplo, eligiendo el
primer rengln podemos factorizar sus elementos y escribir.

Cada uno de los factores que multiplican a los elementos del primer rengln en la expresin
anterior constituye el desarrollo de un determinante de segundo orden. As:
Para a11 tenemos que:


Para a12 se tiene:


Para a13 tenemos que:


Cada uno de estos determinantes puede ser obtenido de la matriz original suprimiendo el
rengln y la columna en que se encuentre el elemento correspondiente. Tales determinantes
reciben el nombre de menores
As por ejemplo, el menor de a12 se puede obtener de la siguiente manera:



Podemos ver que los factores que multiplican a los elementos del primer rengln no son, en
todos los casos, los menores correspondientes.
En el caso de a12 dicho factor es igual al menor con el signo cambiado. Esto se identifica con el
hecho de que tal elemento es de caracterstica impar es decir que la suma del nmero del
rengln y de la columna en que se encuentra es un nmero impar (1+ 2 = 3). Slo se tiene un
elemento de caracterstica impar en el desarrollo anterior por haber elegido el primer rengln
para factorizar sus elementos. Si se hubiese elegido el segundo rengln se tendran dos
elementos de caracterstica impar (a21 y a23) y, en tal caso, los factores que multiplican a stos
+ = = a a a a
a a
a a
a a
a a
21 33 23 31
23 21
33 31
21 23
31 33
1

a a a a
a a
a a
21 32 22 31
21 22
31 32
=

Apuntes de lgebra



63

1s s r n,
i A a c
ii A a c
rj
j
n
rj
ir
i
n
ir
) det
) det


=
=
=
=

1
1
en el desarrollo del determinante seran iguales a sus correspondientes menores con el signo
cambiado.
Surge as el concepto de cofactor, como el factor que multiplica al elemento en el desarrollo
del determinante. Dicho cofactor es igual al menor, o al negativo de ste, segn sea par o
impar la caracterstica del elemento.
Expresin que se conoce como el desarrollo por cofactores segn el primer rengln. Es claro
que pueden obtenerse desarrollos similares para cada uno de los otros renglones y columnas
de la matriz A.
Definicin:
Sea A = [aij] una matriz de nxn con elementos en C.
Se llama menor del elemento aij, y se representa como Mij, al determinante de la matriz que se
obtiene suprimiendo en A el rengln i y la columna j.
Se llama cofactor del elemento aij y se representa como cij, al producto

Ejemplo:
Teorema.
Si A = [aij] es una matriz de nxn con elementos en C y r es un nmero entero tal que
Entonces:




El valor de un determinante puede obtenerse a partir de los elementos de una cualquiera de
sus lneas, sumando los productos de stos por sus respectivos cofactores.
Ejemplo.




+
1

i j
ij
M
.
Apuntes de lgebra



64

En caso general, el desarrollo por cofactores transforma el problema de calcular un
determinante de orden n en el de calcular n determinantes de orden n-1. Cada uno de estos
determinantes puede desarrollar a su vez por cofactores, obtenindose menores de orden n-2
y as sucesivamente. Se acostumbra continuar el proceso hasta obtener menores de orden 3 o
de orden 2, cuyo valor puede obtenerse empleando la regla de Sarrus.
Condensacin.
Este mtodo consiste en:
Elegir una lnea que contenga el mayor nmero de ceros posible.
Elegir un elemento no nulo de dicha lnea (de preferencia un 1 o un -1) y aplicar
reiteradamente las transformaciones elementales en las matrices hasta reducir a cero todos
los dems elementos de la lnea.
Desarrollar por cofactores segn dicha lnea.
Repetir los tres pasos anteriores hasta obtener un determinante de tercer orden (o de
segundo orden si se prefiere) y obtener su valor mediante la regla de Sarrus.
Ejemplo.
El mtodo de condensacin ofrece en cada ciclo un gran nmero de posibilidades para la
seleccin de la lnea y del elemento pivote. Una seleccin adecuada en cada caso puede
contribuir notablemente a simplificar los clculos correspondientes.
Matriz Adjunta. Clculo de la matriz inversa por medio de la adjunta.
Matriz Adjunta.
Se conoce como adjunta de una matriz cuadrada de A a la transpuesta de la matriz que se
obtiene reemplazando los elementos de A por sus respectivos cofactores, como lo establece la
siguiente definicin.
Definicin.
Sea A = [aij] una matriz de nxn con elementos en C, y sea cij el cofactor del elementos aij. Se
llama Adjunta de A a la matriz:
Adj A = [bij], donde bij = cji
Ejemplo.


Apuntes de lgebra



65

Teorema:
Si A es una matriz de nxn con elementos en C, entonces:
A (Adj A) = (Adj A) A = (det A) Im
Clculo de la matriz inversa por medio de la adjunta.
Es un mtodo el cual consiste en multiplicar el recproco del determinante por la adjunta.
Para esto se tiene que cumplir con el siguiente teorema.
Teorema:
Sea A una matriz de nxn con elementos en C: A
-1
existe si y solo si det A
Corolario.
Si det A , entonces
Ejemplo.
Regla de Cramer para la resolucin de sistemas de ecuaciones lineales de orden superior a
tres.
Teorema: (Regla de Cramer)
Sea

++

++

++


Un sistema de n ecuaciones lineales con n incgnitas, y sea =

su matriz de
coeficientes.
Si det A entonces


, k=,, , n donde

es tal que

, =


Es decir que el valor de la k-sima incgnita en la solucin del sistema puede calcularse como
el cociente de los determinantes de las matrices Ak y A, donde Ak se obtiene reemplazando en
A a la k-sima columna por el vector de trminos independientes.
Ejemplo.
A
A
Adj A

=
1
1
det



Apuntes de lgebra Lineal

5

CAPITULO 2
EPACIO VECTORIALE

2.1 Definicin de espacio vectorial. Propiedades elementales de los espacios vectoriales.
Subespacios. Isomorfismos entre espacios vectoriales.

ESPACIO VECTORIAL.
En este captulo se analizaran conjuntos en los cuales exista una relacin entre sus elementos, de
manera que se establezca el concepto de dependencia lineal.

Ln forma generlca, a los elemenLos de un espaclo vecLorlal se les llama vecLores", por lo que, en
este contexto, la palabra vector adquiere un significado ms amplio.

DEFINICIN
En primera instancia se definir lo que es un espacio vectorial, para tal efecto se considerar un
conjunto U y un campo K, cuyos elementos se conocen como vectores y escalares
respectivamente.

Para poder llegar a definir la estructura de espacio vectorial se requiere, adems de las siguientes
operaciones:
1) Suma de vectores
2) Multiplicacin de un vector por un escalar.
Regla de correspondencia (criterio)
(a, b) + (c, d) = (a+d, b+c)
o(a, b) = (oa,ob)
Si estas operaciones cumplen con las siguientes propiedades, entonces se tendr un espacio
vectorial.

I. La suma forma un grupo abeliano con el conjunto U
II. Se debe cumplir la cerradura de la multiplicacin de un vector por un escalar.
III. Existe la distributividad tanto para la suma de vectores por un escalar, como para la suma de
escalares por un vector.
IV. Se cumple la homogeneidad para el producto de escalares por un vector.
V. Existe el escalar idntico.
Apuntes de lgebra Lineal

6


Analticamente lo anterior queda representado de la siguiente manera.
I. (U, +) Grupo Abeliano


1) Cerradura:

U

2) Conmutatividad.

3) Asociatividad:

)+


4) Elemento idntico.


5) Elemento inverso.

El elemento inverso no es nico.
II. Cerradura para la multiplicacin por un escalar.

U
III. Distributividades.



IV. Homogeneidad.
K
9) ()
V. Escalar idntico.
e a b c U , ,
e
- e + = + =
a U
e U e a a e a
e
- e + = + =
a U
i U a i i a e
a b b a + = +
e e y , K a b U , o |
Apuntes de lgebra Lineal

7

Si V es un espacio vect orial sobre K, ent onces

El vect or es nico y es t al que:
El vect or es nico y es t al que:
La ecuacin t iene solucin nica en V



i u v w V u v u w v w
ii e v v v V
iii i v i
iv u x v
v v V v v
vi u v V u v u v
) , , :
) ;
)
)
) : ( )
) , : ( ) ( )
e + = + =
= + = e
+ =
+ =
e =
e + = +
0 0
0



EJEMPLO:

EJEMPLO:

EJEMPLO:
Espacio Nulo:
Contiene al vector nulo, ejemplo en polinomios: P= (0x
2
+0x+0)=
EJEMPLO:
PROPIEDADES ELEMENTALES DE LOS ESPACIOS VECTORIALES.
De los diez postulados que integran la definicin de espacio vectorial, los primeros cinco se refiere
nicamente a la adicin, y establecen que el sistema (V, +) es un grupo abeliano; por lo tanto, se
pueden enunciar las siguientes propiedades, las cuales son comunes a todos los espacios
vectoriales.

TEOREMA.





Continuando con los postulados de la multiplicacin por un escalar se establecen otras
propiedades que, junto con las anteriores, rigen los procedimientos algebraicos en un espacio
vectorial.


e e
=
a U K
a a
;
)


o
o 10
0
Apuntes de lgebra Lineal

8

TEOREMA:
Sea V un espacio vectorial sobre K.



SUBESPACIO.
Es posible que un espacio vectorial tenga subconjuntos que sean, por s mismos, espacios
vectoriales.
Subespacio vectorial.
Dado un espacio vectorial A y un subconjunto B de A, si B es tambin un espacio vectorial respecto
a las operaciones definidas en A, decimos entonces que B es un subespacio vectorial de A.
Todo espacio vectorial es subespacio del mismo.
Para facilitar la verificacin de que un conjunto es subespacio vectorial o no, se dispone del
siguiente teorema.

Teorema: Dado un subconjunto B de un espacio vectorial A, se tiene que si:
1) El conjunto B es cerrado para la suma de dos elementos cualesquiera del conjunto y
2) El conjunto B es cerrado para la multiplicacin de uno de sus elementos por un escalar.
Entonces B es un subespacio vectorial de A.

Ls declr que basLar con verlflcar la cerradura" de 8 con respecLo a la adlcln y a la mulLlplicacin
por un escalar definidas en A para concluir que B es subespacio de A.
EJEMPLO:
Apuntes de lgebra Lineal

9


NOTA: Condicin necesaria que un conjunto contenga el vector cero para que sea subespacio,
pero dicha condicin no es suficiente.

EJEMPLOS:
ISORMORFISMOS ENTRE ESPACIOS VECTORIALES.
El concepto de isomorfismo es de relevante importancia en las matemticas, especialmente desde
el punLo de vlsLa de sus apllcaclones. Ll Lermlno lsomorfo", eLlmolglcamenLe slgnlflca de lgual
forma", se emplea en el lgebra para denoLar la idea de que dos sistemas son tan parecidos que
pueden considerarse, en esencia, como el mismo.
EJEMPLO.

Los espacios vectoriales del tipo R
n
tienen una gran aplicacin en el estudio mismo de los espacios
vectoriales. Es probablemente que la aplicacin ms til resulte el teorema que estable que los
espacios vectoriales de la misma dimensin, son isomorfos. Es decir, todos los espacios vectoriales
de la misma dimensin son algebraicamente hablando, iguales. De esta manera al estudiar un
espacio vectorial V, de dimensin n, emplearemos el isomorfismo para trabajar con vectores del
espacio vectorial R
n
y el resultado lo aplicaremos al espacio V.













Apuntes de lgebra Lineal

10

DEFINICIN.
Sean U y V dos espacios vectoriales. Se dice que la funcin I:UV es un isomorfismo de U a V, si I
es biyectiva (inyectiva y suprayectiva) y adems cumple con las siguientes condiciones.




Los espacios vectoriales isomorfos slo difieren en la naturaleza de sus elementos, sus
propiedades algebraicas son idnticas.

Si U y V son espacios vectoriales isomorfos bajo el isomorfismo I, entonces para el vector a del
espacio U, existe un nico vector v en el espacio V, tal que I(u)=v y recprocamente, para cada
vector de V del espacio V, existe un nico vector u del espacio U tal que I(v)=u
De acuerdo con lo anterior podemos establecer los siguientes teoremas:

Teorema 1: Si V es un espacio vectorial real de dimensin n, entonces V es isomorfo a R
n
.
Teorema 2: Todo espacio vectorial V es isomorfo a si mismo
Teorema 3: Si un espacio vectorial V es isomorfo a otro espacio W, entonces W es isomorfo a V
Teorema 4: Dos espacios vectoriales de igual dimensin son isomorfos.

EJEMPLO.

2.2 Combinacin Lineal. Dependencia Lineal. Conjunto generador. Base y dimensin de un espacio
vectorial. Coordenadas de un vector respecto a una base ordenada. Matriz de transicin.
COMBINACIN LINEAL.
Dado un espacio vectorial:


Se define como combinacin lineal de ellos a la expresin:
Donde o
i
eK (campo del espacio vectorial (V)).


o o o o
1 1 2 2 3 3
v v v v
n n
+ + + + ...
Apuntes de lgebra Lineal

11

EJEMPLO:

EJEMPLO:

DEPENDENCIA LINEAL.
Sea el conjunto de vectores:


Decimos que el conjunto V es linealmente dependiente, si existen escalares no todos nulos, que
satisfagan la ecuacin:

Si la nica solucin a dicha ecuacin es o
1
=o
2
=o
3
=...=o
n
=0, entonces decimos que el conjunto V es
linealmente independiente.
Ejemplo: {(1,0,0), (0,1,0), (0,0,1)}
De acuerdo con lo anterior se tienen los siguientes dos teoremas:
Teorema 1: Todo conjunto de vectores que contenga al vector cero es linealmente dependiente.
{(1,0), (0,1), (0,0)}
Teorema 2: Todo subconjunto de un conjunto de vectores linealmente independientes es a su vez
linealmente independiente.
{(1,0), (0,1)}
NOTA: Un conjunto formado por dos o ms vectores es linealmente dependiente cuando al menos
uno de ellos es una combinacin lineal de los otros vectores del conjunto.
En caso contrario; cuando ninguno de los vectores es combinacin lineal de los restantes, el
conjunto es linealmente independiente.
EJEMPLO:
EJEMPLO:
CONJUNTO GENERADOR DE UN ESPACIO VECTORIAL.
Cuando todos los vectores de un espacio vectorial pueden obtenerse mediante combinaciones
lineales de un conjunto finito de vectores de dicho espacio, se dice que dicho conjunto es
generador del espacio vectorial.

o o o o
1 1 2 2 3 3
0 v v v v
n n
+ + + + = ...
Ecuacin de dependencia lineal
0
Apuntes de lgebra Lineal

12

De acuerdo con lo anterior, el concepto de conjunto generador se puede definir formalmente de
la siguiente manera:

Definicin: Sea V un espacio vectorial sobre un campo K y sea


Un conjunto de vectores de V. Se dice que G es generador del espacio vectorial V, si para todo
vector existen escalares o
1
, o
2
, o
3
,..., o
n
tal que:

Todo conjunto de vectores no vaco genera un espacio vectorial y para un espacio vectorial el
conjunto generador no es nico.
El conjunto de todas las combinaciones lineales de un conjunto de vectores de un espacio vectorial
V es un subespacio de V.

EJEMPLO:

BASE Y DIMENSIN DE UN ESPACIO VECTORIAL:
Se define como base de un espacio vectorial V, a cualquier conjunto B de vectores de V tal que:
1) Los elementos de B son linealmente independientes
2) Cualquier vector de V puede expresarse como una combinacin lineal de los elementos
B.
De acuerdo con las condiciones establecidas, existen varias bases en un espacio vectorial, la
relacin que existe entre bases, consiste en el nmero de elementos que las constituyen, ya que
dicho nmero es el mismo para cualquier base.

Base cannica:
La base cannica de R
n
es el conjunto



Donde


Todas las bases de un espacio vectorial de n elementos tienen el mismo nmero de elementos o
menor.

EJEMPLO:
x V e
x v v v v
n n
= + + + + o o o o
1 1 2 2 3 3
...
Apuntes de lgebra Lineal

13


Dimensin:
La dimensin de un espacio vectorial se define como la cantidad de vectores de cualquiera de sus
bases.

Teoremas:
- Sea V un espacio vectorial sobre K. Si

se dice que V es de
Dimensin n. Dim V = n, en particular si

entonces dim V = 0.
- Sea V un espacio vectorial sobre K. Si

es una base de V, entonces


cualquier conjunto de vectores de V con ms de n elementos es linealmente dependiente.
- Si V es un subespacio vectorial de dimensin n, cualquier conjunto linealmente independiente
formado por n vectores de V es una base de dicho espacio.
- Si V es un espacio vectorial de dimensin n y W es un subespacio de V entonces
. Si dim W = n entonces W=V

EJEMPLOS.

COORDENADAS DE UN VECTOR RESPECTO A UNA BASE:
Dada la base:

de un espacio vectorial, en donde un vector


cualquiera de dicho espacio est dado por:

A los escalares o
1
, o
2
, o
3
,..., o
n
, les llamaremos las coordenadas de en la base B, y al arreglo

le llamaremos vector de coordenadas de respecto a la base B.



Tratndose de bases, el orden de sus elementos es importante.
- El vector de coordenadas respecto a una base dada es nico para cada vector del espacio.
- El vector de coordenadas de un vector perteneciente a un espacio, cambia al cambiar la base
de referencia.

EJEMPLO:
EJEMPLO:

dimW n s
a
a b b b b
n n
= + + + + o o o o
1 1 2 2 3 3
...
a
a
Apuntes de lgebra Lineal

14

MATRIZ DE TRANSICIN:
El cambio de coordenadas de una base a otra puede efectuarse multiplicando una matriz por un
vector. Esta matriz se conoce como matriz de transicin o matriz de cambio de base.
Para obtener esta matriz se procede de la siguiente forma:




Dos bases de un espacio vectorial, la matriz de transicin est formada por la
disposicin en columnas de los vectores de coordenadas de los elementos de la base B con
respecto a la base W, esto es:


De tal forma que, si conocemos el vector

y deseamos obtener el vector de


coordenadas de

, entonces ser suficiente con desarrollar el siguiente producto




EJEMPLO:
Toda matriz de transicin de una base A a otra B, es no singular y su inversa es la matriz de B a A.
Conviene hacer notar que toda matriz de transicin tiene inversa y adems que:
Si se conoce la matriz de transicin de una base V, a una base W, entonces la inversa de esa matriz
resulta ser:



EJEMPLO:

W
B
M
Apuntes de lgebra Lineal

15

2.3 Espacio rengln, espacio columna y rango de una matriz.
Espacios vectoriales generados por los renglones y las columnas de una matriz.
Dada una matriz A de orden nxn, se tiene que tanto sus renglones como sus columnas pueden
definir un espacio vectorial, por ejemplo:







Se pueden formar espacios vectoriales con los renglones y las columnas de la matriz A, adems, se
puede presentar el hecho de aplicar transformaciones elementales a la matriz original y as
obtener matrices equivalentes.








l l





Lo que se hace con renglones se puede hacer con columnas y hacer operaciones simultneas.

De la misma forma en que se obtienen espacios vectoriales iguales con los renglones de una
matriz (aplicando transformaciones elementales), se pueden obtener espacios vectoriales iguales
considerando las columnas de dicha matriz.

Por lo tanto la aplicacin de transformaciones elementales sobre las lneas de una matriz conduce
a espacios vectoriales iguales a los espacios de las lneas originales. De esta manera es factible
obtener la base y dimensin de un espacio vectorial, reduciendo una matriz determinada, a la
forma escalonada.
Apuntes de lgebra Lineal

16


Forma cannica escalonada.
La apllcacln suceslva de Lransformaclones elemenLales se efecLua hasLa obLener una forma
cannica escalonada".

Se dice que una matriz es una forma cannica escalonada, cuando adems de ser una matriz
escalonada, el primer elemento distinto de cero de cada rengln es uno y dicho elemento es el
nico diferente de cero en la columna en que se encuentra.

Ejemplo:

- Para una matriz dada a existe una y slo una forma cannica escalonada que es equivalente a
la matriz A.
- Los renglones no nulos de una forma cannica escalonada constituyen una base de su espacio
rengln.

La ltima propiedad es vlida tambin para una matriz escalonada cualquiera, pero en el caso de
una forma cannica an ms evidente.

EJEMPLO:
Teorema:
La relacin que guardan los espacios rengln y columna de una matriz es que la dimensin de
estos es la misma.
Para cualquier matriz A se tiene que: L (A
R
) = L(A
C
), dim L(A
R
)=dim L(A
C
)

EJEMPLO:
RANGO:
Se llama rango de una matriz A, y se denota con R(A) al nmero:
R(A)=dim L(A
R
) = dim L(A
C
)

El rango de una matriz representa el nmero mximo de renglones (y de columnas) linealmente
independientes que contiene la matriz.

Apuntes de lgebra Lineal

17

EJEMPLO.

2.4 El espacio vectorial de las funciones continuas de variable real. Subespacios de dimensin
finita. La dependencia lineal de funciones. Criterio del Wronskiano.

ESPACIO VECTORIAL DE FUNCIONES:
El conjunto de las funciones reales de variable real constituyen un espacio vectorial con las
operaciones de adicin y multiplicacin por un escalar definidas en el curso de Clculo Diferencial
integral.
(f+g) (x) = f(x) + g(x)
(of) (x) = of(x)
SUBESPACIOS DE FUNCIONES:
El espacio F de las funciones continuas de variable real, no puede ser generado por un conjunto
infinito de vectores, y se dice por ello que es de dimensin finita.
Subespacios de dimensin finita son:
- Polinomios de grado menor o igual que n, funciones definidas en un intervalo, funciones
continas en un intervalo.
- Con[unLo de las soluclones de la ecuacln dlferenclal y"+ay+by=0

Si tenemos f
1
, f
2
, f
3
,...,f
n
o
1
f
1
+o
2
f
2
+o
3
f
3
+ ... + o
n
f
n
= 0
o
1
f
1
(x)+o
2
f
2
(x)+o
3
f
3
(x)+ ... + o
n
f
n
(x) = 0

Esta expresin representa un nmero finito de ecuaciones una para cada nmero real x. Cmo no
es posible generar a todas las funciones continuas de variable real con un conjunto de un nmero
finito de elementos, se considera que la dimensin del espacio es finita.

DEPENDENCIA LINEAL DE FUNCIONES:
Si representamos con F al conjunto de todas las funciones continuas de variable real, dado que F
es un espacio vectorial sobre R, es claro entonces que los conceptos de combinacin lineal son
aplicables tanto a los elementos de F, como a cualquiera de sus subespacios.

EJEMPLO:

WRONSKIANO.
Apuntes de lgebra Lineal

18

Dado el conjunto de funciones:
{f
1
, f
2
, f
3
, ..., f
n
} se define como Wronskiano al determinante:

Se tiene que el conjunto de funciones {f
1
, f
2
, f
3
, ..., f
n
} ser linealmente independiente si existe al
menos un valor de la variable para el cual W=0.
En caso de que el determinante W=0 se tiene incertidumbre sobre la dependencia o
independencia del conjunto, por lo que se tendr que recurrir, en este caso a la ecuacin de
dependencia lineal.

EJEMPLO:

EJEMPLO:

EJEMPLO:












W
f f f f
f f f f
f f f f
f f f f
n
n
n
n n n
n
n
=
' ' ' '
'' '' '' ''

1 2 3
1 2 3
1 2 3
1
1
2
1
3
1 1

b g ( ) ( ) ( )
Apuntes de lgebra Lineal

19


u
CAPITULO 3
TRANFORMACIONE LINEALE

3.1 Definicin de transformacin. Dominio, codominio, ncleo y recorrido de una transformacin.

DEFINICIN DE TRANSFORMACIN:
Como sabemos una funcin f de A en B (donde A y B son conjuntos no vacos cualesquiera) es una
regla o criterio que asocia a cada elemento de A, uno y solo un, elemento de B, lo cual denotamos
mediante f: AB; existen tambin funciones entre espacios vectoriales que en forma similar
denotamos por: T:UV, donde U y V son espacios vectoriales sobre el mismo campo K y T es la
regla de correspondencia que asigna a cada vector de U uno y solo un vector de V, al que
llamaremos lmagen de u" y represenLamos como 1(u).

A este tipo de funciones le daremos el nombre de transformaciones:

T


Dominio Codominio

Y a los espacios U y V se llaman, respectivamente, dominio y codominio de la transformacin.

Al conjunto formado por todos los vectores que son imagen de algn vector del dominio, se le
conoce como el recorrido de la transformacin.
Lo representamos con T (U), esto es:








T(u)
Apuntes de lgebra Lineal

20

U V


T


El ncleo de una transformacin es el conjunto de vectores cuya imagen es el vector cero. Dicho
conjunto lo representamos con: N (T), esto es:


U V





Sea T:UV una transformacin tenemos que:
Dominio: Es el conjunto U de vectores sobre los cuales acta la transformacin:
U V
T


T(x,y,z) = (x,y)

Los espacios vectoriales U= R
3
y V= R
2
son el dominio y codominio de la transformacin.

Como se puede observar, el recorrido de una transformacin es un subconjunto del codominio y el
ncleo es un subconjunto del dominio.

EJEMPLO.


( x,y,z)


(x,y)

v=T(u)

u
N(T)
u
1

0

Apuntes de lgebra Lineal

21

3.2 Definicin de transformacin lineal. Los subespacios ncleo y recorrido de una transformacin
lineal. Caso de dimensin finita: relacin entre las dimensiones del dominio, recorrido y ncleo de
una transformacin lineal.

TRANSFORMACIN LINEAL:
Antes de continuar con la descripcin de conjuntos que caracteriza a una transformacin se dar
la definicin correspondiente a transformacin lineal.
Una transformacin T:UV donde U y V son espacios vectoriales, es lineal, si y solo si, satisface las
siguientes propiedades:
1) Superposicin: La transformacin de una suma es igual a la suma de las transformaciones:


2) Homogeneidad: La transformacin de un vector multiplicado por un escalar es igual al producto
del escalar por la transformacin del vector.



EJEMPLO:

LOS SUBESPACIOS NCLEO Y RECORRIDO DE UNA TRANSFORMACIN LINEAL.
Como ya hemos visto, el recorrido de una transformacin es un subconjunto del codominio y el
ncleo es un subconjunto del dominio. Si la transformacin es lineal dichos subconjuntos son
adems subespacios.

TEOREMA:




Si T: MV es una transformacin lineal entonces: T (M) es un subespacio de V y N (T) es un
subespacio de M.
Como T (M) es un subcojunto de V, se prueba que T (M) es cerrado para la adicin y multiplicacin
por un escalar.
Apuntes de lgebra Lineal

22

Sea v
1
y v
2
vectores de T (M), existen dos vectores w
1
, w
2
e M tales que:



Se tiene que:

como T es lineal entonces:



Multiplicacin por un escalar.

como T es lineal,


Es un subespacio vectorial de M.

Obtencin del recorrido de una transformacin lineal.
Para determinar el recorrido de una transformacin lineal especfica podemos aprovechar la
siguiente propiedad:

Sea T:VW una transformacin lineal. Si

es una base de V, entonces el


conjunto

es un generador de T(V).

Sea

una base de V. Si w es un vector cualquiera de T(V), entonces existe


un vector v e V tal que:

Como B es una base de V:



en consecuencia

es un conjunto generador de T(V)


Si G es linealmente independiente entonces es una base de T(V) y si es linealmente dependiente
puede obtenerse una base de T(V) a partir de este.

EJEMPLO:

v v v v v
n n
= + + + + o o o o
1 1 2 2 3 3
...
Apuntes de lgebra Lineal

23

TEOREMA de dimensiones: Sea U un espacio vectorial y sea T:UV una transformacin lineal, se
tiene que:
Dim U = Dim T(U) + Dim N(T)
Donde U = dominio de la transformacin
T(U) = Recorrido de la transformacin
N(T) = Ncleo de la transformacin

Esto sucede siempre que se trabaja con espacios de dimensin finita, U es un espacio vectorial de
dimensin finita.

EJEMPLO:

EJEMPLO:

3.3 Matriz asociada a una transformacin lineal con dominio y codominio de dimensin finita.

MATRIZ ASOCIADA A UNA TRANSFORMACIN LINEAL.
Existe una forma alternativa para obtener imgenes de una transformacin lineal, la cual est
basada en el concepto de matriz asociada a una transformacin.

Esta matriz se obtiene por la disposicin en columnas de las imgenes de los elementos de una
base cannica del dominio. De esta forma, la imagen de un vector est dada por el producto de la
matriz asociada y el vector dado en forma de columna.

U V



Esto es posible de esta forma, siempre y cuando tanto el dominio como el codominio sean
espacios del tipo R
n
.

EJEMPLO:

u

T(u)
Apuntes de lgebra Lineal

24

Las ideas anteriores pueden generalizarse al caso de espacios vectoriales cualesquiera,
simplemente, reemplazando los vectores imagen por sus respectivos vectores de coordenadas.
T
U V V


U y V cualquier espacio vectorial.

De acuerdo con esto la matriz asociada a la transformacin referida a dos bases cualesquiera A y B
respectivamente se representa de la siguiente forma:

U V
T


A B
A es base del dominio
B es base del codominio



De esta forma se tiene que las columnas de dicha matriz son los vectores de coordenadas, en la
base B, de las imgenes de los elementos que integran la base A.

T: R
3
R
2
R
3
T R
2









Apuntes de lgebra Lineal

25


Imgenes:



TEOREMA: Si T:V W es una transformacin lineal, existe una y solo una matriz:



Donde A y B son bases de V y W respectivamente.
- En toda transformacin es posible obtener su matriz asociada.

De acuerdo con este teorema la matriz

nos permite calcular la imagen de un vector


cualquiera v del dominio, mediante el siguiente procedimiento, que podramos considerar
indirecto.
1) Determinar las coordenadas de v en la base A,

..
2) Multiplicar la matriz

por el vector

.
3) Obtener el vector a partir de sus coordenadas en la base B.






Apuntes de lgebra Lineal

26


Esquematizando:
Aplicando la regla
de correspondencia


Clculo Obtencin
de de la
coordenadas imagen

Multiplicando por


la matriz.



EJEMPLO:
TEOREMA: En una transformacin lineal, la dimensin del recorrido es igual a la dimensin o
rango de la matriz asociada referida a dicha transformacin.

T: V W R(M(T)) = dim T(V)
R(

)= dim T(V)

EJEMPLO:

3.4 lgebra de las transformaciones lineales: definicin y propiedades de la adicin, la
multiplicacin por un escalar y la composicin de transformaciones.

ALGEBRA DE TRANSFORMACIONES:
As como se tiene operaciones con funciones tambin se tienen operaciones con
transformaciones.

1
2
3
v
Apuntes de lgebra Lineal

27

Entre otras se tienen las siguientes:

1) Igualdad: Sean S y T dos transformaciones de V en W. Se dice que S y T son iguales, lo cual se
denota mediante S=T, cuando S( )=T( ) e V.

2) Adicin: Dadas dos transformaciones cuyo dominio es el mismo T:U V y
S:UV. Se tiene como resultado de esta operacin: . En
trminos de matrices asociadas se tiene que: M(T + S) = M(T) + M(S).

3) Multiplicacin por un escalar: Dada una transformacin T:UV y un escalar o que pertenece al
campo de definicin, se define esta operacin de la siguiente forma:
(o T) = o T( ) e U.
En trminos de matrices asociadas se tiene: M(oT) = o M(T)

4) Composicin: Dadas las transformaciones T:UV y R:VW, se define a la transformacin
S:UW como el resultado de la composicin entre las transformaciones R y T, esto es:
desarrollando tenemos que grficamente:

U T V R W
R


S( )=R[T( )],
Para que esta operacin pueda ser realizada debe existir interseccin entre el recorrido de T y el
dominio de R.
La relacin entre matrices asociadas est dada por:
M(R-T)=M(R)M(T) o M
R-T
=M
R
M
T


Estas operaciones tambin se aplican a matrices asociadas con diferentes bases:


NOTA: Si R y T son transformaciones lineales, entonces R+T y R tambin son lineales.

v v v

u

T(u)

R[T(u)]
u u
Apuntes de lgebra Lineal

28

TEOREMA: El resultado de efectuar las operaciones anteriores con transformaciones lineales es
una transformacin lineal.

EJEMPLOS:

PROPIEDADES DE LAS OPERACIONES CON TRANSFORMACIONES:
1) Conmutatividad de la adicin: S+T=T+S
2) Asociatividad de la adicin: (S+T) + R = S+ (T+R)
3) Homogeneidad del producto por escalares: o(|T) = (o|)T
4) Asociatividad de la composicin: (ST) R = S(TR)
5) Homogeneidad en la composicin: o(ST) = (oS) T = S(oT)
6) Distributividad de la composicin sobre de la adicin: S(T+R)=(ST)+(SR)
7) Distributividad entre el producto por un escalar y la adicin:
a) (o+|)T = oT + |T
b) o(T+R)= oT + oR

3.5 La inversa de una transformacin lineal.

TRANSFORMACIN INVERSA:
Dada una transformacin lineal T:VW existe una transformacin inversa T
-1
:WV, si y solo si, la
transformacin original es biyectiva, esto es:
1) Dim V = Dim W
2) Dim N(T) = 0
En trminos de matrices asociadas tenemos que:
T M
T

T
-1
M
T-1
=(M
T
)
-1


EJEMPLO:



Apuntes de lgebra Lineal

29

EJEMPLO:

Propiedades de la transformacin inversa:
Si F:UV y T:VW son dos transformaciones biyectivas, y es un escalar del campo sobre el que
estn definidos V y W entonces:
i) T
-1
es nica
ii) (T
-1
)
-1
= T
iii) (T-F)
-1
= F
-1
- T
-1
iv) (T)
-1
=
-1
T
-1
; si =0

TEOREMA: Sea T: VW una transformacin lineal. Si T
-1
existe entonces es una transformacin
lineal.

TEOREMA: Sean T:VW una transformacin lineal, V un espacio de dimensin finita y A, B bases
de V y W respectivamente.
i) T
-1
existe si y solo si

es no es singular
ii) Si T
-1
existe, entonces



EJEMPLO:

3.6 Efectos geomtricos de las transformaciones lineales.
La transformacin T(x, y, z) = (x, y) su interpretacin geomtrica es (x,y,z) representa un segmento
dirigido cualquiera del espacio cartesiano tridimensional, T transforma dicho segmento en su
proyeccin sobre el plano XY.

Otro tipo de efectos geomtricos de la transformacin son la traslacin, escalamiento, y rotacin.
Al tener la siguiente transformacin:
1(x) =lx+b= x+b sl b 0, esLa Lransformacln es no llneal, a esLa Lransformacln se le llama
traslacin por b.

una Lraslacln por un vecLor b 0 desplaza a una flgura sumando b a Lodos sus punLos. una
transformacin afn es una transformacin lineal seguida de una traslacin.
Apuntes de lgebra Lineal

30

El escalamiento consiste en simplemente multiplicar la transformacin por un escalar, para
agrandar o empequenecer la lmagen. 1(x) = x, Lodo depender del valor del escalar.

3.7 Definicin de operador lineal. Definicin y propiedades de valores y vectores caractersticos de
un operador lineal. Definicin de espacios caractersticos. Caso de dimensin finita: polinomio
caracterstico, obtencin de valores y vectores caractersticos.

OPERADOR LINEAL:
Son transformaciones de un espacio vectorial en s mismo, esto es, transformaciones del tipo:
T: VV
A las que se les conoce con el nombre de operadores"

VALORES Y VECTORES CARACTERSTICOS.
Para este tipo de transformaciones puede haber vectores que no se modifiquen al aplicar la
transformacin, o cuya modificacin consista nicamente en quedar multiplicados por un escalar.

T(v) = v donde es un escalar
Los vectores no cambian de direccin, sino cambian de tamao:
T(x,y) = (2x+y, 6x+y) v
1
=(1,2) T(v
1
)=(4,8)= 4(1,2)=4v
1


A Lales vecLores se les llama vecLores caracLerlsLlcos" del operador 1 y a los escalares se les
conoce como valores caracLerlsLlcos" de dlcho operador. ay-guen" (eglenvalor)
Del ejemplo, 4 es un valor caracterstico, y (1,2) es el vector caracterstico.

Se excluye al vector cero como vector caracterstico. Esto se debe a la conveniencia de que todo
vector caracterstico corresponda a un solo valor caracterstico. Empero, esta definicin permite al
escalar cero ser un valor caracterstico.

Algunos ejemplos:
Para la transformacin identidad:
I:VV, todos los vectores no nulos de V son vectores caractersticos
correspondientes al valor 1 puesto que I(v)=v=1v; v e V.
Apuntes de lgebra Lineal

31

Para la transformacin cero:
O:VV, todos los vectores no nulos de V son vectores caractersticos
correspondientes al valor 0, puesto que:

Para el operador derivacin definido por:
u(f)=f, en el espaclo de las funclones reales de varlables real, sus valores
caractersticos son aquellas funciones f no nulas Lales que: f=f para algn eR. Esta es una
ecuacin diferencial cuyas soluciones estn dadas por la expresin:
f(x)= ce
x

PROPIEDADES DE LOS VALORES Y VECTORES CARACTERSTICOS.

1) Los vectores caractersticos asociados a valores caractersticos distintos son linealmente
independientes.
2) El escalar es nico
3) Si v es un vector asociado a un valor caracterstico , entonces ov es tambin un vector
caracterstico, oek (campo de definicin) con o = 0.
4) Si u y v son vectores caractersticos asociados a y u = -v entonces u+v es un vector
caracterstico asociado a .

ESPACIO CARACTERSTICO:
Es claro que todos los vectores de un espacio vectorial se transforman en vectores del mismo
espacio al aplicarles la transformacin.
Si v eV entonces T(v) e V.
Si al conjunto de vectores caractersticos le agregamos el vector nulo, entonces dicho conjunto
define un espacio vectorial al cual llamaremos espacio caracterstico:
E()={v,veV, T(v)=v} v=0

OBTENCIN DE VALORES Y VECTORES CARACTERSTICOS:
En un espacio de dimensin finita, el problema de obtener los valores y vectores caractersticos de
un operador lineal puede resolverse con ayuda de los determinantes y los sistemas de ecuaciones
lineales, mediante el procedimiento que se presenta a continuacin.
Dado un operador lineal T que T: UU para el cual se tiene que T(u)=u; ueU, donde
u = 0, es un escalar.
Apuntes de lgebra Lineal

32

Se define a u como un vector caracterstico del operador T y al escalar como un valor
caracterstico de dicho operador.
Para obtener tales elementos, se tiene que:
T(u) = u ....... (1)
Considerando:
M
T
=A ...... (2)
T(u) = A u ...... (3)

De 1 y 3 tenemos que:

I u =A u; donde I es la matriz identidad.
De donde:
Au - Iu=0
(A- I)u=0 ....... (4)

Si obtenemos el determinantes de A- I, esto es: DET (A- I) a esta expresin se le conoce como
polioio caracterstico, de la transformacin si se iguala a cero (DET(A- I))=0 y se le llama
ecuaci caracterstica, la cual nos permite obtener los valores de , es decir los valores
caractersticos.

Para obtener los respectivos vectores caractersticos, asociados a los valores de , se utiliza la
ecuacin (4), esto es se determina la relacin entre los componentes del vector u, para los cuales
se satisface esta ecuacin.

EJEMPLO:

EJEMPLO:




Apuntes de lgebra Lineal

33

3.8 Matrices similares y sus propiedades. Diagonalizacin de la matriz asociada a un operador
lineal.

MATRICES SIMILARES:
Las matrices asociadas a una transformacin lineal en dos bases cualesquiera, pertenecen a un
cierto tipo de matrices cuadradas llamadas similares.

La forma en que se relacionan las matrices asociadas a una transformacin lineal est dada por el
siguiente teorema:
TEOREMA: Sea T:VV una transformacin lineal sobre un espacio vectorial V de dimensin finita.
Si M es la matriz asociada a T referida a la base A y N es la matriz asociada a T respecto a la base B,
entonces N=P
-1
MP, donde P es a matriz de transicin de B a A.


or conslgulenLe el Leorema puede escrlblrse de la slgulenLe manera: uos maLrlces represenLan a
la misma transformacin lineal T de B a B en bases diferentes, si son similares, donde V es el
espacio vecLorlal de dlmensln flnlLa"
Dos matrices representan al mismo operador si y solo si son similares.
Propiedades:
- Si A y B son matrices similares entonces Det A = Det B
- Dos matrices similares tienen el mismo polinomio caracterstico y por lo tanto, los mismos
valores caractersticos.

EJEMPLO:

DIAGONALIZACIN DE UNA MATRIZ ASOCIADA A UN OPERADOR LINEAL.
Que la matriz asociada sea de forma sencilla ofrece ciertas ventajas pues, adems de que permite
identificar ms fcilmente la informacin contenida en ella, su manejo algebraico se simplifica

Entre los tipos ms sencillos de matrices estn las diagonales. No siempre es posible encontrar una
representacin diagonal para cualquier operador. Las condiciones bajo las cuales existe tal
representacin:
Apuntes de lgebra Lineal

34

Sea V un espacio vectorial de dimensin n y T:VV un operador lineal: existe una matriz diagonal
asociada a T, referida a una base, si y solo si existe una base de V formada por vectores
caractersticos. En tal caso, la matriz asociada a T, referida a esta base, es una matriz diagonal
cuyos elementos d
ii
son los valores caractersticos correspondientes.



Para que un operador lineal tenga representacin diagonal es condicin suficiente que sus valores
caractersticos sean diferentes, sin embargo tal condicin no es necesaria.

Dicho de otra manera, la suma de la dimensin de los espacios caractersticos debe ser la
dimensin del dominio, de esta forma se comprueba que el operador es diagonalizable; significa
que el operador o transformacin se puede representar por una matriz diagonal.

EJEMPLO:
Diagonalizacin: Es un procedimiento que permite modificar a una matriz cualquiera a efecto de
obtener su matriz diagonal. Para el caso de matrices asociadas a una transformacin, la matriz
diagonal que representa al operador se obtiene con la expresin: D=P
-1
AP

Donde D es la matriz diagonal, P es una matriz formada por vectores caractersticos dispuestos en
forma de columna y se le llama matriz diagonalizadora, y A es una matriz asociada al operador
referida a una base cannica, llamada matriz diagonalizable.

TEOREMA: Una matriz A de nxn es similar a una matriz diagonal D, si y solo si existe un conjunto
linealmente independiente formado por n vectores caractersticos de A. En tal caso, existe una
matriz no singular P tal que: D=P
-1
AP

EJEMPLO:

EJEMPLO:


Apuntes de lgebra Lineal

35

CAPITULO 4
EPACIO CON PRODUCTO INTERNO

4.1 Definicin de producto interno y sus propiedades elementales

PRODUCTO INTERNO:
Se ha visto que en un espacio vectorial se tiene la posibilidad de establecer varias operaciones,
una operacin muy importante es la correspondiente al producto interno entre vectores, la cual se
denota por:



Si una operacin cumple con las siguientes propiedades entonces ser un producto interno.
1) l



Siempre y cuando el campo de definicin del espacio vectorial sea el campo de los reales.
EJEMPLO:

En el caso de que el campo de definicin del espacio vectorial corresponde al de los nmeros
complejos, la definicin de producto interno est dada por la verificacin de las siguientes
propiedades:




Apuntes de lgebra Lineal

36

TEOREMA.
Sea V un espacio vectorial sobre C y sea

un producto interno en V, entonces,






EJEMPLO:

4.2 Definicin de norma de un vector y sus propiedades, vectores unitarios. Desigualdad de
Cauchy-Schwarz. Definicin de distancia entre dos vectores y sus propiedades. Definicin de
ngulo entre dos vectores. Vectores ortogonales.

NORMA DE UN VECTOR
La idea de magnitud (o tamao) de un vector se introduce formalmente en un espacio vectorial
con el concepto de norma.

En un espacio vectorial V, el nmero no negativo definido por la expresin:



Se denomina norma del vector, sobre un producto interno definido.
La norma de un vector depende del producto interno que se haya elegido. Un mismo vector puede
tener diferentes normas.
Las propiedades que cumple la norma de un vector son las siguientes:
Desigualdad del triangulo
.
v
v
1 0 0
2 0 0
3
4
)
)
)
)
si
si


v v
v v
v v
u v u v
= =
> =
=
+ s +
o o
v
Apuntes de lgebra Lineal

37

EJEMPLO:

EJEMPLO:

EJEMPLO:
VECTORES UNITARIOS:
Se dice que un vector es unitario cuando
Para cualquier vector de un espacio con producto interno, el vector:




TEOREMA: DESIGUALDAD DE CAUCHY SCHWARZ
Sea V un espacio vectorial sobre C y sea (-|-) un producto interno en V; entonces:



Adems, la igualdad se cumple si y solo si y son linealmente dependientes
Si =0 o =0, es inmediato que la igualdad se verifica.

EJEMPLO:

DEFINICIN DE DISTANCIA ENTRE VECTORES.
Empleando el concepto de norma, podemos introducir en un espacio vectorial el concepto de
distancia entre vectores:
Sea V un espacio vectorial con producto interno, y sean, , e V. Se llama distancia de
a y se representa con


v = 1
d u v v u ( , ) =
v
v u
u v
v
u v
u v
Apuntes de lgebra Lineal

38

La distancia es el conjunto de los nmeros reales no negativos, y tiene las siguientes propiedades.





EJEMPLO:

NGULO ENTRE VECTORES
El ngulo entre dos vectores de un espacio vectorial, se obtiene a partir de la siguiente expresin.





Siempre y cuando el campo de definicin del espacio vectorial al cual pertenecen y sean los
reales R.

Si el campo de definicin es complejo, entonces la expresin que me permite calcular el ngulo es:



Donde R( | ) representa la parte real del nmero complejo que resulte del producto interno.
- El hecho de que dos vectores definan 90 no implica que sean ortogonales.
( | )=2i = 0, pero la parte real es 0 entonces u=90

EJEMPLO
VECTORES ORTOGONALES.
En un espacio con producto interno, dos vectores y son ortogonales si:


La ortogonalidad depende de la seleccin del producto interno. Es posible que dos vectores sean
ortogonales con respecto a un producto interno y que al mismo tiempo no lo sean con respecto a
otro producto interno.

u
v
u v
u v
v u
Apuntes de lgebra Lineal

39

EJEMPLO.

Uno de los resultados ms importantes relacionado con la ortogonalidad de dos vectores es la
generallzacln del llamado 1eorema de lLgoras", el cual se enuncla a continuacin.
Sea V un espacio con producto interno y sean y e V. Si y son ortogonales entonces:

4.3 Conjuntos ortogonales y ortonormales. Independencia de un conjunto ortogonal de vectores
no nulos. Coordenadas de un vector respecto a una base ortogonal. Proceso de ortogonalizacin
de Gram-Schmidt.

CONJUNTOS ORTOGONALES Y ORTONORMALES.
Se considera que un conjunto es ortogonal, cuando cada uno de sus vectores es ortogonal a los
dems elementos del conjunto, como lo establece la siguiente definicin:

Sea V un espacio con producto interno y sea

un conjunto de vectores de V.
Se dice que S es un conjunto ortogonal cuando:



Si adems el conjunto S es ortonormal.

EJEMPLO:

INDEPENDENCIA LINEAL DE UN CONJUNTO ORTOGONAL DE VECTORES NO NULOS.
TEOREMA. Un conjunto ortogonal de vectores no nulos es linealmente independiente.
En el captulo II se estableci el concepto de base de un espacio vectorial, considerando
solamente 2 condiciones.
- Independencia lineal
- Conjunto generador


u v u v + = +
2 2 2
v i
i
= 1;
u v u v
Apuntes de lgebra Lineal

40

En este captulo, se ampliar este concepto al combinarlo con ortogonalidad.
De esta manera, una base ortonormal es aquella base ortogonal en la que todos sus elementos
tienen como valor del producto interno, consigo mismo a la unidad, esto es:



Para normalizar un vector, hay que dividirlo entre su norma.
Lo anterior significa que para obtener una base ortonormal, se debe partir de una base arbitraria,
por lo cual se llegue a una base ortogonal y finalmente al dividir cada elemento por su norma
respectiva, se obtenga la correspondiente base ortonormal.
Conjunto Independiente, generador, ortogonal y unitario.

COORDENADAS DE UN VECTOR RESPECTO A UNA BASE ORTOGONAL.
Dado un vector a de un espacio vectorial, en el cual B constituye una base ortogonal,


se tiene que:

Para determinar la coordenada o
i
se procede a efectuar el producto interno de la expresin
anterior, miembro a miembro, considerando como factor al vector v
i
de la base ortogonal, esto es:
En general el vector de coordenadas de a respecto a una base ortogonal viene dado por:



En el caso de que la base sea ortonormal, entonces el vector de coordenadas vendr dado por:


Donde:
a v v v v
n n
= + + + + o o o o
1 1 2 2 3 3
...
Apuntes de lgebra Lineal

41

Es una base ortonormal.


EJEMPLO:
PROCESO DE ORTOGONALIZACIN DE GRAM-SCHMIDT
Este se utiliza para obtener bases ortogonales de un espacio vectorial, a partir de una base
cualquiera de dicho espacio.

Entonces, dada la base:

de un espacio vectorial, se tiene que:




Representa una base ortogonal del espacio vectorial considerando que:



uonde r= 1,2,3,, n-1



EJEMPLO:

EJEMPLO.






Apuntes de lgebra Lineal

42

4.4 Complemento ortogonal. Proyeccin de un vector sobre un subespacio. El teorema de
proyeccin.
COMPLEMENTO ORTOGONAL.
Sea V un espacio con producto interno y sea S un subconjunto de V. Se dice que un vector e V
es ortogonal al conjunto S si:


El conjunto de todos los vectores de V ortogonales a S se denota como S

(complemento
ortogonal), esto es:
S

es un subespacio.



EJEMPLO:

TEOREMA:
Sea V un espacio con producto interno y sea W un subespacio de V de dimensin finita. Entonces
cualquier vector e V puede expresarse en forma nica como:
EJEMPLO:

PROYECCIN DE UN VECTOR SOBRE UN SUBESPACIO.
Sea V un espacio con producto interno, W un subespacio de V de dimensin finita y

una base ortonormal de W.



v w w
donde w W w W
= +
e e

'
' y
v
v
Apuntes de lgebra Lineal

43

Si v e V, el vector



EJEMPLO:

TEOREMA DE PROYECCIN.
Uno de los resultados de la teora de los espacios con producto interno es el llamado teorema de
proyeccin (o teorema de la mejor aproximacin).
Considerando el subespacio de R
3
representado por el plano W de la siguiente figura, y un vector
arbitrario

.

Se trata de encontrar un vector w
0
del plano W que sea el ms cercano" a (o el ms
aproxlmado"), en el senLldo de que la dlsLancla enLre y w
0
sea la menor distancia posible entre
y cualquier vector de W.

Tal vector existe, es nico y es precisamente la proyeccin de sobre el plano W.
El vector w
0
se conoce como la proyeccin de v sobre el espacio W, debido a que es la suma de las
proyecciones de sobre cada uno de los elementos de una base de W.

Sea V un espacio con producto interno y sea W un subespacio de V. Para cada vector eV existe
uno y slo un vector w
0
eW tal que:
Dicho vector es la proyeccin de sobre W.

EJEMPLO:





v w v w w W w w < e =
0 0
, ,
v
v

Anda mungkin juga menyukai