Anda di halaman 1dari 53

Álgebra Lineal.

Aplicaciones a la Astronomía y Geofísica.

Curso 2017.
Departamento de Matemática.
Facultad de Ciencias Exactas. Universidad Nacional de La Plata.

Apuntes (en estado de borrador).

1
Espacios Vectoriales

Definición de Espacio Vectorial


Un espacio vectorial es un objeto de la matemática constituido a partir de un cuerpo de
escalares, ℱ, un conjunto no vacío de objetos denominados vectores, V, y dos operaciones
(reglas de asignación), ⊕ y ⨀, a saber:
⊕:VxV→V (suma de vectores)
⨀:ℱxV→V (multiplicación de un escalar por un vector)
Donde las operaciones deben cumplir las siguientes condiciones:
Operación ⊕
Lo primero que hay que garantizar es que la operación ⊕ sea cerrada en V, o sea 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 V
∀ 𝑣⃗, 𝑢
⃗⃗ 𝜖 V.
 Conmutatividad en la operación ⊕:
𝑣⃗ ⊕ 𝑢
⃗⃗ = 𝑢
⃗⃗ ⊕ 𝑣⃗, ∀ 𝑣⃗, 𝑢
⃗⃗ 𝜖 V
 Asociatividad en la operación ⊕:
𝑣⃗ ⊕ (𝑢
⃗⃗ ⊕ 𝑤
⃗⃗⃗) = (𝑣⃗ ⊕ 𝑢
⃗⃗) ⊕ 𝑤
⃗⃗⃗, ∀ 𝑣⃗, 𝑢
⃗⃗, 𝑤
⃗⃗⃗ 𝜖 V
 Existencia de elemento neutro en la operación ⊕:
Existe un único elemento de V, ⃗⃗
0, tal que:
⃗⃗
0 ⊕ 𝑣⃗ = 𝑣⃗ ⊕ ⃗⃗
0 = 𝑣⃗, ∀ 𝑣⃗ 𝜖 V
 Existencia de elemento inverso en la operación ⊕:
Para cada elemento de V, 𝑣⃗ 𝜖 V, existe un único elemento de V, −𝑣⃗ 𝜖 V, tal que:
⃗⃗
𝑣⃗ ⊕(-𝑣⃗) = -𝑣⃗ ⊕ 𝑣⃗ = 0
Observación: puede verse que V es un grupo abeliano bajo la operación ⊕.

Tarea:
Demostrar que el elemento neutro en la operación ⊕, ⃗⃗
0, es único.
Para cada elemento de V el elemento inverso en la operación ⊕ es único (demostrarlo).

2
Operación ⨀
Lo primero que hay que garantizar es que la operación ⨀ sea cerrada en V, o sea a ⨀ 𝑣⃗ 𝜖 V
∀ a 𝜖 ℱ y ∀ 𝑣⃗ 𝜖 V.
 Existencia de elemento neutro en la operación ⨀:
Existe el elemento 1, 1 𝜖 ℱ, tal que para todo 𝑣⃗, 𝑣⃗ 𝜖 V, se cumple:
1 ⨀ 𝑣⃗ = 𝑣⃗
 Asociatividad en la operación ⨀:
a ⨀ (b ⨀ 𝑣⃗) = (a ⋅ b) ⨀ 𝑣⃗, a, b 𝜖 ℱ; 𝑣⃗ 𝜖 V, donde ⋅ es el
producto definido sobre el cuerpo ℱ.
 Distributividad respecto de la suma de vectores:
a ⨀ (𝑣⃗ ⊕ 𝑢
⃗⃗) = a ⨀ 𝑣⃗ ⊕ a ⨀ 𝑢
⃗⃗, ∀ a 𝜖 ℱ, ∀ 𝑣⃗, 𝑢
⃗⃗ 𝜖 V
 Distributividad respecto de la suma de escalares:
(a + b) ⨀ 𝑣⃗ = a ⨀ 𝑣⃗ ⊕ b ⨀ 𝑣⃗, ∀ a, b 𝜖 ℱ, ∀ 𝑣⃗ 𝜖 V, donde + es
la suma definida sobre el cuerpo ℱ.

Observación: una estructura de espacio vectorial debe contar con:


Un cuerpo ℱ
Un conjunto no vacío V (conjunto de vectores)
Dos operaciones definidas.
Todo esto configura un espacio vectorial. En general, y de manera simbólica, suele abreviarse
esto en la terna (V(ℱ), ⊕, ⨀), y se lee V es un espacio vectorial sobre ℱ bajo las operaciones
⊕ y ⨀.

Notas:
1. En muchas ocasiones se denomina ℱ–espacio vectorial V, para indicar el cuerpo sobre el
cual queda definido el espacio vectorial. También suele nombrarse como espacio vectorial
V(ℱ). Indistintamente utilizaremos la notación (V(ℱ), ⊕, ⨀) -en este caso aparecen
explícitamente los símbolos de las operaciones-, ℱ–espacio vectorial V o espacio vectorial
V(ℱ) -en estos dos casos se indica el cuerpo, pero implícitamente se asume que hay dos
operaciones definidas-.

3
2. Un espacio vectorial sobre el cuerpo de los reales suele llamarse por simplicidad “espacio
vectorial real”.
3. Un espacio vectorial sobre el cuerpo de los complejos suele llamarse por simplicidad
“espacio vectorial complejo”.
4. Puede demostrarse que todo cuerpo es un espacio vectorial sobre sí mismo.
5. La definición de espacio vectorial implica que depende en exclusiva del cuerpo, del
conjunto no vacío V y de las dos operaciones definidas. Por ejemplo, un mismo conjunto V
sobre un mismo cuerpo F puede no ser un espacio vectorial para un par de operaciones
definidas, y puede no ser un espacio vectorial para otro par de operaciones definidas.
6. Para demostrar que un objeto matemático es un espacio vectorial lo primero que debe
demostrarse es que las operaciones ⊕ y ⨀ son cerradas en V.

Ejemplos para trabajar en clase:


 Dado el conjunto de pares ordenados V = {(x; y) / x, y 𝜖 ℝ} ¿Podemos decir que V es un
espacio vectorial?

 Sea V el conjunto de las matrices mxn, de elementos reales, con la suma tal se define para
matrices mxn y la multiplicación por un escalar también tal se define de manera habitual
para matrices mxn. ¿V es un espacio vectorial sobre ℝ? ¿Por qué?

 Dados ℱ = ℝ y V = {x / x 𝜖 ℝ, 0 < x}, y las operaciones:


⊕: x⊕y=x⋅y ∀ x, y 𝜖 V (donde ⋅ es el producto habitual en ℝ)
⨀: a ⨀ x = xa ∀ a 𝜖 ℝ, ∀ x 𝜖 V (exponenciación habitual en ℝ)
¿Es (V(ℱ), ⊕, ⨀) un espacio vectorial?

 Dados ℱ = ℝ y V = {x / x 𝜖 ℝ, 0 < x}, y las operaciones:


⊕: x⊕y=x+y ∀ x, y 𝜖 V (donde + es la suma habitual en ℝ)
⨀: a⨀x=a⋅x ∀ a 𝜖 ℝ, ∀ x 𝜖 V (donde ⋅ es el producto habitual en ℝ)
¿Es (V(ℱ), ⊕, ⨀) un espacio vectorial?

4
Para remarcar una vez más: la resolución de estos ejemplos pone en evidencia que V es un
espacio vectorial sobre ℱ a partir de las operaciones definidas y el cumplimiento de la
axiomática que conforma la estructura de espacio vectorial.

Definición de Subespacio Vectorial


Dado un espacio vectorial (V(ℱ), ⊕, ⨀), y S un subconjunto no vacío de V, i.e. S ⊂ V con S
≠ ∅, se dirá que S es un subespacio vectorial de V(ℱ) si con la misma suma ⊕ y el mismo
producto por un escalar ⨀ definidos para V, S tiene la estructura de espacio vectorial.

Esta definición puede ser expresada de otra manera, equivalente a la anterior.


Dado un espacio vectorial V(ℱ), y un conjunto S contenido en V, si S(ℱ) es un espacio
vectorial con las mismas operaciones de suma y producto por un escalar de V, se dirá que S
es un subespacio vectorial de V.

Observación 1: suele ser importante quedarse con un subconjunto que “herede” las
propiedades del conjunto y por lo tanto “reducir” el problema al número mínimo
indispensable de vectores. Esta “reducción” simplifica el problema sin pérdida de
generalidad, por lo que la matemática subyacente queda sin ser modificada.

Observación 2: en matemática, toda definición necesita la “receta” procedimental, por cuanto


es necesario extender la definición a través de lemas y teoremas que nos permitan discernir
si un subconjunto S ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial, S ≠ ∅ y con las mismas
propiedades de V, es un subespacio vectorial de V.

Teorema:
Sea S un subconjunto no vacío de V.
S es un subespacio del espacio vectorial V(ℱ) si, y sólo si, para todo par de
vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y todo escalar a del cuerpo ℱ, el vector
formado a partir de a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S.
Demostración.

5
 Si S es un subespacio del espacio vectorial V(ℱ), entonces…
S es un subconjunto no vacío de V que es subespacio vectorial, por cuanto, por definición de
subespacio vectorial, S “hereda” las propiedades del espacio vectorial V(ℱ). Desde esta
perspectiva, ya quedaría realizada la demostración de esta implicancia. No obstante la
desarrollaremos.
Como S ≠ ∅, si el vector 𝑤 ⃗⃗⃗ (porque S “hereda” las
⃗⃗⃗ pertenece a S, también pertenece −𝑤
propiedades del espacio vectorial V(ℱ)). De donde es inmediato que el vector nulo en la
operación ⊕ también pertenece a S.
Además, si 𝑤 ⃗⃗⃗ también pertenece a S (porque S “hereda” las propiedades
⃗⃗⃗ 𝜖 S y a 𝜖 ℱ, a⨀𝑤
del espacio vectorial V(ℱ)). Por lo que, de esta manera puede demostrarse (por construcción)
que para todo par de vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y para todo escalar a del cuerpo ℱ, el
vector formado a partir de a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S.
 Si para todo par de vectores 𝑣⃗ y 𝑢
⃗⃗ que pertenecen a S y todo escalar a del cuerpo ℱ, el
⃗⃗ pertenece a S entonces…
vector formado a partir de a⨀𝑣⃗ ⊕ 𝑢
En este caso, hay que probar que S es un subespacio vectorial del ℱ–espacio V.
También la demostración puede realizarse por construcción.
Dado el vector 𝑣⃗ que pertenece a S, se puede “elegir” el vector conformado por -1⨀𝑣⃗ ⊕ 𝑣⃗
el que está en S (debido a la hipótesis a⨀𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a S). Ahora bien, si 𝑣⃗ es cualquier
vector de S y podemos escoger cualquier escalar a que pertenece al cuerpo ℱ, como vimos
que -1⨀𝑣⃗ ⊕ 𝑣⃗ (= ⃗⃗
0) está en S, luego se sigue que a⨀𝑣⃗ ⊕ ⃗⃗
0 está en S (por hipótesis), es decir
a⨀𝑣⃗ 𝜖 S. En particular, -1⨀𝑣⃗ 𝜖 S (i.e. -𝑣⃗ 𝜖 S). A partir de ello, exigiendo la asociatividad y
la conmutatividad de la operación ⊕, y el cumplimiento de la axiomática de la operación ⨀
se tiene que S es un subespacio vectorial del espacio vectorial V(ℱ).

Observación: es común que se tome como definición de subespacio vectorial el teorema antes
enunciado o los lemas que a continuación se enunciarán.

El teorema anterior es equivalente a los siguientes lemas:

Lema 1:

6
Dado S ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial. S es un subespacio vectorial de V(ℱ) si,
y sólo si, se satisfacen las siguientes condiciones:
i. S≠∅
ii. Si 𝑣⃗, 𝑢
⃗⃗ 𝜖 S, entonces 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 S
iii. Si a 𝜖 ℱy 𝑣⃗ 𝜖 S, entonces a⨀𝑣⃗ 𝜖 S

Lema 2:
Dado S ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial. S es un subespacio vectorial de V(ℱ) si,
y sólo si, se satisfacen las siguientes condiciones:
i. ⃗0⃗ 𝜖 S
ii. Si 𝑣⃗, 𝑢
⃗⃗ 𝜖 S, entonces 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 S
iii. Si 𝑣⃗ 𝜖 S y a 𝜖 ℱ, entonces a⨀𝑣⃗ 𝜖 S

Demostración.
La demostración se puede realizar de manera similar a la demostración del teorema.
En el lema 1, S ≠ ∅ garantiza la existencia de al menos un vector. Si es el vector nulo para
la operación ⊕ se trata del subespacio trivial (o también denominado subespacio nulo).
En el lema 2, la exigencia que ⃗0⃗ 𝜖 S es equivalente a pedir que S ≠ ∅.

Ejemplos para trabajar en clase:


 Consideremos el conjunto de los números complejos, ℂ. Al ser ℂ un cuerpo, es un espacio
vectorial sobre sí mismo. El conjunto de los números reales, ℝ, es un subconjunto de ℂ.
Pregunta: ¿es ℝ un subespacio vectorial del espacio vectorial ℂ?

 Recordamos que una matriz cuadrada nxn (sobre el cuerpo ℱ) se llama simétrica si se
cumple que Aij = Aji. Las matrices simétricas ¿forman un subespacio del espacio vectorial
de las matrices cuadradas Anxn(ℱ)?

 Sea A una matriz mxn sobre ℱ. Demostrar que el conjunto de todas las matrices nx1
(columna), X, sobre ℱ, tales que AX = 0, es un subespacio del espacio de todas las
matrices nx1 sobre ℱ.

7
Al trabajar en espacios vectoriales estamos trabajando con objetos de esos espacios, por lo
que además de la definición propia de “espacio vectorial” es necesario dar otras definiciones
que posibiliten la “manipulación” matemática de dichos objetos.

Definición de combinación lineal


Un vector 𝑢 ⃗⃗ 𝜖 V, se dice que es una combinación lineal de los vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟
⃗⃗, 𝑢
en V si existen escalares 𝑎1 , 𝑎2 , 𝑎3 , …, 𝑎𝑟 que pertenecen a ℱ tal que:
𝑖=𝑟

𝑢
⃗⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑟 𝑣⃗𝑟 = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=1

Notar que estamos usando + (por abuso de lenguaje) para dar cuenta de la operación ⊕, y
𝑎𝑖 𝑣⃗𝑖 (por abuso de lenguaje) para indicar la operación 𝑎𝑖 ⨀𝑣⃗𝑖 .
También debemos notar que dado que (V(ℱ), ⊕, ⨀) es un espacio vectorial, para
combinaciones lineales vale lo siguiente:
𝑖=𝑟 𝑖=𝑟 𝑖=𝑟

∑ 𝑎𝑖 𝑣⃗𝑖 + ∑ 𝑏𝑖 𝑣⃗𝑖 = ∑(𝑎𝑖 + 𝑏𝑖 )𝑣⃗𝑖


𝑖=1 𝑖=1 𝑖=1
𝑖=𝑟 𝑖=𝑟

𝑐 ∑ 𝑎𝑖 𝑣⃗𝑖 = ∑ 𝑐𝑎𝑖 𝑣⃗𝑖


𝑖=1 𝑖=1

La definición de combinación lineal nos permite avanzar, para entender de manera algebraica
los conceptos de base y dimensión. Para esto necesitamos el concepto de independencia lineal
de conjunto de generadores.

Definición de dependencia lineal


Sea V un ℱ-espacio vectorial. Sea C un subconjunto de V. Diremos que C es linealmente
dependiente si existen escalares 𝑎1 , 𝑎2 , 𝑎3 , …, 𝑎𝑟 que pertenecen a ℱ, no todos nulos, para
un conjunto de vectores 𝑣⃗1, 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟 que pertenece a C tal que:
⃗0⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑟 𝑣⃗𝑟

Donde ⃗0⃗ es el vector nulo.


Observación: a partir de la igualdad establecida en la definición de dependencia lineal, puede
verse que existe un vector, 𝑣⃗𝑗 , con 1 ≤ 𝑗 ≤ 𝑟, que puede escribirse como combinación lineal
de los restantes 𝑟 − 1 vectores.

8
La definición de dependencia lineal nos lleva a entender el significado de independencia
lineal.
El subconjunto C de V, donde V es un ℱ-espacio vectorial, se dice linealmente independiente
si la igualdad
⃗0⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑟 𝑣⃗𝑟
se satisface si, y sólo si, los escalares 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑟, son todos nulos. Es decir, 𝑎1 = 𝑎2 =
𝑎3 = ⋯ = 𝑎𝑟 = 0.

Si el subconjunto C de V, donde V es un ℱ-espacio vectorial, tiene un número finito de


vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟 se suele decir, por abuso de lenguaje, que los 𝑟-vectores 𝑣⃗1 , 𝑣⃗2 ,
𝑣⃗3 , …, 𝑣⃗𝑟 son linealmente dependientes (independientes).

Consecuencias de la definición de dependencia lineal.


Es fácil demostrar que:
1. Todo conjunto que contiene un conjunto linealmente dependiente es linealmente
dependiente.
2. Todo subconjunto de un conjunto linealmente independiente es linealmente
independiente.
3. Todo conjunto que contiene al vector nulo, ⃗0⃗, es linealmente dependiente.
4. Si el conjunto C es un subespacio del espacio vectorial V(ℱ), entonces C es
linealmente dependiente.

Definición de conjunto generador (sistema de generadores)


El subconjunto G de V, donde V es un ℱ-espacio vectorial, se dice que es un conjunto
generador de V si todo vector que pertenece a V puede ser escrito como una combinación
lineal de los vectores que pertenecen a G.
Si el subconjunto G de V tiene un número finito de vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟 , en general, se
dice que el conjunto de vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟 es un sistema de generadores de V si todo
elemento de V puede escribirse como combinación lineal de los vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑟 .

En notación formal, un sistema de generadores puede ser definido como:

9
Sea V un ℱ-espacio vectorial, con G ⊂ V.
G = {𝑣
⃗⃗⃗⃗⃗,
1 ⃗⃗⃗⃗⃗, 𝑣3 …, ⃗⃗⃗⃗}
𝑣2 ⃗⃗⃗⃗⃗, 𝑣𝑟
∀𝑣⃗, 𝑣⃗ ∈ V, ∃𝑐𝑖 , 1 ≤ 𝑖 ≤ 𝑟, 𝑐𝑖 ∈ ℱ, tal que:
𝑖=𝑟

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1

Ejemplo trivial:
G = {(1; 0), (0; 1)} ⊂ ℝ2 , con ℱ = ℝ.
𝑣⃗ = 𝑎(1; 0) + 𝑏(0; 1) = (𝑎; 𝑏), con 𝑎, 𝑏 ∈ ℝ.

Base y dimensión.
Sea V un ℱ-espacio vectorial. Una base B del espacio V es un conjunto de vectores
linealmente independiente que genera al espacio V.
El espacio V es de dimensión finita si tiene una base finita, i.e. el conjunto B tiene una
cantidad finita de elementos, y la dimensión del espacio es el número de elementos de B (el
número de vectores linealmente independientes que general al espacio V).

Para el caso de dimensión finita puede aceptarse la siguiente definición como definición de
base:
El conjunto finito de vectores B = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } se dice que es una base del ℱ-espacio
vectorial V si se cumplen las dos condiciones siguientes:
a. B es linealmente independiente. Es decir, los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 son
linealmente independientes.
b. B es un conjunto generador de V. Es decir, todo vector del ℱ-espacio vectorial V se
puede escribir como combinación lineal de los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 .

Esta definición conduce a las siguientes proposiciones, con carácter de lema:

Lema 1:
Si V es un espacio vectorial que posee una base con n elementos, cualesquiera n + 1 vectores
de V son linealmente dependientes.

10
Demostración:
Sea B = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } una base del ℱ-espacio vectorial V. Luego, por definición de
base, todo vector del espacio vectorial V puede ser escrito como una combinación lineal de
los vectores de B.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑣⃗1 = ∑ 𝑐𝑖,1 𝑒⃗𝑖 ; 𝑣⃗2 = ∑ 𝑐𝑖,2 𝑒⃗𝑖 ; 𝑣⃗3 = ∑ 𝑐𝑖,3 𝑒⃗𝑖 ; … ; 𝑣⃗𝑛 = ∑ 𝑐𝑖,𝑛 𝑒⃗𝑖 ; 𝑣⃗𝑛+1 = ∑ 𝑐𝑖,𝑛+1 𝑒⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Ahora debemos ver si los n + 1 vectores 𝑣⃗1, 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛+1 son linealmente
independientes. Es decir, debemos ver si existen escalares 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, todos
“simultáneamente” nulos tales que:
⃗0⃗ = 𝑎1 𝑣⃗1 + 𝑎2 𝑣⃗2 + 𝑎3 𝑣⃗3 + ⋯ + 𝑎𝑛 𝑣⃗𝑛 + 𝑎𝑛+1 𝑣⃗𝑛+1
Reemplazando cada 𝑣⃗𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, resulta:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
⃗0⃗ = 𝑎1 ∑ 𝑐𝑖,1 𝑒⃗𝑖 + 𝑎2 ∑ 𝑐𝑖,2 𝑒⃗𝑖 + 𝑎3 ∑ 𝑐𝑖,3 𝑒⃗𝑖 + ⋯ + 𝑎𝑛 ∑ 𝑐𝑖,𝑛 𝑒⃗𝑖 + 𝑎𝑛+1 ∑ 𝑐𝑖,𝑛+1 𝑒⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1 𝑖=1

Luego de operar algebraicamente (realizar la serie de operaciones), agrupando los


coeficientes de cada 𝑒⃗𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, e imponiendo la condición de igualdad al vector
nulo, se arriba a lo siguiente:
𝑎1 𝑐1,1 + 𝑎2 𝑐1,2 + ⋯ + 𝑎𝑛 𝑐1,𝑛 + 𝑎𝑛+1 𝑐1,𝑛+1 = 0
𝑎1 𝑐2,1 + 𝑎2 𝑐2,2 + ⋯ + 𝑎𝑛 𝑐2,𝑛 + 𝑎𝑛+1 𝑐2,𝑛+1 = 0
𝑎1 𝑐3,1 + 𝑎2 𝑐3,2 + ⋯ + 𝑎𝑛 𝑐3,𝑛 + 𝑎𝑛+1 𝑐3,𝑛+1 = 0

𝑎1 𝑐𝑛,1 + 𝑎2 𝑐𝑛,2 + ⋯ + 𝑎𝑛 𝑐𝑛,𝑛 + 𝑎𝑛+1 𝑐𝑛,𝑛+1 = 0
Esta presentación nos induce a tomar lo obtenido como un sistema de n ecuaciones con
n+1 incógnitas. Además, el sistema es homogéneo. Y por el Teorema de
Rouché-Frobenius sabemos que el sistema siempre tendrá una solución no trivial, de donde
se desprende que no todos los 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑛 + 1, son nulos. Es decir, el conjunto de los
vectores 𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛+1 es linealmente dependiente.

Lema 2:
Sea V un espacio vectorial de dimensión n (dim(V) = n).
Todo conjunto de n vectores linealmente independiente en V es una base de V.

11
Demostración:
Sean 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 vectores linealmente independientes (en el espacio vectorial V).
Tomemos el conjunto de vectores {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 , 𝑢
⃗⃗}. Es decir, hay n+1 vectores, y
sabemos por el lema anterior que estos n+1 vectores son linealmente dependientes.
⃗0⃗ = 𝑎0 𝑢
⃗⃗ + 𝑎1 𝑒⃗1 + 𝑎2 𝑒⃗2 + 𝑎3 𝑒⃗3 + ⋯ + 𝑎𝑛 𝑒⃗𝑛
Es fácil ver que 𝑎0 ≠ 0, dado que si fuera igual a 0 los 𝑎𝑗 , con 1 ≤ 𝑗 ≤ 𝑛, serían todos nulos,
porque los 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 son vectores linealmente independientes. Esto conduce a que el
⃗⃗ puede generarse a partir de los vectores 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 :
vector 𝑢
𝑎1 𝑎2 𝑎3 𝑎𝑛
𝑢
⃗⃗ = − ( 𝑒⃗1 + 𝑒⃗2 + 𝑒⃗3 + ⋯ + 𝑒⃗ )
𝑎0 𝑎0 𝑎0 𝑎0 𝑛
𝑢
⃗⃗ = 𝑏1 𝑒⃗1 + 𝑏2 𝑒⃗2 + 𝑏3 𝑒⃗3 + ⋯ + 𝑏𝑛 𝑒⃗𝑛
De aquí que {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } es un sistema de generadores de V, y como son linealmente
independientes, por definición, son una base para V.

Lema 3:
Sea V un espacio vectorial de dimensión n (dim(V) = n).
Todo conjunto de m vectores linealmente independientes de V, con m < n, puede completarse
para obtener una base de V.
Demostración:
Es decir, hay que demostrar que dados 𝑒⃗1 , 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑚 vectores linealmente independientes
existen n – m vectores, 𝑒⃗𝑚+1 , 𝑒⃗𝑚+2, 𝑒⃗𝑚+3 , …, 𝑒⃗𝑛 , tal que el conjunto {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑚 ,
𝑒⃗𝑚+1 , 𝑒⃗𝑚+2 , 𝑒⃗𝑚+3 , …, 𝑒⃗𝑛 } sea una base de V.
Por definición de base y dimensión para un conjunto finito de vectores, la dimensión es el
número de vectores linealmente independientes. Como la dimensión de V, por hipótesis, es
n, implica que debe haber un conjunto con n vectores linealmente independientes (de lo
contrario se contradeciría la definición de dimensión). A partir de esto, y por construcción
pueden obtenerse los n – m vectores restantes para completar una base de V. Ahora bien, los
lemas 1 y 2 precedentes son los que nos garantizan la posibilidad de esta construcción.

Lema 4:
Sea V un espacio vectorial de dimensión n (dim(V) = n).

12
Sea G un conjunto de generadores de V. Se puede hallar un subconjunto G1 de G (G1 ⊂ G)
tal que G1 sea una base de V.
Demostración:
Se elige un vector no nulo, 𝑣⃗1 que pertenece a G1. Luego se vuelve a elegir otro vector, 𝑣⃗2 ,
el que también es no nulo y pertenece a G1 de forma que sea linealmente independiente con
𝑣⃗1 . Este procedimiento se continúa hasta hallar el vector no nulo, 𝑣⃗𝑛 , que pertenece a G1 y
es linealmente independiente con los n – 1 vectores previamente hallados. Por la hipótesis
dim(V) = n, y el lema 1 sabemos que es el número máximo de vectores linealmente
independientes que podemos construir. Pero, además, G1 es un subconjunto del conjunto de
generadores G, por lo que engendra al espacio V. De esto que cumple con la definición de
base de un espacio vectorial.

Teorema:
Todas las bases de un mismo espacio vectorial poseen el mismo número de
elementos.

Demostración:
Los lemas anteriores son la base para realizar la demostración del teorema.
Otra manera de enunciar, de forma extensiva, el teorema previo es la siguiente: Sea V un
espacio vectorial. Todas las bases de V tienen el mismo cardinal.

Lo importante que nos está indicando este teorema es:


 Los espacios vectoriales pueden tener más de una base.
 Toda base de un espacio vectorial está caracterizada por un invariante que es un número:
a saber, la cantidad de vectores linealmente independientes que generan el espacio, esto
es la dimensión. Desde el punto de vista de las propiedades algebraicas del espacio, este
número (la dimensión) proporciona toda la información que necesitamos.
 Y si hay más de una base, y todas las bases poseen el mismo número de elementos, debe
haber una forma matemática que posibilite la conexión de una base con otra. Y esto se
debe a que todo elemento de V se puede escribir como combinación lineal de los
elementos de una base.

13
Bases. Coordenadas. Cambios de base.
Un vector dado, 𝑣⃗, tiene una expresión única como combinación lineal de los vectores de la
base canónica {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 }, y la coordenada i-ésima 𝑎𝑖 de 𝑣⃗ es el coeficiente de 𝑒⃗𝑖 en
la expresión de la combinación lineal mediante la cual queda definido 𝑣⃗.
𝑖=𝑛

𝑣⃗ = ∑ 𝑎𝑖 𝑒⃗𝑖
𝑖=1

Esta manera de identificar coordenada con coeficiente se puede realizar porque se trata de
la base canónica, que es una base ordenada de vectores. Si se tiene una base arbitraria
cualquiera es necesario imponerle un orden a los vectores que componen la base, de forma
de poder asignar la coordenada i-ésima de 𝑣⃗ con respecto a la base en cuestión. Dicho de otra
manera, las coordenadas sólo pueden ser definidas respecto a una sucesión de vectores y no
respecto a un conjunto de vectores. Para ello necesitamos la definición de “base ordenada”.

Definición de base ordenada


Sea V un espacio vectorial de dimensión finita.
Se llamará base ordenada de V a una sucesión finita de vectores linealmente independientes
que generan a V.

Lema:
Dado un ℱ-espacio vectorial V de dimensión finita, y una base ordenada de este espacio, 𝑤
⃗⃗⃗1,
𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 , existe un conjunto único de escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales que:
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1

Demostración:
Supongamos que 𝑣⃗ puede escribirse a través de diferentes escalares para una misma base
ordenada, es decir:
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1
𝑖=𝑛

𝑣⃗ = ∑ 𝑑𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1

14
A partir de la suma (por el inverso multiplicativo en escalares en el segundo de los casos) se
obtiene:
𝑖=𝑛
⃗0⃗ = ∑(𝑐𝑖 − 𝑑𝑖 )𝑤
⃗⃗⃗𝑖
𝑖=1

Pero dado que los 𝑤


⃗⃗⃗𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, son linealmente independientes, luego 𝑐𝑖 − 𝑑𝑖 = 0. Y
así queda demostrado que 𝑐𝑖 = 𝑑𝑖 , para todo i.

Definición de coordenada
Dada la base ordenada Bo = {𝑤
⃗⃗⃗1 , 𝑤
⃗⃗⃗2 , 𝑤
⃗⃗⃗3 , … , 𝑤
⃗⃗⃗𝑛 } y el vector 𝑣⃗ escrito como combinación lineal
de la sucesión finita de vectores linealmente independientes de Bo
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1

Se llamará a 𝑐𝑖 la i-ésima coordenada de 𝑣⃗ respecto a la base ordenada Bo.

Propiedad:
Cada base ordenada de un espacio vectorial V determina una correspondencia biunívoca
𝑣⃗ → (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 )
Donde (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 ) es la n-upla en ℱ 𝑛 .

Ejemplo:
Dada la base ordenada de versores unitarios en ℝ2 , {𝑖̌, 𝑗̌}, todo vector 𝑣⃗ puede expresarse a
partir de la combinación lineal de estos dos versores:
𝑣⃗ = 𝑎𝑖̌ + 𝑏𝑗̌ → (𝑎, 𝑏)
Donde (𝑎, 𝑏) es una 2-upla en ℝ2 , y a es la primera coordenada de 𝑣⃗ en la base ordenada
dada, y b la segunda coordenada.

Es frecuente asociar cada n-upla en ℱ 𝑛 , (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 ), con una matriz columna, C, a la


que se denomina “matriz de coordenadas del vector 𝑣⃗ en la base ordenada B”.

15
𝑐1
𝑐2
(𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 ) → 𝐶 = 𝑐3 = [𝑣⃗]𝐵

[𝑐𝑛 ]

Cambios de base
Dadas dos bases ordenadas, B = {𝑢
⃗⃗1 , 𝑢 ⃗⃗3 , …, 𝑢
⃗⃗2 , 𝑢 ⃗⃗𝑛 } y B* = {𝑤
⃗⃗⃗1, 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 } por
ejemplo, sabemos que cada elemento de B puede ser escrito como combinación lineal de los
elementos de B*:
𝑖=𝑛

𝑢
⃗⃗1 = ∑ 𝑐𝑖,1 𝑤
⃗⃗⃗𝑖 = 𝑐1,1 𝑤
⃗⃗⃗1 + 𝑐2,1 𝑤
⃗⃗⃗2 + 𝑐3,1 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,1 𝑤
⃗⃗⃗𝑛
𝑖=1
𝑖=𝑛

𝑢
⃗⃗2 = ∑ 𝑐𝑖,2 𝑤
⃗⃗⃗𝑖 = 𝑐1,2 𝑤
⃗⃗⃗1 + 𝑐2,2 𝑤
⃗⃗⃗2 + 𝑐3,2 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,2 𝑤
⃗⃗⃗𝑛
𝑖=1
𝑖=𝑛

𝑢
⃗⃗3 = ∑ 𝑐𝑖,3 𝑤
⃗⃗⃗𝑖 = 𝑐1,3 𝑤
⃗⃗⃗1 + 𝑐2,3 𝑤
⃗⃗⃗2 + 𝑐3,3 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,3 𝑤
⃗⃗⃗𝑛
𝑖=1


𝑖=𝑛

𝑢
⃗⃗𝑛 = ∑ 𝑐𝑖,𝑛 𝑤
⃗⃗⃗𝑖 = 𝑐1,𝑛 𝑤
⃗⃗⃗1 + 𝑐2,𝑛 𝑤
⃗⃗⃗2 + 𝑐3,𝑛 𝑤
⃗⃗⃗3 + ⋯ + 𝑐𝑛,𝑛 𝑤
⃗⃗⃗𝑛
𝑖=1

Es decir:
𝑗=𝑛

𝑢
⃗⃗𝑘 = ∑ 𝑐𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1

Sea 𝑥⃗ un vector del espacio vectorial V. Su expresión en la base B vendrá dada por la
combinación lineal siguiente:
𝑖=𝑛

𝑥⃗ = ∑ 𝑥𝑖 𝑢
⃗⃗𝑖
𝑖=1

Pero sabemos que cada 𝑢


⃗⃗𝑖 puede ser escrito como combinación lineal de vectores de la base
B*. Haciendo ello resulta que:

16
𝑖=𝑛 𝑗=𝑛 𝑖=𝑛 𝑗=𝑛

𝑥⃗ = ∑ 𝑥𝑖 ∑ 𝑐𝑗,𝑖 𝑤
⃗⃗⃗𝑗 = ∑ ∑ 𝑐𝑗,𝑖 𝑥𝑖 𝑤
⃗⃗⃗𝑗
𝑖=1 𝑗=1 𝑖=1 𝑗=1

Sabemos, además, que al vector 𝑥⃗ lo podemos escribir como combinación lineal en la base
B*.
𝑘=𝑛

𝑥⃗ = ∑ 𝑥𝑘 ∗ 𝑤
⃗⃗⃗𝑘
𝑘=1

Luego:
𝑗=𝑛 𝑖=𝑛 𝑗=𝑛

𝑥⃗ = ∑ 𝑥𝑗 ∗ 𝑤
⃗⃗⃗𝑗 = ∑ ∑ 𝑐𝑗,𝑖 𝑥𝑖 𝑤
⃗⃗⃗𝑗
𝑗=1 𝑖=1 𝑗=1

Y como vimos, la expresión en una base es única, por lo tanto, las coordenadas son iguales,
de lo que se obtiene:
𝑖=𝑛

𝑥𝑗 = ∑ 𝑐𝑗,𝑖 𝑥𝑖
𝑖=1

Hemos obtenido las coordenadas de la base B* expresadas en relación a las coordenadas de


la base B. De forma análoga puede pasarse de las coordenadas en la base B* a las coordenadas
en la base B.
𝑚=𝑛

𝑥𝑘 = ∑ 𝑑𝑘,𝑚 𝑥𝑚 ∗
𝑚=1

Hemos utilizado una notación que sugiere la posibilidad del uso de matrices. Pasemos ahora
a vislumbrar esta escritura en términos matriciales.
Podemos escribir el vector 𝑥⃗ como matriz columna 𝑋 de coordenadas en la base B, y como
matriz columna 𝑋 ∗ de coordenadas en la base B*.
𝑥1 𝑥1∗
𝑥2 𝑥2∗
𝑋 = 𝑥3 = [𝑥⃗]𝐵 ∗
𝑋 = 𝑥3∗ = [𝑥⃗]𝐵∗
⋮ ⋮
[𝑥𝑛 ] [𝑥𝑛∗ ]
De esta manera podemos postular que existirá una matriz 𝑃 (𝑃𝑛𝑥𝑛 ) tal que permita obtener
𝑋 a partir de 𝑋 ∗ . Es decir:
𝑋 = 𝑃𝑋 ∗
[𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
17
A partir de la relación
𝑖=𝑛

𝑥𝑗 ∗ = ∑ 𝑐𝑗,𝑖 𝑥𝑖
𝑖=1

La matriz columna nula 𝑋 = 𝟎 implica que 𝑋 ∗ sea nula.


Y a partir de la relación
𝑚=𝑛

𝑥𝑘 = ∑ 𝑑𝑘,𝑚 𝑥𝑚 ∗
𝑚=1

Es fácil ver, también, que la matriz columna nula 𝑋 ∗ = 𝟎 implica que 𝑋 sea nula.
Estos dos hechos provienen de que B y B* son bases ordenadas del espacio vectorial V, es
decir conjuntos que contienen n vectores linealmente independientes y generan a V. La
independencia lineal garantiza que la única manera de obtener el vector nulo, ⃗⃗
0, es a partir
de tener todos coeficientes nulos en la combinación lineal de los vectores de la base.
Además, si 𝑋 = 𝑃𝑋 ∗ y la única solución a 𝟎 = 𝑃𝑋 ∗ es la solución trivial 𝑋 ∗ = 𝟎, lo que es
equivalente a que 𝑃 es invertible1 e indicamos a la inversa de 𝑃 como 𝑃−1 .
𝑋 = 𝑃𝑋 ∗ o también escrito como [𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
Dado que hemos visto que 𝑃 es invertible (𝑃𝑃−1 = 𝑃 −1 𝑃 = 𝐼𝑛𝑥𝑛 , donde 𝐼𝑛𝑥𝑛 es la matriz
identidad) se obtiene que:
𝑃−1 𝑋 = 𝑋 ∗ o también escrito como 𝑃−1 [𝑥⃗]𝐵 = [𝑥⃗]𝐵∗
Todo lo anterior puede comprenderse como fundamento y demostración del siguiente
teorema:

Teorema:
Sea V un ℱ-espacio vectorial de dimensión n. Sean B y B* dos bases
ordenadas de V. Entonces existe una única matriz 𝑃, invertible, tal que:
[𝑥⃗]𝐵 = 𝑃[𝑥⃗]𝐵∗
[𝑥⃗]𝐵∗ = 𝑃−1 [𝑥⃗]𝐵
para todo vector 𝑥⃗ del espacio V, donde las columnas de 𝑃 están dadas por
𝑃𝑗 = [𝑥⃗𝑗∗ ]𝐵 (componentes del vector 𝑥⃗𝑗∗ en la base B), con 1 ≤ 𝑗 ≤ 𝑛.

1
Recordamos el teorema que indica que “si 𝐴 es una matriz nxn (cuadrada), 𝐴 es equivalente por
filas a la matriz identidad nxn, si, y solo si, el sistema de ecuaciones 𝐴𝑋 = 𝟎
tiene solamente la solución trivial”. Esto es lo mismo que decir que 𝐴 es invertible.

18
Es decir, la base B* se obtiene de la base B mediante la matriz cambio de base 𝑃, que en
general se denota 𝑃𝐵𝐵∗ o 𝑃𝐵→𝐵∗ .

Ejemplo:
Supongamos que dos bases de un espacio vectorial V de dimensión finita n son:
𝐵 = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 }
𝐵 ∗ = {𝑒⃗1∗ , 𝑒⃗2∗ , 𝑒⃗3∗ …, 𝑒⃗𝑛∗ }
Tomemos un vector arbitrario 𝑣⃗ y escribámoslo de los vectores de la base B:
𝑣⃗ = 𝑐1 𝑒⃗1 + 𝑐2 𝑒⃗2 + 𝑐3 𝑒⃗3 + ⋯ + 𝑐𝑛 𝑒⃗𝑛
𝑐1
𝑐2
[𝑣⃗]𝐵 = 𝑐3

[𝑐𝑛 ]
Entonces 𝑣⃗ en la base B* podemos pensarlo como:
[𝑣⃗]𝐵∗ = [𝑐1 𝑒⃗1 + 𝑐2 𝑒⃗2 + 𝑐3 𝑒⃗3 + ⋯ + 𝑐𝑛 𝑒⃗𝑛 ]𝐵∗
[𝑣⃗]𝐵∗ = [𝑐1 𝑒⃗1 ]𝐵∗ + [𝑐2 𝑒⃗2 ]𝐵∗ + [𝑐3 𝑒⃗3 ]𝐵∗ + ⋯ + [𝑐𝑛 𝑒⃗𝑛 ]𝐵∗
[𝑣⃗]𝐵∗ = 𝑐1 [𝑒⃗1 ]𝐵∗ + 𝑐2 ⃗⃗⃗⃗
[𝑒2 ]𝐵∗ + 𝑐3 ⃗⃗⃗⃗
[𝑒3 ]𝐵∗ + ⋯ + 𝑐𝑛 [𝑒⃗𝑛 ]𝐵∗
Ahora denotamos al vector de coordenadas de 𝑒⃗𝑗 con respecto a la base B* de la siguiente
manera:
𝑎1𝑗
𝑎2𝑗
[𝑒⃗𝑗 ]𝐵∗ = 𝑎3𝑗

[𝑎𝑛𝑗 ]
De esta forma:
𝑎11 𝑎12 𝑎13 𝑎1𝑛
𝑎21 𝑎22 𝑎23 𝑎2𝑛
[𝑣⃗]𝐵∗ = 𝑐1 𝑎31 + 𝑐2 𝑎32 + 𝑐3 𝑎33 + ⋯ + 𝑐𝑛 𝑎3𝑛
⋮ ⋮ ⋮ ⋮
[𝑎𝑛1 ] [𝑎𝑛2 ] [𝑎𝑛3 ] [𝑎𝑛𝑛 ]
Por lo que [𝑣⃗]𝐵∗ puede escribirse a través de la multiplicación de las siguientes matrices:

19
𝑎11 𝑎12 𝑎13 ⋯ 𝑎1𝑛 𝑐1
𝑎21 𝑎22 𝑎23 ⋯ 𝑎2𝑛 𝑐2
[𝑣⃗]𝐵∗ = 𝑎31 𝑎32 𝑎33 ⋯ 𝑎3𝑛 𝑐3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑎𝑛1 𝑎𝑛2 𝑎𝑛3 ⋯ 𝑎𝑛𝑛 ] [𝑐𝑛 ]

[𝑣⃗]𝐵∗ = 𝑃[𝑣⃗]𝐵

Luego la matriz 𝑃𝐵→𝐵∗ puede escribirse como:


𝑎11 𝑎12 𝑎13 ⋯ 𝑎1𝑛
𝑎21 𝑎22 𝑎23 ⋯ 𝑎2𝑛
𝑃𝐵→𝐵∗ = 𝑎31 𝑎32 𝑎33 ⋯ 𝑎3𝑛
⋮ ⋮ ⋮ ⋮ ⋮
[𝑎𝑛1 𝑎𝑛2 𝑎𝑛3 ⋯ 𝑎𝑛𝑛 ]

Notemos que es indistinto qué base sea elegida. Alcanza comenzar con una, porque
inmediatamente se tiene el cambio inverso a partir de la matriz inversa.
𝑃𝐵→𝐵∗ = (𝑃𝐵∗ →𝐵 )−1

20
Ahora retomaremos algunas cuestiones relativas a subespacios vectoriales, debido, entre
otras cosas, a que necesitamos definiciones tales como la de dimensión.
Recordamos que dado un espacio vectorial (V(ℱ), ⊕, ⨀), y S un subconjunto no vacío de
V, i.e. S ⊂ V con S ≠ ∅, se dirá que S es un subespacio vectorial de V(ℱ) si con la misma
suma ⊕ y el mismo producto por un escalar ⨀ definidos para V, S tiene la estructura de
espacio vectorial.

Operaciones entre subespacios vectoriales


La familia de subespacios de un espacio vectorial puede admitir una serie de operaciones
tales como intersección y suma, que a continuación se definirán.

Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀)


Definición de intersección:
𝑆1 ∩ 𝑆2 = {𝑣⃗: 𝑣⃗ ∈ 𝑆1 ∧ 𝑣⃗ ∈ 𝑆2 }
Definición de suma:
𝑆1 + 𝑆2 = {𝑣⃗1 + 𝑣⃗2 : 𝑣⃗1 ∈ 𝑆1 ∧ 𝑣⃗2 ∈ 𝑆2 }

Teorema:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀).
La intersección S1∩S2 es un subespacio vectorial de V(ℱ).

Demostración:
Es fácil ver que si los elementos 𝑣⃗ y 𝑢
⃗⃗ pertenecen a la intersección, S1∩S2, cada uno de ellos
pertenece a cada subespacio (por definición de intersección), luego la suma, 𝑣⃗ ⊕ 𝑢
⃗⃗,
pertenece a cada subespacio (por definición de subespacio), por lo que 𝑣⃗ ⊕ 𝑢
⃗⃗ pertenece a
S1∩S2. El mismo argumento es aplicable a la operación ⨀.

Extensión del teorema anterior:


Sean Si, con 1 ≤ 𝑖 ≤ 𝑟, r subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀). La
intersección ⋂𝑟𝑖=1 𝑆𝑖 es un subespacio vectorial de V(ℱ).

21
La demostración puede realizarse de manera inductiva, donde la base de inducción está
garantizada a través de la demostración previa.

Definición:
Sea S un conjunto de vectores de un espacio vectorial V. El subespacio generado por S se
define como intersección W de todos los subespacios de V que contienen a S.
De manera operativa, puede comprenderse esta definición de la siguiente manera:
𝑆 ⊂ 𝑉, V un ℱ-espacio vectorial.
𝑆 = {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑠 }, el subespacio de V generado por S puede escribirse como:
𝑗=𝑠

𝐿(𝑆) = 〈𝑆〉 = {∑ 𝑎𝑗 𝑢
⃗⃗𝑗 : 𝑎𝑗 ∈ ℱ}
𝑗=1

Sin entrar en detalles, diremos que esta definición es la que posibilita las definiciones de
suma de subespacios vectoriales.

Teorema:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀).
La suma S1+S2 es un subespacio vectorial de V(ℱ).

Demostración:
Si 𝑣⃗ y 𝑢
⃗⃗ pertenecen a S1+S2, existen vectores tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2, con 𝑣⃗1 ∈ 𝑆1 y 𝑣⃗2 ∈
𝑆2 , y 𝑢
⃗⃗ = 𝑢
⃗⃗1 ⊕ 𝑢
⃗⃗2 , con 𝑢
⃗⃗1 ∈ 𝑆1 y 𝑢
⃗⃗2 ∈ 𝑆2 , por definición de S1+S2.
Luego 𝑣⃗ ⊕ 𝑢
⃗⃗ = (𝑣⃗1 ⊕ 𝑣⃗2 ) ⊕ ( 𝑢
⃗⃗1 ⊕ 𝑢
⃗⃗2 ) = (𝑣⃗1 ⊕ 𝑢
⃗⃗1 ) + (𝑣⃗2 ⊕ 𝑢
⃗⃗2 ), por asociatividad en
V(ℱ), con (𝑣⃗1 ⊕ 𝑢
⃗⃗1 ) ∈ 𝑆1 y (𝑣⃗2 ⊕ 𝑢
⃗⃗2 ) ∈ 𝑆2 por ser 𝑆1 y 𝑆2 subespacios del espacio
vectorial V(ℱ), luego 𝑣⃗ + 𝑢
⃗⃗ ∈ S1+S2.
Si 𝑣⃗ pertenece a S1+S2, existen vectores tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2 , con 𝑣⃗1 ∈ 𝑆1 y 𝑣⃗2 ∈ 𝑆2 . De
donde es inmediato que para 𝑎 ∈ ℱ, 𝑎⨀𝑣⃗ ∈ S1+S2, porque 𝑎⨀𝑣⃗ = 𝑎⨀𝑣⃗1 ⊕ 𝑎⨀𝑣⃗2 , con
𝑎⨀𝑣⃗1 ∈ 𝑆1 y 𝑎⨀𝑣⃗2 ∈ 𝑆2 por ser 𝑆1 y 𝑆2 subespacios del espacio vectorial V(ℱ).

22
Extensión del teorema anterior:
Sean Si, con 1 ≤ 𝑖 ≤ 𝑟, r subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀). La
suma ∑𝑟𝑖=1 𝑆𝑖 es un subespacio vectorial de V(ℱ).
La demostración puede realizarse de manera inductiva, donde la base de inducción está
garantizada a través de la demostración previa.

Teorema de la dimensión para la suma de subespacios S1+S2:


Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀),
de dimensión finita, dim(S1) = s y dim(S2) = t. Entonces:
dim( S1+S2) = dim(S1) + dim(S2) – dim(S1∩S2)

Demostración:
Sea {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 } una base de S1∩S2. De forma que dim(S1∩S2) = r.
Completamos este conjunto de vectores, {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 } de manera que sea
una base de S1, y {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } una base de S2. Ahora lo que hay que ver
es que {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es una base de S1+S2.
Es claro que es un sistema de generadores de S1+S2, por la definición de +. Veamos que
es un conjunto linealmente independiente. Supongamos que:
𝑖=𝑟 𝑗=𝑠 𝑘=𝑡

∑ 𝑎𝑖 𝑢 ⃗⃗⃗𝑘 = ⃗⃗
⃗⃗𝑖 + ∑ 𝑏𝑗 𝑣⃗𝑗 + ∑ 𝑐𝑘 𝑤 0
𝑖=1 𝑗=𝑟+1 𝑘=𝑟+1

Entonces
𝑖=𝑟 𝑗=𝑠 𝑘=𝑡

∑ 𝑎𝑖 𝑢
⃗⃗𝑖 + ∑ 𝑏𝑗 𝑣⃗𝑗 = − ∑ 𝑐𝑘 𝑤
⃗⃗⃗𝑘
𝑖=1 𝑗=𝑟+1 𝑘=𝑟+1
𝑗=𝑠
∑𝑖=𝑟 ⃗⃗𝑖 + ∑𝑗=𝑟+1 𝑏𝑗 𝑣⃗𝑗
𝑖=1 𝑎𝑖 𝑢 es una combinación lineal tal que pertenece a S1, y
𝑗=𝑠
∑𝑘=𝑡 ⃗⃗⃗𝑘 pertenece a S2. Más aún, como ∑𝑖=𝑟
𝑘=𝑟+1 𝑐𝑘 𝑤 ⃗⃗𝑖 + ∑𝑗=𝑟+1 𝑏𝑗 𝑣⃗𝑗 = − ∑𝑘=𝑡
𝑖=1 𝑎𝑖 𝑢 𝑘=𝑟+1 𝑐𝑘 𝑤
⃗⃗⃗𝑘 ,

se desprende que ∑𝑘=𝑡


𝑘=𝑟+1 𝑐𝑘 𝑤
⃗⃗⃗𝑘 pertenece a S1∩S2. Por lo que puede expresarse como una
combinación lineal de la base de S1∩S2.
𝑘=𝑡 𝑖=𝑟

− ∑ 𝑐𝑘 𝑤
⃗⃗⃗𝑘 = ∑ 𝑑𝑖 𝑢
⃗⃗𝑖
𝑘=𝑟+1 𝑖=1

23
Equivalentemente,
𝑖=𝑟 𝑘=𝑡

∑ 𝑑𝑖 𝑢 ⃗⃗⃗𝑘 = ⃗0⃗
⃗⃗𝑖 + ∑ 𝑐𝑘 𝑤
𝑖=1 𝑘=𝑟+1

Pero {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es una base de S2. Luego 𝑑𝑖 = 0, ∀𝑖, 1 ≤ 𝑖 ≤ 𝑟, y 𝑐𝑘 =
0, ∀𝑘, 𝑟 + 1 ≤ 𝑘 ≤ 𝑡. De esto surge que
𝑖=𝑟 𝑗=𝑠

⃗⃗𝑖 + ∑ 𝑏𝑗 𝑣⃗𝑗 = ⃗0⃗


∑ 𝑎𝑖 𝑢
𝑖=1 𝑗=𝑟+1

Pero {𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 } es una base de S1. Luego 𝑎𝑖 = 0, ∀𝑖, 1 ≤ 𝑖 ≤ 𝑟, y
𝑏𝑗 = 0, ∀𝑗, 𝑟 + 1 ≤ 𝑗 ≤ 𝑠. Por lo que hemos probado que la colección de vectores
{𝑢
⃗⃗1 , 𝑢
⃗⃗2 , 𝑢
⃗⃗3 , … , 𝑢
⃗⃗𝑟 , 𝑣⃗𝑟+1 , … , 𝑣⃗𝑠 , 𝑤
⃗⃗⃗𝑟+1 , … , 𝑤
⃗⃗⃗𝑡 } es un conjunto linealmente independiente.
Luego,
dim( S1+S2) = r + (s – r) + (t – r) = s + t – r = dim(S1) + dim(S2) – dim(S1∩S2)

⃗⃗}, es decir dim(S1∩S2) = 0. En


Un caso de singular importancia se da cuando S1∩S2 = {0
este caso se dice que se tiene suma directa.

Definición de Suma Directa


Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀). Se dice que V
es suma directa de S1 y S2 y se anota V = S1⊕S2 si se cumple:
1. V = S1+S2
⃗⃗}
2. S1∩S2 = {0

Consecuencia de la definición:
Sean S1 y S2 dos subespacios vectoriales del espacio vectorial (V(ℱ), ⊕, ⨀), con V = S1⊕S2.
Entonces, para cada 𝑣⃗ que pertenece a V existen únicos 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que
pertenece a S2 tales que 𝑣⃗ = 𝑣⃗1 ⊕ 𝑣⃗2.

Demostración:
Como V = S1+S2, para cada 𝑣⃗ que pertenece a V existen 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que
pertenece a S2 tales que 𝑣⃗ = 𝑣⃗1 + 𝑣⃗2 . Ahora veamos que son únicos los vectores 𝑣⃗1 y 𝑣⃗2 .

24
Supongamos que 𝑣⃗ = 𝑣⃗1 + 𝑣⃗2 , con 𝑣⃗1 que pertenece a S1 y 𝑣⃗2 que pertenece a S2 y
también 𝑣⃗ = 𝑣⃗1∗ + 𝑣⃗2∗ con 𝑣⃗1∗ que pertenece a S1 y 𝑣⃗2∗ que pertenece a S2. Luego, a partir de
𝑣⃗ + (−𝑣⃗) = ⃗0⃗, se tiene que:
(𝑣⃗1 − 𝑣⃗1∗ ) + (𝑣⃗2 − 𝑣⃗2∗ ) = ⃗⃗
0
Es decir, 𝑣⃗1 − 𝑣⃗1∗ = −(𝑣⃗2 − 𝑣⃗2∗ ). Pero 𝑣⃗1 − 𝑣⃗1∗ pertenece a S1 de donde se sigue que el
vector 𝑣⃗2 − 𝑣⃗2∗ también pertenece a S1. Y 𝑣⃗2 − 𝑣⃗2∗ pertenece a S2 de donde se sigue que el
vector 𝑣⃗1 − 𝑣⃗1∗ pertenece a S2. De todo esto surge que 𝑣⃗1 − 𝑣⃗1∗ pertenece a S1∩S2 y 𝑣⃗2 − 𝑣⃗2∗
⃗⃗}. Luego 𝑣⃗1 − 𝑣⃗1∗ = ⃗0⃗ (i.e. 𝑣⃗1 = 𝑣⃗1∗ ), y 𝑣⃗2 − 𝑣⃗2∗ = ⃗0⃗ (i.e.
pertenece a S1∩S2, con S1∩S2 = {0
𝑣⃗2 = 𝑣⃗2∗ ).

Lo importante de esta consecuencia es que la descomposición es única. Como la


descomposición es única, en este caso (y sólo en el caso de suma directa) se tiene que la base
de V, BV, es la unión de las bases de los subespacios S1 y S2, BS1 y BS2 respectivamente. Por
lo que se puede obtener una definición equivalente para suma directa a partir de las bases.
1. V = S1+S2
⃗⃗} con BV = BS1∪BS2
2. S1∩S2 = {0

25
Transformaciones Lineales

Definición de transformación lineal


Sean V y W dos ℱ–espacios vectoriales, cada uno con sus respectivas operaciones ⊕ y ⨀.
Sea 𝑓: 𝑉 → 𝑊 una función definida entre espacios vectoriales. Se dirá que f es una
transformación lineal si se cumple:
a. 𝑓(𝑣⃗ ⊕𝑉 𝑢
⃗⃗) = 𝑓(𝑣⃗) ⊕𝑊 𝑓(𝑢
⃗⃗), ∀ 𝑣⃗, 𝑢
⃗⃗ ∈ 𝑉
b. 𝑓(𝑎⨀𝑉 𝑣⃗) = 𝑎⨀𝑊 𝑓(𝑣⃗), ∀𝑎 ∈ ℱ, ∀ 𝑣⃗ ∈ 𝑉

Observación 1: notamos que en el argumento de 𝑓 las operaciones son las definidas para V,
denotadas como ⊕𝑉 y ⨀𝑉 , en tanto que fuera del argumento de 𝑓 las operaciones son las
definidas para W, denotadas como ⊕𝑊 y ⨀𝑊 .

Observación 2: las transformaciones lineales también pueden ser denominadas, según los
autores como “acciones lineales”, “aplicaciones lineales”, “mapeos lineales” o simplemente
“mapeos”, “homomorfismos” o simplemente “morfismos”.

Observación 3: algunos autores asumen el siguiente teorema como la definición de


transformación lineal:
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ). Sea 𝑓: 𝑉 → 𝑊
una función definida entre espacios vectoriales.
𝑓 es una transformación lineal si, y sólo si,
𝑓(𝑎 ⊙𝑉 𝑣⃗ ⊕𝑉 𝑏 ⊙𝑉 𝑢
⃗⃗) = 𝑎 ⊙𝑊 𝑓(𝑣⃗) ⊕𝑊 𝑏 ⊙𝑊 𝑓(𝑢
⃗⃗) ∀𝑎, 𝑏 ∈ ℱ, ∀𝑣⃗, 𝑢
⃗⃗ ∈ 𝑉
En una notación sencilla:
𝑓(𝑎𝑣⃗ + 𝑏𝑢
⃗⃗) = 𝑎𝑓(𝑣⃗) + 𝑏𝑓(𝑢
⃗⃗) ∀𝑎, 𝑏 ∈ ℱ, ∀𝑣⃗, 𝑢
⃗⃗ ∈ 𝑉

⃗⃗𝑉 ) = ⃗0⃗𝑊 .
Es fácil ver que si 𝑓: 𝑉 → 𝑊 es una transformación lineal, entonces 𝑓(0
Existen varias maneras de demostrar esto. Dejamos las restantes a la esgrimida aquí para
práctica de las/os estudiantes.
Podemos decir que ⃗0⃗𝑊 = 𝑓(0
⃗⃗𝑉 ) ⊕𝑊 (−1)⨀𝑊 𝑓(0
⃗⃗𝑉 ).

26
𝑓: 𝑉 → 𝑊 es una transformación lineal, por lo cual cumple a y b de la definición. De aquí
que:
⃗⃗ ⃗⃗𝑉 ) ⊕𝑊 (−1)⨀𝑊 𝑓(0
0𝑊 = 𝑓(0 ⃗⃗𝑉 ) = 𝑓(0
⃗⃗𝑉 ) ⊕𝑊 𝑓 ((−1)⨀𝑉 ⃗⃗ ⃗⃗𝑉 ) ⊕𝑊 𝑓(0
0𝑉 ) = 𝑓(0 ⃗⃗𝑉 )

⃗⃗𝑉 ⊕𝑉 ⃗⃗
= 𝑓(0 ⃗⃗𝑉 )
0𝑉 ) = 𝑓(0

De donde efectivamente ⃗⃗ ⃗⃗𝑉 ).


0𝑊 = 𝑓(0

Dos transformaciones lineales conocidas:


Supongamos que 𝑓 y 𝑔 son dos funciones con idéntico dominio 𝐼, 𝐼 ⊆ ℝ, y bien comportadas
𝑑
para las operaciones 𝑑𝑥 y ∫ … 𝑑𝑥.

Es fácil ver, a partir de la definición de cada una de estas operaciones, que se cumple con
la definición de transformación lineal.
𝑑 𝑑 𝑑
[𝑓(𝑥) + 𝑔(𝑥)] = [𝑓(𝑥)] + [𝑔(𝑥)] ≡ 𝑓 ′ (𝑥) + 𝑔′(𝑥)
𝑑𝑥 𝑑𝑥 𝑑𝑥
Esto es lo que, sin mayores precisiones, se dice coloquialmente “la derivada de una suma
de funciones es la suma de las derivadas de las funciones” (observemos que esta
coloquialidad, si bien ilustrativa, pasa por alto o excluye enunciativamente todo lo que
debemos exigir a las funciones para que la propiedad se cumpla).
Si 𝑎 es una constante, 𝑎 ∈ ℝ, y tenemos 𝑎𝑓(𝑥), luego:
𝑑 𝑑
[𝑎𝑓(𝑥)] = 𝑎 [𝑓(𝑥)] ≡ 𝑎𝑓 ′ (𝑥)
𝑑𝑥 𝑑𝑥
Habiendo usado las propiedades de derivadas para el producto de funciones, y sabiendo que
la derivada de toda constante vale 0.
𝑑
En particular, 𝑑𝑥 [𝑎𝑓(𝑥) + 𝑏𝑔(𝑥)] ≡ 𝑎𝑓 ′ (𝑥) + 𝑏𝑔′(𝑥), con 𝑎, 𝑏 ∈ ℝ.

De la misma manera, a partir de la definición de la operación “integral”, puede verse que


para 𝑎, 𝑏 ∈ ℝ se tiene:

∫[𝑎𝑓(𝑥) + 𝑏𝑔(𝑥)]𝑑𝑥 = 𝑎 ∫ 𝑓(𝑥)𝑑𝑥 + 𝑏 ∫ 𝑔(𝑥)𝑑𝑥

Dos transformaciones lineales triviales:


La transformación nula, Ο, tal que ∀ 𝑣⃗ ∈ 𝑉, Ο(𝑣⃗) = ⃗⃗
0.

27
La transformación identidad, 𝐈, tal que ∀ 𝑣⃗ ∈ 𝑉, 𝐈(𝑣⃗) = 𝑣⃗.

Ejemplos:
1. Sea ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉, ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉.
Solución.
Lo primero que indicamos es que las operaciones ⊕ y ⨀ son las usuales en ℝ3 y en ℝ2 .
𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉
⃗⃗ = 〈𝑢𝑥 , 𝑢𝑦 , 𝑢𝑧 〉
𝑢
⃗⃗ = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 , 𝑣𝑧 + 𝑢𝑧 〉
𝑣⃗ + 𝑢
⃗⃗) = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
℘(𝑣⃗ + 𝑢
Por otro lado,
⃗⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉 + 〈𝑢𝑥 , 𝑢𝑦 〉 = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
℘(𝑣⃗) + ℘(𝑢
Luego: ℘(𝑣⃗ + 𝑢
⃗⃗) = ℘(𝑣⃗) + ℘(𝑢
⃗⃗).
Ahora verificaremos que ℘(𝑎𝑣⃗) = 𝑎℘(𝑣⃗).
𝑎𝑣⃗ = 𝑎〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉 = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 , 𝑎𝑣𝑧 〉
℘(𝑎𝑣⃗) = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉 por definición de ℘. Y 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉 = 𝑎〈𝑣𝑥 , 𝑣𝑦 〉 por definición usual de
⨀ en ℝ2 . Pero sabemos que ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉, luego ℘(𝑎𝑣⃗) = 𝑎℘(𝑣⃗).
De todo lo anterior se deduce que ℘ tal está definida es un homomorfismo (transformación
lineal).
Observación: ℘ puede interpretarse como la proyección de ℝ3 en ℝ2 .
De manera general, y equivalente a lo que observamos en el ejemplo anterior, suele
definirse como proyección ℘𝑘 a la siguiente transformación lineal:
℘𝑘 : ℝ𝑛 → ℝ𝑛 , ∀ 𝑣⃗ ∈ ℝ𝑛 , con 𝑣⃗ = 〈𝑣1 , 𝑣2 , 𝑣3 , … , 𝑣𝑘 , … , 𝑣𝑛 〉, tal que ℘𝑘 anula la k-ésima
componente de 𝑣⃗, es decir: ℘𝑘 (𝑣⃗) = 〈𝑣1 , 𝑣2 , 𝑣3 , … , 0, … , 𝑣𝑛 〉.
Ejercicio: verificar que ℘𝑘 es una transformación lineal, con las operaciones usuales ⊕ y ⨀
en ℝ𝑛 .

2. Sea ℶ: ℝ2 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ2 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 〉, ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉.


Solución.
Lo primero que indicamos es que las operaciones ⊕ y ⨀ son las usuales en ℝ2 .

28
𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 〉
⃗⃗ = 〈𝑢𝑥 , 𝑢𝑦 〉
𝑢
⃗⃗ = 〈𝑣𝑥 + 𝑢𝑥 , 𝑣𝑦 + 𝑢𝑦 〉
𝑣⃗ + 𝑢
⃗⃗) = 〈−(𝑣𝑥 + 𝑢𝑥 ), −(𝑣𝑦 + 𝑢𝑦 )〉
ℶ(𝑣⃗ + 𝑢
Por otro lado,
⃗⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉 + 〈−𝑢𝑥 , −𝑢𝑦 〉 = 〈−(𝑣𝑥 + 𝑢𝑥 ), −(𝑣𝑦 + 𝑢𝑦 )〉
ℶ(𝑣⃗) + ℶ(𝑢
Donde hemos usado la definición de ℶ y de suma usual en ℝ2 .
Luego: ℶ(𝑣⃗ + 𝑢
⃗⃗) = ℶ(𝑣⃗) + ℶ(𝑢
⃗⃗).
Ahora verificaremos que ℶ(𝑎𝑣⃗) = 𝑎ℶ(𝑣⃗).
𝑎𝑣⃗ = 𝑎〈𝑣𝑥 , 𝑣𝑦 〉 = 〈𝑎𝑣𝑥 , 𝑎𝑣𝑦 〉
ℶ(𝑎𝑣⃗) = 〈−𝑎𝑣𝑥 , −𝑎𝑣𝑦 〉 por definición de ℶ. Y 〈−𝑎𝑣𝑥 , −𝑎𝑣𝑦 〉 = 𝑎〈−𝑣𝑥 , −𝑣𝑦 〉 por definición
usual de ⨀ en ℝ2 . Pero sabemos que ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉, luego ℶ(𝑎𝑣⃗) = 𝑎ℶ(𝑣⃗).
Observación: a la transformación ℶ se la suele denominar “inversión respecto del origen
coordenado”. Si bien la hemos ejemplificado para ℝ2 , puede extenderse a ℝ𝑛 .

Lema:
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal (V y W dos ℱ–espacios vectoriales). Entonces:
1. Si S es un subespacio vectorial de V, entonces 𝑓(𝑆) es un subespacio de W.
2. Si T es un subespacio vectorial de W, entonces 𝑓 −1 (𝑇) es un subespacio de V.

Demostración:
1. S es un subespacio vectorial de V, con S ⊆ V.
Definamos 𝑓(𝑆) = {𝑤
⃗⃗⃗, 𝑤
⃗⃗⃗ ∈ 𝑊/∃𝑠⃗ ∈ 𝑆, 𝑓(𝑠⃗) = 𝑤
⃗⃗⃗}.

Recordamos uno de los lemas que es equivalente a la definición de subespacio vectorial:


Dado ℒ ⊂ V, con (V(ℱ), ⊕, ⨀) un espacio vectorial. ℒ es un subespacio vectorial de V(ℱ)
si, y sólo si, se satisfacen las tres condiciones siguientes:
i. ⃗0⃗ 𝜖 ℒ
ii. Si 𝑣⃗, 𝑢
⃗⃗ 𝜖 ℒ, entonces 𝑣⃗ ⊕ 𝑢
⃗⃗ 𝜖 ℒ
iii. Si 𝑣⃗ 𝜖 ℒ y a 𝜖 ℱ, entonces a⨀𝑣⃗ 𝜖 ℒ

29
Veamos que en efecto se cumplen estas condiciones.
i. ¿ ⃗0⃗𝑊 ∈ 𝑓(𝑆)?
⃗⃗𝑉 ) = ⃗0⃗𝑊 . Como S es un subespacio
En efecto, vimos que en toda transformación lineal 𝑓(0

de V, se tiene necesariamente que ⃗⃗


0𝑉 ∈ 𝑆. Luego ⃗⃗
0𝑊 ∈ 𝑓(𝑆).
ii. ¿Si 𝑤
⃗⃗⃗1, 𝑤
⃗⃗⃗2 ∈ 𝑓(𝑆), entonces 𝑤
⃗⃗⃗1 ⊕𝑊 𝑤
⃗⃗⃗2 ∈ 𝑓(𝑆)?
Tomando:
𝑤
⃗⃗⃗1 ∈ 𝑓(𝑆), sabemos que ∃𝑠⃗1 ∈ 𝑆 tal que 𝑓(𝑠⃗1 ) = 𝑤
⃗⃗⃗1
𝑤
⃗⃗⃗2 ∈ 𝑓(𝑆), sabemos que ∃𝑠⃗2 ∈ 𝑆 tal que 𝑓(𝑠⃗2 ) = 𝑤
⃗⃗⃗2
Luego 𝑤 ⃗⃗⃗2 = 𝑓(𝑠⃗1 ) ⊕𝑊 𝑓(𝑠⃗2 ) = 𝑓(𝑠⃗1 ⊕𝑉 𝑠⃗2 ), porque 𝑓 es una transformación
⃗⃗⃗1 ⊕𝑊 𝑤
lineal. Dado que S es un subespacio vectorial de V, 𝑠⃗1 ⊕𝑉 𝑠⃗2 ∈ S. Por lo tanto, 𝑤
⃗⃗⃗1 ⊕𝑊 𝑤
⃗⃗⃗2
pertenece a 𝑓(𝑆).
iii. ¿ 𝑤
⃗⃗⃗ ∈ 𝑓(𝑆) y a ∈ ℱ, entonces a⨀𝑊 𝑤
⃗⃗⃗ ∈ 𝑓(𝑆)?
Tomando a ∈ ℱ y 𝑤
⃗⃗⃗ = 𝑓(𝑠⃗), se sigue que 𝑎⨀𝑊 𝑤
⃗⃗⃗ = 𝑎⨀𝑊 𝑓(𝑠⃗). Pero 𝑓 es una transformación
lineal, por lo que 𝑎⨀𝑊 𝑤
⃗⃗⃗ = 𝑓(𝑎⨀𝑉 𝑠⃗), y como S es un subespacio 𝑎⨀𝑉 𝑠⃗ ∈ S, de donde es
inmediato que a⨀𝑊 𝑤
⃗⃗⃗ ∈ 𝑓(𝑆).

2. T es un subespacio vectorial de W, con T ⊆ W.


Definamos 𝑓 −1 (𝑇) = {𝑣⃗, 𝑣⃗ ∈ 𝑉/ 𝑓(𝑣⃗) ∈ 𝑇}.
Veamos que en efecto se cumplen las condiciones del lema que anteriormente enunciamos.
i. ¿ ⃗0⃗𝑉 ∈ 𝑓 −1 (𝑇)?
Como T es un subespacio vectorial de W, ⃗0⃗𝑊 ∈ T. Luego ⃗0⃗𝑉 ∈ 𝑓 −1 (𝑇) porque 𝑓(0
⃗⃗𝑉 ) = ⃗0⃗𝑊 ,

dado que 𝑓 es una transformación lineal.


ii. ¿Si 𝑣⃗1, 𝑣⃗2 ∈ 𝑓 −1 (𝑇), entonces 𝑣⃗1 ⊕𝑉 𝑣⃗2 ∈ 𝑓 −1 (𝑇)?
Suponiendo que:
𝑣⃗1 ∈ 𝑓 −1 (𝑇), es inmediato por la definición de 𝑓 −1 (𝑇) que 𝑓(𝑣⃗1 ) ∈ 𝑇.
𝑣⃗2 ∈ 𝑓 −1 (𝑇), es inmediato por la definición de 𝑓 −1 (𝑇) que 𝑓(𝑣⃗2 ) ∈ 𝑇.
𝑓(𝑣⃗1 ) ⊕𝑊 𝑓(𝑣⃗2 ) = 𝑓(𝑣⃗1 ⊕𝑉 𝑣⃗2 ) porque 𝑓 es una transformación lineal, y 𝑣⃗1 ⊕𝑉 𝑣⃗2 ∈ V.
De donde se sigue que se cumple que 𝑣⃗1 ⊕𝑉 𝑣⃗2 ∈ 𝑓 −1 (𝑇).
iii. ¿ 𝑣⃗ ∈ 𝑓 −1 (𝑇) y a ∈ ℱ, entonces a⨀𝑉 𝑣⃗ ∈ 𝑓 −1 (𝑇)?

30
Si 𝑣⃗ ∈ 𝑓 −1 (𝑇), por la definición de 𝑓 −1 (𝑇) se tiene que 𝑓(𝑣⃗) ∈ 𝑇. Luego, debido a que 𝑓 es
una transformación lineal es inmediato que 𝑎⨀𝑊 𝑓(𝑣⃗) = 𝑓(𝑎⨀𝑉 𝑣⃗), por lo cual se sigue que
a⨀𝑉 𝑣⃗ ∈ 𝑓 −1 (𝑇).

Teorema:
Sean V y W dos ℱ–espacios vectoriales, con V de dimensión finita.
Sea 𝐵𝑉 = {𝑒⃗1, 𝑒⃗2 , 𝑒⃗3 , …, 𝑒⃗𝑛 } una base ordenada de V.
Sean 𝑤
⃗⃗⃗1, 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑛 vectores arbitrarios de W.
Entonces existe una única transformación lineal, 𝑓: 𝑉 → 𝑊, tal que 𝑓(𝑒⃗𝑖 ) =
𝑤
⃗⃗⃗𝑖 para cada i, con 1 ≤ 𝑖 ≤ 𝑛.

Observación: la base 𝐵𝑉 puede ser cualquier base de V, no necesariamente la de los vectores


canónicos 𝑒⃗𝑖 .

Demostración:
a. Existencia.
Conocimientos previos requeridos:
Dado un ℱ-espacio vectorial V de dimensión finita, y una base ordenada de este espacio, 𝐵𝑂𝑉 ,
𝐵𝑂𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 }, existe un conjunto único de escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales
que:
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖 = 𝑐1 𝑣⃗1 + 𝑐2 𝑣⃗2 + 𝑐3 𝑣⃗3 + ⋯ + 𝑐𝑛 𝑣⃗𝑛


𝑖=1

Además, cada base ordenada de un espacio vectorial V determina una correspondencia


biunívoca
𝑣⃗ → (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 )
𝑐1
𝑐2
[𝑣⃗]𝐵𝑂𝑉 = 𝑐3

[𝑐𝑛 ]
A partir de esto podemos tomar y de lo expresado en el antecedente del teorema podemos
tomar:

31
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑒⃗𝑖 = 𝑐1 𝑒⃗1 + 𝑐2 𝑒⃗2 + 𝑐3 𝑒⃗3 + ⋯ + 𝑐𝑛 𝑒⃗𝑛


𝑖=1

Sabemos que el conjunto de escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, es único.


Definamos, por lo dicho inmediatamente antes, sin ambigüedad debido a la unicidad de
los 𝑐𝑖 :
𝑖=𝑛

𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1

Tomemos dos vectores arbitrarios de V.


𝑖=𝑛

𝑣⃗1 = ∑ 𝑎𝑖 𝑒⃗𝑖 = 𝑎1 𝑒⃗1 + 𝑎2 𝑒⃗2 + 𝑎3 𝑒⃗3 + ⋯ + 𝑎𝑛 𝑒⃗𝑛


𝑖=1
𝑖=𝑛

𝑣⃗2 = ∑ 𝑏𝑖 𝑒⃗𝑖 = 𝑏1 𝑒⃗1 + 𝑏2 𝑒⃗2 + 𝑏3 𝑒⃗3 + ⋯ + 𝑏𝑛 𝑒⃗𝑛


𝑖=1

Donde los coeficientes son únicos, en cada caso, como se ha dicho antes.
Luego:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑣⃗1 + 𝑣⃗2 = ∑ 𝑎𝑖 𝑒⃗𝑖 + ∑ 𝑏𝑖 𝑒⃗𝑖 = ∑(𝑎𝑖 + 𝑏𝑖 )𝑒⃗𝑖


𝑖=1 𝑖=1 𝑖=1

De la unicidad de los 𝑎𝑖 y 𝑏𝑖 se sigue la unicidad de 𝑎𝑖 + 𝑏𝑖 .


De acuerdo a cómo definimos 𝑓(𝑣⃗), podemos decir que:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑓(𝑣⃗1 + 𝑣⃗2 ) = ∑(𝑎𝑖 + 𝑏𝑖 )𝑤


⃗⃗⃗𝑖 = ∑ 𝑎𝑖 𝑤 ⃗⃗⃗𝑖 = 𝑓(𝑣⃗1 ) + 𝑓(𝑣⃗2 )
⃗⃗⃗𝑖 + ∑ 𝑏𝑖 𝑤
𝑖=1 𝑖=1 𝑖=1

Donde 𝑓(𝑣⃗1 ) = ∑𝑖=𝑛 ⃗⃗⃗𝑖 y 𝑓(𝑣⃗2 ) = ∑𝑖=𝑛


𝑖=1 𝑎𝑖 𝑤 𝑖=1 𝑏𝑖 𝑤
⃗⃗⃗𝑖 , siguiendo el criterio con el que se definió
𝑓(𝑣⃗). Por lo que 𝑓(𝑣⃗1 + 𝑣⃗2 ) = 𝑓(𝑣⃗1 ) + 𝑓(𝑣⃗2 ).

Ahora resta demostrar que ∀𝑎 ∈ ℱ, ∀ 𝑣⃗ ∈ 𝑉, 𝑓(𝑎𝑣⃗) = 𝑎𝑓(𝑣⃗).


Es sencillo ver, a partir de cómo hemos definido 𝑓(𝑣⃗) que:
𝑖=𝑛 𝑖=𝑛

𝑎𝑓(𝑣⃗) = 𝑎 ∑ 𝑐𝑖 𝑤
⃗⃗⃗𝑖 = ∑ 𝑎𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1 𝑖=1

Y como

32
𝑖=𝑛

𝑎𝑣⃗ = ∑ 𝑎𝑐𝑖 𝑒⃗𝑖


𝑖=1

Luego, de acuerdo a cómo se ha definido 𝑓(𝑣⃗) en términos de los 𝑤


⃗⃗⃗𝑖
𝑖=𝑛

𝑓(𝑎𝑣⃗) = ∑ 𝑎𝑐𝑖 𝑤
⃗⃗⃗𝑖
𝑖=1

De donde surge que 𝑎𝑓(𝑣⃗) = 𝑓(𝑎𝑣⃗).


Esta demostración, por construcción, al definir 𝑓(𝑣⃗) en términos de los 𝑤
⃗⃗⃗𝑖 a partir de la
unicidad de los coeficientes 𝑐𝑖 , nos permite ver que 𝑓 es una transformación lineal (es decir,
existe una 𝑓 que es una transformación lineal).
Ahora resta ver que es única.

b. Unicidad.
Supongamos que 𝑓 y 𝑔 son dos transformaciones lineales que cumplen las condiciones del
teorema.
𝑓: 𝑉 → 𝑊
𝑔: 𝑉 → 𝑊
Sea 𝑣⃗ = ∑𝑖=𝑛
𝑖=1 𝑐𝑖 𝑒
⃗𝑖 , luego:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑓(𝑣⃗) = 𝑓 (∑ 𝑐𝑖 𝑒⃗𝑖 ) = ∑ 𝑓(𝑐𝑖 𝑒⃗𝑖 ) = ∑ 𝑐𝑖 𝑓(𝑒⃗𝑖 ) = ∑ 𝑐𝑖 𝑤


⃗⃗⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1

𝑖=𝑛 𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑔(𝑣⃗) = 𝑔 (∑ 𝑐𝑖 𝑒⃗𝑖 ) = ∑ 𝑔(𝑐𝑖 𝑒⃗𝑖 ) = ∑ 𝑐𝑖 𝑔(𝑒⃗𝑖 ) = ∑ 𝑐𝑖 𝑤


⃗⃗⃗𝑖
𝑖=1 𝑖=1 𝑖=1 𝑖=1

Nuevamente, de la unicidad de los coeficientes de 𝑣⃗ en la base 𝐵𝑉 surge que 𝑓(𝑣⃗) = 𝑔(𝑣⃗)


para todo 𝑣⃗ ∈ V.

Ejemplo:
Dada la transformación 𝑓: ℝ2 → ℝ2 , definida por

𝑓(𝑣⃗) = 𝑓 ((𝑣𝑥 , 𝑣𝑦 )) = (2𝑣𝑥 + 𝑣𝑦 ; 𝑣𝑦 − 𝑣𝑥 )

Veamos que es una transformación lineal.


Esto es, alcanza con ver que

33
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 )

Dados 𝑣⃗1 = 〈𝑣1𝑥 ; 𝑣1𝑦 〉 y 𝑣⃗2 = 〈𝑣2𝑥 ; 𝑣2𝑦 〉, de acuerdo a cómo está definida 𝑓 se tendrá:
𝑎𝑓(𝑣⃗1 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉
𝑏𝑓(𝑣⃗2 ) = 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Luego:
𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉 + 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Ahora veamos qué resultado arroja hacer 𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ).
𝑓(𝑎〈𝑣1𝑥 ; 𝑣1𝑦 〉 + 𝑏〈𝑣2𝑥 ; 𝑣2𝑦 〉) = 𝑓(〈𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 〉)
Luego, por cómo está definida 𝑓
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2(𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 ) + 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 − (𝑎𝑣1𝑥 + 𝑏𝑣2𝑥 )〉
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2𝑎𝑣1𝑥 + 2𝑏𝑣2𝑥 + 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 + 𝑏𝑣2𝑦 − 𝑎𝑣1𝑥 − 𝑏𝑣2𝑥 〉
Reagrupando convenientemente, debido a la conmutatividad de ℝ, se tiene:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈2𝑎𝑣1𝑥 + 𝑎𝑣1𝑦 + 2𝑏𝑣2𝑥 + 𝑏𝑣2𝑦 ; 𝑎𝑣1𝑦 − 𝑎𝑣1𝑥 + 𝑏𝑣2𝑦 − 𝑏𝑣2𝑥 〉
Factorizando convenientemente, resulta:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈𝑎(2𝑣1𝑥 + 𝑣1𝑦 ) + 𝑏(2𝑣2𝑥 + 𝑣2𝑦 ); 𝑎(𝑣1𝑦 − 𝑣1𝑥 ) + 𝑏(𝑣2𝑦 − 𝑣2𝑥 )〉
De lo que se desprende la siguiente re-escritura, de acuerdo a la definición usual de ⊕ℝ2 .
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 〈𝑎(2𝑣1𝑥 + 𝑣1𝑦 ); 𝑎(𝑣1𝑦 − 𝑣1𝑥 )〉 + 〈𝑏(2𝑣2𝑥 + 𝑣2𝑦 ); 𝑏(𝑣2𝑦 − 𝑣2𝑥 )〉
Luego, por la definición usual de ⨀ℝ2
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎〈2𝑣1𝑥 + 𝑣1𝑦 ; 𝑣1𝑦 − 𝑣1𝑥 〉 + 𝑏〈2𝑣2𝑥 + 𝑣2𝑦 ; 𝑣2𝑦 − 𝑣2𝑥 〉
Por lo tanto, obtenemos que:
𝑓(𝑎𝑣⃗1 + 𝑏𝑣⃗2 ) = 𝑎𝑓(𝑣⃗1 ) + 𝑏𝑓(𝑣⃗2 )

Dada la base ordenada canónica para ℝ2 , 𝐵ℝ2 = {〈1; 0〉, 〈0; 1〉} el teorema previo garantiza
“existe una única transformación lineal, 𝑓: 𝑉 → 𝑊, tal que 𝑓(𝑒⃗𝑖 ) = 𝑤
⃗⃗⃗𝑖 para cada i, con 1 ≤
𝑖 ≤ 𝑛”.

Ya vimos que 𝑓: ℝ2 → ℝ2 , definida por 𝑓(𝑣⃗) = 𝑓 ((𝑣𝑥 , 𝑣𝑦 )) = (2𝑣𝑥 + 𝑣𝑦 ; 𝑣𝑦 − 𝑣𝑥 ) es

una transformación lineal. El teorema nos garantiza su existencia y unicidad.


𝑓(〈1,0〉) = 〈2; −1〉
𝑓(〈0,1〉) = 〈1; 1〉
34
Tomemos el vector 〈3, 2〉, y apliquemos 𝑓 según su definición:
𝑓(〈3, 2〉) = 〈2.3 + 2; 2 − 3〉 = 〈8; −1〉

Por otro lado, sabemos que podemos expresar 〈3, 2〉 como combinación lineal única de
los vectores de la base 𝐵ℝ2 .
〈3, 2〉 = 3〈1; 0〉 + 2〈0; 1〉
Ahora apliquemos 𝑓 a ambos lados del signo =, considerando que 𝑓 es una transformación
lineal:
𝑓(〈3, 2〉) = 𝑓(3〈1; 0〉 + 2〈0; 1〉)
𝑓(〈3, 2〉) = 3𝑓(〈1; 0〉) + 2𝑓(〈0; 1〉)
Reemplacemos 𝑓(〈1; 0〉) y 𝑓(〈0; 1〉) por los obtenidos según definición de 𝑓.
𝑓(〈3, 2〉) = 3〈2; −1〉 + 2〈1; 1〉 = 〈6; −3〉 + 〈2; 2〉 = 〈8; −1〉

En síntesis, hemos visto cómo comienza a operar todo el sistema de definiciones y teoremas
que hemos ido “construyendo”.
Dada una base ordenada 𝐵 = {𝑣⃗𝑖 , 1 ≤ 𝑖 ≤ 𝑛}, todo vector 𝑣⃗ tiene una manera única de
escribirse en esa base (i.e. existe un conjunto único de escalares 𝑐𝑖 tales que 𝑣⃗ = ∑𝑖=𝑛
𝑖=1 𝑐𝑖 𝑣
⃗𝑖 ).
Si 𝑓 es una transformación lineal, 𝑓: 𝑉 → 𝑊, la transformación lineal de todo vector 𝑣⃗, 𝑣⃗ ∈
𝑉, es única y puede escribirse como combinación lineal de la transformada de los vectores
de la base, conservando los escalares 𝑐𝑖 .
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
𝑖=𝑛

𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 )
𝑖=1

Definiciones.
Si pensamos a las transformaciones lineales como funciones entre conjuntos, podemos pensar
que es dable tener en cuenta las propiedades y su validez general usuales entre funciones.
Estas propiedades las conocemos, entre otras, como inyectividad, suryectividad, y

35
biyectividad. Pero dado que a las transformaciones lineales las estamos considerando dentro
de las estructuras algebraicas, usaremos nombres que son propios de esta área del álgebra.

Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).


Sea 𝑓: 𝑉 → 𝑊 una transformación lineal, se dirá que 𝑓 es:
a. Un monomorfismo si 𝑓 es inyectiva.
b. Un epimorfismo si 𝑓 es suryectiva.
c. Un isomorfismo si 𝑓 es biyectiva.

Cuando 𝑓: 𝑉 → 𝑉 se dice que se trata de un endomorfismo. Y a todo endomorfismo isomorfo


se lo denomina automorfismo.

Núcleo e imagen de una transformación lineal


Definición de núcleo.
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal, se definirá como núcleo de 𝑓 al conjunto siguiente:
𝑁𝑢(𝑓) = {𝑣⃗, 𝑣⃗ ∈ 𝑉/𝑓(𝑣⃗) = ⃗⃗ ⃗⃗})
0} = 𝑓 −1 ({0

En muchas ocasiones al núcleo se lo denomina kernel y se denota como 𝐾𝑒𝑟(𝑓).

Observación: el 𝑁𝑢(𝑓) es un subespacio de V.


Es inmediato que ⃗0⃗ ∈ 𝑁𝑢(𝑓), porque hemos visto que 𝑓(0
⃗⃗𝑉 ) = ⃗0⃗𝑊 .

Si 𝑣⃗ ∈ 𝑁𝑢(𝑓), y 𝑢 ⃗⃗) = ⃗0⃗, luego 𝑓(𝑣⃗) + 𝑓(𝑢


⃗⃗ ∈ 𝑁𝑢(𝑓), i.e. 𝑓(𝑣⃗) = 𝑓(𝑢 ⃗⃗) = 𝑓(𝑣⃗ + 𝑢) = ⃗0⃗,
porque 𝑓 es una transformación lineal. De aquí que (𝑣⃗ + 𝑢) ∈ 𝑁𝑢(𝑓).
Si 𝑎 ∈ ℱ, 𝑣⃗ ∈ 𝑁𝑢(𝑓), es inmediato que 𝑎𝑣⃗ ∈ 𝑁𝑢(𝑓), porque 𝑎𝑓(𝑣⃗) = 𝑓(𝑎𝑣⃗) = ⃗⃗
0, porque
𝑓 es una transformación lineal.

Ejemplos:
1. Sea ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉, ℘(𝑣⃗) = 〈𝑣𝑥 , 𝑣𝑦 〉.
Obtener el 𝑁𝑢(℘).

36
Solución.
Por definición, 𝑁𝑢(℘) = {𝑣⃗, 𝑣⃗ ∈ ℝ3 /℘(𝑣⃗) = ⃗0⃗ℝ2 }. Es decir:
℘(𝑣⃗) = ℘(〈𝑣𝑥 , 𝑣𝑦 , 𝑣𝑧 〉) = 〈𝑣𝑥 , 𝑣𝑦 〉 = 〈0; 0〉
Luego 𝑣𝑥 = 0 y 𝑣𝑦 = 0. De aquí que 𝑁𝑢(℘) = {〈0, 0, 1〉}. Se observa que en este caso el
núcleo de la transformación lineal ℘ tiene otro elemento además del vector nulo. Debido a
que 𝑣⃗ ∈ ℝ3 , podemos decir que el vector 〈0, 0, 𝑣𝑧 〉 puede ser engendrado a partir del vector
canónico 〈0, 0, 1〉.

2. Sea ℶ: ℝ2 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ2 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 〉, ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉.


Obtener el 𝑁𝑢(ℶ).
Solución.
Por definición, 𝑁𝑢(ℶ) = {𝑣⃗, 𝑣⃗ ∈ ℝ2 /ℶ(𝑣⃗) = ⃗⃗
0ℝ2 }. Es decir:
ℶ(𝑣⃗) = ℶ(〈𝑣𝑥 , 𝑣𝑦 〉) = 〈−𝑣𝑥 , −𝑣𝑦 〉 = 〈0; 0〉
Luego 𝑣𝑥 = 0 y 𝑣𝑦 = 0. De aquí que 𝑁𝑢(ℶ) = {〈0, 0〉}. Se observa que en este caso el núcleo
de la transformación lineal ℶ solo tiene como elemento el vector nulo.

Lema:
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal.
⃗⃗}
𝑓 es un monomorfismo si, y sólo si, 𝑁𝑢(𝑓) = {0

Si 𝑓 es un monomorfismo, por definición 𝑓 es inyectiva. Y esto, implícitamente, supone que
sólo hay un elemento que cumple con 𝑓(𝑣⃗) = ⃗0⃗. Además sabemos que, dado que 𝑓 es una
⃗⃗𝑉 ) = ⃗⃗
transformación lineal, 𝑓(0 0𝑊 . Luego el núcleo de 𝑓 contiene sólo el elemento ⃗⃗
0.

Sean 𝑣⃗, 𝑢
⃗⃗ ∈ 𝑉, con 𝑓(𝑣⃗) = 𝑓(𝑢 ⃗⃗) = ⃗0⃗. Equivalentemente, porque 𝑓 es
⃗⃗). Luego 𝑓(𝑣⃗) − 𝑓(𝑢
⃗⃗) = ⃗0⃗. Luego 𝑣⃗ − 𝑢
una transformación lineal, 𝑓(𝑣⃗ − 𝑢 ⃗⃗}
⃗⃗ ∈ 𝑁𝑢(𝑓). Y 𝑁𝑢(𝑓) = {0

⃗⃗ = ⃗0⃗. De aquí que 𝑣⃗ = 𝑢


(hipótesis), luego 𝑣⃗ − 𝑢 ⃗⃗, y se sigue que 𝑓 es un monomorfismo.

37
De los dos ejemplos inmediatamente previos, vemos que la transformación lineal ℘ no es un
monomorfismo y que la transformación lineal ℶ es un monomorfismo. Este lema es muy
importante, en términos de clasificar si las transformaciones lineales son monomorfismos o
no. Es decir, alcanza con conocer cuántos elementos tiene el núcleo de la transformación
lineal además del vector nulo. Si sólo tuviera el vector nulo, se trata de un monomorfismo.

Definición de imagen.
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal, se definirá como imagen de 𝑓 al conjunto siguiente:
𝐼𝑚(𝑓) = {𝑤
⃗⃗⃗, 𝑤
⃗⃗⃗ ∈ 𝑊/∃𝑣⃗, 𝑣⃗ ∈ 𝑉, 𝑓(𝑣⃗) = 𝑤
⃗⃗⃗}

Observación: la 𝐼𝑚(𝑓) es un subespacio de W.


Es inmediato que ⃗0⃗𝑊 está en 𝐼𝑚(𝑓), porque 𝑓 es una transformación lineal, y ∃0
⃗⃗𝑉 , tal como
⃗⃗𝑉 ) = ⃗0⃗𝑊 .
hemos visto 𝑓(0
Si 𝑤
⃗⃗⃗1 y 𝑤
⃗⃗⃗2 pertenecen a 𝐼𝑚(𝑓), existen 𝑣⃗1 y 𝑣⃗2 que pertenecen a V tales que 𝑤
⃗⃗⃗1 = 𝑓(𝑣⃗1 ) y
𝑤
⃗⃗⃗2 = 𝑓(𝑣⃗2 ). Luego 𝑤 ⃗⃗⃗2 = 𝑓(𝑣⃗1 ) + 𝑓(𝑣⃗2 ) = 𝑓(𝑣⃗1 + 𝑣⃗2 )
⃗⃗⃗1 + 𝑤 porque 𝑓 es una
transformación lineal, y además 𝑣⃗1 + 𝑣⃗2 pertenece a V (porque V es un espacio vectorial).
De aquí que 𝑤
⃗⃗⃗1 + 𝑤
⃗⃗⃗2 cumple con la definición de 𝐼𝑚(𝑓), por lo que pertenece a 𝐼𝑚(𝑓).
Si 𝑎 ∈ ℱ, 𝑤
⃗⃗⃗ ∈ 𝐼𝑚(𝑓), es inmediato que ∃𝑣⃗, 𝑣⃗ ∈ 𝑉, 𝑓(𝑣⃗) = 𝑤
⃗⃗⃗. Luego 𝑎𝑤
⃗⃗⃗ = 𝑎𝑓(𝑣⃗) =
𝑓(𝑎𝑣⃗), porque 𝑓 es una transformación lineal, y 𝑎𝑣⃗ ∈ 𝑉 porque 𝑉 es un espacio vectorial.
Luego 𝑎𝑤
⃗⃗⃗ ∈ 𝐼𝑚(𝑓).

Observación (importante):
Notar de cada una de las definiciones que: 𝑁𝑢(𝑓) ⊆ 𝑉 e 𝐼𝑚(𝑓) ⊆ 𝑊.

Obtener la imagen de una transformación lineal es aplicar la definición propia que le


corresponde a esa transformación lineal.

Ahora veremos un teorema de relativa importancia, que permite obtener toda la información
asociada a transformaciones lineales. Primero realizaremos una serie de definiciones, para
cubrir todo el lenguaje usado en la bibliografía.

38
Sean dos ℱ–espacios vectoriales, (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ).
Sea 𝑓: 𝑉 → 𝑊 una transformación lineal
Definición 1: se denomina nulidad de 𝑓, y se escribe 𝑛𝑢𝑙(𝑓) a la dimensión del núcleo de 𝑓.
Definición 2: se denomina rango de 𝑓, y se escribe 𝑟𝑎𝑛𝑔(𝑓) o 𝑟𝑔(𝑓)a la dimensión de la
imagen de 𝑓.

Teorema (de la dimensión):


Sean V y W dos ℱ–espacios vectoriales, con V de dimensión finita.
Sea 𝑓, 𝑓: 𝑉 → 𝑊, una transformación lineal.
Entonces:
dim(𝑉) = dim[𝑁𝑢(𝑓)] + 𝑑𝑖𝑚[𝐼𝑚(𝑓)]
dim(𝑉) = 𝑛𝑢𝑙(𝑓) + 𝑟𝑔(𝑓)
Demostración:
⃗⃗) = 0.
Primero debemos recordar que dim(0
Sean dim(𝑉) = 𝑛 y dim[𝑁𝑢(𝑓)] = 𝑟.
Procederemos por construcción.
Si 𝑛 = 𝑟, se sigue que 𝑓(𝑣⃗) = ⃗0⃗, ∀𝑣⃗, 𝑣⃗ ∈ 𝑉. Es decir, tenemos la transformación lineal
trivial nula. Luego el teorema se satisface.
⃗⃗}. Si
Si 𝑟 = 0, por lo visto en lema previo, 𝑓 es un monomorfismo si, y sólo si, 𝑁𝑢(𝑓) = {0
𝐵 = {𝑣⃗𝑖 , 1 ≤ 𝑖 ≤ 𝑛} es una base ordenada de V, podemos escribir un vector perteneciente al
espacio vectorial V como combinación lineal de los vectores de la base:
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1

Luego, aplicamos a ambos lados del signo “=” la transformación lineal 𝑓.


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑓(𝑣⃗) = 𝑓 (∑ 𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑓(𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 )


𝑖=1 𝑖=1 𝑖=1

Si 𝑣⃗ ≠ ⃗⃗
0, sabemos que 𝑓(𝑣⃗) ≠ ⃗⃗
0 (por lema enunciado). Luego 𝑓(𝑣⃗) se escribe como
combinación lineal de 𝑓(𝑣⃗𝑖 ), y la única manera de lograr el vector nulo en esta combinación
39
lineal es que 𝑐𝑖 = 0, ∀𝑖 con 1 ≤ 𝑖 ≤ 𝑛. Luego los vectores 𝑓(𝑣⃗𝑖 ) son linealmente
independientes. Pero por definición de 𝐼𝑚(𝑓) los 𝑛-vectores linealmente independientes
𝑓(𝑣⃗𝑖 ) pertenecen a la imagen de la transformación lineal 𝑓. Luego 𝑑𝑖𝑚[𝐼𝑚(𝑓)] = 𝑛.
Ahora debemos suponer que 1 < 𝑟 < 𝑛.
Sea 𝐵𝑁𝑢(𝑓) = {𝑣⃗1 ; 𝑣⃗2 ; 𝑣⃗3 ; … ; 𝑣⃗𝑟 } una base del núcleo de la transformación lineal 𝑓, por lo
que dim[𝑁𝑢(𝑓)] = 𝑟 < 𝑛.
Sea 𝐵𝑉 = {𝑣⃗1 ; 𝑣⃗2 ; 𝑣⃗3 ; … ; 𝑣⃗𝑟 ; 𝑣⃗𝑟+1 ; 𝑣⃗𝑟+2 ; 𝑣⃗𝑟+3 ; … ; 𝑣⃗𝑛 } una base del espacio vectorial V,
por lo que dim(𝑉) = 𝑛.
Hay que ver que el conjunto de vectores {𝑣⃗𝑟+1 ; 𝑣⃗𝑟+2 ; 𝑣⃗𝑟+3 ; … ; 𝑣⃗𝑛 } es linealmente
independiente y genera a la imagen de la transformación lineal 𝑓.
Que es linealmente independiente es inmediato. Ya habíamos demostrado que cualquier
subconjunto de un conjunto de vectores linealmente independiente es linealmente
independiente.
Por definición de imagen de 𝑓 se tiene:
𝐼𝑚(𝑓) = 〈𝑓(𝑣⃗1 ); 𝑓(𝑣⃗2 ); 𝑓(𝑣⃗3 ); … ; 𝑓(𝑣⃗𝑟 ); 𝑓(𝑣⃗𝑟+1 ); 𝑓(𝑣⃗𝑟+2 ); 𝑓(𝑣⃗𝑟+3 ); … ; 𝑓(𝑣⃗𝑛 )〉
Pero sabemos que 𝑓(𝑣⃗𝑘 ) = ⃗⃗
0 ∀𝑘 con 1 ≤ 𝑘 ≤ 𝑟, porque los 𝑣⃗𝑘 pertenecen al núcleo de la
transformación lineal 𝑓. Por lo que alcanza con que nos quedemos con el conjunto
{𝑓(𝑣⃗𝑟+1 ); 𝑓(𝑣⃗𝑟+2 ); 𝑓(𝑣⃗𝑟+3 ); … ; 𝑓(𝑣⃗𝑛 )}. Ahora debemos ver que este conjunto es una base
de 𝐼𝑚(𝑓).
Supongamos que existen escalares 𝑎𝑖 , con 𝑟 + 1 ≤ 𝑖 ≤ 𝑛 no todos nulos, tal que podemos
escribir al vector nulo como combinación lineal de 𝑓(𝑣⃗𝑖 ):
𝑖=𝑛
⃗0⃗ = ∑ 𝑎𝑖 𝑓(𝑣⃗𝑖 )
𝑖=𝑟+1

Pero 𝑓 es una transformación lineal, por lo que:


𝑖=𝑛 𝑖=𝑛 𝑖=𝑛
⃗⃗
0 = ∑ 𝑎𝑖 𝑓(𝑣⃗𝑖 ) = ∑ 𝑓(𝑎𝑖 𝑣⃗𝑖 ) = 𝑓 ( ∑ 𝑎𝑖 𝑣⃗𝑖 )
𝑖=𝑟+1 𝑖=𝑟+1 𝑖=𝑟+1

⃗⃗ al vector ∑𝑖=𝑛
Llamemos 𝑢 ⃗𝑖 . Luego ⃗0⃗ = 𝑓(𝑢
𝑖=𝑟+1 𝑎𝑖 𝑣 ⃗⃗), por lo tanto 𝑢
⃗⃗ pertenece al núcleo, luego
a𝑢
⃗⃗ lo podemos escribir como una combinación lineal de la base 𝐵𝑁𝑢(𝑓) .

40
𝑖=𝑟

𝑢
⃗⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1
𝑖=𝑛

𝑢
⃗⃗ = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=𝑟+1

Debido a que 𝑢
⃗⃗ = 𝑢
⃗⃗, surge:
𝑖=𝑟 𝑖=𝑛

∑ 𝑐𝑖 𝑣⃗𝑖 = ∑ 𝑎𝑖 𝑣⃗𝑖
𝑖=1 𝑖=𝑟+1

O lo que es equivalente:
𝑖=𝑟 𝑖=𝑛

∑ 𝑐𝑖 𝑣⃗𝑖 + ∑ (−𝑎𝑖 )𝑣⃗𝑖 = ⃗⃗


0
𝑖=1 𝑖=𝑟+1

Pero esto es una combinación lineal de vectores de la base 𝐵𝑉 . Luego ∀𝑖, 𝑐𝑖 = 𝑎𝑖 = 0.


Recapitulando, luego se tiene que
𝑖=𝑛
⃗0⃗ = ∑ 𝑎𝑖 𝑓(𝑣⃗𝑖 ) 𝑎𝑖 = 0, ∀𝑖
𝑖=𝑟+1

De manera que {𝑓(𝑣⃗𝑖 ), 𝑟 + 1 ≤ 𝑖 ≤ 𝑛} es un conjunto linealmente independiente, y por


definición genera 𝐼𝑚(𝑓). Luego es una base de 𝐼𝑚(𝑓), con 𝑑𝑖𝑚[𝐼𝑚(𝑓)] = 𝑛 − 𝑟.
De aquí vemos que:
dim[𝑁𝑢(𝑓)] + 𝑑𝑖𝑚[𝐼𝑚(𝑓)] = 𝑟 + (𝑛 − 𝑟) = 𝑛 = dim(𝑉)

Este teorema, puede decirse, contiene toda la información de la transformación lineal 𝑓,


aunque le falta una consideración suplementaria que se enunciará en lo que sigue, en
particular a partir de la definición de isomorfismo.

Corolario del teorema:


Sean V y W dos ℱ–espacios vectoriales, con V de dimensión finita.
Sea 𝑓, 𝑓: 𝑉 → 𝑊, una transformación lineal.
Entonces:
a. 𝑓 es un monomorfismo si, y sólo si, dim(𝑉) = 𝑟𝑔(𝑓) (equivalentemente, 𝑓 es un
monomorfismo si, y sólo si, 𝑛𝑢𝑙(𝑓) = 0)

41
b. 𝑓 es un epimorfismo si, y sólo si, dim(𝑊) = 𝑟𝑔(𝑓).
La demostración es consecuencia inmediata del teorema previo.

Isomorfismos
Dados dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y dada la
transformación lineal 𝑓, 𝑓: 𝑉 → 𝑊, si 𝑓 es isomorfa (i.e. “biyectiva”) se dirá que el espacio
vectorial 𝑉 es isomorfo al espacio vectorial 𝑊 (por abuso de lenguaje se dice que 𝑉 es
isomorfo a 𝑊).

Observación 1:
𝑉 es isomorfo a 𝑉.
Alcanza con ver que la transformación lineal “identidad” conecta isomórficamente 𝑉 con 𝑉.
O, dicho de otra manera, la transformación lineal identidad es isomorfa. Luego por la
definición previa, se tiene un isomorfismo de 𝑉 sobre 𝑉.
A este isomorfismo se lo denomina “isomorfismo trivial”.

Observación 2:
Si la transformación lineal 𝑓: 𝑉 → 𝑊 es isomorfa, es decir 𝑉 es isomorfo a 𝑊, se puede
demostrar que 𝑊 es isomorfo a 𝑉. Es decir, existe una transformación lineal 𝑔: 𝑊 → 𝑉
isomorfa. En particular, se puede definir la aplicación de transformaciones lineales sobre
transformaciones lineales (composición de transformaciones lineales), de lo que resulta
inmediato que 𝑔 = 𝑓 −1 .

Observación 3:
Si la transformación lineal 𝑓: 𝑉 → 𝑊 es isomorfa (𝑉 es isomorfo a 𝑊), y la transformación
lineal 𝑔: 𝑊 → 𝑈 es isomorfa (𝑊 es isomorfo a 𝑈), entonces 𝑉 es isomorfo a 𝑈 (vía
composición 𝑔(𝑓(𝑣⃗)), con 𝑣⃗ ∈ 𝑉 y 𝑓(𝑣⃗) ∈ 𝑊).

Notemos que estas tres observaciones nos permiten decir que un isomorfismo es una relación
de equivalencia sobre la clase de espacios vectoriales. La primera observación cumple la
propiedad de reflexividad, la segunda la de simetría y la tercera la de transitividad.

42
El hecho de que un isomorfismo es una relación de equivalencia, nos permitirá enunciar el
siguiente teorema, del que prescindiremos la demostración.

Teorema (de isomorfismo):


Dado un número natural n, todos los espacios vectoriales de dimensión n son
isomorfos entre sí (i.e. existe una transformación lineal isomorfa entre ellos)
Demostración puede realizarse apelando al teorema de la dimensión.

Corolario 1:
Dado un espacio vectorial de dimensión finita n, V, se puede encontrar otro espacio
vectorial de dimensión n, W, isomorfo a V.
En muchas ocasiones se indica por abuso de lenguaje que V es n-isomorfo a W. Esto quiere
decir que el espacio vectorial 𝑉 de dimensión n es isomorfo al espacio vectorial 𝑊 (también
de dimensión n).

Corolario 2:
Todo ℱ–espacio vectorial de dimensión finita n, V, es isomorfo a ℱ 𝑛 .
En particular sabemos que dado un ℱ-espacio vectorial V de dimensión finita, y una base
ordenada de este espacio, 𝐵𝑂𝑉 , 𝐵𝑂𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 }, existe un conjunto único de
escalares 𝑐𝑖 , con 1 ≤ 𝑖 ≤ 𝑛, tales que:
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖 = 𝑐1 𝑣⃗1 + 𝑐2 𝑣⃗2 + 𝑐3 𝑣⃗3 + ⋯ + 𝑐𝑛 𝑣⃗𝑛


𝑖=1

Además, cada base ordenada de un espacio vectorial V determina una correspondencia


biunívoca
𝑣⃗ → (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 )
𝑐1
𝑐2
[𝑣⃗]𝐵𝑂𝑉 → 𝑐3

[𝑐𝑛 ]

43
Matriz asociada a una transformación lineal (representación de transformaciones
lineales por matrices)
Sean dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) de dimensión
finita. Sean 𝐵𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 } y 𝐵𝑊 = {𝑤
⃗⃗⃗1 , 𝑤 ⃗⃗⃗3 , …, 𝑤
⃗⃗⃗2 , 𝑤 ⃗⃗⃗𝑚 } bases ordenadas de 𝑉 y
𝑊, respectivamente. Sea 𝑓: 𝑉 → 𝑊 una transformación lineal.
Dado que 𝑓(𝑣⃗𝑖 ) ∈ 𝑊, ∀𝑖 con 1 ≤ 𝑖 ≤ 𝑛, se podrá escribir como una combinación de los
elementos de la base 𝐵𝑊 , es decir:
𝑖=𝑚

𝑓(𝑣⃗1 ) = ∑ 𝑡𝑖,1 𝑤
⃗⃗⃗𝑖 = 𝑡1,1 𝑤
⃗⃗⃗1 + 𝑡2,1 𝑤
⃗⃗⃗2 + 𝑡3,1 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,1 𝑤
⃗⃗⃗𝑚
𝑖=1
𝑖=𝑚

𝑓(𝑣⃗2 ) = ∑ 𝑡𝑖,2 𝑤
⃗⃗⃗𝑖 = 𝑡1,2 𝑤
⃗⃗⃗1 + 𝑡2,2 𝑤
⃗⃗⃗2 + 𝑡3,2 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,2 𝑤
⃗⃗⃗𝑚
𝑖=1
𝑖=𝑚

𝑓(𝑣⃗3 ) = ∑ 𝑡𝑖,3 𝑤
⃗⃗⃗𝑖 = 𝑡1,3 𝑤
⃗⃗⃗1 + 𝑡2,3 𝑤
⃗⃗⃗2 + 𝑡3,3 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,3 𝑤
⃗⃗⃗𝑚
𝑖=1


𝑖=𝑚

𝑓(𝑣⃗𝑛 ) = ∑ 𝑡𝑖,𝑛 𝑤
⃗⃗⃗𝑖 = 𝑡1,𝑛 𝑤
⃗⃗⃗1 + 𝑡2,𝑛 𝑤
⃗⃗⃗2 + 𝑡3,𝑛 𝑤
⃗⃗⃗3 + ⋯ + 𝑡𝑚,𝑛 𝑤
⃗⃗⃗𝑚
𝑖=1

Es decir:
𝑗=𝑚

𝑓(𝑣⃗𝑘 ) = ∑ 𝑡𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1

Esta manera sugestiva de escribir la combinación lineal nos lleva al enunciado del siguiente
teorema:

Teorema (matriz de 𝒇 respecto al par de bases ordenadas 𝑩𝑽 y 𝑩𝑾 ):


Sean dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 )
de dimensión finita n y m, y sean 𝐵𝑉 = {𝑣⃗1 , 𝑣⃗2 , 𝑣⃗3 , …, 𝑣⃗𝑛 } y 𝐵𝑊 = {𝑤
⃗⃗⃗1, 𝑤
⃗⃗⃗2 ,
⃗⃗⃗3 , …, 𝑤
𝑤 ⃗⃗⃗𝑚 } bases ordenadas de 𝑉 y 𝑊, respectivamente. Para cada

44
transformación lineal 𝑓: 𝑉 → 𝑊 existe una matriz mxn sobre el cuerpo ℱ, T,
asociada a 𝑓. Además, f → 𝑇 es un isomorfismo entre todas las
transformaciones lineales 𝑓: 𝑉 → 𝑊 y todas las matrices mxn sobre ℱ.
Demostración:
Sin mayores precisiones tomaremos estas ideas intuitivas como “ejemplificación” de la
existencia de tal matriz, a la vez que modelo de su construcción/obtención.
Sabemos que todo elemento del espacio vectorial 𝑉 puede escribirse como combinación
lineal única de los elementos de la base 𝐵𝑉 .
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖 = 𝑐1 𝑣⃗1 + 𝑐2 𝑣⃗2 + 𝑐3 𝑣⃗3 + ⋯ + 𝑐𝑛 𝑣⃗𝑛


𝑖=1

Además, cada base ordenada de un espacio vectorial V determina una correspondencia


biunívoca (isomorfismo)
𝑣⃗ → (𝑐1 , 𝑐2 , 𝑐3 , … , 𝑐𝑛 )
𝑐1
𝑐2
[𝑣⃗]𝐵𝑉 → 𝑐3

[𝑐𝑛 ]
Tomemos
𝑖=𝑛

𝑣⃗ = ∑ 𝑐𝑖 𝑣⃗𝑖
𝑖=1

Luego, aplicamos a ambos lados del signo “=” una transformación lineal 𝑓.
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑓(𝑣⃗) = 𝑓 (∑ 𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑓(𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 ) = 𝑤


⃗⃗⃗
𝑖=1 𝑖=1 𝑖=1

Por otro lado, 𝑤


⃗⃗⃗ se puede escribir como una combinación lineal de vectores de la base 𝐵𝑊 .
𝑖=𝑚

𝑤
⃗⃗⃗ = ∑ 𝑑𝑖 𝑤
⃗⃗⃗𝑖 = 𝑑1 𝑤
⃗⃗⃗1 + 𝑑2 𝑤
⃗⃗⃗2 + 𝑑3 𝑤
⃗⃗⃗3 + ⋯ + 𝑑𝑚 𝑤
⃗⃗⃗𝑚
𝑖=1

Además, por teorema de isomorfismo sabemos:


𝑤
⃗⃗⃗ → (𝑑1 , 𝑑2 , 𝑑3 , … , 𝑑𝑚 )

45
𝑑1
𝑑2
[𝑤
⃗⃗⃗]𝐵𝑊 → 𝑑3

[𝑑𝑚 ]
Debido a que 𝑤
⃗⃗⃗ = 𝑤
⃗⃗⃗, se tiene lo siguiente
𝑖=𝑚 𝑖=𝑛

⃗⃗⃗𝑖 = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 )
∑ 𝑑𝑖 𝑤
𝑖=1 𝑖=1

Por otro lado, dado que 𝑤


⃗⃗⃗ = 𝑓(𝑣⃗), estamos en condiciones de pensar que puede escribirse
esta igualdad a partir de los isomorfismos indicados. Es decir:
[𝑤
⃗⃗⃗]𝐵𝑊 = 𝑇[𝑣⃗]𝐵𝑉
Más explícitamente:
𝑑1 𝑐1
𝑑2 𝑐2
𝑑3 = 𝑇 𝑐3
⋮ ⋮
[𝑑𝑚 ] [ 𝑐𝑛]

⃗⃗⃗]𝐵𝑊 ∈ ℱ 𝑚𝑥1 y que [𝑣⃗]𝐵𝑉 ∈ ℱ 𝑛𝑥1 , luego 𝑇 ∈ ℱ 𝑚𝑥𝑛 .


Debido a que [𝑤
Este hecho nos permite visualizar la existencia de un isomorfismo entre todas las
transformaciones lineales 𝑓: 𝑉 → 𝑊 y todas las matrices ℱ 𝑚𝑥𝑛 .
Recordemos que 𝑤
⃗⃗⃗ = 𝑓(𝑣⃗), por lo tanto, es equivalente:
[𝑤
⃗⃗⃗]𝐵𝑊 = 𝑇[𝑣⃗]𝐵𝑉
[𝑓(𝑣⃗)]𝐵𝑊 = 𝑇[𝑣⃗]𝐵𝑉
Visto de esta manera, 𝑇 es la matriz que conecta elementos expresados en función de la base
𝐵𝑉 con elementos expresados en función de la base 𝐵𝑊 , donde a los elementos expresados
en función de la base 𝐵𝑊 se llega vía una transformación lineal de los elementos de la base
𝐵𝑉 .
Observación: no estamos demostrando el isomorfismo, sino que lo estamos “visualizando”.

También vimos que


𝑗=𝑚

𝑓(𝑣⃗𝑘 ) = ∑ 𝑡𝑗,𝑘 𝑤
⃗⃗⃗𝑗
𝑗=1

46
Los coeficientes 𝑡𝑗,𝑘 son las coordenadas del vector 𝑓(𝑣⃗𝑘 ) en la base 𝐵𝑊 . Nuevamente
apelamos al isomorfismo entre 𝑓(𝑣⃗𝑘 ) y [𝑓(𝑣⃗𝑘 )]𝐵𝑊 . Esto es:
𝑡1,𝑘
𝑡2,𝑘
[𝑓(𝑣⃗𝑘 )]𝐵𝑊 → 𝑡3,𝑘

[𝑡𝑚,𝑘 ]
Volvamos a la siguiente expresión:
𝑖=𝑛 𝑖=𝑛 𝑖=𝑛

𝑓(𝑣⃗) = 𝑓 (∑ 𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑓(𝑐𝑖 𝑣⃗𝑖 ) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 ) = 𝑤


⃗⃗⃗
𝑖=1 𝑖=1 𝑖=1

Pero sabemos que:


𝑗=𝑚

𝑓(𝑣⃗𝑖 ) = ∑ 𝑡𝑗,𝑖 𝑤
⃗⃗⃗𝑗
𝑗=1

Luego la reemplazamos:
𝑖=𝑛 𝑖=𝑛 𝑗=𝑚

𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 ) = ∑ 𝑐𝑖 ( ∑ 𝑡𝑗,𝑖 𝑤


⃗⃗⃗𝑗 ) = 𝑤
⃗⃗⃗
𝑖=1 𝑖=1 𝑗=1

Podemos reescribir la expresión anterior de la siguiente manera:


𝑖=𝑛 𝑗=𝑚 𝑖=𝑛

𝑓(𝑣⃗) = ∑ 𝑐𝑖 𝑓(𝑣⃗𝑖 ) = ∑ (∑ 𝑡𝑗,𝑖 𝑐𝑖 ) 𝑤


⃗⃗⃗𝑗 = 𝑤
⃗⃗⃗
𝑖=1 𝑗=1 𝑖=1

Además, como
𝑗=𝑚 𝑗=𝑚 𝑖=𝑛

𝑤
⃗⃗⃗ = ∑ 𝑑𝑗 𝑤
⃗⃗⃗𝑗 = ∑ (∑ 𝑡𝑗,𝑖 𝑐𝑖 ) 𝑤
⃗⃗⃗𝑗
𝑗=1 𝑗=1 𝑖=1

𝑗=𝑚 𝑗=𝑚 𝑖=𝑛

∑ 𝑑𝑗 𝑤 ⃗⃗⃗𝑗 = ⃗0⃗
⃗⃗⃗𝑗 − ∑ (∑ 𝑡𝑗,𝑖 𝑐𝑖 ) 𝑤
𝑗=1 𝑗=1 𝑖=1

𝑗=𝑚 𝑖=𝑛

⃗⃗⃗𝑗 = ⃗⃗
∑ [𝑑𝑗 − (∑ 𝑡𝑗,𝑖 𝑐𝑖 )] 𝑤 0
𝑗=1 𝑖=1

Y debido a que 𝑤
⃗⃗⃗𝑗 , ∀𝑗, 1 ≤ 𝑗 ≤ 𝑚, pertenecen a un conjunto linealmente independiente se
sigue que:

47
𝑖=𝑛

𝑑𝑗 = ∑ 𝑡𝑗,𝑖 𝑐𝑖
𝑖=1

Es decir, el escalar
𝑖=𝑛

∑ 𝑡𝑗,𝑖 𝑐𝑖
𝑖=1

Es la j-ésima fila de la matriz columna [𝑤


⃗⃗⃗]𝐵𝑊 .
“Visualmente”, tal lo hemos presentado, queda expresada la definición de un producto usual
de matrices, es decir:
[𝑤
⃗⃗⃗]𝐵𝑊 = 𝑇[𝑣⃗]𝐵𝑉

𝑑1 𝑐1
𝑑2 𝑐2
𝑑3 = 𝑇 𝑐3
⋮ ⋮
[𝑑𝑚 ] [𝑐𝑛 ]

𝑑1 𝑡11 𝑡12 𝑡13 ⋯ 𝑡1𝑛 𝑐1


𝑑2 𝑡21 𝑡22 𝑡23 ⋯ 𝑡2𝑛 𝑐2
𝑑3 = 𝑡31 𝑡32 𝑡33 ⋯ 𝑡3𝑛 𝑐3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑑𝑚 ] [ 𝑡𝑚1 𝑡𝑚2 𝑡𝑚3 ⋯ 𝑡𝑚𝑛 ] [𝑐𝑛 ]
Y ya vimos que:
𝑡1,𝑘
𝑡2,𝑘
[𝑓(𝑣⃗𝑘 )]𝐵𝑊 → 𝑡3,𝑘

[𝑡𝑚,𝑘 ]
De aquí que la matriz asociada a la transformación lineal 𝑓 puede construirse a partir de los
vectores columna ℱ 𝑚𝑥1 , donde la k-ésima columna de 𝑇 son las componentes de 𝑓(𝑣⃗𝑘 ) en
la base 𝐵𝑊 .
𝑇 = [[𝑓(𝑣⃗1 )]𝐵𝑊 [𝑓(𝑣⃗2 )]𝐵𝑊 [𝑓(𝑣⃗3 )]𝐵𝑊 … [𝑓(𝑣⃗𝑛 )]𝐵𝑊 ]

Ejemplos:

48
1. Sea la transformación lineal ℘, con ℘: ℝ3 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ3 , con 𝑣⃗ = 〈𝑣𝑥 ; 𝑣𝑦 ; 𝑣𝑧 〉,
℘(𝑣⃗) = 〈𝑣𝑥 ; 𝑣𝑦 〉.
Hallar la matriz asociada a ℘ en las bases canónicas de ℝ3 y de ℝ2 .
Solución.
𝐵ℝ3 = {〈1; 0; 0〉; 〈0; 1; 0〉; 〈0; 0; 1〉}; dim(𝐵ℝ3 ) = 3
𝐵ℝ2 = {〈1; 0〉; 〈0; 1〉}; dim(𝐵ℝ2 ) = 2
Luego la matriz 𝑇 asociada a la transformación lineal ℘ pertenece a ℝ2𝑥3 .
℘(〈1; 0; 0〉) = 〈1; 0〉 = 1〈1; 0〉 + 0〈0; 1〉
℘(〈0; 1; 0〉) = 〈0; 1〉 = 0〈1; 0〉 + 1〈0; 1〉
℘(〈0; 0; 1〉) = 〈0; 0〉 = 0〈1; 0〉 + 0〈0; 1〉
Recordamos lo siguiente:
𝑡1,𝑘
𝑗=𝑚 𝑡2,𝑘
𝑓(𝑣⃗𝑖 ) = ∑ 𝑡𝑗,𝑖 𝑤
⃗⃗⃗𝑗 𝑒𝑞𝑢𝑖𝑣𝑎𝑙𝑒𝑛𝑡𝑒 𝑎 [𝑓(𝑣⃗𝑘 )]𝐵𝑊 → 𝑡3,𝑘
𝑗=1 ⋮
[𝑡𝑚,𝑘 ]
𝑑1 𝑡11 𝑡12 𝑡13 ⋯ 𝑡1𝑛 𝑐1
𝑑2 𝑡21 𝑡22 𝑡23 ⋯ 𝑡2𝑛 𝑐2
𝑑3 = 𝑡31 𝑡32 𝑡33 ⋯ 𝑡3𝑛 𝑐3
⋮ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
[𝑑𝑚 ] [𝑡𝑚1 𝑡𝑚2 𝑡𝑚3 ⋯ 𝑡𝑚𝑛 ] [𝑐𝑛 ]

𝑇 = [[𝑓(𝑣⃗1 )]𝐵𝑊 [𝑓(𝑣⃗2 )]𝐵𝑊 [𝑓(𝑣⃗3 )]𝐵𝑊 … [𝑓(𝑣⃗𝑛 )]𝐵𝑊 ]

Luego la matriz 𝑇 resulta:


1 0 0
𝑇=[ ]
0 1 0
Veamos que en efecto:
[℘(𝑣⃗)]𝐵 = 𝑇[𝑣⃗]𝐵
ℝ2 ℝ3

Al hacer el producto
𝑣𝑥
1 0 0 𝑣
¿?= [ ] [ 𝑦]
0 1 0 𝑣
𝑧

Vemos que efectivamente

49
𝑣𝑥
𝑣𝑥 1 0 0 𝑣
[𝑣 ] = [ ] [ 𝑦]
𝑦 0 1 0 𝑣
𝑧

2. Sea la transformación lineal ℶ, con ℶ: ℝ2 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ2 , con 𝑣⃗ = 〈𝑣𝑥 , 𝑣𝑦 〉,


ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉.
Hallar la matriz asociada a ℶ en la base canónica de ℝ2 .
Solución.
𝐵ℝ2 = {〈1; 0〉; 〈0; 1〉}; dim(𝐵ℝ2 ) = 2
Luego la matriz 𝑇 asociada a la transformación lineal ℶ pertenece a ℝ2𝑥2 .
ℶ(〈1; 0〉) = 〈−1; 0〉 = (−1)〈1; 0〉 + 0〈0; 1〉
ℶ(〈0; 1〉) = 〈0; −1〉 = 0〈1; 0〉 + (−1)〈0; 1〉
Luego la matriz 𝑇 resulta:
−1 0
𝑇=[ ]
0 −1
Veamos que en efecto:
[ℶ(𝑣⃗)]𝐵 = 𝑇[𝑣⃗]𝐵
ℝ2 ℝ2

Al hacer el producto
−1 0 𝑣𝑥
¿?= [ ][ ]
0 −1 𝑣𝑦
Vemos que efectivamente
−𝑣𝑥 −1 0 𝑣𝑥
[−𝑣 ] = [ ][ ]
𝑦 0 −1 𝑣𝑦

Lema:
Si la transformación lineal 𝑓: 𝑉 → 𝑉 es un isomorfismo (i.e. biyectiva), entonces la matriz 𝑇
asociada a 𝑓 es invertible.
Para demostrar este lema recurriremos a la definición de composición de transformaciones
lineales.

50
Definición.
Sean (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ), (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y (𝑍(ℱ), ⊕𝑍 , ⊙𝑍 ) tres ℱ–espacios
vectoriales.
Sean 𝑓: 𝑉 → 𝑊 y 𝑔: 𝑊 → 𝑍 dos transformaciones lineales.
Se definirá la composición de transformaciones lineales de la siguiente manera:
(𝑔𝑜 𝑓)(𝑣⃗⃗) ≡ 𝑔(𝑓(𝑣⃗))
La composición de transformaciones lineales es una transformación lineal.
a. (𝑔𝑜 𝑓)(𝑣⃗⃗+𝑢⃗⃗) ≡ 𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗))

𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗)) = 𝑔(𝑓(𝑣⃗) + 𝑓(𝑢
⃗⃗)) porque 𝑓 es una transformación lineal.
𝑔(𝑓(𝑣⃗ + 𝑢
⃗⃗)) = 𝑔(𝑓(𝑣⃗)) + 𝑔(𝑓(𝑢
⃗⃗)) porque 𝑔 es una transformación lineal.
b. (𝑔𝑜 𝑓)(𝑎𝑣⃗⃗) ≡ 𝑔(𝑓(𝑎𝑣⃗))
𝑔(𝑓(𝑎𝑣⃗)) = 𝑔(𝑎𝑓(𝑣⃗)) porque 𝑓 es una transformación lineal.
𝑔(𝑓(𝑎𝑣⃗)) = 𝑎𝑔(𝑓(𝑣⃗)) porque 𝑔 es una transformación lineal.
Luego (𝑔𝑜 𝑓)(𝑣⃗⃗) es una transformación lineal.

Si 𝑓: 𝑉 → 𝑊 es un isomorfismo, existe 𝑓 −1 : 𝑊 → 𝑉 tal que (𝑓 −1 𝑜 𝑓) =(𝑓𝑜 𝑓 −1 )(𝑣⃗⃗) = 𝑰,


⃗⃗)
(𝑣

donde 𝑰 es la transformación lineal (trivial) identidad. Luego por teoremas de isomorfismo y


de matriz asociada, es inmediata la demostración del lema previo.

Observación:
Sabemos que la transformación lineal ℶ, con ℶ: ℝ2 → ℝ2 , tal que ∀ 𝑣⃗ ∈ ℝ2 , con 𝑣⃗ =
⃗⃗}. Luego, a partir del
〈𝑣𝑥 , 𝑣𝑦 〉, ℶ(𝑣⃗) = 〈−𝑣𝑥 , −𝑣𝑦 〉, es un monomorfismo, porque 𝑁𝑢(ℶ) = {0
teorema de la dimensión, sabemos que ℶ es un epimorfismo, por lo tanto, la transformación
lineal ℶ es isomórfica. Y esto es intuitivo, dado que la aplicación sucesiva de ℶ invierte dos
veces respecto del origen (vuelve al “sistema” a su estado original, para expresarlo e términos
físicos).
Veamos:
ℶ(𝑣⃗) = 〈−𝑣𝑥 ; −𝑣𝑦 〉
ℶ(ℶ(𝑣⃗)) = ℶ(〈−𝑣𝑥 ; −𝑣𝑦 〉) = 〈−(−𝑣𝑥 ); −(−𝑣𝑦 )〉 = 〈𝑣𝑥 ; 𝑣𝑦 〉

51
Luego ℶ2 = ℶ(ℶ(𝑣⃗)) ≡ (ℶo ℶ) = 𝑰 (donde 𝑰 es la transformación lineal identidad).
Vemos, también, que:
−1 0 −1 0 1 0
[ ][ ]=[ ]
0 −1 0 −1 0 1
Este caso es uno de los casos excepcionales en los que la matriz al cuadrado da como
resultado la matriz identidad. Esto significa que la propia matriz es su inversa.

3. Sea la transformación lineal ℛ: 𝑉 → 𝑊 que implica una rotación 𝜋/2 en sentido anti-
horario. Obtener la matriz asociada a ℛ para:
3.a- 𝑉 = 𝑊 = ℝ2 , para la base canónica 𝐵ℝ2 = {〈1; 0〉; 〈0; 1〉}.
3.b- 𝑉 = 𝑊 = ℝ2 , para la base ordenada 𝐵𝑉 = {〈1; 0〉; 〈0; 1〉}, y 𝐵𝑊 = {〈1; 1〉; 〈−1; 0〉}
3.c- 𝑉 = 𝑊 = ℝ2 , para la base ordenada 𝐵𝑉 = 𝐵𝑊 = {〈1; 1〉; 〈−1; 0〉}.
Solución.
3.a-
Es fácil, pensando en los ejes coordenados cartesianos canónicos, ver que:
ℛ(〈1; 0〉) = 〈0; 1〉 = 0〈1; 0〉 + 1〈0; 1〉
ℛ(〈0; 1〉) = 〈−1; 0〉 = (−1)〈1; 0〉 + 0〈0; 1〉
Luego la matriz 𝑇 resulta:
0 −1
𝑇=[ ]
1 0
Generalización: puede demostrarse que en la base ordenada canónica 𝐵ℝ2 , la transformación
lineal ℛ𝜃 : ℝ2 → ℝ2 , donde 𝜃 es el ángulo de rotación arbitrario antihorario, tiene asociada
la matriz de rotación:
cos(𝜃) −𝑠𝑒𝑛(𝜃)
𝑇=[ ]
𝑠𝑒𝑛(𝜃) cos(𝜃)

3.b-
Nuevamente, es fácil ver que:
ℛ(〈1; 0〉) = 〈0; 1〉 = 𝑎〈1; 1〉 + 𝑏〈−1; 0〉 = 〈𝑎 − 𝑏; 𝑎〉
ℛ(〈0; 1〉) = 〈−1; 0〉 = 𝑐〈1; 1〉 + 𝑑〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉
La matriz 𝑇 es:
𝑎 𝑐
𝑇=[ ]
𝑏 𝑑

52
Resolviendo 〈0; 1〉 = 〈𝑎 − 𝑏; 𝑎〉, y 〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉, se tiene que
1 0
𝑇=[ ]
1 1

3.c-
Recurriendo nuevamente a la idea cartesiana, podemos obtener las rotaciones pedidas.
ℛ(〈1; 1〉) = 〈−1; 1〉 = 𝑎〈1; 1〉 + 𝑏〈−1; 0〉 = 〈𝑎 − 𝑏; 𝑎〉
ℛ(〈−1; 0〉) = 〈0; −1〉 = 𝑐〈1; 1〉 + 𝑑〈−1; 0〉 = 〈𝑐 − 𝑑; 𝑐〉
La matriz 𝑇 es:
𝑎 𝑐
𝑇=[ ]
𝑏 𝑑
Resolviendo 〈−1; 1〉 = 〈𝑎 − 𝑏; 𝑎〉 y 〈0; −1〉 = 〈𝑐 − 𝑑; 𝑐〉 se tiene
1 −1
𝑇=[ ]
2 −1

Definición
Por último, vamos a definir el espacio vectorial de las transformaciones lineales a partir de
los siguientes considerandos:
Dados dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 ) y dada la
transformación lineal 𝑓, 𝑓: 𝑉 → 𝑊,
ℒ(𝑉; 𝑊) = {𝑓: 𝑉 → 𝑊}
ℒ(𝑉; 𝑊) es un espacio vectorial con las siguientes operaciones: si 𝑓 y 𝑔 pertenecen a
ℒ(𝑉; 𝑊),
a. (𝑓 + 𝑔)(𝑣⃗) ≡ 𝑓(𝑣⃗) + 𝑔(𝑣⃗) para todo 𝑣⃗ que pertenece a 𝑉.
b. (𝑐𝑓)(𝑣⃗) ≡ 𝑐(𝑓(𝑣⃗)) para todo 𝑣⃗ que pertenece a 𝑉 y para todo 𝑐 que pertenece a ℱ.

Teorema de la dimensión de 𝓛(𝑽; 𝑾)


Sean dos ℱ–espacios vectoriales (𝑉(ℱ), ⊕𝑉 , ⊙𝑉 ) y (𝑊(ℱ), ⊕𝑊 , ⊙𝑊 )
de dimensión finita n y m, respectivamente. Entonces el espacio vectorial
ℒ(𝑉; 𝑊) tendrá dimensión m∙n.
Lo admitiremos sin demostración (debido a sus dificultades técnicas).

53

Anda mungkin juga menyukai