Anda di halaman 1dari 11

GLOSARIO

ALGEBRA LINEAL

OSCAR BALLESTEROS PEA

Profesor:
FREDY ALZATE GOMEZ

UNIVERSIDAD DE ANTIOQUIA
SECCIONAL URABA APARTADO
LICENCIATURA EN MATEMATICA Y FISICA
2016

Asociatividad. Propiedad de algunas operaciones binarias que consiste en que a (b c) = (a b)


c para cualesquiera elementos a, b y c del conjunto en el cual est definida la operacin.
Asociatividad del producto por escalares. Axioma de espacio vectorial: (a) = ()a
Base. Conjunto de vectores que es generador y LI. Conjunto generador minimal. Conjunto LI
maximal.
Base cannica. El conjunto de Nadas {ei | i N} donde la j esima coordenada de ei es el delta
de Kronecker ij
Base de una matriz. Submatriz no singular maximal por contencin
Base de V. Vectores independientes v1, ..., vd, cuyas combinaciones lineales dan como resultado
todas las v de V. Un espacio vectorial tiene muchas bases!
Base de vectores propios: Base completamente constituida por vectores propios de una matriz
dada.
Base estndar: La base E = {e1, . . . , en} para Rn consistente en las columnas de la matriz
identidad n n, o la base {1, t, . . . , tn} para Pn.
Base estndar para Rn. Columnas de la matriz identidad de n por n (expresadas como i, j, k en
R3).
Base ortogonal: Una base que tambin es un conjunto ortogonal.
Base ortonormal: Base que es un conjunto ortogonal de vectores unitarios.
Binomio de Newton. Frmula para expandir (x + y) n.
Campo. Anillo conmutativo en el cual todo elemento diferente de cero tiene inverso
Campo algebraicamente cerrado. Campo en el cual todo polinomio de grado al menos uno
tiene una raz. Campo el cual los polinomios irreducibles son todos de grado uno
Cerradura lineal. El conjunto de todas las combinaciones lineales de un conjunto de vectores
Cofactor: Eliminar la fila i y la columna j; multiplicar el determinante por (- 1) i+j. De la
entrada ij es el escalar sgn det N\i (N\j) donde es cualquier permutacin de N tal que
(j) = i
Combinacin lineal cv + dw o . c, v, Suma de vectores y multiplicacin de escalares. Los
vectores de la forma P iN ii (donde solo un numero finito de los ai es diferente de cero)

Condicionamiento de la matriz A. cond(A) = k(A) = ||A|| ||A|| = max / min En Ax = b, la


perturbacin relativa ||x||/||x|| es menor que cond(A) veces la perturbacin relativa ||b||/||b||. El
condicionamiento de la matriz mide hasta qu punto la salida es susceptible de cambiar en
funcin de los datos de entrada.
Conjunto linealmente dependiente. Conjunto de vectores que no es LI
Conjunto linealmente independiente. Conjunto de vectores A tal que a A se cumple que
hA\ai 6= hAi
Conjunto ortogonal: Conjunto de vectores S tal que uv = 0 para cada par distinto u, v en S.
Conjunto ortonormal: Es un conjunto ortogonal de vectores unitarios.
Conjunto solucin: Se compone de todas las soluciones posibles para un sistema lineal. El
conjunto solucin est vaco cuando el sistema lineal es inconsistente.
Conmutatividad. Propiedad de algunas operaciones binarias que consiste en que a b = b a
elementos a y b del conjunto en el cual est definida la operacin
Combinacin lineal: Suma de mltiplos escalares de vectores. Los escalares se denominan
pesos.
Composicin de transformaciones lineales: Funcin producida al aplicar dos o ms
transformaciones lineales sucesivas. Si las transformaciones son transformaciones matriciales,
por ejemplo la multiplicacin izquierda por B seguida por la multiplicacin izquierda por A,
entonces la composicin es x _ A (Bx).
Dependencia lineal v1, . . . , vn. Una combinacin distinta de todas las ci = 0 da como resultado
c, v.
Descomposicin de vector propio (de x): Ecuacin, x = c1v1 + + cnvn, que expresa a x
como una combinacin lineal de los vectores propios de una matriz.
Descomposicin ortogonal: Es la representacin de un vector y como la suma de dos vectores,
uno en un subespacio especfico W y el otro en W. En general, una descomposicin y = c1u1 +
+ cpup, donde {u1, . . . , up} es una base ortogonal para un subespacio que contiene a y.
Desigualdad triangular ||u+v||||u||+||v||. Para las normas matriciales ||A+B||||A||+||B||.
Determinante |A|= det (A). Se define de la siguiente manera: el det I = 1, el signo cambia al
intercambiar filas y en todas las filas se cumple la linealidad. El |A| = 0 cuando A es singular.
Asimismo, |AB|=|A||B| y |A|=1 y |A|=|A|. La frmula extendida del det(A) consiste en una
suma de n! elementos, el mtodo de desarrollo por cofactores (cofactor formula) utiliza
determinantes de tamao n 1, siendo el volumen del paraleleppedo = |det (A)|.

Diagonalizacin = SAS. = matriz de autovalores y S = matriz de autovectores. A tiene que


Tener n autovectores independientes para que S sea invertible. Toda A = S S.
Diagonal principal (de una matriz): Las entradas con iguales ndices de fi la y columna.
Diferencia de Matrices: La diferencia de matrices A y B de m x n se denota mediante A B, y
es igual a la suma A + (-1) B. La diferencia A B es la matriz de m x n cuyas entradas son la
diferencia de entradas correspondientes de A y B.
Dimensin del espacio vectorial. di (V) = nmero de vectores en cualquier base para V.
Distributividad. Relacin de una operacin binaria con respecto a otra que consiste en que las
igualdades a (b c) = (a b) (a c), (b c) a = (b a) (c a) se cumplen para cualesquiera
elementos a, b y c del conjunto en el cual est definida la operacin
Distributividad del producto por escalares. Axioma de espacio vectorial: (a + b) = a + b y
( + ) a =a+a
Ecuacin auxiliar: Es una ecuacin polinomial en una variable r, se crea a partir de los
coeficientes de una ecuacin en diferencias homognea.
Ecuacin caracterstica. Det (A I) = 0. Las n races son los autovalores de A.
Ecuacin lineal. Ecuacin NxN = N donde las Nadas N y N son conocidos y el vector xN
es incognito
Ecuacin matricial. Ecuacin AX = B donde la matrices A y B son conocidas y la matriz X es
incgnita
Ecuacin normal: A Axx = Ab. Da la solucin por mnimos cuadrados de Ax = b si A es de
rango n. La ecuacin dice que (columnas de A) () bAx 0 =. Sistema de ecuaciones representado
mediante AAx = Ab, cuya solucin produce todas las soluciones de mnimos cuadrados de Ax =
b. En estadstica, una notacin comn es XX = Xy.
Ecuacin vectorial: Expresin que involucra una combinacin lineal de vectores con pesos no
determinados.
Eliminacin. Secuencia de operaciones de filas que reduce A a una matriz triangular superior U
o a la forma reducida R = rref(A). Entonces A = LU con los multiplicadores en L, o PA = LU con
intercambios entre filas en P, o EA = R siendo E una matriz invertible. ijl
Espacio vectorial V. Conjunto de vectores tal que todas las combinaciones cv + dw permanecen
en V.
Escalar. Elemento del campo (la escala!) sobre el cual est definido el espacio vectorial

Espacio vectorial. Grupo abeliano con un producto por escalares distributivo, asociativo y con
neutro. Es un conjunto de objetos, llamados vectores, sobre los que se definen dos operaciones,
denominadas suma y multiplicacin por escalares. Deben satisfacerse diez axiomas. Vea la
primera definicin en la seccin 4.1.
Error por mnimos cuadrados: La distancia b Ax de b a Ax, cuando x es una solucin por
mnimos cuadrados de Ax = b.
Exponencial e = I + At + (At)/2! + ... tiene como derivada Ae; eu (0) resuelve u ' = Au.
Forma cuadrtica: Funcin Q definida para x en Rn mediante Q(x) = xAx, donde A es una
matriz simtrica n n (llamada matriz de la forma cuadrtica).
Forma escalonada (o forma escalonada por fi las, de una matriz): Matriz escalonada que es
equivalente por fi las a la matriz dada.
Forma de Jordn J = MAM. Si A tiene s autovectores independientes, su matriz
generalizada de autovectores M da J = diag (J1, . . . , Js). El bloque J es I + N, donde
todos los elementos de la diagonal 1 de N son unos. Cada bloque tiene un autovalor y un
autovector (1, 0, . . . , 0).
Funcin identidad. La que a todo elemento le corresponde el mismo
Funcin inversa. La inversa de una funcin f: A B es una funcin g tal que f g = IB y g f =
IA. Una funcin tiene inversa si y solo si esta es biyectiva
Funcin inyectiva. Cada elemento de la imagen tiene una nica preimagen.
Funcin nula. La que a todo elemento le corresponde el cero.
Funcin sobreyectiva. Funcin tal que su imagen coincide con su codominio
Grupo abeliano. Grupo en el cual la operacin es conmutativa.
Idempotencia. Propiedad de una funcin que consiste en que f f = f2 = f.
Imagen (de un vector x bajo una transformacin T): Es el vector T(x) asignado a x por medio de
T.
Inversa de una matriz A. Matriz cuadrada de modo que AA = I y AA = I. No existe la
inversa si det A = 0, rang(A) < n y Ax = 0 para un vector x distinto de cero. Las inversas de AB y
A son BA y (A). Mtodo de desarrollo por cofactores (cofactor formula) (Aij) = Cij /det
A.
Inversa por la derecha A+. Si el rango de filas de A es m, entonces en A+ = (AA) se cumple
que A+A = Im+. Cualquier matriz rectangular C tal que AC = I.

Inversa por la izquierda A+. Si el rango de filas de A es m, entonces en A+ = (AA) se cumple


que A+A = In+. Cualquier matriz rectangular C tal que CA = I.
Inverso. De un elemento a para la operacin binaria es un elemento b que cumple que a b = b
a = e para cualquier elemento a del conjunto en el cual est definida la operacin. Si un
elemento tiene inverso entonces este es nico. En los anillos y campos es el inverso para el
producto
Longitud || x ||. Raz cuadrada de xx (Pitgoras en n dimensiones).
Matrices conmutables AB = BA. Si son diagonalizable, comparten n autovectores.
Matrices semejantes A y B. Toda B = MAM tiene los mismos autovalores que A.
Matrices Iguales: las matrices A y B de m x n son iguales si las entradas correspondientes son
iguales; esto es: A = B si aij = bij, i: 1, 2 . m, j = 1, 2, . n.
Matriz. Es una NMada o sea un conjunto indexado por dos conjuntos
Matriz adjunta. Poniendo c1, . . . , cn en la fila n y los unos de la fila n - 1 en la diagonal 1,
obtenemos que det. (A I) = (c1 + c2 + c3 + K).
Matriz ampliada. Del sistema Ax = b es la matriz (A|b) .118
Matriz cuadrada. Matriz con la misma cantidad de columnas y renglones.
Matriz aleatoria rand(n) o randn(n). MATLAB crea una matriz con elementos aleatorios, con
una distribucin uniforme en [0 1] en el caso de rand, y con una distribucin normal estndar en
el caso de randn.
Matriz antisimtrica K. La transpuesta es -K, ya que Kij = -Kji. Los autovalores son
imaginarios puros, los autovectores son ortogonales, e es una matriz ortogonal.
Matriz aumentada [A b]. Ax = b es resoluble cuando b se encuentra en el espacio de columnas
de A; entonces [A b] es del mismo rango que A. Al realizar la eliminacin en [A b] las
ecuaciones siguen siendo correctas.
Matriz-B (para T): Matriz [T] B para una transformacin lineal T: V V relativa a la base B para
V, con la propiedad de que [T(x)] B = [T] B[x] B para toda x en V.
Matriz bidiagonal: Matriz cuyas entradas distintas de cero pertenecen a la diagonal principal y a
una diagonal adyacente a la principal.
Matriz de una transformacin lineal. Escogidas una base N en el dominio y otra M en el
codominio de una TL f la matriz MN cuyas columnas son los coeficientes de las expresiones de

las imgenes de la base N como combinacin lineal de la base M. O sea, para cualquier j N se
cumple que f (j) = PiM iji
Matriz diagonal. Matriz MM en la cual si i 6= j entonces, ij = 0
Matriz de proyeccin P sobre un subespacio S. La proyeccin p = Pb es el punto ms cercano
a b en S, el error e = b - Pb es perpendicular a S. P = P = P, los autovalores son 1 0, los
autovectores estn contenidos en S o S. Si las columnas de A = bases de S, entonces P =
A(AA)A.
Matriz de proyeccin (o matriz de proyeccin ortogonal): Matriz simtrica B tal que B2 = B.
Un ejemplo simple es B = vvT, donde v es un vector unitario.
Matriz diagonal: Matriz cuadrada cuyas entradas que no se encuentran en la diagonal principal
son iguales a cero.
Matriz diagonal D. dij = 0 si i j . Diagonal por bloques: ceros fuera de los bloques cuadrados
Dii.
Matriz diagonalizable A. Tiene que tener n autovectores independientes (en las columnas de S;
con lo cual automticamente tiene n autovalores diferentes). As que SAS = = matriz de
autovalores.
Matriz circulante C. Las diagonales constantes se agrupan en torno a ella como si fueran
traslaciones cclicas (cyclic shifts) S. Todas las circulantes son CI + CS + . + Cn-S. Cx =
convolucin c x. Autovectores en F.
Matriz hermitiana A=A=A. Anloga compleja de una matriz simtrica: jiijaa=. A
Matriz hipercbica PL2. La fila n + 1 cuenta vrtices, aristas, caras, etc. de un cubo contenido
en Rn. PL2
Matriz identidad I (o In). Elementos sobre la diagonal = 1, elementos fuera de la diagonal = 0.
La matriz INN cuyas entradas son el delta de Kronecker: unos en la diagonal y ceros en el resto
de las entradas. La matriz de la transformacin lineal identidad
Matriz indefinida. Matriz simtrica con autovalores de ambos signos (+ y -).
Matriz inversa. La matriz cuadrada MN es la inversa de NM si NMMN = INN y
MNNM = IMM. Si ambos N y M son finitos entonces, basta comprobar una de las dos
igualdades. Una matriz cuadrada tiene inversa si y solo si su determinante es diferente de cero
Matriz nilpotente N. Alguna potencia de N es la matriz cero, Nk = 0. El nico autovalor es = 0
(repetido n veces). Ejemplos: matrices triangulares con diagonal cero.

Matriz normal N. NN T = N T N, produce autovectores ortonormales (complejos).


Matriz ortogonal Q. Matriz cuadrada con columnas ortonormales, de modo que QTQ = I
implica QT = Q-1. Conserva las longitudes y los ngulos, Qxx= y (Qx)T(Qy) = xTy . Todo 1=,
con autovectores ortogonales. Ejemplos: Rotacin, reflexin, permutacin.
Matrices semejantes A y B. Toda B = M-1AM tiene los mismos autovalores que A.
Matriz simtrica A. La transpuesta es A = A, y aij = aji. A tambin es simtrica. Todas las
matrices de las formas RR, LDL y QQ son simtricas. Para todas las matrices simtricas, los
autovalores de son reales y los autovectores de Q son ortonormales.
Matriz singular A. Matriz cuadrada que no tiene inversa: det(A) = 0.
Matriz triangular. Matriz triangular por bloques en la cual cada bloque es de cardinalidad 1.
Matriz A que tiene ceros ya sea arriba o abajo de las entradas diagonales.
Matriz triangular inferior. Matriz MM en la cual M = {1, . . .,m} y tal que en su
representacin grfica todas las entradas por encima de la diagonal son cero
Matriz triangular inferior permutada: Matriz tal que una permutacin de sus filas formar una
matriz triangular inferior.
Matriz triangular inferior unitaria: Es una matriz triangular inferior cuadrada con nmeros
uno sobre la diagonal principal.
Matriz triangular superior. Matriz MM en la cual M = {1, . . .,m} y tal que en su
representacin grfica todas las entradas por debajo de la diagonal son cero
Matriz transpuesta A. Los elementos Aij =A ij . A es de n por m, AA es cuadrada, simtrica
y semidefinda positiva. Las transpuestas de AB y A son BA y (A).
Matriz tridiagonal T. tij = 0 si | i j| > 1. T-1 es de rango 1 por encima y por debajo de la
diagonal.
Mtodo de Gauss-Jordn. Consiste en invertir A por medio de operaciones en las filas de [ A I ]
para obtener [ I A-1].
Mtodo de potencia: Algoritmo utilizado para estimar un valor propio estrictamente dominante
de una matriz cuadrada.
Mnimos cuadrados ponderados: Problemas de mnimos cuadrados con un producto interior
ponderado como x, y w2 1x1y1 + + w2 nxnyn.
Misma direccin (como un vector v): Vector que es un mltiplo positivo de v.

Multiplicacin Ax = x (columna 1) + ... + xn(columna n) = combinacin de columnas.


Multiplicidades AM y GM. La multiplicidad algebraica AM de un autovalor A es el nmero de
veces que aparece A como raz de det(A - I) = 0. La multiplicidad geomtrica GM es el nmero
de autovectores independientes (= dimensin del espacio propio de ).
Multiplicador. ij La fila pivote j se multiplica por ij y se resta de la fila i para eliminar el
elemento i, j: = (elemento que se quiere eliminar)/(j-simo pivote).
Multiplicacin de matrices AB. El elemento i, j de AB es igual a (fila i de A)(columna j de B) =
a b . Por columnas: Columna j de AB = A veces la columna j de B. Por filas: la fila i de A
multiplica a B. Filas por columnas: AB = suma de (columna k)(fila k).Todas estas definiciones
equivalentes surgen de la regla de que AB por x es igual a A por Bx. ikkjab
Multiplicidad de un valor propio: La multiplicidad de un valor propio de una matriz
cuadrada A es el nmero de veces que es una raz del polinomio caracterstico de A.
Neutro. De una operacin binaria es un elemento e que cumple que ae = ea = a para cualquier
a del conjunto en el cual est definida la operacin. Si una operacin tiene neutro entonces este
es nico
Norma A de una matriz. La norma es la ratio mxima ||Ax||/||x||=max. Entonces ||Ax||||A|| ||
x|| y ||AB||||A|| ||B|| y ||A+B||||A|| + ||B|| Norma de Frobenius ||A|| = aij; las normas 1
y 11 las sumas mayores de filas y columnas de |aij|.
Norma de v: Es el escalar v vv = v, v. M
Pivote d. El elemento de la diagonal (el primero distinto de cero) cuando se trabaja con una fila
al realizar una proceso de eliminacin.
Producto Ax: Combinacin lineal de las columnas de A usando las correspondientes entradas en
x como pesos.
Producto de matrices. Si MN y NL son dos matrices entonces ML = MNN,L es la matriz
cuyas entradas son los productos escalares cannicos ij = iNNj de los renglones de MN por
las columnas de NL
Producto de un escalar por una funcin. Si en el codominio de f est definido un producto por
escalares entonces f es la funcin tal que (f) (a) = f (a)
Producto de un vector por una matriz. Es la combinacin lineal de los renglones de la matriz
cuyos coeficientes son las coordenadas del vector
Producto de una matriz por un vector. Es la combinacin lineal de las columnas de la matriz
cuyos coeficientes son las coordenadas del vector

Producto escalar. Producto bilineal de dos vectores cuyo resultado es un escalar. xy = xy + L


+ xnyn. El producto escalar complejo es xy. Al realizar el producto escalar de vectores
perpendiculares, el resultado es cero. (AB)ij = (fila i de A)(columna j de B).
Producto escalar cannico. Producto escalar definido en K{N} como: NN = PiNii
Producto interior: Es el escalar uTv, que usualmente se escribe como uv, donde u y v son
vectores en Rn vistos como matrices de n 1. Tambin es llamado producto punto de u y v. En
general, es una funcin sobre un espacio vectorial que asigna a cada par de vectores u y v un
nmero _u, v_, sujeto a ciertos axiomas.
Producto vectorial uv en R. Vector perpendicular a u y v, cuya longitud ()uvsen=rea del
paralelogramo, calculada como el determinante de [ i j k ; u1 u2 u3 ; v1 v2 v3 ].
Propiedad asociativa (AB)C = A(BC). Se pueden eliminar los parntesis para dejar ABC.
Propiedad distributiva A(B + C) = AB + AC. Se puede sumar primero y luego multiplicar, o
multiplicar primero y luego sumar.
Proyeccin. Si C = A B entonces, la funcin f: c = (a, b) 7 a se le llama proyeccin de C a A
a lo largo de B. En particular, nosotros la usamos en el caso de que E = FG (la suma directa es
un producto cartesiano!). En este caso las proyecciones son TLs
Resolucin por mnimos cuadrados x. El vector x, que minimiza el error ||e||, resuelve A Ax
= Ab=. Entonces es e=b-Ax ortogonal para todas las columnas de A.
Relacin antisimtrica. Si a b y b a entonces, a = b
Relacin de equivalencia. Relacin simtrica, reflexiva y transitiva.
Relacin de orden. Relacin antisimtrica, reflexiva y transitiva.
Relacin reflexiva. Para todo a se tiene a a.
Relacin simtrica. (a b) (b a)
Relacin transitiva. Si a b y b c entonces, b a .
Sistema de ecuaciones lineales. Ecuacin Ax = b donde la matriz A y el vector b son conocidos
y el vector x es incognito
Suma de conjuntos. Si A y B son conjuntos y entre sus elementos hay una operacin de suma
entonces: A + B = {a + b | a A y b B}

Suma de funciones. Si en el codominio mutuo de f y g est definida una suma entonces f + g es


la funcin tal que ( + g) (a) = f (a) + g (a)
Teorema fundamental. El espacio nulo N(A) y el espacio de filas C(AT) son complementos
ortogonales (espacios perpendiculares de Rn de dimensiones r y n - r) con respecto de Ax = 0. Si
se aplica a AT, el espacio de columnas C(A) es el complemento ortogonal de N (AT).
Transpuesta. Matriz que se obtiene de otra intercambiando los subndices de sus entradas, o sea
si A = NM y AT = B = MN entonces ij = ji
Transformacin afn. T(v ) = Av + v0 = transformacin lineal ms desplazamiento.
Transformacin lineal T. Cada uno de los vectores v del espacio de entrada se transforma en
T(v) en el espacio de salida, y la linealidad exige que T(cv + dw) = cT(v) + dT(w). Ejemplos:
multiplicacin de matrices Av, diferenciacin en el espacio de funciones.
Transformacin lineal de una matriz. Dada la matriz MN es la funcin: KN 3 N MNN
KM
Traza de A = suma de los elementos de la diagonal = suma de los autovalores de A. Tr AB = Tr
BA. Suma de las entradas diagonales en A, denotada mediante tr A.
Vector v en Rn . Secuencia de n nmeros reales v = (v1, . . . , vn) = punto en Rn. Elemento de un
espacio vectorial. En Rn son los segmentos dirigidos del origen a un punto del espacio. Lista de
nmeros; matriz con una sola columna. En general, cualquier elemento de un espacio vectorial.
Vectores independientes v1, ..., vk . Ninguna combinacin c1v1 ++ ckvk = vector cero, a
menos que todos los ci = 0. Si las uves son las columnas de A, la nica solucin para Ax = 0 es x
= 0.
Vectores ortonormales q1, . . . , qn. Los productos escalares son qiqj = 0 si i j qiqj= 1. En la
matriz Q con stas columnas ortonormales se cumple que QQ = I. Si m = n, entonces Q = Q y
q1, . . . , qn es una base ortonormal para Rn: cada v (vqj)qj.
Valor propio (de A): Escalar tal que la ecuacin Ax = x tiene una solucin para algn vector x
distinto de cero. Vector x distinto de cero tal que AAx = x para algn escalar .
Valor propio complejo: Raz no real de la ecuacin caracterstica de una matriz n n.
Vector propio complejo: Vector x distinto de cero en Cn tal que Ax = x, donde A es una matriz
n n y un valor propio complejo.
Vector residual: Es la cantidad que aparece en el modelo lineal general: y = X + _; esto es, _
= y X, la diferencia entre los valores (de y) observados y los pronosticados.
Vector unitario: Vector v tal que _v_ = 1.

Anda mungkin juga menyukai