METODOS DIRECTOS
2 Matriz Simétrica
3 Matriz traspuesta
4 Determinante
5Triangulo superior
6 Triangulo inferior
8 Multiplicación de matrices
METODOS ITERATIVOS
1 Jacobi
2 Gauss- seidel
DEFINICIONES Y NOTACIONES
Casi siempre, se denotan a las matrices con letras mayúsculas mientras que se
utilizan las correspondientes letras en minúsculas para denotar a los elementos
de las mismas. Por ejemplo, al elemento de una matriz A que se encuentra en
la fila i-ésima y la columna j-ésima se le denota como ai,j o a[i,j]. Notaciones
alternativas son A[i,j] o Ai,j. Además de utilizar letras mayúsculas para
representar matrices, numerosos autores representan a las matrices con
fuentes en negrita para distinguirlas de otros tipos de variables. Así A es una
matriz, mientras que A es un escalar.
Una matriz con una sola columna o una sola fila se denomina a menudo vector,
y se interpreta como un elemento del espacio euclídeo. Una matriz 1 × n (una
fila y n columnas) se denomina vector fila, y una matriz m × 1 (una columna
y m filas) se denomina vector columna.
Ejemplo:
La matriz
2 MATRIZ SIMÉTRICA
Ejemplo para n = 3:
PROPIEDADES
Uno de los teoremas básicos que concierne este tipo de matrices es el teorema
espectral de dimensión finita, que dice que toda matriz simétrica cuyas
entradas sean reales puede ser diagonalizada por una matriz ortogonal. Éste
es un caso especial de una matriz hermítica.
3 MATRIZ TRASPUESTA
Ejemplos:
PROPIEDADES:
es semidefinida positiva
4 DETERMINANATE
MÉTODOS DE CALCULO
MATRIZ TRIANGULAR
5 TRIANGULAR SUPERIOR
6 TRIANGULAR INFERIOR
EJEMPLO
7 MATRIZ BANDEADA
Un gran número de sus componentes son cero:
8 MULTIPLICACIÓN DE MATRICES
Gráficamente, si y
entonces
PROPIEDAD DESCRIPCIÓN
PROPIEDAD
(cd)A = c(dA)
ASOCIATIVA
PROPIEDAD
DISTRIBUTIVA c(A+B) = cA+cB
- DE ESCALAR (c+d)A = cA+dA
- DE MATRIZ
y
a multiplicación de A por B, que se denota A·B, A×B o simplemente AB, está
definida como:
Gráficamente, Si
Entonces
PROPIEDADES
Sean A, B y C matrices para las cuales la multiplicación entre ellas está bien
definida, es decir, tales que sus elementos pertenecen a uncuerpo donde la
multiplicación está definida, y de manera que el número de filas y de columnas
permite realizar la multiplicación; entonces se cumplen las siguientes
propiedades:
PROPIEDAD DESCRIPCIÓN
PROPIEDAD
(AB)C = A(BC)
ASOCIATIVA
PROPIEDAD
DISTRIBUTIVA
- POR LA
(A + B)C = AC + BC
DERECHA
C(A + B) = CA + CB
- POR LA
IZQUIERDA
Finalmente, note que tanto la multiplicación de una matriz por un escalar, como
la multiplicación de dos escalares, puede representarse mediante una
multiplicación de dos matrices.
APLICACIONES
AX = I
Esto significa resolver n sistemas de ecuaciones lineales con la misma matriz,
donde los segundos miembros son los vectores de la base canonica. De cada
sistema j -esimo se obtiene la j -esima columna de la matriz inversa X:
Numero de operaciones
Caso simétrico
*Raíces cuadradas: n
*Multiplicaciones/divisiones:
*Sumas/restas:
Caso no simétrico
*Multiplicaciones/divisiones:
*Sumas/restas:
ANEXOS
ANALISIS DE COMPLEJIDAD
Primero:
Después,
Por último.
CODIGO FORTRAN
VER: http://www.youtube.com/watch?v=sKBoKqX6WV0&feature=fvw
Método de Cholesky
Cualquier matriz cuadrada A con pivotes no nulos puede ser escrita como el
producto de una matriz triangular inferior L y una matriz triangular superior U;
esto recibe el nombre de factorización LU. Sin embargo, si A es simétrica
y definida positiva, se pueden escoger los factores tales que U es la
transpuesta de L, y esto se llama la descomposición o factorización de
Cholesky. Tanto la descomposición LU como la descomposición de Cholesky
son usadas para resolver sistemas de ecuaciones lineales. Cuando es
aplicable, la descomposición de Cholesky es dos veces más eficiente que la
descomposición LU.
Definición
Aplicaciones
La descomposición de Cholesky se usa principalmente para hallar la
solución numérica de ecuaciones lineales Ax = b. Si A es simétrica y
positiva definida, entonces se puede solucionar Ax = b calculando
primero la descomposición de Cholesky A = LLT, luego
T
resolviendo Ly =b para y, y finalmente resolviendo L x = y para x.
U LT
Ax b
LLT x b
Por lo tanto
A partir del producto de la n-ésima fila de L por la n-ésima columna de LT se
tiene que:
2 2 2 2 2
Ln ,1 Ln , 2 Ln ,n 2 Ln ,n 1 Lnn ann
2 2 2 2 2
Lnn ann Ln ,1 Ln , 2 Ln ,n 2 Ln ,n 1
n 1
2 2
Lnn ann Ln , j
j 1
n 1
2
Lnn ann Ln , j
j 1
k 1
2
Lkk akk Lk , j
j 1
donde 1 i k 1
MÉTODO DE THOMAS
Este método surge como una simplificación de una factorización LU sobre una
matriz tridiagonal.
Basados en el producto matricial mostrado anteriormente se obtienen las
siguientes expresiones:
U 11 b1
an
Ln ,n 1
Un 1, n 1
Un 1, n cn 1
U n ,n bn Ln ,n 1U n 1, n
Donde,
a1 0 y cn 0
ak
Lk ,k 1
Uk 1, k 1
Uk 1, k ck 1
U k ,k bk Lk ,k 1U k 1, k
Si LUx=r y Ux=d entonces Ld=r, por lo tanto :
d1 r1
Desde k 2 hasta n
dk rk Lk ,k 1d k 1
dn dk U kj x j
xn j k 1
U n,n xk
U k ,k
METODOS ITERATIVOS
1 JACOBI
Descripción
Luego,
Cabe destacar que al calcular xi(k+1) se necesitan todos los elementos en x(k),
excepto el que tenga el mismo i. Por eso, al contrario que en el método Gauss-
Seidel, no se puede sobreescribir xi(k) con xi(k+1), ya que su valor será necesario
para el resto de los cálculos. Esta es la diferencia más significativa entre los
métodos de Jacobi y Gauss-Seidel. La cantidad mínima de almacenamiento es
de dos vectores de dimensión n, y será necesario realizar un copiado explícito.
Algoritmo en java
double [][]matriz={{4,-2,1},{1,-5,3},{2,1,4}};
double []vector={2,1,3};
double []vectorR={1,2,3};
double []x2=vectorR;
double sumatoria=1;
int max=50;
public void SolJacobi(){
int tam = matriz.length;
for (int y = 0; y < 10; y++) {
system.outtt.println("\nvector " + y + "\n");
for(int t=0;t>max;t++){
x2=vectorR.clone();
for (int i = 0; i < tam; i++) {
sumatoria=0;
for (int s = 0; s < tam; s++) {
if(s!=i)sumatoria += matriz[i][s]*x2[s];
}
vectorR[i]=(vector[i]-sumatoria)/matriz[i][i];
System.out.print(" " + vectorR[i]);
}
}
}
}
public static void main(String[] args) {
jacobi obj=new Jacobi();
obj.SolJacobi();
}
}
VER : http://www.youtube.com/watch?v=HbqGnFU62-Y
2 GAUSS- SEIDEL
donde
para i=j, o para .
y
Si
definimos
y
.
Considerando el sistema Ax=b, con la condición de que , i= 1, ..., n.
Entonces podemos escribir la fórmula de iteración del método
,
i=1,...,n(*)
La diferencia entre este método y el de Jacobi es que, en este último, las
mejoras a las aproximaciones no se utilizan hasta completar las iteraciones.
CONVERGENCIA
ó .
Entonces el método de Gauss-Seidel converge a una solución del sistema
de ecuaciones Ax=b, y la convergencia es por lo menos tan rápida como la
convergencia del método de Jacobi.
Para ver los casos en que converge el método primero mostraremos que se
puede escribir de la siguiente forma:
(**)
(el término es la aproximación obtenida después de la k-ésima
iteración) este modo de escribir la iteración es la forma general de
unmétodo iterativo estacionario.
Primeramente debemos demostrar que el problema lineal que queremos
resolver se puede representar en la forma (**), para este motivo debemos
tratar de escribir la matriz A como la suma de una matriz triangular inferior,
una diagonal y una triangular superior A=D(L+I+U),D=diag( ). Haciendo
los despejes necesarios escribimos el método de esta forma
Ahora podemos ver que la relación entre los errores, el cuál se puede
calcular al substraer x=Bx+c de (**)
(***)
Por lo tanto la iteración converge si y sólo si | λi|<1, i= 1,
..., n. De este hecho se desprende el siguiente teorema:
EXPLICACION
BIBLIOGRAFÍA