Anda di halaman 1dari 26

[75.

12] Anlisis Numrico I

Mara Ins Parnisari

26 de abril de 2017

ndice

1. Errores 2

2. Sistemas de ecuaciones lineales 4

3. Ecuaciones de una variable 10

4. Sistemas de ecuaciones no lineales 13

5. Interpolacin 14

6. Ajuste de funciones y mejor aproximacin 18

7. Diferenciacin numrica 18

8. Integracin numrica 19

9. Ecuaciones diferenciales ordinarias 22

1
Algunas deniciones preliminares:

Anlisis numrico: diseo de algoritmos para resolver problemas de matemtica continua.


Error: incertidumbre tanto de los datos de ingreso como de los resultados obtenidos en un
procedimiento. Est asociado a la aproximacin.

Exactitud: error absoluto o relativo de un valor. No est limitada por la precisin.


Precisin: exactitud con que se llevan a cabo operaciones aritmticas. No siempre mejora una
aproximacin.

Orden de convergencia de un algoritmo: la velocidad con la cual una sucesin converge


a su lmite. Este concepto es, desde el punto de vista prctico, muy importante si necesitamos
trabajar con secuencias de sucesivas aproximaciones de un mtodo iterativo.

Supongamos que la secuencia {xk } converge al nmero . Decimos que la sucesin converge con
orden q a si

|xk+1 xi | Figura 1:
lm = con >0
k |xk xi |q Precisin y
exactitud.
El nmero q es llamado orden de convergencia. En particular, convergencia de orden 1 es lla-
mada convergencia lineal, la de orden 2 convergencia cuadrtica y la convergencia de orden 3
convergencia cbica.

1 Errores

1.1 Fuentes de error

1.1.1 Error inherente

Error inherente: error de los datos de entrada que puede provenir de la precisin en la medicin de los datos,
la representacin numrica, etc. Dado un valor exacto m y una aproximacin m, denimos:

Error absoluto: |ea | = |m m|


|ea | |mm|
Error relativo: |er | = |m| = |m| (mejor aproximacin que el error absoluto)

Nmero de condicin / factor de amplicacin: sea la funcin y = f (x). El error relativo de y es


f (x) x
e ry u erx . Al coeciente que multiplica el error relativo de x lo llamamos nmero de condicin.
x f (x)
| {z }
CP
f (x) xi
Si la funcin es dos o ms variables, tendremos CPi = xi f (x) . Es decir:

X f (x) |xi |
CP = xi |f (x)|

i

Ejemplo: sea el algoritmo z = a2 + b2 . Su nmero de condicin est dado por

2a2 2b2
       
z a z b a b
CP = + = 2a 2 2
+ 2b 2 2
= 2 2
+ 2 =2
a z b z a +b a +b a +b a + b2

1.1.2 Error de redondeo

Error de redondeo / corte: error debido a la representacin numrica utilizada.


El error de redondeo surge por la notacin de punto otante:

t cantidad de
dgitos

N
= d, d1 d2 ...dt p con base

p exponente

Corte: forma de redondear que consiste en borrar dgitos.

2
Redondeo: forma de redondear que consiste en modicar el ltimo dgito segn el siguiente criterio:
(
dk si 0 dk+1 4
dk =
dk + 1 si 5 dk+1 9
La cota para el error de redondeo es:

Para nmeros de la forma Para nmeros de la forma


d, d1 d2 ...dk 0, d1 d2 ...dk
Corte 10t 101t
1 t 1 1t
Redondeo
2 10 2 10

Trmino de estabilidad: nos da una idea de la inuencia del error de redondeo.


Pk
El error relativo por el error de redondeo es er = i=1 |T (x)| i = Te

1.1.3 Otras fuentes de error

Error de truncamiento / discretizacin: error que aparece al transformar un procedimiento innito en uno
nito.

Error del modelo matemtico: se debe a las simplicaciones e hiptesis introducidas para denir el modelo
matemtico que representa el modelo fsico.

Error humano: error producido por la intervencin humana y/o por programas de computacin mal hechos.

1.1.4 Error total

erT = CP r + Te

1.2 Algoritmos

Factores de amplicacin de errores de entrada: y = x1 (op)x2 = ry = f1 x1 + f2 x2

op +
x1 x1
f1 y y 1 1
x2
f2 y xy2 1 -1

Algoritmo bien condicionado: un problema matemtico est bien condicionado cuando al introducir peque-
as variaciones en los datos de entrada se producen pequeas variaciones en los resultados.

CP  1 =problema mal condicionado CP 6 1 problema bien condicionado

Si f representa al algoritmo real y f al algoritmo computacional, y x a la variable real y x a la variable


computacional entonces el error en los resultados se dene como:

|f (x) f (x)| |f (x) f (x)| + |f (x) f (x)| + |f (x) f (x)|


Algoritmo estable: tiene la propiedad de que la propagacin de los errores de redondeo es lineal o cuasi-lineal.

En c n E0
Te  1 =algoritmo inestable Te 6 1 =algoritmo estable

Para obtener algoritmos estables se recomienda:

1. Evitar la resta de nmeros con errores

2. Minimizar el tamao de los nmeros intermedios relativos al resultado nal

3. valornuevo = valorviejo + correccion


4. Usar transformaciones bien condicionadas

Resumiendo:

Te Te
1+ CP  1 =mal algoritmo 1+ CP 6 1 =buen algoritmo

3
1.3 Grca de proceso y perturbaciones experimentales

Una forma de obtener los coecientes Te y CP es la grca de proceso: un


diagrama de ujo que representa la propagacin de los errores relativos y de
redondeo.

La grca de proceso no siempre es til y prctica. Tambin podemos estimar


el CP y el Te mediante perturbaciones experimentales:

er
Si suponemos Te 0 =CP = r
y y
Si suponemos r 0 = Te = y ()

1.3.1 Estimacin del Cp


Consiste en suponer que no existen errores de redondeo y perturbar los valores de entrada. La idea es: se toman
los datos de entrada y se aplica el algoritmo a analizar, obteniendo el resultado exacto x. Luego se perturban
los datos de entrada introducindoles un error k y se vuelven a calcular los resultados, obtenindose x1 y x2 .
Entonces se calculan los Cp :

Cp1 = xx1
1

x +k

Cp2 = xx2
1

x k

Y nalmente tenemos que CP = max{Cp1 , Cp2 }. Como hemos supuesto que los errores de redondeo son despre-
ciables, los Cp deberan ser similares, con lo cual tendremos una estimacin de la condicin del problema.

1.3.2 Estimacin del Te


Consiste en suponer que no existen errores inherentes.
x3 x5 x7 x9
Ejemplo: aproximamos la funcin f (x) = sin(x) con su serie de MacLaurin g(x) = x 6 + 120 5040 + 362880 .
Calculemos el valor de f ( 4 ) con tres precisiones utilizando g(x):

u = 15 u = 1014 yu = 0, 70710678293687
t = 8 t = 107 yt = 0, 7071068
s = 4 s = 103 ys = 0, 706

Tomando como valor exacto a yu tenemos que:

yu ys
Tes = yu (s u ) = 1, 565
yu yt
Tet = yu (t u ) = 0, 241

En este caso concluimos que calcular f (y ) con ms precisin mejora el resultado nal, pero esto no siempre es
cierto.

2 Sistemas de ecuaciones lineales

Sea el sistema de ecuaciones dado por


a x + ... + a1n xn = b1 a11 a1n x1 b1
11 1


. . .. . . .
. = Ax = B = . . . = .

. . . . . .

an1 ann xn bn

a x + ... + a x = b
n1 1 nn n n

Si A es una matriz cuadrada tal que det(A) 6= 0, podemos resolver el sistema mediante x = A1 B . Sin embargo,
1
los coecientes de la matriz A puede provenir de mediciones imprecisas, lo que hara que calcular A resulte
en ms errores. Por este motivo surgen alternativas a esta forma de resolucin del sistema.

4
Norma innito de una matriz A: es la mxima suma absoluta de las las de una matriz.
n
X
kAk = max |aij |
1im
j=1

Nmero de condicin de una matriz A: se dene como (A) = kAk A1 . Puede estimarse mediante
kxxk t
kxk 10 (A). El error relativo de x al resolver Ax = B depende de (A).
Matriz bien condicionada: si (A) es chico entonces la matriz A es bien condicionada, y no hay alta propa-
gacin de errores de redondeo al resolver Ax = B . Caso contrario, A es mal condicionada. Generalmente, las
matrices mal condicionadas mezclan coecientes chicos con coecientes grandes, o satisfacen det(A) 0. Si A
es tal que 6 A1 entonces (A) = .

2.1 Sustitucin directa e inversa


Dada una matriz A que es triangular superior o triangular inferior, existen dos mtodos para resolver el sistema
Ax = B .
Si A es triangular inferior, la sustitucin directa consiste en:
Pi1
bi j=1 lij xj
xi =
lii
Si A es triangular superior, la sustitucin inversa consiste en:
Pn
bi j=i+1 uij xj
xi =
uii

2.2 Mtodos directos

Ax = B y la matriz A tiene en su mayora coecientes no nulos (matriz


Cuando queremos resolver el sistema
densa) podemos aplicar un mtodo directo para resolverlo. Estos mtodos consisten en transformar la matriz
original A en una matriz triangular y luego aplicar sustitucin directa o inversa.

Ventajas Desventajas
- slo hay errores de redondeo - no resuelven bien matrices mal condicionadas
- el nmero de operaciones es nito - se vuelven inestables con matrices grandes

2.2.1 Mtodo de eliminacin de Gauss


Consiste en transformar la matriz A de Ax = B en una matriz triangular superior mediante operaciones entre
las y luego aplicar sustitucin inversa.

Eliminacin con pivoteo parcial: es necesario intercambiar de lugar las. Es del orden O(cn3 ).
Eliminacin con pivoteo total: es necesario intercambiar de lugar las y columnas.
Pn
Convergencia: cuando A es diagonal dominante, es decir |aii | > j=1,j6=i |aij |

Ventajas Desventajas
- fcil de programar - si cambia el vector B es necesario retriangular A.
- O(n3 )

2.2.2 Factorizacin LU; mtodos de Doolittle y Crout


La factorizacin LU consiste en transformar la matriz A en A = |{z}
L |{z}
U . Entonces el sistema Ax = B se

4 5
convierte en:
h1i h1i

1 0 0 a a1n
11

.. . .
x1 b1 (
. .

m2,1 1 . . 0 .

.. .. Ux = y (I)

.

.
. = . 7
.. .. Ly = B (II)
.. . 0 ..

.

xn bn
mn,1 mn,n1 1 hni
0 0 ann

5
hii
aji
donde mi,j = hii son los coecientes de la triangulacin de Gauss. El sistema (I) se resuelve aplicando sustitucin
aii
inversa y para (II) sustitucin directa.

Teorema : si se puede efectuar la eliminacin de Gauss en el sistema lineal Ax = B sin intercambios de las,
entonces A se puede factorizar en el producto LU . Dos ejemplos de estos tipos de matrices son: estrictamente
diagonal dominantes, denidas positivas.

Ventajas Desventajas
- si cambia el vector B no hay que refactorizar A - determinar L y U requiere O(n3 ) pasos
2
- resolver Ax = B requiere O(n ) pasos
- no sirve para todas las A

Mtodo de Doolittle: consiste en factorizar A asumiendo que lii = 1.



1 0 0 u11 u1n
.. . .. .
. .

l21 1 . . 0 . .
A = LU =
.

.

.. .. ..
.. 0 ..

. . .
ln1 ln,n1 1 0 0 unn
La frmula general es:

h Pi1 i
1
lji = uii aji k=1 ljk uki
Pi1
uii = aii k=1 lik uki
Pi1
uij = aij k=1 lik ukj

Mtodo de Crout: consiste en factorizar A asumiendo que uii = 1.

2.2.3 Mtodo de Cholesky

Si A es una matriz simtrica y denida positiva, entonces planteamos que A = |{z} ST .


S |{z} La frmula es:

4 5

q Pi1
sii = aii k=1 s2ik
h Pi1 i
sji = s1ii aji k=1 sjk sik para i 6= j

Ventajas Desventajas
- menor cantidad de clculos que Crout y Doolittle - O(n3 )

2.3 Mtodos iterativos estacionarios

Supongamos el sistema Ax = B . Tenemos que:

B Ax = 0
B Ax + P x = P x
B + (A + P )x = Px
x = (I P 1 A)x + P 1 B
xhi+1i = (I P 1 A)xhii + P 1
| {z B}
| {z }
T C

Los mtodos iterativos:

Son muy tiles para resolver sistemas con matrices ralas (con muchos coecientes nulos). Tambin son
tiles para resolver sistemas con matrices mal condicionadas (pero si (A)  10t , siendo t la precisin
utilizada para realizar los clculos, entonces debe aumentarse t para obtener una solucin aceptable). Y
por ltimo, son tiles cuando A es grande.

6
Para que el mtodo converja a la nica solucin con cualquier xh0i , T debe ser tal que (T ) < 1, o lo que
es lo mismo kT k < 1 para cualquier norma natural. Idealmente, debera ser kT k  1.
Nunca dan una solucin exacta, incluso si usamos una precisin innita.

Renamiento iterativo: es una tcnica que, dada una solucin obtenida por el mtodo de Gauss, factorizacin
LU o Cholesky, mejora el resultado.

Ax = B = Ax0 = B = BAx0 = r0 = AxAx0 = r0 = A(x x0 ) = r0 = Ad0 = r0 = d0 +x0 = x1 = . . .


| {z }
d0

Cuando la matriz A es muy mal condicionada, la primera solucin obtenida mediante un mtodo directo puede
no estar muy cerca de la solucin correcta. Entonces podemos usar el renamiento iterativo:

n
X
x = xh1i + dhii
i=1

Un criterio de corte aceptado para parar las iteraciones es:


hn+1i
x xhni

xhn+1i T OL

|xhn+1i xhni | kRk


Y adems, puesto que (A) kBk , si A es mal condicionada la tolerancia debe ser ms chica.
|xhn+1i |
Los siguientes mtodos se llaman mtodos iterativos estacionarios porque las matrices T y C no se modi-
can.

2.3.1 Mtodo de Jacobi

Dado el sistema inicial Ax = B , el mtodo de Jacobi consiste en despejar de cada ecuacin las incgnitas:

b1 a12 x2 ...a1n xn Pn hii
a x + ... + a1n xn = b1 x = bi aik xk
11 1 1 a11

k6=i

. . hi+1i k=1
. = . = xi =
. .
aii

a x + ... + a x = b
x = bn an1 x1 ...an n1 xn1
n1 1 nn n n n ann

En forma matricial esto es


a
0 aa12 a1,n

11 11 b1
.. . a11
.

. . .
xhi+1i = T xhii + C =
hii
x + .

. .. .
.

. . bn
a
n,1 an,n1 an,n
an,n an,n 0

siendo:

P =D
T = D1 (L + U )
C = D1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |

2.3.2 Mtodo de Gauss-Seidel

El mtodo de Gauss-Seidel es similar al mtodo de Jacobi pero ms rpido, con la diferencia de que en el
clculo de xi (i > 0) se aprovecha lo calculado en el paso anterior:

Pi1 hi+1i Pn hii


hi+1i bi k=1 aik xk k=1 aik xk
xi =
aii
En forma matricial esto es xhi+1i = T xhii + C siendo:

7
P =D+L
T = I (D + L)1 A
C = (D + L)1 B
Pn
Convergencia: cuando A es estrictamente diagonal dominante, es decir |aii | > j=1,j6=i |aij |, o bien cuando A
es simtrica y denida positiva.

2.3.3 Mtodos de las sobrerelajaciones (SOR)

El mtodo de las sobrerelajaciones es una variante del mtodo de Gauss-Seidel, pero que converge ms
rpido.

Pi1 hi+1i Pn hii


!
bi k=1 aik xk k=1 aik xk
xhi+1i = (1 )xhii +
aii
| {z }
xGAU SSSEIDEL

En forma matricial esto es xhi+1i = (1 )xhii + D1 (B Lxhi+1i U xhii ) siendo:

1
P = D +L

0<<2 (notar que si =1 estamos en el mtodo de Gauss-Seidel)

Convergencia: cuando A es simtrica (A = AT ) y denida positiva (x


T
Ax > 0 x 6= 0).

Ventajas Desventajas
- obtener no es fcil

Teorema : si A es una matriz tribanda, es decir:



a11 a12 0
.. ..
a21 . .
A=
.. ..
. . an1,n
0 an,n1 ann
entonces:
2
optimo = p
1+ 1 (Tj )2
donde (Tj ) es el mayor autovalor de la matriz T obtenida mediante el mtodo de Jacobi.

2.4 Mtodos iterativos no estacionarios

En estos mtodos se aplica xhi+1i = T xhii + C , y las matrices T y C varan en cada iteracin.

2.4.1 Mtodo de los residuos mnimos

El mtodo de los residuos mnimos consiste en buscar que Rhi+1i sea mnimo en cada iteracin. Su frmula
es:

xhi+1i = xhii + i Rhii

Siendo:

Rhi+1i = Rhii i ARhii


T
[ARhii ] Rhii
i =
[ARhii ]ARhii

8
Rh0i = B Axh0i

Las iteraciones nalizan cuando Rhi+1i < T OL.


Convergencia: cuando A es simtrica y denida positiva.

Ventajas Desventajas
- fcil de programar - convergencia similar a Jacobi

2.4.2 Mtodo del descenso ms rpido

El mtodo del descenso ms rpido determina un mnimo local para una funcin de varias variables de la
forma g : <n <. Intuitivamente puede describirse as:

1. Evale g en una aproximacin inicial xh0i .

2. Determine una direccin desde xh0i que origine una disminucin en el valor de g.
3. Desplace una cantidad apropiada hacia esta direccin y llame al nuevo vector xh1i .
4. Repita los pasos 1 a 3 reemplazando xh0i con xh1i .

La frmula general es:

xhi+1i = xhii + i Rhii

siendo:

Rh0i = B Axh0i
T
Rhii Rhii
i = RhiiT ARhii

Rhi+1i = Rhii i ARhii

Convergencia: cuando A es simtrica y denida positiva.

Ventajas Desventajas
- converge independientemente del xh0i - convergencia lineal
- fcil de programar - puede converger en algo que no es el mnimo de g
- mejor velocidad que MRM - no usa bien las direcciones ms empinadas
- menos cantidad de operaciones

2.4.3 Mtodo de los gradientes conjugados

El mtodo del gradiente conjugado es muy til como mtodo iterativo de aproximacin para resolver
sistemas de gran tamao con entradas no nulas. Supondremos que A es simtrica y denida positiva.

El clculo multivariable nos dice que la direccin de mximo descenso en el valor de g(x) es la direccin dada
por g(x); es decir, en la direccin del residual r = b Ax.

xhi+1i = xhii + i dhii

con:

dh0i = Rh0i = b Axh0i


T
Rhii Rhii
i = dhiiT Adhii

Rhi+1i = Rhii i Adhii


T
Rhi+1i Rhi+1i
hi+1i = RhiiT Rhii

dhi+1i = Rhi+1i + hi+1i dhii

9
Convergencia: cuando A es simtrica y denida positiva.

Ventajas Desventajas
- convergencia muy rpida para matrices grandes - suele ser inestable
- Si A Rnn , n iteraciones alcanzan
nn
- Si AR tiene k autovalores repetidos, nk iteraciones alcanzan

Si la matriz A es mal condicionada, este mtodo es altamente susceptible a los errores de redondeo. Es por
esto que existe el mtodo de gradientes conjugados precondicionado. Un ejemplo de su uso es, en vez
de resolver Ax = B , podemos resolver AT Ax = AT B . Notar que en este caso A = AT A es simtrica y denida
positiva.

3 Ecuaciones de una variable

Sea el problema f (x) = 0. Resolver esta ecuacin equivale a encontrar las races de la funcin f. Sin embargo,
no siempre es posible despejar x e igualar a 0. Una forma de obtener la solucin sera gracando la funcin y
viendo donde sta corta al eje X . Pero esto es poco prctico en casos complejos.
Si tenemos como datos af (x), una tolerancia mxima y un intervalo inicial [a, b], podemos utilizar los mtodos
de arranque (biseccin y Regula Falsi) para achicar este intervalo, y luego utilizar otros mtodos para aproximar
la solucin.

Teorema del valor intermedio : sea f una funcin continua en un intervalo [a, b] y supongamos que f (a) < f (b).
Entonces para cada u tal que f (a) < u < f (b), existe al menos un c dentro de (a, b) tal que f (c) = u.

3.1 Mtodo de la biseccin

Mtodo de la biseccin: se basa en el teorema del valor intermedio y en la


bsqueda binaria. Si f [a, b] con f (a) y
es una funcin continua denida en
f (b) con signos diferentes, entonces existep [a, b] tal que f (p) = 0. El mtodo
requiere dividir varias veces a la mitad el intervalo [a, b] y, en cada paso, localizar
a la mitad que contenga a p. Conviene elegir el intervalo inicial lo ms pequeo
posible.
Ejemplo: supongamos el intervalo inicial [a1 , b1 ]. Luego p1 = a1 +b
2 . Si f (p1 ) = 0
1

hemos llegado a la solucin. Si f (a1 ) yf (p1 ) tienen el mismo signo, el nuevo


intervalo ser [p1 , b1 ]. Si f (a1 ) y f (p1 ) tienen distinto signo, el nuevo intervalo
es [a1 , p1 ].
Teorema : sea f C[a, b] y f (a) f (b) < 0. El mtodo de la biseccin genera una
sucesin p1 , ..., pn que aproxima a un cero de f tal que:
Figura 2: Biseccin aplicada

ba ln(b a) ln(T OL) en el rango [a1 , b1 ].


|pn p| = n
2n ln(2)
En este caso, tenemos que la condicin de corte es:

|b0 a0 |
T OL
2n+1
Es importante destacar que para elegir el intervalo donde se encuentra la raz debe vericarse que f (a)f (b) < 0.
Sin embargo, si esto no se cumple no implica que la raz no exista (pues puede ser una raz doble).

Ventajas Desventajas
- fcil de entender - convergencia lenta
- converge siempre - podemos rechazar una buena aproximacin intermedia

3.2 Mtodo del de punto jo o de las aproximaciones sucesivas

10
Un punto jo de una funcin g es un nmero p que satisface g(p) = p.
Teorema de suciencia para la existencia y unicidad del punto jo :

1. Si g C[a, b] y g(x) [a, b] para toda x [a, b] entonces g tiene un punto


jo en [a, b].
2. Si g 0 (x) existe en (a, b) y existe una constante 0 < k < 1 con |g 0 (x)| k
para toda x (a, b) entonces el punto jo en [a, b] es nico.

Mtodo de iteracin de punto jo: supongamos que deseamos resolver Figura 3: Mtodo del punto -
f (x) = 0. Para hallar el x tal que g(x) = x escogemos una aproximacin inicial jo.
x0 y generamos la sucesin x1 , ..., xn haciendo

xi+1 = g (xi ) para i0

Si la secuencia converge en xyg es continua, entonces obtenemos una solucin con x = g(x). El error est dado
por:

|xn x| k n |b a|

Ventajas Desventajas
- si k0 converge rpidamente - convergencia lineal
- si k1 converge lentamente

3.3 Mtodo de Newton-Raphson

El mtodo de Newton-Raphson es una de las tcnicas ms poderosas que exis-


ten para resolver un problema del tipo f (x) = 0. Este mtodo comienza con una
aproximacin inicial x0 y genera la sucesin x1 , ..., xn denida por:

f (xhii )
xhi+1i = xhii
f 0 (xhii )
El mtodo obtiene las aproximaciones utilizando tangentes sucesivas. Comenzando
con x0 , la aproximacin x1 es la interseccin entre la lnea tangente a la grca de
f en (x0 , f (x0 )) y el eje X . La aproximacin x2 es la interseccin entre la tangente
Figura 4: Una iteracin
a la grca de f en (x1 , f (x1 )) y el eje X , y as sucesivamente.
del mtodo de Newton-
Es importante notar que no es posible continuar con este mtodo si f 0 (xn1 ) = 0
Raphson. 00
para alguna n. Adems, f (x) debe estar acotada.

La deduccin de este mtodo proviene del desarrollo por Taylor:

f (x) = f (x) + (x x)f 0 (x) + = 0


(x x)f 0 (x) = f (x)
f (x)
x = x 0
f (x)

Teorema de convergencia : sea f C 2 [a, b]. Si x [a, b] es tal que f (x) = 0 y f 0 (x) 6= 0, entonces existe > 0 tal
que el mtodo de Newton genera una sucesin x1 , ..., xn que converge a p para cualquier aproximacin inicial
x0 [x , x + ].

Ventajas Desventajas
- muy poderoso - necesitamos conocer la derivada de f
- convergencia cuadrtica para races simples - necesita una buena aproximacin inicial
- convergencia lineal para races dobles

3.4 Mtodo de la secante

11
Si queremos evitarnos el problema de evaluar la derivada en el mtodo de New-
f (xi )f (xi1 )
ton, podemos aproximarla mediante la denicin: f 0 (xi ) xi xi1 . Entonces
tenemos:

f (xi )(xi xi1 )


xi+1 = xi
f (xi ) f (xi1 )
La tcnica que se utiliza en esta frmula se llama mtodo de la secante. Co-
menzando con las dos aproximaciones iniciales x0 y x1 , la aproximacin x2 es la Figura 5: Mtodo de la se-
interseccin entre la lnea que une (x0 , f (x0 )) y (x1 , f (x1 )) con el eje X . cante.

Ventajas Desventajas
- es ms rpido que el mtodo - es ms lento que el mtodo de
del punto jo Newton
- fcil de usar
- no necesitamos conocer f0

3.5 Mtodo de la posicin falsa / Regla falsa

Figura 6: Mtodo de la regula Falsi.


El mtodo de la posicin falsa combina el mtodo de biseccin y el mtodo de la secante, pero ofrece una
prueba para asegurarnos que la raz queda entre dos iteraciones sucesivas.

Primero elegimos p0 y p1 tales que f (p0 ) f (p1 ) < 0. p2 ser la interseccin en X de la recta secante. Luego
calculamos f (p1 ) f (p2 ), si es mayor a 0 la raz est entre p0 y p1 , sino est entre p1 y p2 . Su frmula general es:

f (an )(bn an ) f (bn )(bn an )


pn = an p n = bn
f (bn ) f (an ) f (bn ) f (an )

Ventajas Desventajas
- converge siempre - requiere ms clculos que el mtodo de la secante
- ms rpido que el mtodo de la biseccin - converge lentamente
- puede fallar si el denominador se anula

3.6 Mtodo 42 de Aitken

Diferencias progresivas: dada la sucesin p0 , ..., pn la diferencia progresiva 4pn est dada por 4pn = pn+1 pn
con n 0.
Supongamos que p0 , ..., pn es una sucesin linealmente convergente con un lmite p. El mtodo 42 de Aitken
se basa en la suposicin de que la sucesin p0 , ..., pn denida por

(pn+1 pn )2 (4pn )2
pn = pn = pn
pn+2 2pn+1 + pn 42 pn

converge ms rpidamente a p que la sucesin original.

Ventajas Desventajas
- convergencia acelerada - poco prctico para programar
- no evaluamos la derivada

12
3.7 Mtodo de Steensen

Existe una mejora para el mtodo de Aitken, que se basa en aplicar este mtodo para una sucesin dada por
aproximaciones sucesivas, y se conoce como mtodo de Steensen.
La sucesin que genera est dada por:

h0i h1i h2i


p0 p0 p0
h0i h1i h2i
p1 p1 p1
h0i
p2

Ventajas Desventajas
- Convergencia cuadrtica

Algoritmo 1 Mtodo de Steensen


funcin steffensen(p0,TOL,itermax,g(p)):
iter = 1
while (iter < itermax):
p1 = g(p0)
p2 = g(p1)
p = p0 - (p1 - p0)^2/(p2 - 2p1 + p0)
if (|p - p0| < TOL):
return p
else:
iter = iter + 1
p0 = p
return 'El mtodo fracas despus de'+itermax+'iteraciones.'

4 Sistemas de ecuaciones no lineales

Un sistema de ecuaciones no lineales tiene la forma



f1 (x1 , . . . , xn ) = 0

f2 (x1 , . . . , xn ) = 0

. = F(x1 , . . . , xn ) = (f1 , . . . , fn )T = 0
.
.




fn (x1 , . . . , xn ) = 0

4.1 Adaptacin del mtodo de Jacobi


(
f (x1 , x2 ) = x21 + x22 1 = 0
Ejemplo: supongamos el sistema dado por
g(x1 , x2 ) = x21 2x1 x2 + 1 = 0
Podemos resolverlo mediante una adaptacin del mtodo de Jacobi a sistemas de ecuaciones mediante:
r  2
hi+1i hii
x1 = 1 x2
 2
hi+1i hii hii
x2 = x1 2x1 + 1

4.2 Adaptacin del mtodo de Gauss-Seidel


(
f (x1 , x2 ) = x21 + x22 1 = 0
Ejemplo: supongamos el sistema dado por
g(x1 , x2 ) = x21 2x1 x2 + 1 = 0

13
Podemos resolverlo mediante una adaptacin del mtodo de Gauss-Seidel a sistemas de ecuaciones mediante:
r  2
hi+1i hii
x1 = 1 x2
 2
hi+1i hi+1i hi+1i
x2 = x1 2x1 +1

4.3 Mtodo de Newton

El mtodo de Newton para sistemas no lineales consiste en


 1  
xhi+1i = xhii J xhii F xhii

siendo J(x) la matriz jacobiana de F (x).

Ventajas Desventajas
- convergencia cuadrtica - debe conocerse un valor inicial bueno
- necesita calcular e invertir J(x) en cada paso
- O(n3 ) pasos

4.4 Mtodo de Broyden

El mtodo de Broyden es una variante del mtodo de Newton. En este mtodo se reemplaza la matriz
jacobiana con una matriz de aproximacin que se actualiza en cada iteracin.

Supongamos que se da una aproximacin inicial xh0i a la solucin p de F (x) = 0. Calculamos xh1i como en
h2i
el mtodo de Newton, y para calcular x nos apartamos de Newton y examinamos el mtodo de la secante
para una ecuacin no lineal: reemplazamos la matriz J(xh1i ) por una matriz A que tiene la propiedad de que
h1i h0i h1i h0i
x = xh1i A1
h2i h1i
  
A1 x x =F x F x , es decir que 1 F x . En general, calculamos:

 
xhi+1i = xhii A1
i F x hii

siendo
F xhii F xhi+1i Ai1 xhii xhi+1i
  
Ai = Ai1 +
xhii xhi+1i 2

2

Ventajas Desventajas
- no hay que invertir matrices - hay que invertir una matriz al comienzo
- no hay que calcular el jacobiano - convergencia superlineal
- O(n2 ) pasos - debe conocerse un valor inicial bueno

5 Interpolacin

En ingeniera y algunas ciencias es frecuente disponer de un cierto nmero de puntos obtenidos por muestreo o
a partir de un experimento y pretender construir una funcin que los ajuste. Se denomina interpolacin a la
obtencin de nuevos puntos partiendo del conocimiento de un conjunto discreto de puntos.

Polinomios: funciones de la forma Pn (x) = a0 + a1 x1 + a2 x2 + + an xn . Dado que las derivadas e integrales


de los polinomios son fciles de calcular, stos se usan para aproximar funciones continuas.

Para curvas que no pueden denirse mediante polinomios contamos con curvas paramtricas llamadas curvas
de Bezier.
Supongamos que tenemos los puntos y0 = f (x0 ), y1 = f (x1 ),...,yn = f (xn ) y queremos obtener un polinomio de
grado n que pase lo ms cerca posible de y0 , ..., yn . Lo que podemos hacer es plantear el sistema de ecuaciones:

xn0

1 x0

n
a0 + a1 x0 + ... + an x0 = y0
n a0 y0

.
1 x1 x1 . .
. = . . .. = ..

. . ..
.. .
. . .
.
a + a x + ... + a xn = y an yn

0 1 n n n n 1 xn xnn

14
La matriz de este sistema se llama matriz de Vandermonde. Esta matriz es mal condicionada. Por lo tanto,
este generalmente no es un buen mtodo.

Fenmeno de Runge: se da cuando aparecen oscilaciones no deseadas en los extremos del intervalo a interpolar.

Figura 7: Fenmeno de Runge.

5.1 Interpolacin y polinomio de Lagrange

Teorema : si x0 , . . . , x n son n+1 nmeros distintos y si f es una funcin cuyos valores estn dados en esos
nmeros, entonces existe un nico polinomio P (x) de grado a lo sumo n que satisface f (xk ) = P (xk ) con
k = 0, 1, ..., n.
Este polinomio est dado por:
n
Y (x xj )
Ln;i =
(xi xj )
j=0,j6=i
Xn
Pn (x) = [f (xi ) Ln;i ]
i=0

Ventajas Desventajas
- la distribucin de puntos no incide - O(n2 ) operaciones para evaluar Pn (x)
- es sencillo - agregar (xn+1 , yn+1 ) requiere recular todo
- es inestable

5.2 Mtodo de Newton

El mtodo de las diferencias divididas de Newton consiste en denir

f (xi ) = yi
f (xi+1 )f (xi )
f (xi , xi+1 ) = xi+1 xi

f (xi+1 ,xi+2 )f (xi ,xi+1 )


f (xi , xi+1 , xi+2 ) = xi+2 xi

.
.
.

f (xk+1 ,...,xn )f (xk ,...,xn1 )


f (xk , . . . , xn ) = xn xk

El mtodo de las diferencias divididas  progresivas de Newton de grado 3 consiste en:

P (x) = f (x0 ) + f (x0 , x1 )(x x0 ) + f (x0 , x1 , x2 )(x x0 )(x x1 ) + f (x0 , x1 , x2 , x3 )(x x0 )(x x1 )(x x2 )
donde x0 > x1 > x2 > x3 .
El mtodo de las diferencias divididas  regresivas de Newton de grado 3 consiste en:

P (x) = f (x3 ) + f (x2 , x3 )(x x3 ) + f (x1 , x2 , x3 )(x x3 )(x x2 ) + f (x0 , x1 , x2 , x3 )(x x3 )(x x2 )(x x1 )
donde x0 < x1 < x2 < x3 .
Ventajas Desventajas
- agregar un punto inicial o nal es muy sencillo - O(n2 ) operaciones para obtener f (xk , . . . , xn )
- O(n) operaciones para evaluar Pn (x) - agregar un punto intermedio requiere recalcular todo
- se exigen datos xi ordenados

15
5.3 Interpolacin baricntrica de Lagrange
Qn
Sea el polinomio genrico L(x) = i=0 (x xi )
Sean los pesos baricntricos
1
wi = Qn para todo i = 0...n
k=0,k6=i xi xk
Entonces podemos denir al polinomio interpolante como:

n  
X wi
Pn (x) = L(x) f (xi )
i=0
x xi

Este es el llamado mtodo mejorado de Lagrange.

Ventajas Desventajas
- O(n) operaciones para evaluar Pn (x)
- O(n) operaciones para agregar un par de datos
- wi no depende de f (xn+1 )
- no es necesario ordenar los datos

El mtodo baricntrico de Lagrange consiste en:


Pn wi
i=0 f (xi ) xxi
Pn (x) = Pn wi
i=0 xxi

Ventajas Desventajas
- O(n) operaciones para agregar un par de datos - es inestable
- es ms estable que Lagrange original

5.4 Interpolacin de Hermite

La interpolacin de Hermite se utiliza cuando conocemos el valor de la funcin en el punto y la derivada.


Teorema : sea f C 1 [a, b] y sean x0 , . . . , xn [a, b] distintos, el polinomio nico que concuerda con f (xi ) y
0
f (xi ) para i = 0 . . . n es el polinomio de Hermite de grado, a lo sumo, 2n + 1, que est dado por

n
X n
X
H2n+1 (x) = f (xi )Hn;i (x) + f 0 (xi )Hn;i (x)
i=0 i=0

donde

2
Hn;i (x) = 1 2(x xi )L0n;i (xi ) [Ln;i (x)]
 

2
Hn;i (x) = (x xi ) [Ln;i (x)]

Este polinomio tambin se puede calcular mediante el mtodo de diferencias divididas Newton. Denimos una
sucesin {z0 , . . . , z2n+1 } dada por z2i = z2i+1 = xi , con i = 0 . . . n. Entonces:


2n+1
X k1
Y
H2n+1 (x) = f (z0 ) + f (z0 , . . . , zk ) (x zj )
k=1 j=0

Y podemos formar la tabla correspondiente:

zi f (zi ) f (zi , zi+1 ) f (zi , zi+1 , zi+2 ) f (zi , zi+1 , zi+2 , zi+3 )
z0 = x0 f (z0 ) = f (x0 ) f (z0 , z1 ) = f 0 (x0 )
z1 = x0 f (z1 ) = f (x0 ) f (z1 , z2 ) f (z0 , z1 , z2 ) f (z0 , z1 , z2 , z3 )
z2 = x1 f (z2 ) = f (x1 ) f (z2 , z3 ) = f 0 (x1 ) f (z1 , z2 , z3 )
z3 = x1 f (z3 ) = f (x1 ) f (z3 , z4 )

Ventajas Desventajas
- procedimiento tedioso incluso
para valores chicos de n

16
5.5 Interpolacin por splines

La interpolacin por splines consiste en interpolar datos mediante segmentos


de curvas. En este caso los segmentos sern polinomios de tercer grado, denominados
trazadores cbicos. Sean los n+1 puntos, denimos las n curvas interpolantes
como:

Si (x) = ai + bi (x xi ) + ci (x xi )2 + di (x xi )3 con i = 0..n 1

Este polinomio debe cumplir las siguientes condiciones:

Figura 8: Spline.
1. Si (xi ) = f (xi ) para i = 0, . . . , n (la curva pasa por los puntos)

2. Si+1 (xi+1 ) = Si (xi+1 ) para i = 0, . . . , n 2 (Si es continua)

0
3. Si+1 (xi+1 ) = Si0 (xi+1 ) para i = 0, . . . , n 2 (Si0 es continua)

00
4. Si+1 (xi+1 ) = Si00 (xi+1 ) para i = 0, . . . , n 2 (Si00 es continua)

5. Alguna de las siguientes condiciones de borde:

a) Frontera libre / natural: S000 (x0 ) = Sn1


00
(xn ) = Sn00 (xn ) = 0
(
S00 (x0 ) = f 0 (x0 ) =
b) Frontera sujeta: 0
Sn1 (xn ) = Sn0 (xn ) = f 0 (xn ) =

1
Para hallar los coecientes ai , bi , ci y di con spline de frontera libre debe plantearse:

ai = f (xi )
hi = xi+1 xi
1 0 0 0

0

.
c0

.
h0 2(h0 + h1 ) h1 3[fN (x1 , x2 ) fN (x0 , x1 )]

.
c1

0 h1 2(h1 + h2 ) h2

.
=

. .
. . . .
.

. .
. 0
3[f (x , x ) fN (xn2 , xn1 )]

.

N n1 n
cn


hn2 2(hn2 + hn1 ) hn1
0
0 0 0 1

hi
bi = fN (xi , xi+1 ) 3 (2ci + ci+1 )
ci+1 ci
di = 3hi

Para hallar los coecientes ai , bi , ci y di con spline de frontera sujeta debe plantearse:

ai = f (xi )
hi = xi+1 xi
2h0 h0 0 0

3fN (x0 , x1 ) 3f 0 (a)

.
c0

.
h0 2(h0 + h1 ) h1 3fN (x1 , x2 ) = 3fN (x0 , x1 )

.
c1

0 h1 2(h1 + h2 ) h2

.
=

. .
. . . .
.

. .
n1 , xn ) 3fN (xn2 , xn1 )
.
3f (x
0

.

N
cn

0

hn2 2(hn2 + hn1 ) hn1
3f (b) 3fN (xn1 , xn )
0 0 hn1 2hn1

hi
bi = fN (xi , xi+1 ) 3 (2ci + ci+1 )
ci+1 ci
di = 3hi

La interpolacin con spline de frontera sujeta es ms precisa que la natural, pero requiere los valores de la
derivada en los extremos, o al menos buenas aproximaciones.

Puede demostrarse que las matrices asociadas a los dos sistemas mencionados son estrictamente diagonal do-
minantes, denidas positivas, tribandas y simtricas, y que la solucin de los dos es nica.

1f
N denota la diferencia dividida de Newton

17
6 Ajuste de funciones y mejor aproximacin

6.1 Mejor aproximacin

Si la cantidad de puntos xi dados es muy grande, interpolar mediante polinomios


crea curvas de alto grado que se vuelven muy inestables en los extremos. Esto se
puede resolver, en parte, mediante interpolaciones fragmentadas o segmentos de curvas
(polinomios de Hermite o splines). Sin embargo, una de las condiciones fundamentales
para estos mtodos es que los puntos xi sean distintos.

Cuando para un mismo xi tenemos varios valores de f (xi ) podemos construir una
curva que ajuste lo mejor posible los datos disponibles, sin que la curva pase por los
puntos dados.
Pm
La aproximacin la hacemos con una funcin g(x) = i=0 ci i (x), donde m < n.
Figura 9: Ajuste.

6.2 Mtodo de los cuadrados mnimos

El problema general de aproximar un conjunto de datos distintos (x1 , y1 ), . . . , (xm , ym ) con un polinomio
Pn (x) = a0 + a1 x + a2 x2 + + an xn de grado n < m 1 puede resolverse mediante el mtodo de los
cuadrados mnimos. Este mtodo consiste en resolver las n + 1 ecuaciones normales para las n + 1 incgnitas
aj .

n
X m
X m
X
ak xj+k
i = yi xji para cada j = 0, . . . , n
k=0 i=1 i=1

En forma matricial esto es

Pm Pm Pm
x0i x1i xni

i=1 i=1 i=1 a0
Pm
yi x0i

. Pi=1
m 1
. a1 i=1 yi xi
Pm 1 Pm
i=1 xi x2i .

i=1 . =
.

. .. . .

. .
Pm .

.
Pm. n

n

Pm
x2n an i=1 yi xi
i=1 xi i=1 i

Ntese que el coeciente A11 nos dice la cantidad de puntos que intervienen en el ajuste, y que la matriz es
simtrica y denida positiva, y es similar a una matriz de Vandermonde. De ah que cualquier ajuste de curvas
hecho con polinomios es un problema mal condicionado, y por ello no se recomienda trabajar con polinomios
de grado mayor a 4 o 5.

Puede demostrarse que las ecuaciones normales tienen una solucin nica, a condicin de que las xi sean
distintas.

Si sospechamos que los datos (xi , yi ) tienen una relacin exponencial, podemos proponer la funcin de ajuste
y = aebx .

7 Diferenciacin numrica

Dado que no siempre las soluciones analticas al problema de diferenciar son aplicables a los problemas, y no
siempre existe tal solucin numrica, existen mtodos numricos que aproximan las soluciones con distinto grado
de exactitud.

Sin embargo, debe notarse que la diferenciacin numrica es inestable y depende mucho de la precisin utilizada.

7.1 Aproximacin por diferencias

Se pueden clasicar segn 3 tipos:

f (x+h)f (x)
1. Diferencias progresivas: f 0 (x) h . Su orden de convergencia es O(h).
f (x)f (xh)
2. Diferencias regresivas: f 0 (x) h . Su orden de convergencia es O(h).

18
f (x+h)f (xh)
3. Diferencias centradas: f 0 (x) 2h . Su orden de convergencia es O(h2 ). Es el que mejor
aproxima de los tres.

Tener en cuenta que achicar el paso h en los tres algoritmos anteriores no siempre es una manera de obtener
una aproximacin mejor, ya que empieza a incidir el error de redondeo, dado que el numerador se vuelve cada
vez ms chico. Adems, no es posible calcular un valor ptimo para h.

7.2 Mtodo de los tres y cinco puntos

El algoritmo del mtodo de los tres puntos es:

3f (x) + 4f (x + h) f (x + 2h)
f 0 (x)
2h
Su orden de convergencia es O(h2 ).
El algoritmo llamado mtodo de los cinco puntos es:

f (x 2h) 8f (x h) + 8f (x + h) f (x + 2h) h4 (5)


f 0 (x) = + f ()
12h 30
Su orden de convergencia es O(h4 ), es decir, proporcional a la derivada quinta, lo que lo hace muy preciso.

7.3 Extrapolacin de Richardson

El mtodo de extrapolacin de Richardson es aplicable solo si E(h) = k1 h1 + k2 h21 + k3 h31 + , y se puede


generalizar de la siguiente manera:

 
h
j1 q Nj1 (h)
  N
h
Nj (h) = Nj1 +
q q j1 1

siendo N1 el resultado de aproximar la derivada con alguno de los mtodos mencionados anteriormente (por
ejemplo, diferencias progresivas).

f 0 (1)

Ejemplo: aproximar siendo f (x) = sin 3x con extrapolacin de Richardson, con q = 2.

f (1+h)f (1) N1 ( h
2 )N1 (h) N2 ( h
2 )N2 (h)
N2 = N1 ( h2 ) + h

hi N1 = h 21 1 N3 = N2 2 22 1 N4
0,2 N1 (0, 2) = 0, 4252
0,1 N1 (0, 1) = 0, 4752 N2 (0, 2) = 0, 5252
0,05 N1 (0, 05) = 0, 4996 N2 (0, 1) = 0, 5240 N3 (0, 2) = 0, 5236
0,025 N1 (0, 025) = 0, 5117 N2 (0, 05) = 0, 5238 N3 (0, 1) = 0, 5237 N4 (0, 2) = 0, 5237

Pn1
La extrapolacin puede aplicarse si el error de truncamiento es j=1 kj h
j + O(h m).

8 Integracin numrica

Cuando necesitamos obtener el valor de una integral denida, pueden ocurrir dos cosas: que la funcin no tenga
una antiderivada explcita, o que sta no sea fcil de obtener. Entonces podemos obtener una aproximacin
utilizando una cuadratura.
Rb Pn
Cuadratura numrica: a f (x) dx i=1 ci f (xi ), donde ci son los coecientes de peso y los f (xi ) son los
puntos de cuadratura.

Los siguientes mtodos aproximan la funcin f (x) con un polinomio interpolante, cuyas antiderivadas son fciles
de calcular.

19
8.1 Frmulas cerradas de Newton-Cotes

Frmula cerrada de Newton-Cotes: la frmula cerrada de n+1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a, xn = b y h = ba
n . Se llama cerrada porque se incluyen
los extremos del intervalo como nodos.

Regla del rectngulo:


Z b Z b
f (x) dx (b a) f (a) o f (x) dx (b a) f (b)
a a
| {z } | {z }
por defecto por exceso

Su orden de convergencia es O(h). Esta regla da un resultado exacto para funciones del tipo f (x) = c.

Regla del trapecio (n=1): se obtiene al integrar en [a, b] el primer polinomio de Lagrange. Se aproxima
el rea bajo una funcin f de valores positivos con un trapecio.

x1
h3
Z
h
f (x) dx = [f (x0 ) + f (x1 )] f 00 ()
x0 2 12
siendo h = b a. Su convergencia es O(h2 ). Esta regla da un resultado exacto para polinomios de grado
1 o menos.

Regla de Simpson (n=2): se obtiene al integrar el segundo polinomio de Lagrange.

x2
h5
Z    
h a+b
f (x) dx = f (a) + 4f + f (b) f (4) ()
x0 3 2 90
ba
siendo h= 2 . Su convergencia es O(h4 ). Esta regla proporciona resultados exactos al aplicarla a poli-
nomios de grado 3 o menos.

Regla de tres octavos de Simpson (n=3):

x3
3h5 (4)
Z
3h
f (x) dx = [f (x0 ) + 3f (x1 ) + 3f (x2 ) + f (x3 )] f ()
x0 8 80
ba
siendo h= 3 .

8.2 Frmulas abiertas de Newton-Cotes

Frmula abierta de Newton-Cotes: la frmula abierta de n + 1 puntos de Newton-Cotes utiliza los nodos
equidistantes xi = x0 + ih, para i = 0..n, donde x0 = a + h, xn = b h y h = ba
n+2 . Se llama abierta porque
no se incluyen los extremos del intervalo como nodos.

Regla del punto medio (n=0):

x1
h3 00
Z
f (x) dx = 2hf (x0 ) + f ()
x0 3
 
x0 + x1
= (x1 x0 ) f
2

8.3 Mtodos compuestos

En general, las frmulas de Newton-Cotes no son adecuadas para utilizarse en intervalos de integracin grandes.
Para estos casos se utilizan los siguientes mtodos, que tienen la ventaja de que son estables respecto del error
de redondeo. Todos estos algoritmos son O(h4 ), pero tienen una desventaja: el tiempo de procesamiento. Esto
quiere decir que reducir el paso h mejora la precisin, pero llegar un punto en que la representacin numrica
nos impedir anar el paso. Adems, cada vez que querramos anar el paso, deberemos calcular todo otra vez.

20
Regla compuesta del rectngulo:
"n1 #
Z b X
f (x) dx h f (xj ) + f (b)
a i=1

ba
siendo h= n y xj = a + jh.
Regla compuesta del trapecio: sea f C 2 [a, b]. Entonces la frmula compuesta del trapecio para n
subintervalos puede escribirse como


b n1
b a 2 00
Z
h X
f (x) dx = f (a) + 2 f (xj ) + f (b) h f ()
a 2 j=1
12
ba
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta de Simpson: sea f C 4 [a, b] y n par. Entonces la frmula compuesta de Simpson
para n subintervalos puede escribirse como

n n

b 2 1 2
b a 4 (4)
Z
h X X
f (x) dx = f (a) + 2 f (x2j ) + 4 f (x2j1 ) + f (b) h f ()
a 3 j=1 j=1
180

ba
siendo h= n y xj = a + jh para cada j = 0..n.
Regla compuesta del punto medio: sea f C 2 [a, b] y n par. Entonces la frmula compuesta del punto
medio para n+2 subintervalos puede escribirse como

n
b 2
b a 2 00
Z X
f (x) dx = 2h f (x2j ) + h f ()
a j=0
6
ba
siendo h= n+2 y xj = a + (j + 1)h para cada j = 1..(n + 1).

8.4 Mtodo de Romberg

El mtodo de integracin de Romberg utiliza la regla compuesta del trapecio para obtener aproximaciones
preliminares y luego se aplica el proceso de extrapolacin de Richardson para mejorar las aproximaciones. Si se
verica que f C 2(k+1) [a, b], la frmula est dada por

Rk,j1 Rk1,j1
Rk,j = Rk,j1 +
4j1 1
donde k = 2, 3, . . . , n y j = 2, . . . , k . Su convergencia es O(h2j
k ). Los resultados generados con stas frmulas se
incluyen en la siguiente tabla.

R1,1
R2,1 R2,2
. . ..
. . .
. .
Rn,1 Rn,2 Rn,n

El mejor valor es Rn,n . Otra ventaja de este mtodo es que permite agregar una nueva la a la tabla con slo
hacer una aplicacin ms de la regla compuesta del trapecio (y luego promediar los dems valores).

8.5 Cuadratura de Gauss

En todas las frmulas de Newton-Cotes se emplean valores de la funcin en puntos equidistantes. Esta prctica
es til cuando utilizamos dichos mtodos en reglas compuestas, pero esta restriccin puede afectar la exactitud
de la aproximacin.

El mtodo de cuadratura de Gauss selecciona los puntos de la evaluacin de manera ptima y


Pn no en una
forma igualmente espaciada. Recordando la frmula de una cuadratura i=1 ci f (xi ), los valores xi son las races
del polinomio de Legendre, y las constantes ci se obtienen operando con los xi . Estos valores estn tabulados:

21
n xi ci
1 x0 = 0 c0 = 2
2 x0 = 0, 57735 c0 = 1
x1 = 0, 57735 c1 = 1
3 x0 = 0, 77459 c0 = 0, 55555
x1 = 0 c1 = 0, 88888
x2 = 0, 77459 c2 = 0, 55555
. . .
. . .
. . .

La frmula para este mtodo es

b 1  
(b a)t + (b + a) ba
Z Z
f (x) dx = f dt
a 1 2 2
Este mtodo arroja resultados exactos cuando g 2n 1, donde g es el grado del polinomio a integrar, y n es
la cantidad de puntos de Gauss. Adems, el error cometido es proporcional a la derivada de orden 2n.

Ventajas Desventajas
- pocas evaluaciones del polinomio
- fcil de programar
- slo desconocemos el error de redondeo

8.6 Integrales mltiples


RR
Dada la integral
A
f (x, y) dxdy , donde A es una regin rectangular del plano tal que A = {(x, y) : a x b c y d},
podemos obtener una aproximacin utilizando una adaptacin de los mtodos anteriormente estudiados.

Mtodo del trapecio

d b
(b a)(d c)
Z Z
f (x, y) dxdy [f (a, c) + f (a, d) + f (b, c) + f (b, d)]
c a 4

Mtodo de Simpson

Z d Z b (b a)(d c)
f (x, y) dxdy {f (x0 , y0 ) + f (x0 , y2 ) + f (x2 , y0 ) + f (x2 , y2 )
c a 36
+4 [f (x0 , y1 ) + f (x1 , y0 ) + f (x1 , y2 ) + f (x2 , y1 ) + 4f (x1 , y1 )]}

a+b c+d
donde x0 = a, x1 = 2 , x2 = b, y0 = c, y1 = 2 , y2 = d.
Mtodo de cuadratura de Gauss

d b n m
(b a)(d c) X X
Z Z
f (x, y) dxdy ci cj f (xi , yj )
c a 4 i=1 j=1
ba b+a dc d+c
con xi =2 ti + 2 , yj = 2 tj + 2 , siendo ti , tj las races de los polinomios de Legendre y ci , cj los
coecientes de peso.

9 Ecuaciones diferenciales ordinarias

Estudiaremos cmo aproximar la solucin y(t) a un problema de la forma

(
dy
dt = f (t, y) para atb
y(a) =

Condicin de Lipschitz: una funcin f (t, y) satisface la condicin de Lipschitz en la variable y en un conjunto
D R2 si existe una constante L>0 tal que

|f (t, y1 ) f (t, y2 )|
L para todo (t, y1 ), (t, y2 ) D
|y1 y2 |

22
Teorema
: si f (t, y) est denida en un conjunto convexo D R2 y existe una constante L > 0 tal que
f (t,y)
y L para toda (t, y) D, entonces f satisface la condicin de Lipschitz.

Teorema (de suciencia ): supongamos que D = {(t, y)|a t b; < y < } y que f (t, y) es continua en D.
Si f satisface la condicin de Lipschitz, entonces el problema de valor inicial y 0 (t) = f (t, y), a t b, y(a) =
tiene solucin nica.
dy
Problema bien planteado: el problema de valor inicial dt = f (t, y), a t b, y(a) = es bien planteado si:

1. El problema tiene solucin nica y(t),


2. Si perturbamos el problema, la solucin tambin se perturbar, pero poco.

Los siguientes mtodos no nos proporcionan la funcin y(t), sino que nos da aproximaciones a y(ti ) para puntos
a ti b igualmente espaciados. Si queremos valores intermedios deberemos interpolarlos, generalmente
utilizando el mtodo de Hermite.

9.1 Mtodos de un paso

En los mtodos de un paso la aproximacin del punto de red ti+1 contiene informacin proveniente de uno
solo de los puntos anteriores de red ti .

9.1.1 Mtodo de Euler

El mtodo de Euler es un caso particular del mtodo de Taylor para n = 1. Este mtodo no es lo sucientemente
exacto para utilizarlo en la vida real, pero resulta simple para analizarlo. Sin embargo, son mtodos estables.

ba
Mtodo de Euler explcito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresin
de este mtodo es:

wi = y(ti )
wi+1 = wi + h f (ti , wi ) parai = 0, 1, . . . , N 1

El error local es O(h). Converge siempre.

ba
Mtodo de Euler implcito: siendo el paso h= N , donde N es la cantidad de intervalos, la expresin
de este mtodo es:

wi = y(ti )
wi+1 = wi + h f (ti+1 , wi+1 ) para i = 0, 1, . . . , N 1

El error local es O(h). El mtodo de Euler implcito suele dar mejores resultados que el explcito (aunque
esto no siempre es as). La desventaja del mtodo implcito es que no siempre es posible implementarlo.

Mtodo predictor-corrector de Euler: este mtodo consiste en obtener una primera aproximacin
con el mtodo explcito, y con sta obtener una nueva aproximacin con el mtodo implcito, que
corrige la anterior.


wi+1 = wi + h f (ti , wi )

wi+1 = wi + h f (ti , wi+1 )

El error local de este mtodo es O(h).

9.1.2 Mtodos de Taylor de orden superior

El mtodo de Taylor de orden n tiene la siguiente expresin:

w0 =
wi = y(ti )
h2 0 hn (n1)
wi+1 = wi + h f (ti , wi ) + f (ti , wi ) + + f (ti , wi ) para i = 0, . . . , n 1
2 n!
Puede demostrarse que si f C n+1 [a, b], entonces el error de truncamiento es O(hn ). Este mtodo rara vez se
emplea en la prctica, pues tiene la desventaja de requerir el clculo y evaluacin de las derivadas de f (t, y).

23
9.1.3 Mtodos de Runge-Kutta

Teorema : seaf (t, y) C n+1 en D = {(t, y)|a t b, c y d} y sea (t0 , y0 ) D. Entonces, para toda
(t, y) D, existe [t0 , t] y [y0 , y] con f (t, y) = Pn (t, y) + Rn (t, y) tal que Pn (t, y) es el n-simo polinomio
de Taylor en dos variables para la funcin f alrededor de (t0 , y0 ), y Rn (t, y) es el trmino residual asociado a
Pn (t, y).
Los mtodos de Runge-Kutta se basan en aproximar el polinomio de Taylor para una variable mediante
polinomios de Taylor de dos variables. Existen varios mtodos de Runge Kutta, que se clasican segn su orden
de convergencia. Los ms sencillos son los de orden 2:

Mtodo del punto medio:

w0 =
 
h h
wi+1 = wi + h f ti + , wi + f (ti , wi ) para cada i = 0, 1, . . . , N 1
2 2

Mtodo modicado de Euler:

w0 =
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi + h f (ti , wi ))] para cada i = 0, 1, . . . , N 1
2

Mtodo de Crank-Nicolson (implcito):

w0 =
h
wi+1 = wi + [f (ti , wi ) + f (ti+1 , wi+1 )] para i = 0, 1, . . . , N 1
2

Mtodo de Heun:

w0 =
  
h 2 2
wi+1 = wi + f (ti , wi ) + 3f ti + h, wi + h f (ti , wi ) para i = 0, 1, . . . , N 1
4 3 3

Para obtener mtodos con mayor orden de convergencia se aplica el teorema antes mencionado, y con l se
obtiene el mtodo de Runge-Kutta de orden 4, que es muy preciso siempre y cuando la funcin y(t) tenga
al menos cinco derivadas continuas:

w0 =
k1 = h f (ti , wi )
 
h 1
k2 = h f ti + , wi + k1
2 2
 
h 1
k3 = h f ti + , wi + k2
2 2
k4 = h f (ti+1 , wi + k3 )
1
wi+1 = wi + (k1 + 2k2 + 2k3 + k4 ) para cada i = 0, 1, . . . , N 1
6

9.2 Mtodos multipasos

Los mtodos multipasos son aquellos que emplean la aproximacin en ms de uno de los puntos de red
precedentes para determinar la aproximacin en el siguiente punto. Se pueden deducir de las series de Taylor o
del polinomio interpolante de Lagrange.

Para obtener wi , wi1 , wi2 , . . . debemos utilizar un mtodo de paso simple del mismo orden que el mtodo de
paso mltiple.

24
9.2.1 Mtodos explcitos de Adams-Bashforth

Dado un orden de convergencia p, los mtodos explcitos de Adams-Bashforth usan los puntos wi , wi1 ,
. . ., wi+1p para obtener el wi+1 . El paso no puede ser arbitrario.

Mtodo de Adams-Bashforth de orden 2 (2 pasos):

w0 =
w1 = 1
h
wi+1 = wi + [3f (ti , wi ) f (ti1 , wi1 )] para i = 1, 2, . . . , N 1
2

Mtodo de Adams-Bashforth de orden 4 (4 pasos):

w0 =
w1 = 1
w2 = 2
w3 = 3
h
wi+1 = wi + [55f (ti , wi ) 59f (ti1 , wi1 ) + 37f (ti2 , wi2 ) 9f (ti3 , wi3 )] para i = 3, 4, . . . , N 1
24

9.2.2 Mtodos implcitos de Adams-Moulton

Dado un orden de convergencia p, los mtodos implcitos de Adams-Moulton usan los puntos wi+1 , wi ,
wi1 , . . ., wi+2p para obtener el wi+1 . El tamao del paso puede ser arbitrario.

Mtodo de Adams-Moulton de orden 2 (1 paso):

w0 =
w1 = 1
h
wi+1 = wi + [f (ti+1 , wi+1 ) f (ti , wi )] para i = 1, 2, . . . , N 1
2

Este mtodo es equivalente al mtodo de Crank-Nicolson.

Mtodo de Adams-Moulton de orden 4 (3 pasos):

w0 =
w1 = 1
w2 = 2
h
wi+1 = wi + [9f (ti+1 , wi+1 ) + 19f (ti , wi ) 5f (ti1 , wi1 ) + f (ti2 , wi2 )] para i = 2, 3, . . . , N 1
24

Como no siempre es posible transformar la expresin de Adams-Moulton a una de forma explcita, existen los
mtodos predictores-correctores de Adams, que combinan un mtodo de Adams-Bashforth y un mtodo
de Adams-Moulton, ambos del mismo orden de convergencia.

Adams-Bashforth Adams-Moulton
- ms sencillos de programar - ms estables
- menos errores de redondeo
- ms precisos

9.3 EDOs con condiciones de contorno


dn y
= f t, y, y 0 , . . . , y (n1)

Trataremos de resolver ecuaciones del tipo
dtn en el intervalo [a, b] y con las condiciones
iniciales y(a) = , y 0 (a) = , . . ., y (n1) (a) = .

25
9.3.1 Mtodo del disparo lineal

Teorema : sea el problema y


00
= f (x, y, y 0 ) con a x b y las condiciones y(a) = , y(b) = . Si f , fy0 ,
fy0 son continuas en D = {(x, y, y 0 ) : a x b, < y < , < y 0 < } y si fy0 (x, y, y 0 )
0
> 0 para toda

(x, y, y 0 ) D y si existe una constante M tal que fy0 0 (x, y, y 0 ) M para toda (x, y, y 0 ) D, entonces el
problema con valor en la frontera tiene una solucin nica.

Corolario : sea el problema y 00 = p(x)y 0 + q(x)y + r(x) con a x b y las condiciones iniciales y(a) = ,
y(b) = . Si se satisface que

p(x), q(x), r(x) son continuas en [a, b]


q(x) > 0 en [a, b]

entonces el problema tiene una solucin nica.

El mtodo del disparo lineal tiene problemas de estabilidad. Se basa en la sustitucin del problema de valor en
la frontera por 2 problemas de valor inicial:

(I) y 00 = p(x) y 0 + q(x) y + r(x) con y(a) = , y 0 (a) = 0

(II) y 00 = p(x) y 0 + q(x) y con y(a) = 0, y 0 (a) = 1

Si llamamos y1 (x) a la solucin de (I) e y2 (x) a la solucin de (II), la solucin nal es:
y1 (b)
y(x) = y1 (x) + y2 (b) y2 (x)

9.3.2 Mtodos de diferencias nitas para problemas lineales

El mtodo de diferencias nitas es un mtodo para resolver resoluciones de ecuaciones diferenciales de


orden mayor o igual a dos. Consiste en reemplazar las derivadas por diferencias nitas mediante un cociente
de diferencias. La aplicacin de diferencias nitas generan un sistema de ecuaciones lineales del tipo Ax = B .
Primero seleccionamos un entero N > 0 y dividimos el intervalo [a, b] en N + 1 subintervalos iguales cuyos
ba
extremos son los puntos de malla xi = a + ih para i = 0, 1, . . . , N + 1, donde h =
N +1 . Al escoger h de este
modo (no muy chico), se facilita la aplicacin de un algoritmo matricial.

La frmula de las diferencias centradas para y 00 (xi ) es

1 h2
y 00 (xi ) = 2
[y(xi+1 ) 2y(xi ) + y(xi1 )] y (4) (i )
h 12
El mtodo de diferencias nitas con error de truncamiento de orden O(h) consiste en resolver el siguiente
sistema de ecuaciones:

2 + h2 q(x1 ) h

1 + 2 p(x1 ) 0 0
h2 r(x1 ) + 1 + h

. 2 p(x1 ) w0

.
1 h p(x2 ) 2 + h2 q(x2 ) h2 r(x2 )

2 .
w1



.
. .

. . = .
0 . 0 . .

. . .
wN h2 r(xN 1 ) 
. . .

. . . h
1 + 2 p(xN 1 ) h2 r(xN ) + 1 + h
2 p(xN ) wN +1
0 0 1 h
2 p(xN ) 2 + h2 q(xN )

9.3.3 Mtodo de los elementos nitos

El mtodo de los elementos nitos es un mtodo para aproximar soluciones de ecuaciones diferenciales muy
utilizado en anlisis estructural.

26