Anda di halaman 1dari 16

Mtodos Iterativos para la resolucin de ecuaciones en una variable

Haga clic para modificar el estilo de subttulo del patrn

Mtodos Iterativos para la ecuacin f(x)=0


Estimacin inicial Tipos de x0 tal que f(x0) 0 convergencia l Proceso iterativo l Error del paso k x1, x2,..., xk, x* : f(x*)=0 ek = |xk - x*| |xk l Criterio de parada xk-1| l |f(xk)| < tol Convergencia lineal cte dk = |xk+1 - xk| < tol ek+1 / ek l Convergencia
l

Mtodo de Biseccin

Determinar un intervalo [a,b] tal que f(a) tiene signo distinto de f(b) y f continua en [a,b]. Hallar el punto medio c del intervalo. Elegir, entre [a,c] y [c,b], un intervalo en el que la funcin cambie de signo. Repetir los pasos 2 y 3 hasta conseguir un intervalo con la precisin deseada (f(c) <tol)
(Clave: Teorema de Bolzano)

Teorema de Bolzano
Sea f:A continua y sean a,bA con f(a)f(b) < 0. Entonces, existe c [a,b] con f(c) = 0.
f(a) b a f(b)

Algoritmo de Biseccin
c =(a+b)/2; if f(a)*f(c)<=0 b=c; end if f(c)*f(b)<=0 a=c; end %elige [a,c]

%elige [c,b]

Teorema: El mtodo de la biseccin genera una sucesin {xn} que converge a una raz de f con xn- (b-a)/2n.

Mtodo de Regula-Falsi
Determinar un intervalo [a,b] tal que f(a) tiene signo distinto de f(b). Hallar el punto c que divide el intervalo [a,b] en partes proporcionales a f(a) y f(b). Sea ba c = a f(a) Elegir, entre [a,c] y f (b ) f ( a )

[c,b], un intervalo en el que la funcin cambie de signo. Repetir los pasos 2 y 3 hasta conseguir la precisin deseada.

a c b

Biseccin
K

Regula Falsi
J

Convergencia lineal de razn 1/2. Cota de la raz: (b-a)/2n. La aproximacin obtenida puede ser peor que la del paso anterior.

K L

Ms rpido al principio. Convergencia lineal. Error estimado por: | xn-xn-1| Se aproxima a la raz por un lado.

Mtodo del Punto Fijo

Transformar la ecuacin f(x) = 0 en una ecuacin equivalente de punto fijo: x = g(x). Tomar una estimacin inicial x0 del punto fijo x* de g [x* punto fijo de g si g(x*) = x*]. Para k=1, 2, 3, hasta que converja, iterar xn+1 = g(xn).

Teorema del punto fijo: Sea g:[a,b] [a,b] continua, entonces: a) g posee almenos un punto fijo. b) Si adems g(x) k<1, x [a,b], entonces el punto fijo es nico y si tomamos x0 [a,b], la sucesin xn+1 = g(xn) converge al punto fijo de g(x).

Convergencia del Mtodo del Punto Fijo


Aplicar el mtodo del punto fijofijo x* Tomando x0 cercano al punto a: zg(x) = cos x, 1 los iterados convergen linealmente a x*. si |g(x*)| < x0 zg(x) = 2/x2, x0=1 iterados no convergen a x*. si |g(x*)| > 1 los zg(x) = sqrt(2/x) , x0=1 si g(x*) = 0 los iterados convergen cuadrticamente a x*. y analizar los resultados.
Sugerencia: Usar la orden ITERATES(g(x), x, x0, n) de DERIVE y comparar los dos ltimos con 2^(1/3).

Algoritmo de Punto Fijo


z

Datos y Estimacin inicial: x0 y Precisin deseada: tol y Tope de iteraciones: maxiter Proceso: mientras no converja repetir y Nueva estimacin: x = g(x0) y Incremento: incr = |x - x0| y Actualizacin: x0 = x Resultado y Estimacin final: x

Mtodo de Newton
l

Ecuacin de la tangente

y f ( x) = f ' ( x)( x x)
l

(x0, f (x0)) f( x) x 1

Interseccin con OX

x= x f ( x) f ' ( x)
Paso genrico

xn += xn f ( xn ) f ' ( xn )

Convergencia del mtodo de Newton


l

Newton como iteracin de punto fijo

Ventaja: converge cuadrticamente si


-

g( x) = x f ( x) f ' ( x)
l

Derivada de la funcin de iteracin


-

la estimacin inicial es buena no se anula la derivada coste de la evaluacin disponibilidad

f ( x) f " ( x) g ' ( x) = f ' ( x)


l

Inconveniente: usa la derivada


-

g'(x ) = *

Convergencia cuadrtica

si

f '(x ) *

Algoritmo de Newton
z

Datos l Estimacin inicial: x l Precisin deseada: tol l Tope de iteraciones: maxiter Proceso: mientras no converja repetir l Incremento: incr = - f(x)/f(x) l Nueva estimacin: x = x + incr Resultado l Estimacin final: x

Mtodo de la secante
l

y f ( x) = m( x x)

Ecuacin de la secante

(x0,f(x0) ) f(x)

Interseccinxcon OX x = x f ( ) m
x0

x1 x 2 (x1,f(x1))

f(x Pendiente) f(x ) m= x x

Algoritmo de la secante
l

Datos: x0, x1, y0 Calcular: y1 = f(x1) Calcular: incr = -y1(x1-x0)/(y1-y0) Nueva estimacin: x2 = x1 + incr Actualizar para el paso siguiente: x0=x1; y0=y1; x1=x2

Newton versus Secante


l

El mtodo de Newton, cuando converge, lo hace cuadrticamente, a costa de evaluar la derivada en cada paso. Sin usar la derivada, el mtodo de la secante proporciona convergencia superlineal. Las ecuaciones polinmicas pueden resolverse por el mtodo de Newton, puesto que la derivada se obtiene fcilmente.