Graficación
2
Ej.: x*cos(x^2) = 0
Solución de Ecuaciones 1.5
no lineales fplot('(x*cos(x^2))',[-2,2])
0.5
-0.5
-1.5
es decir encontrar x / f(x) = 0 con x ∈ [a, b]. en [0.5, 2], x3=1.2533 -2.5
-2 -1.5 -1 -0.5 0 0.5 1 1.5 2
-3
x 10
0.6 8
- Es posible siempre despejar x? 0.5
6 ezplot ('x*cos(x^2) ‘,[-2,2])
- Se puede implementar cualquier despeje en un programa de 0.4
0.3
4
computación? 0.2 2
fplot(@fun,[-2,2])
0.1
0
0 function y=fun(x);
-2
-0.1
y=x*cos(x^2);
-0.2 -4
-0.3 -6
0.8 0.9 1 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.246 1.248 1.25 1.252 1.254 1.256 1.258 1.26
y=f(x)
raíz α a un término xn de la sucesión 0
ε
x1= m(x0) , siendo m() una función correspondiente a un mencionada, donde n es el menor -0 .2
... método numérico entero positivo que satisface:
-0 .4
xn= m(xn-1), |xn- α|< |xn-1- α|< |xn-2- α|< ... < |x0- α| |f(xn) | < ε1.
-1 .4 -1 .2 -1
x
y=f(x)
0
Como α es desconocida, podemos asumir que: |f(xn) | < ε1 ó |xn – xn-1| < ε2 -10
0.9 1 1.1
ε
-0.2 no necesariamente indica que xn esté muy cerca de α.
| x n+1 - x n | = |x n+1 - α + α - x n |
≤ |x n+1 - α | + | x n - α | < ε2 + ε2 ≤ 2 ε2 < ε2 Además, para garantizar que una sucesión converge a la raíz
-0.4
buscada, la función f deberá satisfacer ciertas condiciones que
⇒ |xn – xn-1| < ε2 ó |xn – xn-1| / |xn| < ε2 evitaran una sucesión divergente.
-1.4 -1.2 -1
error absoluto error relativo x
La convergencia puede ser "muy lenta", por lo cual se hace
necesario establecer una cota para n, es decir, imponer un máximo
|xn- xn-1| → 0 y n indica el número de iteración. número de iteraciones.
f(x) = cos(x)+1-x
Consiste en dividir sucesivamente el intervalo [a,b] por la mitad, 1
hasta que la longitud del sub-intervalo que contiene a la raíz α fplot('cos(x)+1-x',[1 2]) -1
-3
1 -4
-2 -1 0 1 2 3 4 5
y
f(x) f(a) < 0
f(b) . f(b) > 0
Si b-a > ε
0.5
a b
(a+b)/2
Resultados
a =1 b=2
ε xi = (a+b)/2 0 b =1.5000
a xi
a = 1.2500
*α b x Si f(xi) > 0 b = xi
-0.5
a b
b = 1.3750
f(xi) Siguiente iteración
b = 1.3125
sino a = xi
f(a) . Siguiente iteración -1 a = 1.2813
b = 1.2969
sino fin b = 1.2891
-1.5
1 1.2 1.4 1.6 1.8 2
X0=[a,b] b = 1.2852
a = 1.2832
a a b
b
⇒ f(α) = 0 f(x)=x+cos(x2)
• Se pueden alejar de la raíz de interés (van probablemente a otra
α
raíz). ⇒ α = g(α) 0
º
• Tienen la ventaja que cuando convergen lo hacen "más y=x
rápidamente" que las sucesiones generadas por los métodos -0.5
Y
Un número α tal que
cerrados. α = g(α) se dice un º g(x)=-cos(x2)
• Necesidad de intervención del usuario (o de procesamiento punto fijo de la -1
a
-1.5
-1.5 -1 -0.5 0 0.5
a X b
entonces g(x) tiene por lo menos un punto • Por teorema del punto fijo xn = g(xn-1) 0
g´(ξ)
fijo en [a, b] . ⇒ xi+1-xi = g´(ξ)(xi-xi-1) ⇒ |xi+1-xi| = |g´(ξ)| |xi-xi-1| -0.5
ξ g(x)
suponiendo g´(ξ) acotada, |g´(ξ)| ≤ K -1
o
Si además, g’(x) existe para todo x ∈ [a, b] y ⇒ K<1 ∴ |g´(ξ ξ)| <1 -1.5
entonces g(x) tiene un único punto fijo α en [a, b] . ⇒ |x3-x2| ≤ K |x2-x1| ≤ K (K |x1-x0|) ≤ K2 |x1-x0| -2.5
0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1 1.1
K
iii) ε = α − x n ≤ x n − x n −1 , para cada n ≥ 1 con K = max(g' (x)) en [a, b]
1−K
f(x)=x+cos(x2)
x1 x3 α x4x2 x0
0
º |g’(x)| <1
y=x
-0.5 Converge g’(x) > -1 Converge g’(x) < 1
Y
º
g(x)=-cos(x2)
-1
|g’(x)| <1
a
-1.5
-1.5 -1 -0.5 0 0.5
a X b
Diverge g’(x) > 1 Depende del valor inicial
Ventajas y desventajas
del método de punto fijo
Método de Newton-Raphson
Dada una función f que satisface la hipótesis general en un
Ventajas:
intervalo [a, b] y un valor inicial x0 ∈ [a, b] "cercano" a la raíz.
• Simple
• Posee condiciones para asegurar la convergencia. El método de Newton-Raphson consiste es trazar una recta
Es condición necesaria que |g'(x)| <1 en cercanías de la raíz tangente a f que pase por el punto (x0, f(x0)), considerando una
aproximación x1 a la raíz al punto en el cual dicha recta tangente
Desventajas: corta al eje x, es decir el punto (x1, 0)
• La convergencia depende de la magnitud de g’(x).
f(x 0 ) − 0 f ( x0 )
• Necesidad de construir funciones g(x) para iterar. Pueden ⇒ se tiene que f' (x o ) = ∴ x1 = x 0 −
x 0 − x1 f ' ( x0 )
existir diversas g(x), necesidad de encontrar la adecuada.
Se puede emplear un método sistemático para construir las y en general, para cada n ≥ 1
funciones.
f ( x n −1 )
g(x) = x - λ f(x) con λ = 1/ max (|f '(x)|) en [a,b]. x n = x n −1 −
f ' ( x n −1 )
Velocidad de convergencia en
Ventajas y desventajas del
raíces múltiples
método de Newton
Ventajas:
Orden de una raíz:
• Convergencia rápida. El método de Newton converge
Si f(x) y sus derivadas f’(x)….f(M)(x) están definidas y son cuadraticamente para raíces simples y linealmente para
continuas en un intervalo [a,b] que contiene a la raíz α raíces múltiples.
⇒ f(x) tiene una raíz de orden M en α si • Encuentra raíces complejas (el valor inicial debe ser
f(α) = 0, f’(α) = 0,…, f(M-1)(α) = 0 y f(M)(α) ≠ 0. complejo)
⇒ f(x) = (x - α)Mh(x) con h(x) ≠0.
Desventajas:
Fórmula de iteración de Newton acelerada para raíces • Necesita calcular la derivada. (Método de la secante).
múltiples: • No se pueden prever la cantidad de iteraciones a partir de una
M * f ( xn −1 ) cota de error.
xn = xn −1 −
f '( xn −1 ) • No siempre converge. (No se puede asegurar la convergencia
si en [a,b], f’(x) = 0, f’’(x) cambia de signo, la tangente cae
fuera del intervalo).
Método de la secante
Convergencia del
El método de Newton-Raphson para aproximar una raíz simple α
de una ecuación f(x) = 0 , consiste en generar la sucesión {xn}n a Método de la secante
partir de la fórmula de iteración y
f(x)
f ( x n −1 )
x n = x n −1 − La fórmula de iteración coincide con el método de la Regla
f '( x n −1 )
Reemplazando f’(x) por su aprox. f(x2) Falsa.
x0 x1 α
f ( x n −1 ) − f ( x n −2 ) * En el método de la Regla Falsa los dos puntos deben
. x2 x
f '( x n −1 ) =
x n −1 − x n − 2 f(x1)
encerrar a la raíz buscada y el método siempre converge.
Se obtiene
x n = x n −1 −
.
f ( x n −1 )( x n −1 − x n −2 ) f(x0)
En el método de la Secante los dos puntos iniciales no
necesariamente encierran a la raíz buscada lo que puede
f ( x n −1 ) − f ( x n − 2 ) provocar divergencia del método.
que es la fórmula de iteración del método de la secante.
En este método se necesitan dos valores iniciales, que no
necesariamente encierran a la raíz.