Anda di halaman 1dari 7

Resolución de ecuaciones en una variable

Resolución de ecuaciones en una variable

1. Método de bisección

Este método se basa en el teorema de valores intermedios, especı́ficamente en el hecho de


que en un intervalo [ a, b] habrá al menos una raı́z si f ( a) · f (b) < 0. El método consiste en dividir a
la mitad repetidamente los subintervalos de [ a, b] y, en cada iteración, escoger como aproximación
el punto medio de ese nuevo intervalo en donde se encuentre la raı́z, como se muestra en la figura
1

Figura 1: Método de bisección

Se considera que este método no es muy eficiente por cuanto converge lentamente a la solu-
ción, es decir, se deben realizar muchas iteraciones antes de encontrar una solución con un bajo
nivel de error.

Para determinar una cota de error para el método, se considera que este genera una sucesión
{ pn } que aproxima a la raı́z p y que cumple

b−a
| pn − p| <
2n

Sin embargo, es frecuente que en la práctica el número de iteraciones necesarias para obtener
determinada aproximación con cierta cota de error, sea menor que el valor teórico dado por el
teorema.

Métodos Numéricos 1
Resolución de ecuaciones en una variable

2. Método del punto fijo

Se dice que p es un punto fijo de la función f si cumple que f ( p) = p. El problema de


encontrar las raı́ces de una ecuación es equivalente a encontrar puntos fijos de funciones alternas
basadas en la ecuación original. Por ejemplo, sea f ( x ) = 0; se puede definir entonces una función
alterna g como g( x ) = x − f ( x ), cuyos puntos fijos serán ceros de la función f .

El método considera una sucesión bastante simple para calcular la aproximación del punto
fijo de una función en un intervalo dado, para lo que se deben cumplir las siguientes tres condi-
ciones:

g debe ser continua en [ a, b]


g( x ) ∈ [ a, b], ∀ x ∈ [ a, b]
existe un k < 1 para el cual | g0 ( x )| ≤ k < 1

Para aproximar el punto fijo de g( x ), se necesita una aproximación inicial p0 ∈ [ a, b] con la


cual se genera la sucesión { pn }, donde

p n = g ( p n −1 )

con la que se obtiene la solución de la función original f de donde se obtuvo la función alterna g.
Este proceso se conoce como iteración del punto fijo.

Figura 2: Método del punto fijo

Para determinar cotas de error para el valor generado por la sucesión { pn } se considera
kn
| pn − p| ≤ | p0 − p1 |
1−k
donde n representa el número de iteraciones necesarias para obtener la cota de error indicada.

Métodos Numéricos 2
Resolución de ecuaciones en una variable

3. Método de Newton-Raphson

Este método se basa en el desarrollo de Taylor de la función f la cual es componente de la


ecuación f ( x ) = 0. Se conoce como un método abierto pues requiere una aproximación inicial
para iniciar el proceso iterativo y es considerado uno de los más poderosos y eficientes para
resolver ecuaciones, dada su rapidez de convergencia.

Sea f ∈ C2 [ a, b] ( f continua y dos veces derivable en [ a, b]) y sea p ∈ [ a, b] tal que f ( p) = 0


pero f 0 ( p) 6= 0, entonces existe δ > 0 tal que el método genera una sucesión { pn } convergente a
p para cualquier aproximación inicial p0 ∈] p − δ, p + δ[.

Para poder utilizar este método, basta con que la función f cumpla las siguientes propieda-
des:

para cumplir que p sea una raı́z de f ( x ) = 0 en [ a, b] es necesario que f ( a) · f (b) < 0.

para que el método no falle, se requiere que f 0 y f 00 sean no nulas y conserven el signo en
todo el intervalo [ a, b].

para x0 ∈ [ a, b] se debe cumplir que f ( x0 ) · f 00 ( x0 ) > 0

Figura 3: Método de Newton-Raphson

A partir de una aproximación p0 , el método genera una sucesión { pn } con la fórmula:

f ( p n −1 )
p n = p n −1 − ; n≥1
f 0 ( p n −1 )

El método tiene como desventajas el hecho de que diverge en puntos de inflexión y que
puede fallar si la selección del punto inicial o uno de los valores iterados pasa cerca de un punto
crı́tico de la función dada.

Métodos Numéricos 3
Resolución de ecuaciones en una variable

4. Método de la secante

Este método no requiere de un intervalo en el cual la función tenga un cero, sino que parte
de dos valores arbitrarios de inicio p0 y p1 ; luego la aproximación p2 es la intersección con el eje
x de la recta que contiene los puntos (( p0 ), f ( p0 )) y (( p1 ), f ( p1 )). Asimismo, la aproximación p3
es la intersección con el eje x de la recta que contiene los puntos (( p1 ), f ( p1 )) y (( p2 ), f ( p2 )) y
ası́ sucesivamente, como se muestra en la figura 4.

Figura 4: Método de la secante

A partir de la fórmula de Newton, se obtiene la manera de obtener la sucesión para el méto-


do de la secante:
f ( pn−1 )( pn−1 − pn−2 )
p n = p n −1 −
f ( p n −1 ) − f ( p n −2 )

Métodos Numéricos 4
Resolución de ecuaciones en una variable

5. Método de la cuerda (regula falsi)

Este método es similar al de la secante, pues consiste en encontrar la recta que pasa por dos
puntos de la función que se obtiene de la ecuación f ( x ) = 0, con la diferencia de que en este
método se utilizan los puntos ( a, f ( a)) y (b, f (b)), en donde [ a, b] es un intervalo en el cual la
función f tiene una raı́z.

De otra manera, este método funciona similarmente al de la secante, solo que incluye una
prueba para asegurar que la raı́z siempre está contenida en las iteraciones sucesivas.

Figura 5: Método de la cuerda o regula falsi

La sucesión para encontrar la raı́z de f es:

a n f ( bn ) − bn f ( a n )
pn =
f ( bn ) − f ( a n )

donde los valores an y bn se van escogiendo en cada iteración de forma que la raı́z de f siempre
se encuentre en [ an , bn ].

Métodos Numéricos 5
Resolución de ecuaciones en una variable

6. Aceleración de la convergencia

Sea { pn } una sucesión que converge a p. Si existen las constantes positivas α y λ tales que

| p n +1 − p |
lı́m =λ
n→∞ | pn − p |α

entonces se dice que { pn } converge a p con orden α y con una constante de error asintótico λ.

En general, una sucesión con un alto grado de convergencia, converge más rápidamente que
una sucesion con un bajo orden. La constante asintótica afecta la rapidez de convergencia pero no
para todo el orden. Dos casos de orden de convergencia tienen especial atención:

si α = 1 (λ < 1), la sucesión converge linealmente.

si α = 2, la sucesión converge de forma cuadrática.

6.1. Método de Aiken

El método ∆2 de Aitken se utiliza para acelerar la convergencia de una sucesión que conver-
ge linealmente. Para utilizarlo, se deben cumplir las siguientes condiciones:

{ pn } converge linealmente a p con constante de error λ tal que 0 < λ < 1.


los signos de pn − p, pn+1 − p y pn+2 − p son iguales.

se asume que para n suficientemente grande se cumple que


p n +1 − p p −p
≈ n +2
pn − p p n +1 − p

Luego, el método ∆2 de Aitken se basa en considerar que la sucesión { pbn } definida por

( p n +1 − p n )2
pbn = pn −
pn+2 − 2pn+1 + pn

converge más rápidamente que la sucesión original { pn }.

Métodos Numéricos 6
Resolución de ecuaciones en una variable

6.2. Método de Steffensen

Este es un método que resulta de combinar el ∆2 de Aitken con el método del punto fijo. De
esta manera, dada g la función que utiliza el método del punto fijo para encontrar la aproximación
de la raı́z de f , se establece la sucesión de Steffensen:

( g ( p n ) − p n )2
p n +1 = pn −
g ( g( pn )) − 2g( pn ) + pn

La sucesión se desarrolla con una notación distinta a la del punto fijo, pues utiliza tanto el
método de Aitken como el de iteración del punto fijo. Ası́, los términos de la sucesión son:

p00 = p0

p01 = g( p00 )

p02 = g( p01 )

p10 = ∆2 p00

p11 = g( p10 )

.. ..
. .

Métodos Numéricos 7

Anda mungkin juga menyukai