Anda di halaman 1dari 9

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/267232554

Variantes del método de Jarrat para sistemas no lineales

Article

CITATIONS READS

0 34

4 authors, including:

Juan R. Torregrosa Alicia Cordero


Universitat Politècnica de València Universitat Politècnica de València
240 PUBLICATIONS   2,027 CITATIONS    169 PUBLICATIONS   1,755 CITATIONS   

SEE PROFILE SEE PROFILE

José L. Hueso
Universitat Politècnica de València
124 PUBLICATIONS   593 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

Iterative methods without memory - Complex Dynamics View project

All content following this page was uploaded by José L. Hueso on 16 November 2014.

The user has requested enhancement of the downloaded file.


XXI Congreso de Ecuaciones Diferenciales y Aplicaciones
XI Congreso de Matemática Aplicada
Ciudad Real, 21-25 septiembre 2009
(pp. 1–8)

Variantes del método de Jarrat para sistemas no lineales

Juan R. Torregrosa1 , Alica Cordero1 , José L. Hueso1 ,


Eulalia Martı́nez2
1
Instituto de Matemática Multidisciplinar,
2
Instituto de Matemática Pura y Aplicada,
Universidad Politécnica de Valencia. 46022 Valencia.
E-mails: jrtorre@mat.upv.es, acordero@mat.upv.es, jlhueso@mat.upv.es, eumartin@mat.upv.es

Palabras clave: Método de Newton, orden de convergencia, ı́ndice de eficiencia.

Resumen
Una particular combinación de los métodos de Newton y Jarrat nos permite obtener
una familia de métodos iterativos para resolver sistemas de ecuaciones no lineales. En
estos métodos se alcanza una óptima relación entre el orden de convergencia y el
número de evaluaciones funcionales. Terminamos el trabajo con la presentación de
algunos resultados numéricos que confirman los resultados teóricos obtenidos.

1. Introducción.
Consideremos el problema de encontrar un cero de la función F : D ⊆ Rn −→ Rn , es
decir, una solución x̄ ∈ D del sistema no lineal F (x) = 0, de n ecuaciones y n incógnitas.
Esta solución puede ser obtenida como un punto fijo de alguna función G : Rn −→ Rn
mediante el método iterativo de punto fijo

x(k+1) = G(x(k) ), k = 0, 1, . . . ,

donde x(0) es la aproximación inicial. El método más conocido de este tipo es el método
de Newton, dado por

x(k+1) = x(k) − JF (x(k) )−1 F (x(k) ), k = 0, 1, . . . ,

donde JF (x(k) ) es la matriz jacobiana de la función F evaluada en la k-ésima iteración


x(k) .
Una técnica conocida para obtener métodos con altos órdenes de convergencia es la
composición de dos métodos iterativos de órdenes p1 y p2 , obteniendo un método de orden

1
Juan R. Torregrosa, Alicia Cordero, José L. Hueso, Eulalia Martı́nez

p1 p2 (ver [3]). En general, son necesarias nuevas evaluaciones de la matriz jacobiana y de


la función F para aumentar el orden de convergencia.
Para comparar diferentes métodos es interesante, además del orden de convergencia,
el ı́ndice de eficiencia I = p1/d (ver [2]), donde p es el orden de convergencia y d el número
total de nuevas evaluaciones funcionales (por iteración) necesarias para el método.
Puesto que los métodos presentados en este trabajo pueden considerarse como métodos
iterativos de punto fijo, estudiamos su convergencia utilizando el siguiente resultado.

Teorema 1.1 ([3]) Sea G(x) una función de punto fijo con derivadas parciales de orden p,
con respecto a todas las componentes de x, continuas. El método iterativo x(k+1) = G(x(k) )
es de orden p si

G(x̄) = x̄;
∂ k gi (x̄)
= 0, para todo 1 ≤ k ≤ p − 1, 1 ≤ i, j1 , . . . , jk ≤ n;
∂xj1 ∂xj2 . . . ∂xjk

y
∂ p gi (x̄)
6= 0, para al menos un valor de i, j1 , . . . , jp ,
∂xj1 ∂xj2 . . . ∂xjp

donde gi son las funciones coordenadas de G.

En la Sección 2 componemos el método de Jarrat, de orden 4, con el método de New-


ton de orden 2, obteniendo un nuevo método de orden 8. Para conseguir un método más
eficiente, estimamos la última matriz jacobiana que aparece en cada paso del proceso ite-
rativo en términos de otras ya calculadas, obteniendo ası́ una familia de métodos iterativos
dependiente de dos parámetros.
En la Sección 3 demostramos que, en general, los métodos obtenidos tienen orden de
convergencia 5 y para determinados valores de los parámetros podemos alcanzar orden 6.
La última sección está dedicada a los resultados numéricos obtenidos al aplicar el método
de Newton y algunas de las variantes descritas a la resolución de determinados sistemas no
lineales. A partir de estos resultados comparamos los diferentes métodos y confirmamos
los resultados teóricos obtenidos.

2. Descripción de los métodos


Sea F : D ⊆ Rn −→ Rn , una función suficientemente diferenciable y x̄ ∈ D una
solución del sistema no lineal F (x) = 0.
Para n = 1 Jarrat estableció en [1] el método que lleva su nombre, cuyo orden de
convergencia es 4 y cuya expresión iterativa viene dada por

2 F (xk )
zk = xk −
3 F 0 (xk ) µ ¶ (1)
1 F (xk ) 3F 0 (zk ) + F 0 (xk )
yk = xk −
2 F 0 (xk ) 3F 0 (zk ) − F 0 (xk )

2
Variantes del método de Jarrat para sistemas no lineales

Este método se puede extender con relativa facilidad a sistemas no lineales, mante-
niendo el orden de convergencia. La expresión iterativa que resulta es:

z (k) = x(k) − 23 JF (x(k) )−1 F (x(k) )


¡ ¢−1 ¡ ¢
y (k) = x(k) − 21 3JF (z (k) ) − JF (x(k) ) 3JF (z (k) ) + JF (x(k) ) JF (x(k) )−1 F (x(k) )

y lo denotamos por JM.


Como ya hemos comentado, podemos obtener nuevos métodos iterativos de orden
elevado a partir del siguiente resultado.

Teorema 2.1 ([3]) Sea G1 (x) y G2 (x) funciones de punto fijo de F (x) = 0. Considere-
mos los métodos iterativos correspondientes x(k+1) = G1 (x(k) ) and x(k+1) = G2 (x(k) ) de
orden p1 y p2 , respectivamente. Entonces, el orden de convergencia del método iterativo
correspondiente a la función de punto fijo G(x) = G2 (G1 (x)) es p1 p2 .

Siguiendo esta idea, diseñamos un nuevo método, al que denotamos por NJ, compo-
niendo el método de Jarrat con el método de Newton, obteniendo un método de orden 8.
Para disminuir el número de evaluaciones funciones, y en consecuencia aumentar el ı́ndice
de eficiencia del método NJ, proponemos estimar la jacobiana del método de Newton por
una combinación lineal de jacobianas ya calculadas. Ası́ el nuevo método, al que denotamos
por RN, tendrá la siguiente expresión:

z (k) = x(k) − 23 JF (x(k) )−1 F (x(k) )


¡ ¢−1 ¡ ¢
y (k) = x(k) − 12 3JF (z (k) ) − JF (x(k) ) 3JF (z (k) ) + JF (x(k) ) JF (x(k) )−1 F (x(k) )
¡ ¢−1
x(k+1) = y (k) − αJF (x(k) ) + βJF (z (k) ) F (y (k) )
(2)
Observemos que se trata de una familia de métodos dependiente de dos parámetros,
cuyos valores van a ser determinantes en la convergencia de los métodos.

3. Convergencia de los métodos


El siguiente resultado establece la convergencia de los métodos anteriores para diferen-
tes valores de los parámetros α y β.

Teorema 3.1 Sea F : D ⊆ Rn −→ Rn una función suficientemente diferenciable en cada


punto de un entorno abierto D de x̄ ∈ Rn , que es una solución del sistema F (x) = 0.
Supongamos que JF (x) es continua y no singular en x̄. Entonces la sucesión {x(k) }k≥0
obtenida a partir de la expresión (2) converge a x̄ con orden de convergencia 5 para los
1
métodos de la familia que verifiquen α + β = 1. Además, el método obtenido con α = −
2
3
y β = , denotado por RRN, tiene orden de convergencia 6.
2
Demostración: La prueba de este resultado es bastante técnica y se apoya en el Teorema
1.1. Consideremos la función G de punto fijo del método descrita como

G(x) = µ(x) − (αJF (x) + βJF (λ(x)))−1 F (µ(x)), (3)

3
Juan R. Torregrosa, Alicia Cordero, José L. Hueso, Eulalia Martı́nez

donde
2
λ(x) = x − H(x)F (x),
3
3 1
µ(x) = x − M (x)JF (λ(x))H(x)F (x) − M (x)F (x)
2 2
y
M (x) = (3JF (λ(x)) − JF (x))−1 ,
siendo H la inversa de la matriz jacobiana de F .
Esta expresión es equivalente a:

[αJF (x) + βJF (λ(x))] (G(x) − µ(x)) + F (µ(x)) = 0. (4)

Denotamos por gi , λi y µi , i = 1, 2, . . . , n, las funciones coordenadas de G(x), λ(x) y


µ(x), respectivamente. Entonces, se puede demostrar que
∂λi (x̄) 1
= δik (5)
∂xk 3
y
n
∂ 2 λi (x̄) 2X ∂ 2 fj (x̄)
= Hij (x̄) , i, k, l ∈ {1, 2, . . . , n} (6)
∂xk ∂xl 3 ∂xk ∂xl
j=1

Mas aun, siendo j, a, b, c ∈ {1, 2, . . . , n} arbitrarios, podemos afirmar a partir del Teo-
rema 1.1 que
∂µj (x̄) ∂ 2 µj (x̄) ∂ 3 µj (x̄)
= = = 0, (7)
∂xa ∂xa ∂xb ∂xa ∂xb ∂xc
ya que µ(x) es la función de iteración del método de Jarrat cuyo orden de convergencia es
4.
La i-ésima componente de (4) es:
n
X
(αJij (x) + βJij (λ(x))) (gj (x) − µj (x)) + fi (µ(x)) = 0 (8)
j=1

y, derivando (8) parcialmente respecto de xl , siendo i y l arbitrarios y fijos,


  
X n Xn Xn
α ∂Jij (x)  ∂Jij (λ(x)) ∂λq1 (x) 
+β (gj (x) − µj (x)) +
∂xl ∂λq1 (x) ∂xl
j=1 j=1 q1 =1
 
Xn Xn µ ¶
∂gj (x) ∂µj (x) (9)
+ α Jij (x) + β Jij (λ(x)) − +
∂xl ∂xl
j=1 j=1
n
X ∂fi (µ(x)) ∂µq1 (x)
+ = 0.
∂µq1 (x) ∂xl
q1 =1

Cuando x = x̄, teniendo en cuenta que gj (x̄) = x̄j , µj (x̄) = x̄j , fi (x̄) = 0 y (7),
tenemos:
n
X ∂gj (x)
(α + β) Jij (x̄) = 0.
∂xl
j=1

4
Variantes del método de Jarrat para sistemas no lineales

Puesto que i y l son arbitrarios y JF (x̄) es no singular, si α + β 6= 0, entonces


∂gj (x̄)
= 0. (10)
∂xl
Ahora, derivando (9) parcialmente respecto a xr , siendo r arbitrario y fijo, substitu-
yendo x = x̄ y realizando algunas operaciones, obtenemos
n
X ∂ 2 gj (x̄)
(α + β) Jij (x̄) = 0.
∂xr ∂xl
j=1

Por tanto, si α + β 6= 0, concluimos que:


∂ 2 gj (x̄)
= 0. (11)
∂xr ∂xl
Para analizar el orden 4, volvemos a calcular las parciales con respecto a xs , siendo s
arbitrario y fijo, y evaluamos el resultado en x = x̄. Obtenemos:
n
X ∂ 3 gj (x̄)
(α + β) Jij (x̄) = 0. (12)
∂xs ∂xr ∂xl
j=1

Por tanto, como JF (x̄) es no singular, podemos concluir que el orden de todos los métodos
de la familia, verificando α + β 6= 0 es, al menos, 4.
Derivando de nuevo parcialmente respecto a xt , siendo t arbitrario y fijo y evaluando
la expresión resultante en x = x̄ se obtiene

n
X X n
∂ 4 gj (x̄) ∂ 4 µj (x̄)
(α + β) Jij (x̄) − (α + β − 1) Jij (x̄) = 0. (13)
∂xt ∂xs ∂xr ∂xl ∂xt ∂xs ∂xr ∂xl
j=1 j=1

Por tanto, si α + β = 1, y asumimos que JF (x̄) es no singular


n
X ∂ 4 gj (x̄)
Jij (x̄) = 0, (14)
∂xt ∂xs ∂xr ∂xl
j=1

por lo que el orden de convergencia de los métodos (2), cuyos parámetros verifican α + β =
1, es 5.
Finalmente, al derivar una vez más parcialmente con respecto a xu , siendo u arbitrario
y fijo, evaluando la expresión en x = x̄ y teniendo en cuenta que α + β = 1, resulta

n
X n
∂ 5 gj (x̄) β X ∂Jij (x̄) ∂ 4 gj (x̄)
Jij (x̄) − (α + ) −
∂xu ∂xt ∂xs ∂xr ∂xl 3 ∂xl ∂xu ∂xt ∂xs ∂xr
j=1 j=1
n · ¸
β X ∂Jij (x̄) ∂ 4 gj (x̄) ∂Jij (x̄) ∂ 4 gj (x̄)
−(α + ) + − (15)
3 ∂xr ∂xu ∂xt ∂xs ∂xl ∂xs ∂xu ∂xt ∂xr ∂xl
j=1
n · ¸
β X ∂Jij (x̄) ∂ 4 gj (x̄) ∂Jij (x̄) ∂ 4 gj (x̄)
−(α + ) + = 0,
3 ∂xt ∂xu ∂xs ∂xr ∂xl ∂xu ∂xt ∂xs ∂xr ∂xl
j=1

5
Juan R. Torregrosa, Alicia Cordero, José L. Hueso, Eulalia Martı́nez

β
y, si α + 3 = 0 también se verifica, la expresión (15) se reduce a:

∂ 5 gj (x̄)
Jij (x̄) = 0, (16)
∂xu ∂xt ∂xs ∂xr ∂xl

1
y los únicos valores de los parámetros que verifican estas dos condiciones son α = − and
2
3
β = . Ahora, aplicando Teorema 1.1, concluimos que la expresión iterativa (2) converge
2
a x̄ con orden de convergencia 6. Con ello el resultado queda demostrado.
1
Observemos que el ı́ndice de eficiencia del método RN es IRN = 5 2n+2n2 para cualquier
1
valor de los parámetros α y β verificando α + β = 1, y IRRN = 6 2n+2n2 para RRN, con
1 3
α = − y β = . En la Figura 1 mostramos los ı́ndices de eficiencia de los métodos JM,
2 2
RN, RRN y método de Newton para diferentes valores del tamaño del sistema no lineal.
Notemos que el método RRN tiene, para n > 2, el ı́ndice de eficiencia mas alto, siendo el
método RN el segundo en términos de eficiencia. Para valores altos de n se mantiene esta
tendencia, aunque las diferencias entre los distintos métodos se hacen mas pequeñas.

Figura 1: Índices de eficiencia

6
Variantes del método de Jarrat para sistemas no lineales

4. Resultados numéricos
En esta sección vamos a analizar la eficacia de los diferentes métodos numéricos intro-
ducidos en el trabajo, ası́ como del método de Newton, a la hora de estimar los ceros de
los siguientes sistemas.

(a) F (x1 , x2 ) = (sin(x1 ) + x2 cos(x1 ), x1 − x2 ), x̄ = (0, 0)T .


√ √ √
(b) F (x1 , x2 ) = (exp(x21 ) − exp( 2x1 ), x1 − x2 ), x̄ = ( 2, 2)T .

2 2 2 2 1 1 3 T
(c) F (x1 , x2 ) = (x1 + x2 − 1, x1 − x2 + 2 ), x̄ = ( , ) .
2 2

(d) F (x) = (f1 (x) , f2 (x) , . . . , fn (x)), donde x = (x1 , x2 , . . . , xn )T y


fi : Rn → R, i = 1, 2, . . . , n, tal que

fi (x) = xi xi+1 − 1, i = 1, 2, . . . , n − 1
fn (x) = xn x1 − 1.

Cuando n es impar, los ceros de F (x) son x̄1 = (1, 1, . . . , 1) y x̄2 = (−1, −1, . . . , −1).
Los resultados que aparecen en la Tabla 1 se han obtenido pata n = 99 y todos los
métodos convergen a x̄1 .

(e) F (x1 , x2 ) = (x1 + exp(x2 ) − cos(x2 ), 3x1 − x2 − sin(x2 )), x̄ = (0, 0)T .

(f) F (x1 , x2 ) = (3x21 + exp(x2 ) sin(x2 ) − 3, x1 x2 − sin(x2 )), x̄ = (1, 0)T .

Los cálculos numéricos se han realizado con Matlab, utilizando aritmética de precisión
variable que usa representación en coma flotante de 200 dı́gitos decimales de mantisa.
Cada iterado x(k+1) es obtenido a partir del anterior, x(k) , sumándole un término de la
forma A−1 b donde x(k) ∈ Rn , A es una matriz real de tamaño n × n y b ∈ Rn . La matriz
A y el vector b son diferentes dependiendo del método utilizado, si bien en cualquier caso
el cálculo de −A−1 b se realiza resolviendo el sistema lineal Ay = −b, utilizando el método
de eliminación de Gauss con pivotación ° parcial. ° ° ¡ ¢°
El criterio de parada utilizado es °x(k+1) − x(k) ° + °F x(k) ° < 10−100 . Por tanto,
estamos garantizando que los iterados convergen a un lı́mite y que ese lı́mite es una solución
del sistema no lineal.
En la Tabla 1 presentamos los resultados obtenidos al utilizar los métodos anterior-
mente descritos para estimar los ceros de las funciones de (a) a (f). Para cada ejemplo
mostramos los siguientes datos: la aproximación inicial x(0) y, para cada método, el núme-
ro de iteraciones necesario y el orden de convergencia computacional p, estimado a partir
de la expresión: ¡° ° ° °¢
ln °x(k+1) − x(k) ° / °x(k) − x(k−1) °
p ≈ ¡° ° ° °¢ .
ln °x(k) − x(k−1) ° / °x(k−1) − x(k−2) °
De hecho, el valor de p que aparece en la Tabla 1 es la última coordenada del vector p
cuando la variación entre sus coordenadas es pequeña. Notar que el método RN ha sido
usado para los valores de los parámetros α = 12 and β = 12 .

7
View publication stats

Juan R. Torregrosa, Alicia Cordero, José L. Hueso, Eulalia Martı́nez

Tabla 1: Resultados numéricos

F (x) x(0) Iteraciones p


N NJ RN RRN N NJ RN RRN
(a) (0,8, 0,8)T 9 4 5 5 3.0 15.9 7.0 7.0
(b) (2, 2)T 12 5 6 5 2.0 8.0 5.0 6.0
(c) (0,1, 1)T 11 5 5 5 2.0 8.0 5.0 6.0
(d) (2, . . . , 2)T 7 3 4 4 2.0 - 4.6 5.5
(e) (2, −2)T 198 63 46 60 - - 5.0 6.0
(f) (0, 1)T 331 112 151 141 1.0 1.0 1.0 1.0

∂ 2 fi (x̄)
Si analizamos los resultados de la Tabla 1 observamos que en el caso de =0
∂xa ∂xb
para todo i, a, b, como en el ejemplo (a), el orden de convergencia de los métodos aumenta:
el método de Newton tiene orden 3, mientras que el método NJ tiene un orden de con-
vergencia computacional cercano a 15 y los métodos RN y RRN tienen orden 7. Si dicha
condición no se verifica, el orden de convergencia computacional de los métodos modifi-
cados coincide con los valores teóricos, si bien los nuevos métodos parecen mas eficientes,
en cuanto al número de iteraciones, que el método de Newton. Por otra parte, cuando la
matriz jacobiana es singular en algunos puntos, como en los ejemplos (e) y (f), los nuevos
métodos muestran una mayor estabilidad que el método de Newton. Ası́ mismo, en el
ejemplo (d) ponemos de manifiesto que la eficiencia de los métodos se mantiene aunque
los sistemas sean de gran tamaño.

Agradecimientos
Este trabajo está realizado dentro del proyecto de investigación del Ministerio de Cien-
cia y Tecnologı́a MTM2007-64477.

Referencias
[1] P. Jarrat, Some fourth order multipoint iterative methods for solving equations, Math. Comp., 20,
434–437, (1966).
[2] A.M. Ostrowski, Solutions of equations and systems of equations, Academic Press, New York-London,
1966.
[3] J.F. Traub, Iterative methods for the solution of equations, Chelsea Publishing Company, New York,
1982.

Anda mungkin juga menyukai