BACHILLERES:
C.I: 19.192.119 Burgos Raibellys
C.I: 20.867.895 Suarez Lindy
Ing. Sistemas
Diciembre de 2012
VI Semestre “S61”
Ing. Walter Ayala
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Matriz Hessiana: matriz simétrica formada por las derivadas parciales del
gradiente de una función. La matriz Hessiana da información de la curvatura de una
función:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
que se llama la ecuación secante (la serie de Taylor de la propia gradiente). En más de una
dimensión es bajo determinado . En una dimensión, para resolver y la etapa de
aplicación de Newton con el valor actualizado es equivalente al método de la secante .Los
diversos métodos cuasi-Newton difieren en su elección de la solución a la ecuación de la
secante (en una dimensión, todas las variantes son equivalentes). La mayoría de los
métodos (aunque con excepciones, como el método de Broyden ) buscan una solución
simétrica ( ), Por otro lado, las variantes que figuran a continuación pueden
estar motivados por la búsqueda de una actualización que está tan cerca como sea
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
cierta matriz definida como matriz positiva que define la norma. Un valor aproximado
inicial de a menudo es suficiente para lograr una rápida convergencia. Lo
desconocido se actualiza aplicando el paso de Newton, que se calcula utilizando la
actual matriz hessiana aproximada de :
𝑞𝑘 = 𝑔𝑘+1 − 𝑔𝑘 ; 𝑝𝑘 = 𝑥𝑘+1 − 𝑥𝑘
𝒒𝒌 = 𝑭𝒑𝒌 (1)
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Ejemplo Ilustrativo:
Método: Descenso más rápido
𝒇(𝒙) = 𝟐. 𝟓𝒙𝟐 + 𝟐. 𝟓𝒚𝟐 + 𝟐. 𝟓𝒛𝟐 + 𝟐. 𝟓𝒘𝟐 + 𝟐𝒙𝒚 + 𝟐𝒘𝒛 − 𝒙 − 𝟐𝒚 − 𝟑𝒛 − 𝟒𝒘
𝟏
𝒇(𝒙) = 𝟐 𝒙𝑻 𝑭𝒙 − 𝒃𝒙
𝛁𝒇(𝒙) = 𝒈(𝒙) = 𝑭𝒙 − 𝒃
Primera Iteración:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Segunda Iteración:
Tercera Iteración:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Cuarta Iteración:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Ejemplo Ilustrativo:
Descripción y Puntos Iniciales:
Métodos: Descenso Rápido, Actualización del Hessiano de rango a uno
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Primera Iteración:
Segunda Iteración:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Tercera Iteración:
Cuarta Iteración:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
Existe una gran similitud entre los esfuerzos actuales por mejorar los métodos de
métrica variable y aquellos que buscan mejorar los métodos de gradiente conjugado. Por
tanto, mucho de lo descrito en métodos de gradiente conjugado aplica también para los
métodos de métrica variable.
Davidon (1975) ha propuesto una clase de actualizaciones que permiten
búsquedas lineales inexactas. Powell (1977) estableció posteriormente la propiedad de
terminación cuadrática de estos métodos en la ausencia de búsquedas lineales. Pareciera
ser que un método de métrica variable con terminación cuadrática pero sin la necesidad
de búsquedas lineales costosas seria robusto y rápido en funciones generales. Goldfarb
(1977) se cuenta entre los que han explorado esta promisoria línea de investigación.
En general, el método de Davidon-Fletcher-Powell suele reinicializarse (es decir,
hacemos A = I) después de N actualizaciones. Esto es usualmente una medida muy
conservadora, ya que pueden requerirse muchos más pasos antes de que realmente se
requiera una reinicialización. La necesidad de reinicializar se incrementa conforme
empeora el valor de condicionamiento de la matriz:
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
McCormick (1972), Shanno (1978) y Shanno & Phua (1979) han investigado de
manera extensiva la relación entre el gradiente conjugado y los métodos de métrica
variable.
Shanno ve a los métodos de gradiente conjugado como métodos de métrica
variable “sin memoria”.
La mayor parte de los investigadores coinciden en la actualidad en afirmar que
estas 2 clases de métodos comparten mucho más de lo que originalmente se creía.
Además, resulta claro que las muchas variantes de los métodos de métrica variable
tienen mucho en común en la práctica (Dixon, 1972), lo que hace que se tenga que
sopesar cuidadosamente el costo computacional adicional de los métodos más complejos.
Shanno & Phua (1978) proporcionan numerosos resultados que favorecen el uso del
método de Broyden-Fletcher-Goldfarb-Shanno.
Los métodos de métrica variable han sido utilizados de manera extensiva para el
desarrollo de técnicas de optimización para problemas con restricciones. También hay una
cantidad importante de trabajo en torno a hacer los métodos de métrica variable más
atractivos para problemas grandes.
Los métodos de gradiente conjugado son los que suelen considerarse como los
mejores para problemas de alta dimensionalidad (o sea, aquellos con muchas variables de
decisión). Sin embargo, se han logrado muchos avances en lo que a los métodos de
métrica variable se refiere, sobre todo en aquellos casos en los que la matriz Hessiana es
dispersa.
Optimización No Lineal
Método de Cuasi Newton & Método de la Métrica Variable
(BK)dK = −∇f(xK)
4. Calcular tK > 0 por una regla de búsqueda lineal adecuada.
Hacer xK+1 = xK + tkdk
∇f(xK). Hacer k = k + 1. Ir a 2.
Optimización No Lineal