Marina Andretta
ICMC-USP
17 de agosto de 2010
17 de agosto de 2010
1 / 16
Veremos agora um resumo dos algoritmos existentes mais comuns para resolu c ao de problemas de minimiza c ao irrestrita, ou seja,
Minimizar f (x )
(1)
17 de agosto de 2010
2 / 16
Todos os algoritmos para resolu c ao de problemas de minimiza c ao irrestrita precisam de um ponto inicial x0 . O usu ario com conhecimento da aplica c ao e do conjunto de dados referente ao problema a ser resolvido pode fornecer uma boa aproxima c ao x0 para a solu c ao do problema. Quando uma boa aproxima c ao n ao e conhecida, um ponto arbitr ario pode ser escolhido como x0 . Iniciando em x0 , algoritmos de otimiza c ao geram uma sequ encia de iterandos {xk } que termina quando n a o e mais poss vel obter progresso k =0 ou quando uma solu c ao e encontrada com precis ao suciente.
17 de agosto de 2010
3 / 16
Para decidir como mover de um ponto xk para o pr oximo, algoritmos usam a informa c ao de f em xk e, possivelmente, informa c ao sobre os iterandos anteriores x0 , x1 , ..., xk 1 . Eles usam esta informa c ao para calcular o novo iterando xk +1 com valor de fun c ao menor do que xk . Existem algoritmos n ao-mon otonos, que n ao exigem que o valor da fun c ao decres ca a cada itera c ao. Mas mesmo estes algoritmos exigem que o valor da fun c ao descres ca depois de um n umero xo m de itera c oes. H a duas estrat egias fundamentais para se mover do ponto xk para o pr oximo iterando xk +1 : busca linear e regi oes de conan ca.
17 de agosto de 2010
4 / 16
Minimizar>0 f (xk + pk ).
(2)
Resolvendo este problema exatamente, obter amos o ponto com melhor valor de fun c ao na dire c ao pk (a partir de xk ).
17 de agosto de 2010
5 / 16
xk +1 = xk + k pk .
A partir do novo ponto calculado xk +1 , uma nova dire c ao pk +1 e calculada, uma nova busca pelo tamanho de passo e feita e um novo iterando e calculado. Este processo e repetido at e que uma solu c ao para o problema original (1) seja encontrada.
Marina Andretta (ICMC-USP) sme5720 - Otimiza c ao n ao-linear 17 de agosto de 2010 6 / 16
Minimizarp mk (xk + p ),
(3)
xk +1 = xk + p .
O processo e repetido at e que uma solu c ao para o problema original (1) seja encontrada.
Marina Andretta (ICMC-USP) sme5720 - Otimiza c ao n ao-linear 17 de agosto de 2010 8 / 16
T mk (xk + p ) = fk + p T fk + 1 2 p Bk p ,
17 de agosto de 2010
9 / 16
Uma das maneiras de medir a performance de um algoritmo e calcular sua ordem de converg encia. Seja {xk } a sequ encia em IR n que converge a x . Dizemos que a converg encia e Q-linear se existe uma constante r (0, 1) tal que
xk +1 x xk x
r,
17 de agosto de 2010
11 / 16
Isto signica que a dist ancia ` a solu c ao x diminui a cada itera c ao de, pelo menos, um fator constante. Por exemplo, a sequ encia 1 + (0.5)k converge Q-linearmente a 1. O prexo Q vem de quociente, j a que o tipo de converg encia e denido em termos dos quocientes dos erros sucessivos.
17 de agosto de 2010
12 / 16
limk
xk +1 x xk x
= 0.
17 de agosto de 2010
13 / 16
xk +1 x xk x 2
M,
para todo k sucientemente grande. M e uma constante positiva, n ao necessariamente menor do que 1. Por exemplo, a sequ encia 1 + (0.5)2 converge Q-quadraticamente para 1.
k
17 de agosto de 2010
14 / 16
A velocidade de converg encia depende de r e, mais fracamente, de M . Estes valores dependem n ao s o do algoritmo, mas das propriedades do problema particular. No entanto, independentemente destes valores, uma sequ encia Q-quadraticamente convergente sempre convergir a, a partir de um momento, mais r apido do que uma sequ encia Q-linearmente convergente. Obviamente, se uma sequ encia converge Q-quadraticamente, ela tamb em converge Q-superlinearmente. E se uma sequ encia converge Q-superlinearmente, ela tamb em converge Q-linearmente.
17 de agosto de 2010
15 / 16
Estas s ao as ordens de converg encia mais usadas na pr atica. Mais geralmente, dizemos que a Q-ordem de converg encia de uma sequ encia ep (para p > 1) se existe uma constante positiva M tal que
xk +1 x xk x p
M,
17 de agosto de 2010
16 / 16