Anda di halaman 1dari 8

Introduccin.

Unidad 4. Mtodo de optimizacin sin restricciones.


Optimizacin sin restricciones.
En optimizacin sin restricciones se minimiza una funcin objetivo quede variables reales
sin restricciones sobre los valores de esas variables.
El mtodo sin restricciones puede ayudar en gran manera a la solucin de ciertas clases de
problemas complejos en el rea de ingeniera causando un impacto significativo en la
solucin de ciertos Problemas. Optimizar una funcin es el proceso que permite encontrar
el valor mximo y/o mnimo que puede tomar una funcin as como aquellos valores de la
variable independiente que hacen que la funcin sea ptima.
En muchos problemas las restricciones se pueden incluir dentro de la funcin objetivo, por
lo que la dimensionalidad del problema se reduce a una variable. Algunos problemas sin
restricciones, inherentemente incluyen una nica variable. Las tcnicas de optimizacin con
y sin restricciones, generalmente incluyen pasos de bsqueda unidireccional en sus
algoritmos. En optimizacin sin restricciones se minimiza una funcin objetivo que
depende de variables reales sin restricciones sobre los valores de esas variables.
La formulacin matemtica es:
(OSR) = _minx
f(x) IRn
Donde f es una funcin suficientemente regular.
Ejemplo:
Se intenta encontrar una curva que ajuste algunos datos experimentales, por ejemplo
medidas y1, . . . , y m de una seal tomadas en los tiempos
t1, . . . , tm.
Desde los datos y el conocimiento de la aplicacin, se deduce que la seal tiene un
comportamiento exponencial y oscilatorio, y se elige modelarlo por la funcin:

(t, x) = x1 + x2e (x3t)2/x4 + x5 cos(x6t)


Los nmeros reales xi, i = 1.. 6 son los parmetros del modelo. Se desea
seleccionarlos de manera que los valores del modelo (tj, x) ajusten los datos
observados yj tanto como sea posible. Para establecer el objetivo como un problema de
optimizacin, se agrupan los parmetros xi en un vector de incgnitas (x1.., x6)t y se
definen los residuos
rj(x) = yj (tj, x), j= 1, . . .,m
Que miden la discrepancia entre el modelo y los datos observados. La estimacin de x se
obtendr resolviendo el problema:
(MC)=_minxIR6
f(x) = r(x)tr(x)/2
Este es un problema de mnimos cuadrados no lineales, que es un caso especial de
optimizacin sin restricciones. Si el nmero de medidas es grande (por ejemplo 105), la
evaluacin de f o sus derivadas para un valor concreto del vector de parmetros x es
bastante caro desde el punto de vista computacional.

Mtodo de Newton (Raphson).


El mtodo de Newton (conocido tambin como el mtodo de Newton-Raphson o el mtodo
de Newton-Fourier) es un algoritmo para encontrar aproximaciones de los ceros o races de
una funcin real. Tambin puede ser usado para encontrar el mximo o mnimo de una
funcin, encontrando los ceros de su primera derivada.

El mtodo de Newton-Raphson es un mtodo abierto, en el sentido de que no est


garantizada su convergencia global. La nica manera de alcanzar la convergencia es
seleccionar un valor inicial lo suficientemente cercano a la raz buscada. As, se ha de
comenzar la iteracin con un valor razonablemente cercano al cero (denominado punto de
arranque o valor supuesto). La relativa cercana del punto inicial a la raz depende mucho
de la naturaleza de la propia funcin; si sta presenta mltiples puntos de inflexin o
pendientes grandes en el entorno de la raz, entonces las probabilidades de que el algoritmo
diverja aumentan, lo cual exige seleccionar un valor puesto cercano a la raz. Una vez que
se ha hecho esto, el mtodo linealiza la funcin por la recta tangente en ese valor supuesto.
La abscisa en el origen de dicha recta ser, segn el mtodo, una mejor aproximacin de la
raz que el valor anterior.
Se realizarn sucesivas iteraciones hasta que el mtodo haya convergido lo suficiente.
Sea f: [a, b] -> R funcin derivable definida en el intervalo real [a, b]. Empezamos con un
valor inicial x0 y definimos para cada nmero natural.
Tres son las formas principales por las que tradicionalmente se ha obtenido el algoritmo de
Newton-Raphson.
La primera de ellas es una simple interpretacin geomtrica. En efecto, atendiendo al
desarrollo geomtrico del mtodo de la secante, podra pensarse en que si los puntos de
iteracin estn lo suficientemente cerca (a una distancia infinitesimal), entonces la secante
se sustituye por la tangente a la curva en el punto. As pues, si por un punto de iteracin
trazamos la tangente a la curva, por extensin con el mtodo de la secante, el nuevo punto
de iteracin se tomar como la abscisa en el origen de la tangente (punto de corte de la
tangente con el eje X).
Mtodo de gradiente conjugado.

El mtodo del gradiente conjugado es un algoritmo para resolver numricamente los


sistemas de ecuaciones lineales cuyas matrices son simtricas y definidas positivas. Es un
mtodo iterativo, as que se puede aplicar a los sistemas dispersos que son demasiado
grandes para ser tratados por mtodos directos como la descomposicin de Cholesky. Tales
sistemas surgen frecuentemente cuando se resuelve numricamente las ecuaciones en
derivadas parciales.
El mtodo del gradiente conjugado se puede utilizar tambin para resolver los problemas de
optimizacin sin restricciones como la minimizacin de la energa. El mtodo del gradiente
conjugado proporciona una generalizacin para matrices no simtricas. Varios mtodos del
gradiente conjugado no lineales buscan los mnimos de las ecuaciones no lineales.
Supongamos que queremos resolver el siguiente sistema de ecuaciones lineales
Ax = b
Donde la n-por-n matriz A es simtrica (i.e.., AT = A), definida positiva (i.e., xTAx > 0 para
todos los vectores no cero x en Rn), y real.
Denotamos la nica solucin de este sistema por x*.
Mtodo de davison fletcher - powel.
La frmula Davidon-Fletcher-Powell (o DFP; lleva el nombre de William C. Davidon,
Roger Fletcher y Michael Powell JD) encuentra la solucin a la ecuacin de la secante que
est ms cercana a la estimacin actual y satisface la condicin de curvatura. Fue el primer
mtodo cuasi-Newton para generalizar el mtodo de la secante a un problema
multidimensional. Esta actualizacin mantiene la simetra y definitud positivo de la matriz
de Hesse.

Unidad 5. Mtodo de Optimizacin con restricciones.


En la optimizacin matemtica, la optimizacin con restricciones es el proceso de
optimizacin de una funcin objetivo con respecto a algunas variables con restricciones en
las mismas. La funcin objetivo es, o bien una funcin de coste o funcin de energa que
debe ser minimizada, o una funcin de recompensa o funcin de utilidad, que ha de ser
maximizado. Las restricciones pueden ser tanto restricciones duras que establecen
condiciones para las variables que se requieren para estar satisfecha, o restricciones blandas
que tienen algunos valores de las variables que estn penalizados en la funcin objetivo si,
y basados en la medida en que, las condiciones en las variables no son satisfecho.
Forma general[editar]
Un problema general de minimizacin restringida se puede escribir como sigue:
donde and son las restricciones que se requieren para ser satisfacer el resultado; stas
se llaman restricciones duras.
En algunos problemas, a menudo llamados problemas de optimizacin con restricciones,
la funcin objetivo es en realidad la suma de funciones de coste, cada una penaliza la
medida (si la hay) en la que una restriccin blanda (una restriccin que se prefiere pero no
se requiere para ser satisfecho) es violada.

Mtodos de solucin[editar]
Muchos algoritmos de optimizacin con restricciones se pueden adaptar al caso sin
restricciones, a menudo a travs del uso de un mtodo de penalizaciones. Sin embargo,
los pasos de bsqueda obtenidas por el mtodo sin restricciones pueden ser inaceptables
para el problema restringida, lo que lleva a una falta de convergencia. Esto se conoce
como el efecto Maratos.1

Restricciones de igualdad[editar]
Si el problema restringido slo tiene restricciones de igualdad, el mtodo de los
multiplicadores de Lagrange puede ser utilizado para convertirlo en un problema sin
restricciones cuyo nmero de variables es el nmero original de las variables ms el

nmero original de restricciones de igualdad. Alternativamente, si las restricciones son


todas las restricciones de igualdad y son lineales, que se pueden resolver para algunas de
las variables en trminos de los otros, y la antigua pueden ser sustituidos de la funcin
objetivo, dejando un problema sin restricciones en un nmero menor de variables.

Restricciones de desigualdad[editar]
Con restricciones de desigualdad, el problema puede ser caracterizado en trminos de
las condiciones de Karush-Kuhn-Tucker, en la que los problemas pueden ser resueltos.

Programacin lineal[editar]
Si la funcin objetivo y todas las restricciones son lineales, entonces el problema es
problema de programacin lineal. Esto se puede resolver por el mtodo simplex.

Anda mungkin juga menyukai