Anda di halaman 1dari 38

UNIVERSIDAD DE ANTOFAGASTA

FACULTAD DE INGENIERÍA
DEPTO. INGENIERÍA INDUSTRIAL

APUNTE

PROGRAMACION

MATEMATICA

2011
UNIVERSIDAD DE ANTOFAGASTA
FACULTAD DE INGENIERÍA
DEPTO. INGENIERÍA INDUSTRIAL

INDICE
Página

CAPÍTULO 1: PROGRAMACIÓN NO LINEAL (Teoría de Optimización Clásica) .................. 2


1.1.- PROBLEMA UNIDIMENSIONAL NO RESTRINGIDO ................................................ 2
1.2.- PROBLEMA MULTIDIMENSIONAL NO RESTRINGIDO .......................................... 5
1.3.- NOCIONES BÁSICAS DE CONVEXIDAD.................................................................... 9
1.3.1.- Conjuntos Convexos ................................................................................................... 9
1.3.2.- Funciones Cóncavas y Convexas ................................................................................ 9
1.3.2.- Máximos Locales y Globales .................................................................................... 10
1.4.- OPTIMIZACIÓN MULTIVARIABLE: RESTRICCIONES DEL TIPO IGUALDAD . 12
1.4.1.- Caso Bidimensional. Método de Lagrange ............................................................... 12
1.4.2.- Caso Multidimensional: Muchas restricciones. ........................................................ 16
1.5.- OPTIMIZACIÓN MULTIVARIABLE: RESTRICCIONES DE DESIGUALDAD ..... 22
1.5.1.- Restricciones de No Negatividad .............................................................................. 25
1.5.2.- Condiciones de KARUSH-KUHN-TUCKER (KKT) .............................................. 29
Introducción
La programación matemática es un moderno campo dentro de las matemáticas
aplicadas orientado al diseño de metodologías para resolver, desde un punto de vista
práctico y quizás usando un computador, problemas de optimización con recursos
limitados. Estos problemas aparecen frecuentemente en los procesos de toma de
decisión en contextos de economía, Ingenieria, Química, Biología, etc.
El contexto de la programación matemática nace a partir de la Investigación
Operativa (I.O.), esta parte de la ciencia puede ser entendida como un puente entre la
realidad y la matemática que pretende resolver problemas de aquella con técnicas en
esta. Este enlace no es simple y directo, sino que sigue las pautas del llamado método
científico.

Experimentación

Realidad Matemática

Validación

Figura 1: Investigación Operativa como puente

La clave es el concepto de modelo (Matemático). Los modelos son


representaciones simplificadas de sistemas reales, que tratan de destacar las
relaciones principales entre ciertos objetos. Los elementos controlables en la realidad
se traducen en variables en el modelo, y mediante ecuaciones/ inecuaciones se tratan
de modelizar sus aplicaciones en las limitaciones de los recursos. Esta simplificación
no es gratis, sino que viene necesariamente forzada por la complejidad general de la
realidad, al tiempo que por la exigencia de total precisión en la matemática. Ahora
bien dado que la simplificación produce una distorsion entre el sistema real (el
problema) y su imagen matemática (el modelo), se precisan diversos procesos de
control para garantizar unos mínimos de idoneidad de las conclusiones extraídas.
Estos procesos de control ( procesos de validación) no son nada simples y requieren
numerosas fases interactivas entre realidad y matemática oportunamente conducida.

1
CAPÍTULO I: PROGRAMACIÓN NO LINEAL

(Teoría de Optimización Clásica)

1.1.- PROBLEMA UNIDIMENSIONAL NO RESTRINGIDO


Un punto extremo de una función f (x) define un máximo o un mínimo de la función.
Matemáticamente, un punto x * x1 , x2 ,, xn es un máximo si:
f ( x* x) f ( x* )

Sabiendo que f (x) es de clase C1, se puede representar esta condición en otros
términos. Al aplicar el teorema de Taylor se tiene, cerca de x*, que:
f ( x* x ) f ( x * ) f ' ( x * ) x o( x )
entonces
o( x )
0, cuando x 0
x

Se puede resumir que:


f ' ( x * ) x o( x ) 0

Si x 0, haciendo que x 0:
f ' ( x* ) 0

Ahora si x 0, haciendo que x 0 , obtenemos que:


f ' ( x* ) 0

Como x es arbitrario, podemos deducir que x* es un máximo local si cumple que:


df
f ' ( x* ) 0
dx x*

De la ecuación anterior, nosotros concluimos que los máximos locales se encuentran


en las raíces de dicha derivada. Lo anterior se conoce como la condición necesaria de
primer orden, pero lo anterior también es valido para un mínimo local.

Para determinar si efectivamente es un máximo local, es necesario derivar las


condiciones de segundo orden. Bajo el supuesto de f ( x) C 2 y efectuando el mismo
análisis de la serie de Taylor, tenemos que:

1
f (x* x) f (x* ) f ' (x* ) x f ' ' (x* ) x 2 o( x )
2

2
Donde:
o( x 2 )
0, cuando x 0
x2

Como f ' ( x * ) 0 , al remplazarlo en la serie de Taylor, tenemos que:


1
f ' ' ( x * ) x 2 o( x 2 ) 0
2

Donde x 0 , se tiene que x* es un máximo local si cumple que:


f ' ' ( x* ) 0

Las condiciones suficientes que aseguren que x* es un máximo local, se puede


analizar intuitivamente, es decir, si x* es tal que f ' ( x * ) 0 y f ' ' ( x* ) 0 , el posible
pensar que x* tiene que ser un máximo local. Así:
f ' ( x* ) 0 y f ' ' ( x* ) 0

y utilizando
1
f (x* x) f (x* ) f ' (x* ) x f ' ' (x* ) x 2 o( x )
2

Entonces
1
f (x* x) f (x* ) f ' ' (x* ) x 2 o( x )
2
se obtiene que:
f (x* x) f ( x * ), x 0

La ecuación anterior es suficiente para asegurar que x* es un máximo local. Hay que
tener cuidado cuando f ' ' ( x * ) 0 , si es así y f ' ' ' ( x * ) 0 , se dice que x* es un punto
de inflexión, como se ilustra en la siguiente figura (en este caso, la función f (x) esta
sobre un intervalo [a,b]):
f(x)

[ ] x
máximo mínimo máximo
a inflexión b
(local) (local) (global)

3
*
En un punto de inflexión f ' ' ( x ) 0
En un mínimo local f ' ' ( x * ) 0
En un máximo local f ' ' ( x * ) 0

Generalizando, se puede establecer que si f ( x) C n en el punto x* es óptimo (mínimo


o máximo) si y solo si n es par, es decir, f ( x * ) es un máximo (mínimo) si:
f n ( x * ) 0( 0) .

En resumen, hemos encontrado las condiciones necesarias y suficientes para


caracterizar un punto máximo (mínimo) local, asociado al siguiente problema
max
f ( x)
sa :
x X

Ejemplo:
Se tiene el siguiente problema
max
f ( x) x( x 3) 2

Desarrollo:
Primero se analiza las condiciones de primer orden:
f ' ( x* ) 0
f ' ( x * ) ( x 3) 2 x(2( x 3)) x 2 6 x 9 2 x 2 6 x 3x 2 12 x 9 x2 4x 3 0
f ' ( x * ) ( x 3)( x 1) 0
x1* 3
*
x 2 1

Con lo anterior, se obtuvo dos puntos óptimos, pero son ambos máximos (mínimos) o
máximo-mínimo (mínimo-máximo). Para determinarlo, se analiza ahora la condición
de segundo orden:
f ' ' ( x * ) ( )0

f ' ' ( x* ) 2 x 4
f ' ' ( x1* ) 2 x1* 4 2 * 3 4 2 0 mínimo local
* *
f ''(x ) 2x2 2 4 2 *1 4 2 0 máximo local

De esta manera, existe un máximo local estricto en x2*=1 con una valor de f(1)=4.
Además, existe una mínimo local estricto en x1*=3 con una valor de f(3)=0. En la figura
siguiente se ve este caso:

4
f(x)

f(x)=x(x-3)2

0 x
1 3
máximo mínimo
(local) (local)

1.2.- PROBLEMA MULTIDIMENSIONAL NO RESTRINGIDO


Ahora veremos que podemos utilizar lo analizado anteriormente para caracterizar un
punto óptimo x n
, Es decir, el problema a abordar es determinar x*, tal que:
max
f ( x1 , x2 ,, xn )
sa :
x ( x1 , x2 ,, xn )T n

Similar al caso unidimensional, asumamos que existe un máximo local y es x*, luego,
cerca de x* se debe cumplir que:
f ( x * h x) f ( x * )

T
Con h , h 0 y suficientemente pequeño y x ( x1 , , x n ) una dirección
cualquiera en n . Esta condición nos dice que si nos movemos en torno a x*, el valor
de la función f evaluada en x* debe ser mayor. Supongamos primero que f ( x) C 1 y
utilizando serie de Taylor en torno a h = 0, tenemos que:
f ( x* )
f ( x * h x) f ( x * ) h x o( h )
x

Entonces,
o( h)
0, cuando h 0
h

Observemos que en este caso el gradiente de la función f esta denotada por:


f f f
f ,,
x x1 xn

5
Se puede resumir que:
f ( x* )
h x o( h) 0
x

Si h 0, , entonces:
f ( x* ) o( h)
x 0
x h

Si haciendo que h 0 , nos acercamos a x*, obtenemos que en el límite:


f ( x* )
x 0
x

Ahora si h 0, haciendo que h 0 , obtenemos que:


*
f (x )
x 0
x
n
Como x , es decir, se puede mover en cualquier dirección es arbitrario,
podemos deducir que x* es un máximo local si cumple que:
f (x* )
0
x

De esta manera, la ecuación anterior nos entrega la condición necesaria de primer


orden. Recordemos que lo anterior implica que existen n ecuaciones, las cuales deben
satisfacer el punto óptimo x*, es decir, los valores de x* deben ser soluciones del
siguiente sistema (lo cual puede ser bastante difícil resolverlo numéricamente):
f (x* )
0
x1

f (x* )
0
x2

Para determinar si efectivamente es un máximo local, es necesario derivar las


condiciones de segundo orden. Bajo el supuesto de f ( x) C 2 y efectuando el mismo
análisis de la serie de Taylor, tenemos que:
f ( x* ) 1 2 T 2 f ( x* )
f ( x * h x) f ( x * ) x h x 2
x o(h 2 )
x 2 x

f (x* )
Como 0 , al remplazarlo en la serie de Taylor, tenemos que:
x
1 2 T 2 f ( x* )
h x 2
x o( h 2 ) 0
2 x

6
Donde h 0 , se tiene que x* es un máximo local si cumple que
2
T f ( x* ) n
x x 0, x
x2

Lo anterior se conoce como la condición necesaria de segundo orden. Entonces, la


2
f (x* )
expresión 2
, corresponde al Hessiano de la función evaluada en x*, es decir:
x
2 2 2
f f f
2

x1 x1 x 2 x1 x n
2
f  
2
H (x* )
x  
2 2 2
f f f
 2
x n x1 xn x2 xn

Finalmente, es posible verificar que si:


f (x* )
0
x
2
T f ( x* )
x x 0
x2

Son condiciones suficientes para que x* sea un máximo local, lo cual implica que
cumple que
f ( x * ) f ( x * h x)
para h suficientemente pequeño y cualquier dirección x arbitraria.

Ejemplo
Sea
f ( x1, x 2) x1 ( x1 3) 2 5 x22

Desarrollo:
Analicemos las condiciones de primer orden para nuestro problema:
f ( x* )
0
x
x1' 1
f ( x1 ) ( x1 3) 2 2 x1 ( x1 3) ( x1 3)( x1 1)
x1'' 3
f ( x2 ) 10 x2 0

De esta manera, se tienen dos puntos óptimos, los cuales son:


( x1' , x2 )* (1,0) ( x1'' , x2 )* (3,0)

7
Pero falta efectivamente definir si son máximos, mínimos o de inflexión. Para
resolverlo, analicemos el Hessiano:
2
f 6 x1 12 0
2
x 0 10
6 0
H (1,0)
0 10
6 0
H (3,0)
0 10

Es necesario analizar las condiciones de segundo orden, para lo cual utilizaremos el


Hessiano, el cual deberá ser negativo o positivo o indefinido. Entonces, veamos los
valores propios, es decir:
H ( x) I 0

Analicemos el primer punto:


H (1,0) I 0
6 0 0
0
0 10 0
6 0 2
( 6 )( 10 ) 0 (60 6 10 ) ( 6)( 10) 0
0 10
1 6 2 10

Como los dos autovalores son negativos, implica que el Hessiano es definida
negativa, condición necesaria y suficiente de segundo orden para el punto (1,0) y, por
lo tanto, es un máximo local.

Analicemos, ahora, el segundo punto:

H (3,0) I 0
6 0 0
0
0 10 0
6 0 2
(6 )( 10 ) 0 ( 60 6 10 ) ( 6)( 10) 0
0 10
1 6 2 10

En este caso, como los dos autovalores tienen signos alternos, implica que el
Hessiano es indefinido, condición necesaria y suficiente de segundo orden para el
punto (1,0) no sea un óptimo, es decir, este punto se conoce como punto silla.

8
1.3.- NOCIONES BÁSICAS DE CONVEXIDAD
Las nociones de conjunto convexo y funciones convexas nos proporcionan una
interpretación geométrica a las condiciones de segundo orden derivadas
anteriormente y nos permite desarrollar consideraciones sobre máximos globales.

1.3.1.- Conjuntos Convexos


El conjunto C n
, se dice convexo si para cada par de puntos x1 y x2 C y cada
número real , con 0 1 , el punto:
x x1 (1 ) x 2 C

Geométricamente, el set es convexo si para cada par de puntos arbitrarios del set, la
línea que los une también pertenece al set, veamos gráficamente un set convexo y no
convexo:

x2
x1

x2

x1

Set Convexo Set no Convexo

Veamos un ejemplo, ¿es el hiperplano X x | ax b convexo?. Por definición,


tenemos que sea x1 y x2 X y 0 1 , entonces:
1 2
x x (1 ) x /*a
ax ax1 (1 )ax 2 b

Por lo tanto, x X , donde X es convexo

1.3.2.- Funciones Cóncavas y Convexas


Geométricamente, una función convexa es de la siguiente forma:
f(x)

9
En cambio, una función cóncava es de la siguiente forma:
f(x)

De esta manera, la definición de: una función f definida en el set convexo se dice
cóncava, si para cada x1 y x2 y 0 1
1 2
f ( x (1 ) x ) f ( x1 ) (1 ) f ( x 2 )

Si para 0 1 y x1 x2, se tiene que


f ( x1 (1 ) x 2 ) f ( x1 ) (1 ) f (x2 )
f se dice estrictamente cóncava.

Por lo tanto, como f es cóncava, entonces –f es convexa y nuestra definición anterior


también es válida para este caso.

Si f C 2 , es posible relacionar la concavidad de la función f con el Hessiano, es


decir: sea f C 2 definida en el set abierto y convexo , luego f es cóncava si y sólo
si el Hessiano de f es negativo semidefinido para cada x , en cambio, f es
estrictamente cóncava si y sólo si el Hessiano de f es negativo definido para cada
x . Es decir:
H ( x) I 0

1. Si todos los autovalores 0 , el Hessiano es positiva definida.


2. Si todos los autovalores 0 , el Hessiano es negativa definida.
3. Si los autovalores 0 , el Hessiano es positiva semidefinida.
4. Si los autovalores 0 , el Hessiano es negativa semidefinida.
5. Si los autovalores , el Hessiano es indefinida.

1.3.2.- Máximos Locales y Globales


Sabemos que siempre un máximo global es un máximo local, pero lamentablemente,
la afirmación inversa no es válida. Desde el punto de vista práctico, obtener un
máximo global puede ser de gran importancia, por lo cual, es necesario establecer
condiciones que nos permitan asegurar cuando un máximo local es un máximo global.

10
De esta manera, se tiene el siguiente resultado: sea f cóncava definida en el set
convexo . El conjunto de puntos en los cuales f alcanza sus máximos es
convexo y todo máximo local de f es un máximo global.

x x

Otro resultado importante es: sea f una función cóncava (convexa) definida en el set
convexo cerrado y acotado . El valor mínimo (máximo) de f sobre está en un
borde del set . En otras palabras, una función cóncava definida en el set convexo
puede tener su valor máximo en el interior o en el borde de , pero su valor mínimo
siempre estará en el borde.
f(x)

x
x** x*

x*:máximo
x**:mínimo

Finalmente, la relación que existe entre concavidad y unicidad de la solución óptima:


si f es cóncava, sabemos que todo máximo es global, pero no necesariamente único.
Geométricamente, es razonable pensar que la unicidad de x* está asociada con la
concavidad estricta de f. En efecto, sea f estrictamente cóncava, y supongamos que x *
e y* son máximos globales; por la concavidad estricta de f tenemos que (0 1) :
f ( y* (1 ) x* ) f ( y * ) (1 ) f ( x* ) f ( x* )

Lo cual contradice que x* e y* sean máximos globales, de donde si la función es


estrictamente cóncava, el máximo global es único.

11
1.4.- OPTIMIZACIÓN MULTIVARIABLE: RESTRICCIONES DEL TIPO
IGUALDAD
Las variables de decisión están restringidas a un cierto set de de oportunidades de
n
X . De esta manera, el set de oportunidades esta caracterizada por el conjunto
de restricciones de la forma:
g j ( x1 ,...,xn ) a j , j 1..m

El problema consiste en determinar el vector x, tal que:


max
f ( x)
sujeto a :
g ( x) a
Donde:
X T ( x1 ,...,xn )
f ( x) f ( x1 ,...,xn )
T
g g1 ,...,g m
T
a a1 ,...,am , con a j
m n

La diferencia de este problema con el de sin restricciones, es que el set de


oportunidades no es un set abierto, debido a:
X x / g ( x) a

1.4.1.- Caso Bidimensional. Método de Lagrange


Para entender de mejor manera este tipo de problema, veamos el caso mas simple
que es de dos variables (n=2) y una restricción (m=1). Entonces:
max
f ( x1 , x2 )
sujeto a :
g ( x1 , x2 ) a

En este caso, se asume que las funciones f y g tienen derivadas continuas de


segundo orden, es decir, f y g C 2 y a es un número real.

Para derivar las condiciones necesarias de primer orden, supongamos que existe un
óptimo local x* ( x1* , x2* ) y que, cerca de x*, se puede expresar x2 en función de x1, a
partir de la restricción única existente, es decir: x2 = h(x1).

12
Reemplazando la ecuación anterior en la función objetivo, nos queda:
max
f ( x1 , h( x1 ) F ( x1 )

La condición necesaria de primer orden es:


dF f f dh
0
dx1 x1 x2 dx1
donde las derivadas están evaluadas en x*.

dh
Pero como obtenemos en valor de , utilizando la siguiente relación:
dx1
g ( x1 , h( x1 )) a

Luego, derivando con respecto a x1


g g dh
0
x1 x2 dx1

Evaluando las derivadas en x*, entonces:


g
dh x1
dx1 g
x2
g
donde 0 , pero evaluada en x*.
x2

Combinando anterior con la de primer orden, evaluada en x*, se tiene que:


f
f x2 dg
0
x1 g dx1
x2

Entonces, se puede definir el número


f
x2
g
x2

En que las derivadas están evaluadas en x*, entonces se puede generalizar para
nuestro caso:
f dg
0, i 1,2
xi dxi

13
Finalmente, las condiciones necesarias de primer orden son:
f dg
0, i 1,2
xi dxi
g(x1 ,x2 ) a

Geométricamente, nuestro problema se puede representar como:


x2

f(x1,x2)=c
(curva de nivel)

x1
g(x1,x2)=a
Óptimo restringido

Óptimo no restringido

La figura nos permite identificar que en el óptimo la pendiente de la restricción y la


curva de nivel correspondiente a la función objetivo son iguales, es decir, las
condiciones de primer orden indican que en el óptimo se debe cumplir que:
f g
x1 x1
f g
x2 x2

De esta manera, mediante un estudio de pendientes, se establece que en el punto


óptimo ambas pendientes son iguales, tal situación es la siguiente:
dx2 dx2
dx1 curva nivel dx1 restricción

Lo anterior describe el procedimiento conocido como el método de Lagrange. Para


identificar los puntos críticos del problema de optimización con restricción de igualdad,
se define la Función de Lagrange, el cual convierte el problema original con una
restricción a un problema no restringido, de la siguiente manera:
max
L( x1 , x2 , ) f ( x1 , x2 ) (a g ( x1 , x2 ))

14
Entonces, las condiciones de primer orden son:
L f dg
0, i 1,2
xi xi dxi
L
a g(x1 ,x2 ) 0
Dónde:
g
0 , evaluado en x*
x2

Ejemplo:
min
f ( x1 , x2 ) 2 x1 x1 x2 3x2
s.a :
x12 x2 3

1°: Método Gráfico:


x2 7

6
f(x1,x2)=2x1+x1x2+3x2=c
(curva de nivel)
5

g(x1,x2)=x12+x2=3
2

3 -1 32 x1
-11 -10 -9 -8 -7 -6 -5 -4 -3 -2 1 3 4 5
-1

-2

-3

-4

-5

-6

-7

-8

-9

-10

15
De la gráfica, se puede apreciar que no existe un mínimo local para este caso.

2°: Método de Lagrange

El Lagrangiano asociado al problema es:


max
L( x1 , x2 , ) 2 x1 x1 x2 3x2 (3 ( x12 x2 ))
De esta manera, analizando las condiciones de primer orden, tenemos que:
L
2 x2 2 x1 0
x1
L
x1 3 0
x2
L
3 x12 x2 0
Reemplazando la segunda ecuación en la primera y su resultado en la tercera, se
tiene que:
3 x1

2 x2 2 x1 (3 x1 ) 2 x2 6 x1 2 x12 0
2
x2 2x 1 6 x1 2

3 x12 2 x12 6 x1 2 3 x12 6 x1 5 0


x1' no x1'' no

En este caso, no existe un mínimo local, es decir, no es posible encontrar un valor


mínimo a la función objetivo, cuando las dos variables decrecen.

1.4.2.- Caso Multidimensional: Muchas restricciones.


n
Extenderemos lo anterior al problema mas general, en que x y tenemos m
restriccones del tipo g i ( x) ai , i 1,, m; m n . Se asume que f y g C p , p 1 y
suponemos que x* ( x1* , x2* ,, xn* ) es un máximo local. De esta manera, el sistema
queda determinado por las restricciones del tipo:
g1 ( x1 , x2 ,, xn ) a1
g 2 ( x1 , x2 ,, xn ) a2

g m ( x1 , x2 ,, xn ) am

que tiene m ecuaciones y n variables. Podemos pensar en resolver este sistema


dejando m variables en función de las (n-m) restantes. Si esto es posible, se puede

16
proceder de manera análoga al caso bidimensional, es decir, transformar el problema
con restricciones en uno sin restricciones.

Lo anterior es posible si x* es un punto regular de las restricciones, vale decir, si los


vectores gradientes de las restricciones evaluadas en el punto x*
g1 * g
( x ),, m ( x * )
x x
son linealmente independientes. Esta condición requiere que el Jacobiano de las
restricciones evaluadas en el punto x* tenga rango m, es decir:
g1 g1
 
x1 xn
 
J ( x)
 
g1 gm
 
x1 xn

En un punto regular es posible caracterizar el plano tangente a la superficie definida


por las restricciones g i ( x) ai , i 1,, m , en términos de los gradientes de estas
restricciones.

Suponiendo que x* es un punto regular, entonces podemos resolver nuestro sistema


de restricciones para m variables en términos de las (n-m) restantes (utilizando el
Teorema de Función Implícita). Para simplificar la notación, consideremos que las
últimas m columnas del Jacobiano son linealmente independientes. Es decir:
x ( x1
 , x2
 )
n - m primeras variables / últimas m varaibles

Entonces, ahora podemos expresar x2 en función de x1


x 2 h( x 1 )

De esta manera hi son de clase Cp, entonces el problema se reduce a uno sin
restricciones con (n-m) variables, es decir:
max
f ( x 1 , h( x 1 ) F (x1 )

La condición necesaria de primer orden es:


F f f h
1
0
x x 1
x 2 x1

h
Donde las derivadas están evaluadas en x*, y es una matriz de orden m (n m)
x1

17
Las restricciones se pueden rescribir:
g ( x 1 , h( x 1 )) a

Luego, derivando y evaluando las derivadas en x*, entonces:


g g h
0
x 1
x 2 x1

g
Como x* es un punto regular, la matriz cuadrada de orden m, es no singular, así:
x2
1
h g g
x1 x2 x1

con lo cual la condición de primero orden queda:


f dg
1
0
x dx1
con
1
f g
1,..., m
x2 x2
con todas las derivadas evaluada en x*.

Resumiendo, podemos concluir que las condiciones de primer orden de nuestro


problema original
max
f ( x)
sujeto a :
g ( x) a

Es equivalente a las condiciones de primer orden del problema no restringido:


max
L( x, ) f ( x) (a g ( x))

De esta manera, al igual que el caso bidimensional L(x, ) se le conoce como función
de Lagrange y vector de multiplicadores de Lagrange. Así, las condiciones de primer
orden del problema general:
max
f x1 , x2 ,, xn
s.a. :
g1 x1 , x 2 ,, x n a1

g m x1 , x2 ,, xn am
con : m n

18
Se pueden rescribir a las condiciones de primer orden del problema no restringido
max
m
L( x1 , x2 ,  , xn , 1 , 2 , , m) f ( x1 , x2 ,  , xn ) j (a j g j ( x1 , x2 ,  , xn ))
j 1
generando el siguiente sistema:
L f m dg j
j 0, i 1,, n
xi xi j 1 dxi
L
aj g j (x1 ,, xn ) 0, j 1,, m
j

Con lo anterior, sólo identificamos el punto óptimo x*, falta efectivamente determinar si
es un punto mínimo o máximo, es decir, evaluar las condiciones de segundo orden
para este problema, entonces al igual que el caso bidimensional, la matriz relevante
es el Hessiano de la función de Lagrange. En este caso, si x* es un máximo local para
nuestro problema, entonces:
f x* h x f x*

Entonces, la condición necesaria de segundo orden es


2
T L( x* , )
x 2
x 0
x

Hessiano

Para todos los desplazamientos que deben satisfacer las restricciones. Es decir, x
debe ser tal que j = 1,…,m cumpla con
g j ( x* ) n g j ( x* )
x xi 0
x i 1 xi

Lo anterior significa que el Hessiano del Lagrangiano sea negativo semidefinido, en el


punto óptimo considerado.

Por lo tanto, una condición suficiente para que x* sea un óptimo local es que x*
cumpla con las condiciones de primer orden y el Hessiano del lagrangiano, evaluado
en ese punto, efectivamente sea negativo definido para todos los desplazamientos
posibles, es decir:
2
T L( x * , )
x x 0
x2
Por ende:
f x* h x f x*
lo cual nos permite concluir que x* es un máximo local.

19
Ejemplo
max
f ( x1 , x2 ) x1 x2
sa :
g ( x1 , x2 ) x12 x22 1

Desarrollo
La gráfica se presenta en la siguiente figura, para visualizar donde esta el punto
máximo:
x2

f(x1,x2)=x1x2
1 (curva de nivel)

x1
-2 -1 1 2

g(x1,x2)=x12+x22=1
-1

-2

El Lagrangiano asociado al problema es:


max
L( x1 , x2 , ) x1 x2 (1 ( x12 x22 ))

De esta manera, analizando las condiciones de primer orden, tenemos que:


L
x2 2 x1 0
x1
L
x1 2 x2 0
x2
L
1 x12 x 22 0

Reemplazando la primera ecuación en la segunda y su resultado en la tercera, se


tiene que:

20
x2
2 x1

x2 x 22
x1 2x2 ( ) x1 0
2 x1 x1
x 22 x12

1 x12 x12 1 2 x12 0

1 1
x12 x1
2 2

Conociendo x1, conocemos x2 y , entonces:


2 2 1
x1 x2
2 2 2
Soluiones :
2 2 1
xa
2 2 2
2 2 1
xb
2 2 2
2 2 1
xc
2 2 2
2 2 1
xd
2 2 2

Analicemos el punto xc a través del Hessiano para determinar si es mínimo o máximo:


2 1
H ( x)
1 2
1 1
H ( xc ) 0
1 1

Si xc es un óptimo local, la condición necesaria de segundo orden será:


2
T L( x * , )
x x 0
x2
Para todo desplazamiento que satisfaga las restricciones, entonces:
T
x x1 x2 , una dirección cualquiera,

21
entonces
2
T L( x * , ) 1 1 x1
x x x1 x2 ( x1 x2 ) x1 ( x1 x2 ) x2 0
x2 1 1 x2
Además, x debe cumplir que:
g j ( x* ) n
g j ( x* )
x xi 0
x i1
xi
g ( x* ) g ( x* ) 2 2
x1 x2 2 x1 x1 2 x2 x2 2 x1 2 x2 2 ( x1 x2 ) 0
x1 x2 2 2
x2 x1

Reemplazando en la ecuación anterior, se tiene que:


( x1 x2 ) x1 ( x1 x2 ) x2 ( x1 x1 ) x1 ( x1 x1 ) x1
( 2 x1 ) x1 (2 x1 ) x1 4 x12
2
T L( x* , )
x x x12
4 0
x2 positivo

El Hessiano es negativa definida en el espacio x1 x2 0 , entonces el punto xc es


un máximo local estricto.

Este mismo análisis (se deja para a cargo del alumno) se puede efectuar con los tres
puntos restantes, donde:
Xa es un mínimo local estricto.
Xb es un mínimo local estricto
Xd es un máximo local estricto.

1.5.- OPTIMIZACIÓN MULTIVARIABLE: RESTRICCIONES DE


DESIGUALDAD
Sea:
max
f x1 , K K , x n
s.a :
g1 x1 , K K , x n b1
M
g m x1 , K K , x n bm
x1 0, x 2 0, K , x n 0

22
Geométricamente

x2 ( x1 , x 2 | g1 ( x1 , x 2 ) b1

x1 ( x1 , x2 | g1 ( x1 , x2 ) b1
Eje X2

Eje X1

Recordemos que tratamiento se debe tener con las restricciones:


a.- Las restricciones de igualdad
g j x1 ,, xn b j
g j x1 ,, xn b j
g j x1 ,, xn b j

b.- Si xi es una variable no restringida, podemos rescribirla en función de dos variables


no negativas
xi xi' xi'' xi' xi'' xi 0
xi' xi'' xi 0
xi' 0, xi'' 0 xi' xi'' xi 0

c.- Las restricciones de desigualdad se pueden escribir en igualdad, introduciendo una


nueva variable no negativa:
g j x1 ,, xn b j
esta restricción se puede rescribir como:
g j x1 ,, xn y j b j
yj 0

y
g j x1 ,, xn bj
esta restricción se puede rescribir como:
g j x1 ,, xn y j b j
yj 0

23
En el primer caso, la variable yj se le conoce como variable de holgura y el en
segundo caso se le conoce como variable de exceso. Recordemos que si yj = 0, para
algún valor de x*, se dice que la restricción es activa en dicho punto, es decir:
g j x1 ,, xn b j

En el caso contrario, es decir, si g j x1 ,, xn b j o g j x1 ,, xn b j , entonces se dice


que la restricción es inactiva. Por lo general, la restricción de igualdad siempre es
activa.

Por ejemplo, veamos el siguiente set de algún problema:


X ( x | g1 ( x) b1 , g 2 ( x) b2 , x 0

Donde el punto x = (x1,x2).

La gráfica asociada es la siguiente:

g2(x)=b2

x0
Eje X2

g1(x)=b1

Eje X1

¿Cuáles restricciones son activas en el punto x0?


Es fácil ver cuáles restricciones son activas en dicho punto. Es así que g1 ( x 0 ) b1 y
x10 0 son restricciones activas, mientras que g 2 ( x 0 ) b2 y x20 0 son restricciones
inactivas

Para derivar condiciones necesarias de primer orden para un máximo local, sólo se
consideran las restricciones activas en el punto en cuestión asociado al problema
particular. Al conocer cuales restricciones son activas en el punto óptimo x*, nuestro
problema volvería a ser un problema con restricciones de igualdad y podríamos
emplear el Método de Lagrange.

Lamentablemente, aunque la definición anterior es útil para nuestro estudio, no


conocemos cuales restricciones, efectivamente, serán activas de antemano, por lo

24
tanto, las condiciones necesarias que se derivarán en este tipo de problema serán
más complicadas que los métodos anteriormente vistos (su desarrollo no es muy
complejo mas allá del desarrollo matemático asociado). En los puntos siguientes
veremos esta situación y como llegaremos a resolverlos.

1.5.1.- Restricciones de No Negatividad


Consideremos el caso más sencillo, a modo de ejemplo, en una dimensión para
encontrar el máximo en función de la restricción adicional de que no puede ser
negativa.

Esto se traduce a:
max
f x
s.a :
x 0,

Recordemos que f es de clase C1.

Para obtener un punto máximo, podremos distinguir tres casos especiales, las cuales
caracterizan las condiciones necesarias para nuestro óptimo:

Caso 1:
f(x)

x* x

x* es un punto interior a X x / x 0 y en este caso, como f C 1 , sabemos que x*


debe satisfacer las condiciones de primer orden f ' ( x * ) 0

25
Caso 2:
f(x)

x* x

x* =0 y esta en un borde de X x / x 0 y en este caso, como f C 1 , sabemos que


x* debe cumplir que f ' ( x * ) 0

Caso 3:
f(x)

x* x

x* =0 y f ' ( x * ) 0 , esto significa que está en un bode de X x / x 0 y, además, este


punto la tangente a f (x) 0 es horizontal.

Con las condiciones de primer orden, podemos caracterizar un punto máximo


asociado a este problema como:
f ' ( x* ) 0, si x* 0 ( x* interior de X)
f ' ( x* ) 0, si x* 0 ( x* en un borde de X)

26
o bien, de manera resumida:
f ' ( x* ) 0,
* *
x f ' (x ) 0,

Lo visto anteriormente, es un análisis unidimensional, pero veamos ahora el caso más


n
general, es decir, si x queremos que:
max
f x1 , x 2 ,, x n
s.a :
x1 0, x 2 0,, x n 0

Si f C 1 y existe un máximo local x*, tendremos que:


f (x* )
h x o(h) 0, h 0
x

Esta desigualdad debe ser valida en cualquier dirección permitida. Entonces, si x* es


interior para cualquier x y si algún xi* = 0, entonces para cualquier dirección, tal que
x 0 . Luego, para un máximo interior tendremos que:
f (x* )
0
x

Y para un máximo xj* = 0, de la desigualdad anterior, obtenemos que:


f ( x* )
0, si x *j 0
xj

Lo anterior, se puede resumir en las siguientes 2n+1 condiciones que debes satisfacer
necesariamente un máximo local x* para este problema
f (x* )
0
x
f (x* ) *
x 0
x
x 0

La segunda condición establece que


f (x* ) * n
f (x* ) *
x xi 0
xi 1 1 xi

Finalmente, teniendo presente las condiciones primera y última, ésta puede rescribir
como:
f (x* ) *
xi 0, i 1,  , n
xi

27
Ejemplo:
Sea
max
f ( x1 , x2 ) x12 x1 x2 x1 x2
sa :
x1 0, x2 0

Desarrollo
Las condiciones de primer orden
f ( x* )
0
x
f ( x* )
2 x1 1 x2 0
x1
f ( x* )
1 x1 0
x2
f ( x* ) *
x 0
x
f ( x* )
x1 ( 2 x1 1 x2 ) x1 0
x1
f ( x* )
x2 ( 1 x1 ) x2 0
x2
x1 , x2 0

Para obtener un punto óptimo, supongamos que:

x1 0 x2 0

f ( x* )
2 x1 1 x2 0 1 0
x1
f ( x* )
1 x1 0
x2
f ( x* )
x1 ( 2 x1 1 x2 ) x1 0
x1
f ( x* )
x2 ( 1 x1 ) x2 0
x2

Se analiza inmediatamente que la primera ecuación genera una contradicción, por lo


cual, este punto no es válido.

28
x1 0 x2 0

f ( x* )
2 x1 1 x2 0 0 1 x2 0 x2 1
x1
f ( x* )
1 x1 0 1 0
x2
f ( x* )
x1 ( 2 x1 1 x2 ) x1 0 0 0
x1
f ( x* )
x2 ( 1 x1 ) x2 0 x2 0
x2

En este caso, la ultima ecuación contradice la hipótesis impuesta de que x 2 es distinta


a cero y la primera ecuación, en que x2 tiene que ser mayor o igual que 1, por lo cual,
este punto tampoco es válido.

x1 0 x2 0

f ( x* ) 1
2 x1 1 x2 0 2 x1 1 0 0 x1
x1 2
f ( x* )
1 x1 0 x1 1
x2
f ( x* ) 1
x1 ( 2 x1 1 x2 ) x1 0 2 x1 1 0 0 x1
x1 2
f ( x* )
x2 ( 1 x1 ) x2 0 0 0
x2
1
Finalmente, en este caso el punto x1 x 2 0 cumplen con todas las ecuaciones
2
expuestas, por lo tanto, este punto es un máximo local.

1.5.2.- Condiciones de KARUSH-KUHN-TUCKER (KKT)


Con el estudio previo, estamos en condiciones de abordar el caso general, esto
significa, caracterizar las soluciones del problema:
max
f x
s.a :
g ( x) b
x 0,

29
Transformemos nuestras restricciones en igualdades, es decir, con la adición del
vector holguras y T y1 ,, ym , con y j 0, j 1,, m , entonces:
g ( x) y b
o
y b g ( x)
Y 0, x 0

Con lo cual, nuestro problema se transforma en un problema de programación no


lineal (PPNL) canónico:
max
f x
s.a :
g ( x) y b
x 0, y 0

Entonces, para derivar las condiciones de primer orden, supongamos nuevamente


que existe un máximo local x*, pero si no consideramos las restricciones de no
negatividad, volvemos al caso de encontrar un óptimo mediante el Lagrangiano, es
decir:
max
L( x, ) f ( x) (b g ( x) y)

Por lo cual, las condiciones de primer orden serían al caso ya expuesto de resolver
sólo el Lagrangiano. Sin embargo, como adicionamos las condición de no negatividad,
tanto para el vector x y el vector y, esto se modifica conforme a lo discutido en el
apartado anterior. Entonces, las condiciones de primer orden para un máximo local
serían:
L f g
0
x x x
L f g
x x 0
x x x
x 0
L
b g ( x) y 0

L
0

L
y y 0

y 0

30
Podemos apreciar que es libre y la condición de primer orden sólo requiere que la
derivada parcial del Lagrangiano con respecto a este vector sea nula. Ahora,
realicemos el siguiente reemplazo y b g(x) , por lo cual, las condiciones se pueden
rescribir como:
L f g
0
x x x
L f g
x x 0
x x x
x 0
L
0 (no necesaria)

L
0
y
L
y (b g ( x)) 0
y
b g ( x) 0

Ahora, será posible derivar las condiciones necesarias y suficientes de segundo orden
para un máximo local x*, asociado a nuestro problema. Para lograrlo, sería necesario
considerar sólo las restricciones activas y, por lo tanto, las consideraciones efectuadas
en el caso de igualdad, también acá son válidas. Pero analicemos un caso especial, el
cual asegura la suficiencia de las condiciones de KKT, cuando se cumplen ciertos
supuestos de convexidad presentes en el modelo considerado. Se puede apreciar que
si gj(x) son funciones convexas y f(x) es cóncava, entonces las condiciones de KKT
también son suficientes. Sabemos que gj(x) es convexa, el conjunto
x | g ( x) b, x 0 es convexo, luego:
X x | g ( x) b, x 0

También es convexo, ya que es la intersección de conjuntos convexos. Por otro lado,


si f ( x) C 1 y f es cóncava, sobre el set convexo X, se tiene que:
f (x* )
f ( x) f (x* ) (x x * ), x X
x

En que el punto regular x* satisface las condiciones de KKT. Pero de las condiciones
de KKT, tenemos:
f ( x* ) g ( x* )
x x

Reemplazando esta ecuación en la anterior,


g ( x* )
f ( x) f ( x* ) ( x x* )
x

31
Como gj es convexa y g j C1
*
g j (x* )
g j ( x) g j (x ) (x x* )
x
x X , j 1,, m , luego se tiene que:
g j (x* )
(x x* ) 0
x

Para restricciones activas. Entonces podemos concluir que:


f ( x) f ( x * )
*
x X , de donde x es óptimo

Ahora, si f(x) es estrictamente cóncava, se tiene que


f ( x) f ( x * )

Ejemplo:
Sea:
max
f ( x1 , x2 ) 8 x12 10 x22 12 x1 x2 50 x1 80 x2
sa :
x1 x2 1
8 x12 x22 4
x1 0, x2 0

Desarrollo:
Construyamos el Lagrangiano:
max
L( x1 , x2 , 1 , 2 ) 8 x12 10 x22 12 x1 x2 50 x1 80 x2 1 (1 x1 x2 ) 2 (4 8 x12 x22 )
Donde las condiciones de KKT son las siguientes:
L
a 16 x1 12 x2 50 1 16 2 x1 0
x1
L
b 20 x2 12 x1 80 1 2 2 x2 0
x2
L L
c x1 x2 ( 16 x1 12 x2 50 1 16 2 x1 ) x1 ( 20 x2 12 x1 80 1 2 2 x2 ) x2 0
x1 x2
d x1 0, x2 0
L
e 1 x1 x2 0
1

L
f 4 8 x12 x22 0
2

32
L L
g 1 2 (1 x1 x2 ) 1 (4 8 x12 x22 ) 2 0
1 2

h 1 0, 2 0

Ahora, al igual que en el punto anterior, procederemos por tanteo para encontrar el
punto óptimo.

Supongamos que x1 0 x2 0
L L
g 1 2 (1 x1 x2 ) 1 (4 8 x12 x22 ) 2 0 2
1
1 0 2 0
1 2 4
h 1 0, 2 0
L L
c x1 x2 ( 16 x1 12 x2 50 1 16 2 x1 ) x1 ( 20 x2 12 x1 80 1 2 2 x2 ) x2 0
x1 x2
0 0
d x1 0, x2 0
L
e 1 x1 x2 0 1 0
1

L
f 4 8 x12 x22 0 4 0
2

L
a 16 x1 12 x2 50 1 16 2 x1 0 0 50
x1
L
b 20 x2 12 x1 80 1 2 2 x2 0 0 80
x2

De esta manera, en b se produce una contradicción, por lo cual, este punto no es


válido para nuestro propósito

Supongamos que x1 0 x2 0 :
L
a 16 x1 12 x2 50 1 16 2 x1 0 12 x2 50 1 0
x1
L
b 20 x2 12 x1 80 1 2 2 x2 0 20 x2 80 1 2 2 x2 0
x2
L L
c x1 x2 ( 16 x1 12 x2 50 1 16 2 x1 ) x1 ( 20 x2 12 x1 80 1 2 2 x2 ) x2 0
x1 x2
20 x2 80 1 2 2 x2 0
d x1 0, x2 0

33
L
e 1 x1 x2 0 1 x2 0
1

L
f 4 8 x12 x22 0 4 x22 0
2

L L
g 1 2 (1 x1 x2 ) 1 (4 8 x12 x22 ) 2 0 (1 x2 ) 1 (4 x22 ) 2 0
1 2

h 1 0, 2 0

Si tomamos que x2 = 1, nuestras restricciones se reducen a:


a 12 x2 50 1 0 1 38
b 20 x2 80 1 2 2 x2 0 1 2 2 x2 60
c 20 x2 80 1 2 2 x2 0 1 2 2 x2 60
d x1 0, x2 0
e 1 x2 0 x2 1
f 4 x22 0 4 1
g (1 x2 ) 1 (4 x22 ) 2 0 2 0
h 1 0, 2 0
Reemplazando g en c
c 1 60
Por lo tanto, el punto x (0,1) es un máximo local.

34
Gráficamente, se puede ver este análisis:

x2

RSF

2
x1
-2 -1 2 1 2
2 2

-1

-2

35
36

Anda mungkin juga menyukai