Anda di halaman 1dari 67

CONDICIONES DE KUHN Y TUCKER

APLICACIONES
A LA ECONOMIA
Y AL MERCADO DE CAPITALES

Bernardello, Alicia Blanca y Vicario, Aldo Omar


Departamento de Matemtica
Facultad de Ciencias Econmicas de la Universidad de Buenos Aires
Octubre de 2000
1

CONSIDERACIONES PREVIAS
Combinacin convexa de vectores
Sea V = { Rn; ; R; } un espacio vectorial

de n-sima

dimensin sobre R, siendo la suma usual de vectores y el


producto de un vector por un escalar real.
Y sea S ={ v(1); v(2); v(3);......; v(m)} V, se dice que el vector w
V es combinacin lineal de los vectores de S ki R con 1
m

i m i N / w = k i v (i )
i =1

Cuando ki [0; 1]

k
i =1

= 1 dicha combinacin lineal se

llama combinacin convexa.


Conjunto convexo
Un conjunto X Rn se llama convexo, si para cualquier par de
elementos x(1); x(2) X la combinacin convexa definida por
ellos est incluida en X:

x(1) + ( 1 -) x(2) X siendo [0; 1]

Funcin convexa
Sea f : X R con X Rn convexo, f es una funcin convexa

x(1); x(2) X [0; 1]:


f[ x(1) + ( 1 - ) x(2) ] f(x(1)) + ( 1 - ) f(x(2))
f es estrictamente convexa x(1); x(2) X [0; 1]:
f[ x(1) + ( 1 - ) x(2) ] < f(x(1)) + ( 1 - ) f(x(2))

Funcin cncava
Sea f : X R con X Rn convexo, f es una funcin cncava

x(1); x(2) X [0; 1]:


f[ x(1) + ( 1 - ) x(2) ] f(x(1)) + ( 1 - ) f(x(2))
f es estrictamente cncava x(1); x(2) X [0; 1]:
f[ x(1) + ( 1 - ) x(2) ] > f(x(1)) + ( 1 - ) f(x(2))
Como consecuencia de las definiciones se puede probar que:
1) Teorema: a) (funcin lineal) Si f(x) con x Rn es una
funcin lineal, entonces es una funcin cncava as como
una funcin convexa, pero no estrictamente.

2) Teorema: b) (funcin opuesta) Si f(x) con x Rn es una


funcin cncava, entonces f(x)es una funcin convexa, y
viceversa.
Anlogamente: Si f(x) con x Rn es una funcin
estrictamente cncava, entonces
f(x)es una funcin estrictamente convexa, y viceversa.
3) Teorema: c) (suma de funciones). Si f(x) y g(x) son ambas
cncavas (convexas), entonces f(x) + g(x) es tambin una
funcin cncava (convexa). Si f(x) y g(x) son ambas
cncavas (convexas), y adems una de ellas o las dos son
estrictamente cncavas (estrictamente convexas) entonces
f(x) + g(x) es tambin una funcin estrictamente cncava
(estrictamente convexa).
Las definiciones anteriores sobre concavidad y convexidad no
utilizan

las

derivadas,

por

tanto,

no

requieren

la

diferenciabilidad.
Si la funcin es diferenciable, la concavidad y la convexidad
pueden tambin definirse en trminos de sus derivadas
primeras:

Una funcin f(x) con x Rn es una funcin cncava


(convexa), si, para cualquier punto dado x(1) = ( x1(1); x2(1);
x3(1);....... xn(1)) y para cualquier otro punto .
x(2) = ( x1(2); x2(2); x3(2);....... xn(2)) del dominio de la funcin
n

f
( 2)
(1)
f ( x ( 2 ) ) f ( x (1) ) +
( xi xi )
i =1 x i x (1)

Una funcin dos veces continuamente diferenciable z = f(x) con


x Rn es cncava (convexa) d2z es en todo punto
semidefinida negativa (positiva)1.
Dicha

funcin

es

estrictamente

cncava

(convexa)

si

(condicin suficiente) d2z es en todo punto definida negativa


(positiva).

Sentido amplio Ver Condicin de segundo orden en la optimizacin libre y sujeta a


restricciones de igualdad(Bernardello,A;Vicario, Aldo O.,septiembre de 1999)
5

Funciones cuasicncavas- cuasiconvexas


Una funcin f es cuasicncava (cuasiconvexa) si, x(1) x(2)
X dominio convexo de f [0; 1]:
f ( x (1) )
f ( x ( 2 ) ) f ( x (1) ) f x (1) + (1 )) x ( 2 )
( 2)
f ( x )

Y lo ser de manera estricta si las dos desigualdades dbiles


de la derecha se sustituyen por desigualdades estrictas
> f (x(1))
< f (x(2))
Se pueden probar los siguientes teoremas:
a) funcin opuesta : Si f(x) es cuasicncava (estrictamente
cuasicncava) entonces
f(x) es cuasiconvexa ( estrictamente cuasiconvexa).
b) Cualquier funcin cncava (convexa) es cuasicncava
(cuasiconvexa),

pero

el

recproco

no

es

cierto.

Anlogamente: Cualquier funcin estrictamente cncava


(estrictamente convexa) es estrictamente cuasicncava
(estrictamente cuasiconvexa), pero el recproco no es
cierto.
6

c) Si f(x) es una funcin lineal, entonces es cuasicncava as


como cuasiconvexa.
Observacin
En el caso de funciones cncavas y convexas las nicas que
pertenecen a ambas clases son las lineales.
En el caso de funciones cuasicncavas y cuasiconvexas,
aparte de las lineales, existen otras, como por ejemplo y = x2
para x 0 que es cuasicncava y cuasiconvexa a la vez.
Funciones diferenciables:
Una funcin diferenciable f(x) con x Rn es cuasicncava
(cuasiconvexa)
si x(1) x(2) X dominio de f

n f

( 2)
(1)

( xi x i )
i =1 xi x (1)

f ( x ( 2 ) ) f ( x (1) ) n
0
f ( x ( 2) x (1) )
i
i

i =1 xi x ( 2 )

Para la cuasiconcavidad y cuasiconvexidad estrictas la


desigualdad de la derecha tendr que ser sustituda por la
desigualdad estricta > 0
7

Si la funcin es dos veces continuamente diferenciable, la


cuasiconcavidad y cuasiconvexidad , en el ortante no
negativo, pueden verificarse estudiando el signo de los
siguientes menores principales de la matriz hessiana :
0 f1 f2 .....fn
f1 f11 f12 ..... f1n
f2 f21 f22 ..... f2n
........................
fn fn1 fn2 ..... fnn

2 = 0 f1
f1 f11

3 =

0 f1 f2
f1 f11 f12
f2 f21 f22

......... n =

0 f1 f2 .....fn
f1 f11 f12 ..... f1n
f2 f21 f22 ..... f2n
.........................
fn fn1 fn2 ..... fnn

Mientras la concavidad (convexidad) de una funcin sobre un


dominio convexo puede extenderse siempre a la concavidad
(convexidad) sobre el espacio total, con la cuasiconcavidad y
la cuasiconvexidad esto no es posible. Las condiciones que se
dan a continuacin son las que exponen Kenneth J.Arrow y
8

Alain

C.

Enthoven

en

su

trabajo

Programacin

Cuasicncava, y son vlidas en el ortante no negativo.


Condicin necesaria de

Condicin suficiente de

cuasiconcavidad cuasiconvexidad cuasiconcavidad cuasiconvexidad


2

<0

<0

>0

<0

<0

<0

>0

<0

0 si i es par

< 0 si i es par

0 si i es impar

> 0 si i es impar

<0

CONDICIONES DE KUHN-TUCKER
Un problema de programacin no lineal suficientemente
general es el siguiente:
max. f(x1; x2;.......xn) s.a. g(1) (x1; x2;.......xn) c1

g(m) (x1; x2;.......xn) cm

(I)

El conjunto de vectores x Rn que verifican todas las


restricciones se llama conjunto admisible o factible
Cabe sealar que:

Minimizar f(x) es equivalente a maximizar -f(x)

La desigualdad de la forma gj(x) cj se

puede escribir

como -gj(x) -cj

Una igualdad gj(x) = cj es equivalente a dos desigualdades


de la forma

g j ( x) c j
j
g ( x) c j

g j ( x) c j

j
g ( x) c j

As los problemas de optimizacin restringida se pueden


expresar, en general, de la forma (I).
Suponiendo que x* = (x*1; x*2;.....x*n) resuelve el problema (I),
entonces o bien gj(x*) < cj en cuyo caso se dice que la
restriccin gj(x*) cj est inactiva o no saturada, o bien gj(x*) =
cj en cuyo caso se dice que la restriccin gj(x*) cj est activa
o saturada en x*.

10

Cualificacin de restricciones (C.R.)


Tienen como cometido eliminar situaciones anmalas que
provocan contraejemplos a las condiciones de Kuhn- Tucker.
Kuhn y Tucker plantearon para la demostracin del teorema
condiciones que no son

sencillas de verificar.

2Pero

imponiendo algunas hiptesis adicionales a las funciones gj(x)


con 1 j m, se puede detectar rpidamente su vigencia por
conducto de criterios operativos, a saber:
Si todas las restricciones son funciones lineales, i.e
si cada gj(x)

con 1 j m

es lineal, se cumple la

cualificacin de restricciones.

Si cada restriccin es una funcin de clase C1 (funcin


diferenciable) y convexa, y existe un punto x*perteneciente
al conjunto factible en el cual todas las restricciones son
inactivas, i.e
gj(x*) < 0

con 1 j m

se cumple la cualificacin de restricciones (condicin de


Slater).

Para su enunciacin ver, por ejemplo, Alpha Chiang; Fernandez Pol, Jorge
Eduardo; Uribe, Diego Escobar

11

Si

cada

funcin

de

restriccin

es

diferenciable,

cuasiconvexa, existe un punto x* perteneciente al conjunto


factible tal que
gj(x*) < 0

con 1 j m

y si adems para cada j


-

o bien gj(x) es convexa

o bien para cada x* perteneciente al conjunto


factible

gj(x*) 0

entonces se cumple la cualificacin de restricciones.

Las funciones gj(x)

con 1 j m correspondientes a las

restricciones que estn activas en x* tienen gradiente en x*


que son linealmente independientes.
Es de destacar que esta condicin es semejante a la condicin
exigida al problema de optimizacin sujeta a condiciones de
igualdad4.

3 Sea f(x) con x Rn se llama gradiente de f al vector en el que las componentes


son las derivadas parciales de f , y evaluado en

x0

f f
f
;.........
...
f ( x 0 ) = ;

x n x 0
x1 x 0 x 2 x 0

ver condicin de primer orden en optimizacin restringida en: Condicin de


segundo orden en la optimizacin libre y sujeto a restricciones de igualdad (Pag.21
y 22) presentado en las XIV Jornadas- Bernardello, Alicia y Vicario, Aldo.
Septiembre de 1999

12

La cualificacin de restricciones es una restriccin


impuesta a las restricciones an cuando no es una limitacin
concerniente al conjunto factible.
Es decir que dadas dos restricciones distintas entre s, puede
ocurrir que a pesar de que ambas generan el mismo conjunto
factible, una satisface la cualificacin y la otra no. Como por
ejemplo:
x1 0
y

x1 0

x2 0

1-x1-x2 0

x2 0

g(1-x1-x2)3 0

(1)
(2)

definen el mismo conjunto factible.

(1) satisface la C.R. (cualificacin de restricciones) por ser las


restricciones lineales, pero
(2) por ejemplo en el punto x1 = y x2 =1/2

3(1 x1 x 2 ) 2
0
= (linealmente dependiente)
g =
2
3(1 x1 x 2 ) (1 / 2;1 / 2) 0
no la satisface.
La funcin objetivo no tiene nada que ver con esta hiptesis
de regularidad denominada C.R.
13

No es necesario que se cumplan todas las condiciones arriba


expuestas, solo basta con una de ellas. Adems estas no son
equivalentes entre s.
Condiciones necesarias de Kuhn-Tucker
Suponiendo que x ( 0) = ( x1( 0) ; x 2( 0 ) ;........x n( 0 ) ) resuelve el problema
max. f ( x)

s. a. g j (x) c j con 1 j m x R n

no

estando

acotada la cantidad de restricciones y donde f(x) y gj(x) con


1 j m son funciones continuamente diferenciables.
Suponiendo

que

se

verifica

la

cualificacin

de

las

restricciones. Entonces,existen unos nicos nmeros 1;

2;.........m tales que


a)

f ( x ( 0 ) ) m
g j
j
= 0 con 1 i n
xi
xi
j =1

b)

g j ( x ( 0) ) 0

j 0 j g j ( x ( 0) ) = 0 con 1 j m

Si se escribe la funcin de Lagrange


m

L( x; ) = f ( x) + j c j g j ( x)

j =1

Las condiciones de Kuhn y Tucker se pueden expresar:

14

a)
b)

L
= 0 1 i n
xi

L
0
j

j 0

L
=0
j

1 j m

(II)

Condiciones de no negatividad para las variables


Es frecuente que las variables que aparecen en los problemas
econmicos de optimizacin sean no negativas por su propia
naturaleza.
Para introducir estas restricciones a la formulacin (I), xi 0
se puede representar por gm+1(x) = -xi 0 y se introduce un
multiplicador de Lagrange adicional para ella.
Sin

embargo

para

no

tener

que

manejar

demasiados

multiplicadores de Lagrange, se formulan las condiciones


necesarias de solucin de los problemas de programacin no
lineal con restricciones de no negatividad de las variables de
una manera ligeramente distinta.

15

En efecto, considerando por ejemplo el siguiente problema:

max. f ( x, y ) s.a. g (1) ( x; y ) c

x0

y0

condiciones de no negatividad

introduciendo las funciones g(2)(x;y) = -x

g(3)(x,y) = -y

con lo que las restricciones quedarn:


g(1)(x;y) 0
g(2)(x;y) 0
g(3)(x;y) 0
entonces:
L(x; y; 1; 2; 3) = f(x;y) + 1 [c - g(1)(x;y)] + 2 (0 + x) + 3 (0 + y)
Las condiciones de Kuhn-Tucker son:

L f
g (1)
=
1
+ 2 = 0
x x
x

(a)

L f
g (1)
=
1
+ 3 = 0
y y
y

(b)

L
= c - g(1)(x;y) 0
1

16

1 0

1 [c - g(1)(x;y)] = 0

(c)

L
=x 0
2

2 0

x 2 = 0

(d)

3 0

y 3 = 0

(e)

L
=y 0
3
de (a) se obtiene

f
g (1)
1
- 2 =
x
x

(a1)

de (d)

2 0

x 2 = 0

(d1)

es decir que (a) y (d) equivalen conjuntamente a

f
g (1)
1
0
x
x

y,

x 0 por condicin de no negatividad

f
g (1)

1
x
x

x = 0

por (a1) y (d1)

de (b)
- 3 =

g (1)
f
1
y
y

(b1)

17

de (e)

3 0

y 3 = 0

(e1)

es decir que (b) y (e) equivalen conjuntamente a


f
g (1)
0
1
y
y

y,

y 0 por condicin de no negatividad

f
g (1)

1
y
y

y = 0

por (b1) y (e1)

Es decir que si se incluyen las condiciones de no negatividad


de las variables, las condiciones necesarias de Kuhn y Tucker
utilizando el Lagrangeano segn (II) para el problema

max . f ( x)

s. a. g j (x) c j con 1 j m x 0 x R n
m

L = f ( x) + j c j g j ( x)

j =1

sern:
suponiendo que x(0) Rn resuelve el problema siendo la
funcin

objetivo

continuamente

las

diferenciables

restricciones
y

suponiendo

funciones
que

se

verifica la cualificacin de restricciones entonces existen


unos nicos nmeros 1; 2;.........m tales que
18

L
0
xi x ( 0 )

a)

b)

0
x

xi 0

xi

j 0

(0)

L
=0
xi x ( 0 )

=0
x

1 i n

con 1 j m

(0)

Condiciones suficientes de Kuhn-Tucker


Considerando el problema de programacin no lineal

max. f (x)

s.a. g j (x) c j con1 j m x 0 xR n m > = <


n

donde la funcin objetivo y las restricciones son


continuamente diferenciables, f es cncava

y las

restricciones son convexas. Suponiendo que existen j


con 1 j m
y un vector factible x(0) tales que:
a)

L
=0
xi x ( 0 )

b)

0
x(0)

1 i n

j 0

=0

con 1 j m

x(0)

19

Si se agregan las condiciones de no negatividad de las


variables a) sera:

L
0
xi x ( 0 )

xi 0

xi

L
=0
xi x ( 0 )

1 i n

Entonces x(0) resuelve el problema.

Si adems se verifica la cualificacin de restricciones las


condiciones son necesarias y suficientes, y si la funcin
objetivo es estrictamente cncava se puede asegurar que el
mximo global es nico
Observacin:
Para minimizar basta utilizar lo indicado en consideraciones
previas es decir
min. f ( x)

s. a. g j (x) c j con 1 j m x 0 x R n

equivale a
max. - f ( x)

20

s. a. - g j (x) c j con 1 j m x 0 x R n

Condiciones necesarias y suficientes en programacin


cuasicncava (Arrow- Enthoven)

Sea el problema

s. a. g j (x) c j con 1 j m x 0 x R n

max. f ( x)

donde

la

funcin

objetivo

las

restricciones

son

continuamente diferenciables. Suponiendo que existen


nmeros j con 1 j m y un vector x(0) Rn tales que:
a) x(0) es factible y se verifican:
L
0
xi x ( 0 )

b)

c)
d)

0
x

xi 0

j 0

xi

L
=0
xi x (0)

j L

(0)

con 1 i n

=0
x

con 1 j m

(0)

f(x) es cuasicncava y gj(x) es cuasiconvexa para 1 j

m en el ortante no negativo
e) Se satisface una cualquiera de las siguientes:
e-i

f
< 0 para al menos una variable xi
xi x ( 0 )

e-ii f
x
i

x(0 )

> 0 para alguna variable xi que pueda tomar

21

un valor positivo sin violar las restricciones (xi en este


caso es llamada en la literatura del tema como variable
relevante)5

e-iii f ( x (0) ) 0 , y la funcin es dos veces diferenciable en


un entorno de x(0)
e-iv f(x) es cncava
Entonces en x(0) la funcin se maximiza.
Es decir si adems de verificarse a, b, c, d y e se satisface la
cualificacin de restricciones, entonces las condiciones de
Kuhn y Tucker son necesarias y suficientes.
La cuasiconcavidad no implica que las condiciones de KuhnTucker sean suficientes para tener un mximo global. ArrowEnthoven dieron el siguiente ejemplo:
Max. f(x) = (x 1)3

s.a. 2 x 0

x0

Analizando f(x) = (x 1)3 en el cuadrante positivo

dado el conjunto de restricciones C = {

g j (x) 0 con 1 j m x n }

( es el ortante no negativo de Rn) se dice que la variable xi es variable relevante si


n

existe un x en C tal que xi > 0


22

f(x) = 3 (x 1)2; f(x) = 6 (x 1) B =

3( x 1) 2

3( x 1) 2

6( x 1)

= -9(x-

1)4 < 0

condicin suficiente de cuasiconcavidad y la restriccin es


lineal (cncava entonces cuasicncava)
L = (x 1)3+ (2 2 x)

a)

L
= 3 (x 1)2 2 0
x

b)

L
= 2 2x 0

x 0

x.[ 3 (x 1)2 2 ] = 0

(2 2x) = 0

En x = 1 y = 0 se cumple a) y b) y se cumple la cualificacin


de restricciones ( la restriccin es lineal) pero no se satisface
ninguna de las condiciones e. En efecto, al ser f(1) = 0, no se
cumple ni e-i, ni e-ii, ni eiii, y como la funcin f no es cncava
tampoco e-iv. El ptimo se encuentra en x = 2 y = 3 donde
se satisface a), b) y c) y e-ii o e-iii, es decir que las condiciones
de Kuhn y Tucker son necesarias y suficientes

23

Procedimiento para hallar todos los candidatos a ptimo


1- Hallar todos los puntos factibles donde se satisface la
cualificacin de restricciones y las condiciones de Kuhn y
Tucker
2- Hallar todos los puntos factibles en los que la cualificacin
de restricciones falla
Si se sabe que el problema tiene solucin los pasos 1 y 2
darn todos los posibles candidatos a solucin.
Despus de evaluar f en todos esos candidatos, se pueden
tomar el (o los) que maximizan f
El paso 2 se debe realizar ya que para que las condiciones de
Kuhn

Tucker

sean

necesarias

se

debe

verificar

la

cualificacin de restricciones, entonces x(0) puede ser una


solucin del problema sin verificar las condiciones de Kuhn y
Tucker.
Es necesario evitar el error de que al encontrar un nico
candidato a solucin x(0) a partir de las condiciones de Kuhn y
Tucker

en

el

que

se

comprueba

la

cualificacin

restricciones suponer que se alcanz la solucin ya que el

24

de

ptimo puede encontrarse en otros puntos factibles donde


falla la cualificacin de restricciones.
Observacin:
En

los

modelos

funciones

econmicos

dependientes

de

aparecen

variables

frecuentemente

discretas

y,

en

consecuencia, no diferenciables.
Si un problema de programacin no lineal resulta ser no
diferenciable, las tcnicas expuestas hasta ahora no son
aplicables. As, es necesario encontrar otros mtodos que
faciliten la solucin de este tipo de problemas, mtodos que
tambin, por otra parte, son vlidos para resolver problemas
diferenciables.
Para ello es necesario definir el punto silla del Lagrangeano y
ver su relacin con la solucin, tema que no trataremos en
este trabajo.
Caso en que las condiciones de Kuhn y Tucker son
necesarias pero un punto que las satisface no es el ptimo
Sea max. z = x2 + y2 8

s. a.

x 1 ; -y 0; x2 + y2 4

L = x2 + y2 8 + 1(1 x) + 2 y + 3 (4- x2 y2)


25

L
= 2 x - 1 2 3 x = 0
x
L
= 2 y + 2 2 3 y = 0
y
L
=1x0
1
L
=y0
2

1 0
2 0

L
= 4 x2 y2 0
3

1 (1 x) = 0
2 y = 0

3 0

3 (4 x2 y2 ) = 0

El punto x = 1 y = 0 es regular ya que satura la 1 y la 2


restriccin y los gradientes g(1)(1;0) = ( 1;0)

g(2)(1;0) =

(0; -1) son linealmente independientes, (verificala cualificacin


de restricciones).
Adems x = 1; y = 0; 1 = 0; 2 = 0; 3 = 0 verifica las
condiciones de Kuhn y Tucker, pero si se toman puntos
prximos a ste por ejemplo (1; h) con h > 0 y pequeo, que
satisface las condiciones de Kuhn y Tucker, resulta que f(1;h)
= 1 + h2 8 = h2 7 pero f(1;0) = -7 por lo tanto f (1;h) f(1;0)
por lo que (1;0) no es mximo local.

26

Obsrvese que la funcin objetivo es convexa y no cncava


como se exige para que las condiciones de Kuhn y Tucker
sean suficientes.
Caso

en

que

no

se

satisface

la

cualificacin

de

restricciones por lo que las condiciones de Kuhn y Tucker


no son necesarias
Max. z = x y

s. a.

g(x;y) = (x + y 2)2 0

Como (x + y 2)2 es no negativa, la restriccin es equivalente


a x + y 2 = 0. Entonces puede plantearse como un problema
de optimizacin sujeta a condiciones de igualdad. Es decir:
L = x y + (2 x y)

L
= y-=0
x
L
= x-=0
y
L
=2xy=0

la solucin de este sistema es x = 1; y = 1; = 1

27

Planteando las condiciones de Kuhn y Tucker para el


problema con la restriccin original
L = x y + [-( x + y - 2)2]

L
= y 2 (x + y - 2) = 0
x
L
= x 2 (x + y - 2) = 0
y
L
= -(x + y - 2)2 0

En el ptimo del problema x = 1

- (x + y - 2)2 = 0

y = 1 se obtiene la

contradiccin 1 = 0 en cada caso.


Ntese que el g(1)(1;1) = (0;0) que no es un vector linealmente
independiente, es decir que (1;1) no es un punto regular. La
cualificacin de restricciones falla en (1;1). Las condiciones de
Kuhn y Tucker fallan en (1;1) no obstante ser este punto el
mximo que resuelve el problema.
Por otro lado la funcin objetivo es cuasicncava. En efecto
analizando

28

z = x y en el ortante positivo:

0
B = y
x

x
0 1 ;
1 0
y

0
y

y
= y2 < 0
0

y > 0; |B| = 2 x y > 0

x,y > 0
la restriccin g = ( x + y 2)2 es convexa (cuasiconvexa)
En efecto su matriz hessiana

2 2
H =

2 2

2 > 0 y |H| = 0

es semidefinida positiva

Podra pensarse en utilizar el Teorema de Arrow- Enthoven


pero no se cumplen las condiciones de Kuhn y Tucker por lo
que no se puede emplear las condiciones suficientes.
Ejemplo de condiciones necesarias y suficientes
Max. f(x;y) = - 8 x2 10 y2 + 12 x y 50 x + 80 y
s. a. g(1)(x;y) = x + y 1
g(2)(x;y) = 8 x + y2 2
x 0;

y0

L = - 8 x2 10 y2 + 12 x y 50 x + 80 y + 1(1 x - y) +
+ 2 (2- 8 x2 y2)

29

L
= - 16 x + 12 y 50 - 1 16 2 x 0
x
L
= -20 y + 12 x + 80 - 1 2 2 y 0
y

x 0

L
=0
x

y0

L
=0
y

L
=1xy0
1

1 0

1 (1 x - y) = 0

L
= 2 8 x2 y2 0
2

2 0

2 (2 8 x2 y2 ) = 0

La funcin objetivo es cncava ya que la matriz hessiana

16 12
H =

12 20
-16 < 0

|H| > 0 es definida negativa

entonces la funcin es cncava en sentido estricto


Las restricciones:
g(1) es lineal cncava-convexa
g(2) es convexa (suma de funciones convexas)

se cumple la cualificacin de restricciones ya que existe ( x ; y )


= (0,1 ; 0,1) admisible en el que:

30

g(1) (0,1 ; 0,1) < 0

(condicin de Slater)

g(2) (0,1 ; 0,1) < 0


entonces las condiciones de Kuhn y Tucker son necesarias y
suficientes.
El punto que las satisface es x = 0; y = 1; 1 = 60; 2 = 0
En efecto

L
(0;1) = -98
x

x 0

L
=0
x

L
(0;1) = 0
y

y0

L
=0
y

z(0;1) = 70
Aplicacin de las condiciones de Kuhn y Tucker al
problema

estandar

en

teora

de

la

demanda

del

consumidor
Max. U(x)

s. a. p1x1 + p2x2 + p3x3 +.............+pnxn I

donde U es la funcin utilidad

31

x Xn espacio de bienes definido en n Rn


pi es el precio del bien xi

1in

pi > 0

I es el ingreso del consumidor


Suponiendo

que

es

continuamente

diferenciable

cuasicncava. Las condiciones de Kuhn y Tucker son:


L = U(x) + ( I - p1x1 - p2x2 - p3x3 -.............-pnxn)

a)

L U
=
pi 0
xi xi

b)

n
L
= I pi xi 0

i =1

xi 0

U
xi
pi = 0 con 1 i n

xi

i =1

I p i xi = 0

Suponiendo que x(0) Xn verifica a) y b) y suponiendo que no


todas las

U
son cero, o sea que se supone que para algn
xi x ( 0 )

bien no existe saciedad, (condicin e-iv de Arrow-Enthoven), y


teniendo en cuenta que la funcin objetivo es cuasicncava y
la restriccin es lineal, se dan las condiciones suficientes de
ptimo.
32

Entonces a) implica que > 0 y as pi xi = I por b). Por lo


i =1

tanto, se gasta todo el presupuesto y x(0) Xn resuelve el


problema
Utilizacin en programacin lineal
Suponiendo el problema:
w;x Rn

Min. wTx

s.a. A x b

x 0 A Rmxn b Rm

que se convierte en el problema:


Max. - wTx
Rmxn

w;x Rn

s.a.

-Ax-b

x0

b Rm
L = - wTx + T (- b + A x )

En este problema se dan las condiciones necesarias y


suficientes de Kuhn y Tucker pues la funcin objetivo es
lineal y las restricciones tambin:
a)

L
= - wT + T A 0
x

x 0

b)

L
=-b+Ax 0

- wTx + T A x = 0
wTx = xT AT

(1)

T (- b + A x) = 0
bT = xT AT

(2)
33

Suponiendo que existe un vector y n tal que:


ATy w (3)

xT AT y xT w (4)

bT y - bT = bT y - xT AT

de (2)

bT y - bT xT AT y - xT AT 0
ya que de (1) xT AT = wTx = xT w
y de (4) xT AT y xT w
Es decir

xT (AT y - AT ) 0

Por lo tanto bTy toma su mximo bajo (3) en y =


Y adems vale

bT y = bT = xT AT = wTx

Se concluye entonces que si Min. wTx s.a. A x b x 0


tiene solucin, entonces Max. bT y s.a. A y w tiene solucin
y los valores mnimo y mximo de las funciones objetivos
coinciden (Teorema dbil de la dualidad)

34

Programacin cuadrtica
Consideremos el caso de maximizar una forma cuadrtica
(como funcin objetivo) sujeta a restricciones lineales:
Mx. f(x) = cT x xT Q x s.a. g(j)(x) bj que equivale a A x
b (por ser
restricciones
lineales) x 0
donde:
c1

x1

b1

a11.............a1n

q11.........q1n

c2

x2

b2

a21.............a2n

q21.........q2n

c=

x=
cn

b=
xn

A=
bm

Q=
am1............amn

qn1.........qnn

la matriz Q es simtrica semidefinida positiva, lo que asegura


que la funcin objetivo sea una funcin cncava6.
Las condiciones de Kuhn y Tucker son necesarias y
suficientes

cuando

en

el

problema

de

programacin

matemtica se maximiza una funcin cncava y la regin de


factibilidad es un conjunto convexo, como en este caso.

ver Anexo II
35

Algoritmo de Wolfe
Consiste en aplicar las condiciones de Kuhn y Tucker al
problema

de

programacin

cuadrtica,

reduciendo

el

problema a otro de programacin lineal.

(cT x xT Q x) -

g
j =1

( j)

j + = 0 (1)

xi 0
b- A x 0

(2)

x = 0

(b - Ax) = 0

j 0

(2)

siendo
1
0
=
#

2
#
0

0
..... 0
..... #

..... n

1
0
=
#

.....

como (cT x xT Q x) = c Q x

0
..... 0
..... #

..... n

.....

2
#
0
m

g
j =1

( j)

j = AT

sustituyendo en (1)
c Q x AT + = 0
de (2) A x b

Q x + AT - = c

que puede ser expresada como igualdad

utilizando un conjunto de variables de holgura (slacks)


36

s1
s
s= 2
#

sm

Ax+s=b

siendo s = 0

por (2)

Analizando esta ltima relacin:

>0

s=0 Ax=b

=0

s0 Axb

Entonces las condiciones quedan:


Q x + AT - = c (5)
xi 0

Ax+s=b
El

sistema

x = 0

j 0

s=0

anterior

puede

ser

resuelto

(3)

s0

(4)

utilizando

programacin lineal, lo que es bsicamente el algoritmo de


Wolfe
Destaquemos que por (3) xi y j no deben formar parte de la
solucin factible bsica al mismo tiempo, y que por (4) j y sj
37

tampoco deben formar parte de la solucin factible bsica al


mismo tiempo.
La solucin factible bsica inicial no se obtiene fcilmente.
Sin

embargo,

si

definimos

un

conjunto

de

variables

artificiales zi con 1 i n y si definimos una matriz.


c1
0
C=
#

0
c2
#
0

0
..... 0
..... #

..... c n
.....

podemos reestructurar la ecuacin (5) de la siguiente forma:


Q x + AT - + C z = c
Destaquemos que la solucin factible bsica inicial ser
entonces zi = 1.
Como las variables zi son variables artificiales podemos crear
una funcin objetivo que las incluya y como las queremos
eliminar de nuestra solucin factible bsica inicial, entonces
minimizaremos dicha funcin.
Entonces nuestro problema quedar definido de la siguiente
manera:
38

Min

W =

z
i =1

xi 0

x = 0

j 0

Q x + AT - + C z = c

s.a.

s=0

s.a.

s0

Ejemplo:
Max. f(x) = 10 x1 + 20 x2 + x1 x2 2 x12 2 x22
x2 0

x1 x2 0
x1 0
x2 0
en forma matricial:
x
max. f(x) = [10 20] 1 x2

[x1

4 1 x1
0 1 x1 8
x2 ]
s.a.


1 4 x 2
1 1 x 2 10
x1 0
x2 0

Aplicando el algoritmo de Wolfe se reduce a resolver:


39

z
Min. W = [1 1] 1
z2

4 1 x1
1 4 x +

s.a.:

0 1 1 1
10 0
1 1 - + 0 20

2 2

z1
10
z = 20

2

0 1 x1 s1 8
1 1 x + s = 10

2 2
s

[1

2 ] 1 = 0
s

[ 1

2 ] 1 = 0
x

Que se puede resolver mediante el mtodo simplex teniendo


en cuenta durante la resolucin que i y si no pueden formar
parte simultneamente de la base y que i

xi tampoco

pueden formar parte simultneamente de la base.


Problema de seleccin de la cartera de valores
Bajo ciertos supuestos sobre el comportamiento del inversor
Markowitz7 supuso que la funcin de utilidad del individuo es
U=f[E(RP);(RP)]
con

U
>0
E (RP )

U
>0
(RP )

Markowitz, Portfolio Selection, marzo de 1952 reproducido en Teora de la Financiacin


de la Empresa recopilacin de J. Fred Weston y Donald H. Woods, editorial Gustavo Gilli
S.A., Barcelona, 1970
40

donde:
E(RP) es el valor esperado de la rentabilidad del portafolio

( RP) es el desvo estandar de la rentabilidad del portafolio


Y suponiendo que cuenta con P unidades monetarias para
invertir en un conjunto de n acciones desea saber cunto le
conviene invertir en cada accin (wi = proporcin de P
invertida en la accin i)
Entonces se plantea el problema:
min V(R P )

s.a. E(R P ) = wi Ri
i =1

con wi 0

Donde V(RP) = [w1

wi = 1
i =1

1in iN

w2 " wn ]

11 12 " 1n w1

21 22 " 2 n w2
#
#
# #

n1 n 2 " nn wn

Donde ij es la covarianza del rendimiento de la accin i con


la j ( si i = j ii es la varianza de la accin i).

41

Se puede demostrar que la funcin V(RP) es semidefinida


positiva (concepto amplio) y al ser las restricciones lineales se
puede resolver por programacin cuadrtica.
Haciendo depender el valor de la funcin objetivo de E*(RP) y
aplicando lo demostrado en Anexo I y considerando que al ser
V(RP) convexa8 y la restriccin E(RP)

cncava (por ser una

funcin lineal),

v[E(R p )] = MinV ( R p ) tal que wi Ri = E * ( RP ), con

con wi 0

w
i =1

= 1

1in iN
E ( RP )
*
el valor ptimo v[E (RP)] de
1

que asigna a cada vector


V(RP), ser convexa.

Obtenindose la frontera eficiente en el espacio E(RP); ( RP),


donde:

( RP) =

V ( RP )

ver Anexo II
v[E(RP)] es no decreciente en la variable E(RP), ya que si sta crece (baja) y la otra
restriccin permanece fija, la exigencia de una mayor rentabilidad del portafolio, har que
el riesgo medido por v[E(RP)] aumente (disminuya)
42
9

Grficamente:

( RP)

E(RP)
o como ms frecuentemente se presenta
E(RP)

( RP)
Observacin:
El problema de seleccin de la cartera de valores, si se levanta
el supuesto de que las ponderaciones sean no negativas (wi
0) lo que implica desde el punto de vista financiero aceptar
venta descubierta (en ingls: short sale)10, se puede

10

significa venta de un ttulo del cual no se es propietario


43

resolver por optimizacin clsica (Maximizacin sujeta a


restricciones de igualdad)11

ANEXO I
Propiedades de la funcin valor:
El valor de la funcin objetivo f(x) depende de c = (c1; c2;
c3;.....;cm)
La funcin definida por: v(c) = max { f(x) sujeta a gj(x) cj con
1 j m j N x Rn}
asigna a cada vector c el valor ptimo v(c) de f y se llama
funcin valor para el problema.
Si f(x) es cncava y g(1)(x); g(2)(x);.......... g(m)(x) son todas
convexas entonces v(c) es cncava.
En efecto, designemos con x(c) a una solucin ptima del
problema cuando el vector de los miembros de la derecha
de las desigualdades es c = (c1; c2; c3;.....;cm).

11

Para un tratamiento del tema ver Seleccin de Inversiones Messuti y otros cap 5 y 12
44

Sean c(1) y c(2) dos vectores arbitrarios de miembros de la


derecha, entonces:
v(c(1)) = f[x(c(1))]
con gj[x(c(1))] cj y

v(c(2)) = f[x(c(2))],

gj[x(c(2))] cj

con 1 j m j N

y sea [0; 1] correspondiente al vector ( 1 -) c(1) + c(2) hay


una solucin ptima x[( 1 -) c(1) + c(2)] para la cual
v[( 1 -) c(1) + c(2)] = f { x[( 1 -) c(1) + c(2)]}

Anotando x = ( 1 -) x(c(1)) + x(c(1))


La convexidad de gj implica que para 1 j m j N
gj(x) ( 1 -) gj [x(c(1))] + gj [x(c(2))] ( 1 -) cj(1) + cj(2)
donde la ltima desigualdad se deduce del hecho de que los
dos vectores x(c(1)) y x(c(2)) sean factibles.
As x es factible para el problema cuyo miembro de la derecha
es el vector
( 1 -) c(1) + c(2) .
45

x = [( 1 -) c(1) + c(2)]

Por definicin

es ptimo de este

problema. Por lo tanto:


f(x) f{x[( 1 -) c(1) + c(2)]} = v[( 1 -) c(1) + c(2)]

(a)

adems la concavidad de f implica que


f(x) ( 1 -) f [x(c(1))] + f [x(c(2))] = ( 1 -) v(c(1)) + v(c(2))

(b)

de (a) y (b) se deduce que:


v[( 1 -) c(1) + c(2)] ( 1 -) v(c(1)) + v(c(2))
que responde a la definicin de concavidad de v.
Para

v(c)

min

f(x)

sujeta

gj(x)

cj

con 1 j m j N x Rn}
con f(x) convexa y g1(x); g2(x);..........gm(x) todas cncavas, de
forma similar, se puede demostrar que la funcin valor v(c) es
convexa.

v(c) es no decreciente en cada variable cj con 1 j m ya


que si cj crece y todas las otras variables estn fijas, el
conjunto factible se agranda. Por lo tanto v(c) no puede
decrecer

46

ANEXO II
Una forma cuadrtica semidefinida positiva (negativa), es una
funcin convexa (cncava) sobre Rn.
Se demostrar esta propiedad para una forma cuadrtica
semidefinida positiva.
Sea f(x) = xT A x 0 para todo x distinto del vector nulo con
x Rn y nAn simtrica.
Tomando dos puntos cualesquiera x(1) y x(2) y sea z = [( 1 -)
x(1) + x(2)]

con [0; 1] .

Por definicin de funcin convexa hay que demostrar que:


zT A z ( 1 -) x(1)T A x(1) + x(2)TA x(2)
por definicin de z
zT A z = [( 1 -) x(1) + x(2)]T A [( 1 -) x(1) + x(2)]
zT A z = [( 1 -) x(1) A + x(2) A]T [( 1 -) x(1) + x(2)]
zT A z = 2 x(2)TA x(2)+ (1 -) x(1)TA x(2) + x(2)TA (1 -) x(1) +
+ (1 -)2 x(1)T A x(1)
47

zT A z = 2 x(2)TA x(2) + x(1)TA x(2) - 2 x(1)TA x(2) + x(2)TA x(1) - 2 x(2)TA x(1) + x(1)TA x(1) - 2 x(1)T A x(1) + 2 x(1)TA x(1)
aplicando x(1)TA x(2) = [x(1)TA x(2)]T = x(2)TA x(1) en
el 4 trmino ()
zT A z = 2 x(2)TA x(2) + x(1)TA x(2) - 2 x(1)TA x(2) + x(1)TA x(2) - 2 x(2)TA x(1) + x(1)T A x(1) - 2 x(1)T A x(1) + 2 x(1)TA x(1)
sumando el 2 y el 4 trmino
zT A z = 2 x(2)TA x(2) + 2 x(1)TA x(2) - 2 x(1)TA x(2) - 2 x(2)TA x(1)
+ x(1)T A x(1)- 2 x(1)T A x(1) + 2 x(1)TA x(1)
zT A z = 2 (x(2)TA x(2) - x(1)TA x(2) - x(2)TA x(1) + x(1)TA x(1)) +
+ 2 (x(1)TA x(2) - x(1)T A x(1)) + x(1)T A x(1)
zT A z = 2 (x(2) - x(1))TA x(2) (x(2) - x(1))TA x(1)) +
+ 2 x(1)TA (x(2)- x(1)) + x(1)T A x(1)
zT A z = 2 (x(2) - x(1))TA (x(2) x(1)) + 2 x(1)TA (x(2) - x(1)) +
+ x(1)T A x(1)

48

aplicando la propiedad () en el 2 trmino


zT A z = 2 (x(2) - x(1))TA (x(2) x(1)) + 2 (x(2) - x(1))T A x(1) +
+ x(1)T A x(1)
como [0; 1] y xT A x 0 se deduce que

(x(2) - x(1))TA (x(2) x(1)) 2 (x(2) - x(1))TA (x(2) x(1))


Entonces :
zT A z (x(2) - x(1))TA (x(2) x(1)) + 2 (x(2) - x(1))T A x(1) +
+ x(1)T A x(1)
zT A z ( x(2)T A - x(1)TA) (x(2) x(1))+ 2 x(2)T A x(1)- 2x(1)T A x(1) + x(1)T A x(1)
zT A z x(2)T A x(2) - x(2)T A x(1) - x(1)TA x(2) + x(1)TA x(1)+
+2 x(2)T A x(1)

2 x(1)T A x(1) + x(1)T A x(1)

aplicando la propiedad () en el 3 trmino:


zT A z x(2)T A x(2) - x(2)T A x(1) - x(2)TA x(1) + x(1)TA x(1) +
+ 2 x(2)T A x(1) - 2 x(1)T A x(1) + x(1)T A x(1)
49

cancelando 2, 3 y 5 trminos y sumando 4 y 6 trminos


zT A z x(2)T A x(2) - x(1)T A x(1) + x(1)T A x(1)
zT A z x(2)T A x(2) + (1- ) x(1)T A x(1)
que es lo que se quera demostrar.
El razonamiento para una forma cuadrtica semidefinida
negativa es anlogo.

50

Funcin convexa
Sea f : X R con X Rn convexo, f es una funcin convexa

x(1); x(2) X [0; 1]:


f[x(1)+(1 - )x(2)] f(x(1)) + (1 - ) f(x(2))
f es estrictamente convexa x(1); x(2) X [0; 1]
f[x(1)+(1 - )x(2)] < f(x(1)) + (1 - ) f(x(2))
Funcin cncava
Sea f : X R con X Rn convexo, f es una funcin cncava

x(1); x(2) X [0; 1]:


f[ x(1)+(1 - )x(2) ] f(x(1))+(1 - ) f(x(2))
f es estrictamente cncava x(1); x(2) X [0; 1]:
f[x(1)+(1 - ) x(2) ] > f(x(1))+(1 - ) f(x(2))
Funciones cuasicncavas- cuasiconvexas
Una funcin f es cuasicncava (cuasiconvexa) si, x(1) x(2)
X dominio convexo de f [0; 1]:

f (x(1) )
f (x ) f (x ) f .x + (1 )).x
(2)
f (x )
(2)

(1)

(1)

(2)

Y lo ser de manera estricta si las dos desigualdades dbiles


de la derecha se sustituyen por desigualdades estrictas
> f (x(1))
< f (x(2))
51

Una funcin diferenciable f(x) con x Rn es cuasicncava


(cuasiconvexa)
si x(1) x(2) X dominio de f:

n f
( 2)
(1)
(
)
x
x

i
i

i =1 xi x (1)
( 2)
(1)
f (x ) f (x ) n
0

(
2
)
(
1
)

( xi xi )

i =1 i x ( 2 )
Para la cuasiconcavidad y cuasiconvexidad estrictas la
desigualdad de la derecha tendr que ser sustituda por la
desigualdad estricta > 0
Si la funcin es dos veces continuamente diferenciable, la
cuasiconcavidad y cuasiconvexidad, en el ortante no negativo,
pueden verificarse estudiando el signo de los siguientes
menores principales de la matriz hessiana :
0 f1 f2 .....fn
f1 f11 f12 ..... f1n
f2 f21 f22 ..... f2n
........................
fn fn1 fn2 ..... fnn
52

2 = 0 f1

3= 0 f1 f2

f1 f11

f1 f11 f12

f1 f11 f12 ..f1n

f2 f21 f22

f2 f21 f22..f2n

...

n =

0 f1 f2 ...fn

....................
fn fn1 fn2.. fnn

Condiciones de Arrow-Enthoven
Son vlidas en el ortante no negativo.
Condicin necesaria
cuasiconcavidad

cuasiconvexidad

Condicin suficiente
cuasiconca-

cuasicon-

vidad

vexidad

>0

<0

<0

<0

>0

<0

<0

<0

si i es par

si i es par

>0

si i es impar
n

<0

si i es impar
0

<0
53

Cualificacin de restricciones (C.R.)


La C.R. se cumple:

Si todas las restricciones son funciones lineales

Si cada restriccin es una funcin diferenciable y convexa,


y existe un punto x* perteneciente al conjunto factible en el
cual todas las restricciones son inactivas:
gj(x*) < 0 con 1 j m

Si

cada

funcin

(condicin de Slater)
de

restriccin

es

diferenciable,

cuasiconvexa, existe un punto x* perteneciente al conjunto


factible tal que
gj(x*) < 0

con 1 j m

y si adems para cada j


-

o bien gj(x) es convexa

o bien para cada x*

gj(x*) 0

entonces se cumple la C.R.

Las funciones gj(x) correspondientes a las restricciones que


estn activas en x* tienen gradientes en x* que son
linealmente independientes.

La cualificacin de restricciones es una restriccin impuesta a


las

restricciones

an

cuando

concerniente al conjunto factible.

54

no

es

una

limitacin

Condiciones necesarias de Kuhn-Tucker


Suponiendo

x ( 0 ) = ( x 1( 0 ) ; x 2( 0 ) ;........ x n( 0 ) )

que

resuelve

el

problema:

max. f (x)

s.a. g j (x) cj con1 j m xRn

no estando acotada la cantidad de restricciones y donde f(x) y


gj(x) son funciones continuamente diferenciables. Suponiendo
que se verifica la C.R. Entonces,existen unos nicos nmeros

1; 2; ......... m tales que:


a)

f ( x ( 0 ) ) m
g j
j
= 0 con 1 i n
xi
xi
j =1

b)

gj (x(0)) 0 j 0 j gj (x(0)) =0 con1 j m

Si se incluyen las condiciones de no negatividad

max. f (x)

s.a. gj(x) cj con 1 j m x 0 xRn


m

L = f ( x) + j c j g j ( x)

j =1

Sern:
Suponiendo que x(0) Rn resuelve el problema siendo la funcin
objetivo

las

restricciones

funciones

continuamente

diferenciables y suponiendo que se verifica la cualificacin de


restricciones

entonces

existen

unos

nicos

nmeros

1;

2;.........m tales que


55

a)

L
0
xi x ( 0 )

xi 0

b)

L
0
j ( 0 )
x

j 0

xi

L
=0
xi x ( 0 )

L
=0
j ( 0 )
x

Condiciones suficientes de Kuhn y Tucker


Considerando el problema de programacin no lineal

max. f (x)

Donde

la

s.a. g j (x) c j
funcin

con 1 j m x 0 xRn

objetivo

las

restricciones

son

continuamente diferenciables, f es cncava y las restricciones


son convexas. Suponiendo que existen

Y un vector factible x(0) tales que:


a)

L
=0
xi x ( 0 )

b)

56

0
x

(0)

1 i n

j 0

=0
x

(0)

con 1 j m

Si se agregan las condiciones de no negatividad

a)

L
0
xi x ( 0 )

xi 0

xi

L
=0
xi x ( 0 )

Entonces x(0) resuelve el problema.


Si adems se verifica la C.R. las condiciones son necesarias y
suficientes,
y si la funcin objetivo es estrictamente cncava se puede
asegurar que el mximo global es nico.
Condiciones necesarias y suficientes en programacin
cuasicncava (Arrow- Enthoven)
Sea el problema

max. f ( x)

Donde

la

s. a. g j (x) c j con 1 j m x 0 x R n
funcin

continuamente

objetivo

diferenciables.

las

restricciones

Suponiendo

que

son

existen

nmeros j y un vector x(0) Rn tales que:

57

a)

x(0) es factible y se verifican:

b)

L
0
xi x ( 0 )
L

c)
d)

xi 0

j 0

0
x( 0)

xi

L
=0
xi x (0)

L
=0
j ( 0 )
x

f(x) es cuasicncava y gj(x) es cuasiconvexa en el ortante


no negativo

e) Se satisface una cualquiera de las siguientes:


e-i

f
< 0 para al menos una variable xi
xi x ( 0 )

e-ii

f
> 0 para alguna variable xi que pueda tomar un
xi x ( 0 )

valor positivo sin violar las restricciones (xi en este caso es


llamada en la literatura del tema como variable relevante).
e-iii f ( x

(0)

) 0 , y la funcin es dos veces diferenciable en

un entorno de x(0)
e-iv f(x) es cncava
Entonces en x(0) la funcin se maximiza.
58

Es decir si adems de verificarse a, b, c, d y e se satisface la


C.R., entonces las condiciones de Kuhn y Tucker son
necesarias y suficientes.
Problema

estandar

en

teora

de

la

demanda

del

consumidor
Max.U(x) s. a. p1x1 + p2x2 + p3x3 +......+pnxn I
Suponiendo

que

es

continuamente

diferenciable

cuasicncava. Las condiciones de Kuhn y Tucker son:


L = U(x) + ( I - p1x1 - p2x2 - p3x3 -.............-pnxn)
a)

L U
=
p i 0
xi xi

b)

n
L
= I p i xi 0

i =1

xi 0

xi U pi = 0
xi

i =1

I p i xi = 0

Suponiendo que x(0) Xn verifica a) y b) y suponiendo que no


todas las

U
son cero, o sea que se supone que para algn
xi x ( 0 )

bien no existe saciedad, (condicin e-iv de Arrow-Enthoven), y


teniendo en cuenta que la funcin objetivo es cuasicncava y
59

la restriccin es lineal, se dan las condiciones suficientes de


ptimo.
n

Entonces a) implica que > 0 y as

px
i

i =1

= I por b).

Por lo tanto, se gasta todo el presupuesto y x(0) Xn resuelve


el problema.
Programacin cuadrtica:
Mx. f(x) = cT x xT Q x

s.a. g(j)(x) bj

que equivale a A x b (por ser restricciones lineales) x 0


donde:
c1

x1

b1

a11.............a1n

q11.........q1n

c2

x2

b2

a21.............a2n

q21........q2n

c=

x=
cn

b=
xn

A=
bm

Q=
am1............amn

qn1........qnn

la matriz Q es simtrica semidefinida positiva, lo que asegura


que la funcin objetivo sea una funcin cncava
Las condiciones de Kuhn y Tucker son necesarias y
suficientes
60

cuando

en

el

problema

de

programacin

matemtica se maximiza una funcin cncava y la regin


de factibilidad es un conjunto convexo, como en este caso.
Algoritmo de Wolfe
Consiste en aplicar las condiciones de Kuhn y Tucker al
problema

de

programacin

cuadrtica,

reduciendo

el

problema a otro de programacin lineal.


En el proceso

Ax+s=b

siendo s = 0

Analizando esta ltima relacin:

>0

s=0 Ax=b

=0

s0 Axb

Entonces nuestro problema quedar definido de la siguiente


manera:
n

Min W =

z
i =1

s.a. Q x + AT - + C z = c xi 0

j 0 s = 0

x = 0

A x + s =b

s0

61

Destaquemos que por (3) xi y j no deben formar parte de la


solucin factible bsica al mismo tiempo, y que por (4) j y sj
tampoco deben formar parte de la solucin factible bsica al
mismo tiempo.
Problema de seleccin de la cartera de valores
Bajo ciertos supuestos sobre el comportamiento del inversor
Markowitz supuso que la funcin de utilidad del individuo es
U = f [E(RP);( RP)]
con

U
>0
E (R P )

U
>0
(RP )

Entonces se plantea el problema


n

min V(R P )
con wi 0

s.a. E(R P ) = wi Ri
i =1

wi = 1
i =1

1in iN

Donde

V(RP) = [w1

62

w2 " wn ]

11 12 " 1n w1


21 22 " 2 n w2
#
#
# #


n1 n 2 " nn wn

Se puede demostrar que la funcin V(RP) es semidefinida


positiva (concepto amplio) y al ser las restricciones lineales se
puede resolver por programacin cuadrtica.
y se obtienen los wi que se reemplazan en la funcin objetivo
para calcular V ( RP ) min
y tambin (RP)min =

V ( RP ) min (riesgo mnimo)

y en E(R P ) min = wi Ri

(el valor esperado del rendimiento

i =1

cuando el riesgo es mnimo)


Esto proporciona el punto [(RP)min; E(RP)min] en el grfico
E(RP)
E(RP)min

(RP)min

(RP)

Ahora planteamos el problema de hallar


Min. V(RP)
63

s.a.

w R
i =1

= E*(RP) wi = 1

con wi 0

i =1

Con el parmetro E*(RP) > E(RP)min


Obtenindose los wi correspondientes a cada valor de E*(RP),
que se reemplazan en la funcin objetivo para calcular los
respectivos V ( R P ) y tambin los respectivos (RP) =

V ( RP ) .

Esto proporciona otros puntos [(RP); E(RP)] en el grfico que


conforman la frontera eficiente
E(RP)
E(RP)5
E(RP)4
E(RP)3
E(RP)2
E(RP)1
E(RP)min

(RP)
(RP)min 1(RP) 2(RP) 3(RP) 4(RP) 5(RP)

64

Bibliografa
ARMITANO O., EDELMAN J. y PALOMARES GARCA U.(
1985), Programacin no Lineal., Mxico, Limusa
BALBS A. y

GIL J. A.(1987), Programacin Matemtica ,

Espaa, Editorial AC,


BENAVIE Arthur ,(1972), Tcnicas Matemticas del anlisis
Econmico, Espaa, Prentice Hall,
BERCK Peter y SYDSAETER Knut , 1994, Formulario para
Economistas, Espaa, Bosch
BERNARDELLO, Alicia; VICARIO, Aldo ,(1999), Condicin de
segundo orden en la optimizacin libre y sujeta a restricciones
de igualdad,(1999), XIV Jornadas
CARBONELL Lorenzo y PERIS Josep E.(1986), Problemas de
Matemticas para Economistas, Espaa, Ariel, S.A
CHIANG

Alpha

C.(1987),

Mtodos

Fundamentales

de

Economa Matemtica, Espaa, McGraw-Hill


65

EPPEN, G. D,(2000), Investigacin de Operaciones en la


Ciencia Administrativa, Mxico, Prentice Hall
ESCOBAR URIBE Diego,(1998), Introduccin a la Economa
Matemtica,

Colombia, Grupo Editorial

Iberoamericana
FERNNDEZ-POL

Jorge

Eduardo,(1980),

Lecciones

de

Programacin no Lineal, Argentina, Macchi


GUERRERO CASAS Flor M..(1994), Curso de optizacin:
Programacin Matemtica, Espaa, Ariel

INTRILIGATOR Michael D, (1973), Optimizacin Matemtica y


Teora Econmica Espaa,

Prentice Hall.

LANCASTER Kelvin ,(1972), Economa Matemtica, Espaa,


Bosch.
LUENBERGER D. G.,(1989), Programacin Lineal y no
Lineal, Mxico, Addison- Wesley

66

MADDEN Paul ,(1987), Concavidad y optimizacin en


Microeconoma, Espaa, Alianza
MESSUTI D. J., ALVAREZ V. A. y GRAFFI H. R.,(1992),
Seleccin de

inversiones, Argentina, Macchi MITAL K.

V.,(1984), Mtodos de optimizacin,Mxico, Limusa


SYDSAETER Knut y HAMMOND Peter ,(1996), Matemticas
para el anlisis Econmico.Espaa, Prentice Hall.
TAKAYAMA Akira, (1985. Reprinted 1997.), Mathematical
economics, Estados Unidos, Cambridge University Press
WESTON, Fred J. y WOODS, Donald H.,(1970), Teora de la
financiacin de la empresa,Barcelona, Gustavo Gilli S. A.
WINSTON Wayne L.,(1994), Operations Research-Applications
and Algoritms, third edition, Estados Unidos,. PWS-Kent.

67

Anda mungkin juga menyukai