Anda di halaman 1dari 24

Estimacin de modelos no lineales

Alfonso Novales
Departamento de Economa Cuantitativa
Universidad Complutense
Noviembre 2012
1 Estimacin de modelos no lineales
Es bien conocido que el estimador de Mnimos Cuadrados Ordinarios de un
modelo de relacin lineal,
j
|
= r
0
|
, +n
|
, t = 1, 2, ..., T (1)
viene dado por la expresin matricial,
^
, = (A
0
A)
1
A1
siendo A la matriz Tr/ que tiene por columnas las T observaciones de cada
una de las / variables explicativas contenidas en el vector r
|
, e 1 el vector
columna, de dimensin T, formado por las observaciones de j
|
. Este estimador,
que es lineal (funcin lineal del vector 1 ), es insesgado. Es el de menor varianza
entre los estimadores lineales si la matriz de covarianzas de los trminos de error
tiene una estructura escalar,
\ ar(n) = o
2
u
1
T
Si, adems de tener dicha estructura de covarianzas, el trmino de error
tiene una distribucin Normal, entonces el estimador de Mnimos Cuadrados
coincide con el estimador de Mxima Verosimilitud, siendo entonces eciente:
estimador de menor varianza, entre todos los estimadores insesgados, sea cual
sea su dependencia respecto del vector de 1 .
Supongamos que se pretende estimar la relacin,
j
|
= )(r
|
, ,) +n
|
, (2)
donde )(r
|
, ,) es una funcin no lineal de los componentes del vector /r1, ,.
Si )(r
|
, ,) es no lineal nicamente en las variables explicativas r
|
, un cambio de
variable permite transformar el modelo anterior en un modelo lineal. Excluimos,
sin embargo, inicialmente, la estimacin de relaciones implcitas, representables
a partir de un modelo general del tipo,
1
q(j
|
, r
|
, ,) +n
|
,
1.1 Minimos Cuadrados en modelos no lineales
El procedimiento de Mnimos Cuadrados no Lineales en este modelo consiste en
resolver el problema de optimizacin:
min
0
o1(
^
0) = min
0
T

|=1
^ n
|
_
^
0
_
= min
0
T

|=1
[j
|
)(r
|
, ,)]
2
lo que implica resolver el sistema de ecuaciones,
_
0)(r
|
, ,)
0,
_
0
j =
_
0)(r
|
, ,)
0,
_
0
)(A, ,)
donde el vector gradiente es Tr/, y )(A, ,) es Tr1. Este sistema puede
no tener solucin, o tener mltiples soluciones. A diferencia del estimador de
Mnimos Cuadrados aplicado a un modelo lineal, el estimador no es insesgado.
La matriz de covarianzas del estimador resultante es:
\ ar(
^
0) = o
2
u
_
_
0)(r
|
, ,)
0,
_
0
_
0)(r
|
, ,)
0,
_
_
1
que se reduce a la matriz de covarianzas o
2
u
(A
0
A)
1
en el caso de un modelo
lineal.
Si quisiramos aplicar Mnimos Cuadrados directamente, en el modelo ex-
ponencial,
j
|
= )(r
|
, 0) +n
|
= c +,
1
c
o
2
rt
+n
|
con 0 = (c, ,
1
, ,
2
) , tendramos que resolver el problema,
min
0
o1(
^
0) = min
0
T

|=1
_
^ n
|
_
^
0
__
2
= min
0
T

|=1
_
j
|
(c +,
1
c
o
2
rt
)

2
que conduce a las condiciones de optimalidad,

j
|
= cT +,
1

c
o
2
rt

j
|
c
o
2
rt
= c

c
o
2
rt
+,
1

c
2o
2
rt

j
|
r
|
c
o
2
rt
= c

r
|
c
2o
2
rt
+,
1

r
|
c
2o
2
rt
que carece de solucin explcita, por lo que debe resolverse por procedimien-
tos numricos.
2
1.1.1 Aproximacin lineal del modelo no lineal
Para evitar recurrir a los mtodos numricos, en los que siempre es complicado
saber si hemos encontrado el tipo de solucin que buscbamos, un primer en-
foque consiste en estimar la aproximacin lineal del modelo (2) , alrededor de
una estimacin inicial,
j
|
= )(r
|
,
^
,) +
_
0)(r
|
, ,)
0,
_
o=
^
o
_
,
^
,
_
+n
|
,
Haciendo el cambio de variable: j

|
= j
|
)(r
|
,
^
,) +
_
J}(rt,o)
Jo
_
o=
^
o
^
,, y
generando asimismo datos para cada una de las / variables denidas por el
gradiente
_
J}(rt,o)
Jo
_
o=
^
o
,podemos estimar el modelo lineal
j

|

_
0)(r
|
, ,)
0,
_
o=
^
o
, +n
|
,
por el procedimiento habitual de Mnimos Cuadrados.
Podemos pensar que en realidad estamos estimando un modelo distinto del
que pretendamos, y que de poco nos servir, si el modelo que estimamos tiene
una variable dependiente y unas variables explicativas diferentes de las que
aparecan en el modelo original. Lo que sucede es que una vez ms (como
tambin sucede al estimar por MCG un modelo de regresin inicial en el que el
trmino de error tiene heterocedasticidad o autotocorrelacin), lo que hacemos
es transformar las variables del modelo para obtener otro modelo diferente, que
comparte con el primero los mismos coecientes, y en el que la estimacin de
mnimos cuadrados tiene buenas propiedades. Adems, veremos pronto que esta
estrategia de estimacin se puede interpretar como el resultado de un verdadero
problema de minimizacin de la suma de cuadrados de residuos (ver algoritmo
de Gauss Newton, ms adelante).
La estimacin resultante es,
~
, =
_
_
0)(r
|
, ,)
0,
_
0
o=
^
o
_
0)(r
|
, ,)
0,
_
o=
^
o
_
1 _
0)(r
|
, ,)
0,
_
0
o=
^
o
j

donde el vector gradiente es una matriz de pseudo-datos, de dimensin Tr/,


e j

es un vector Tr1.
Sustituyendo j

por la expresin que utilizamos para denir a esta variable,


podemos escribir el estimador como,
~
, =
^
, +
_
_
0)(r
|
, ,)
0,
_
0
o=
^
o
_
0)(r
|
, ,)
0,
_
o=
^
o
_
1 _
0)(r
|
, ,)
0,
_
0
o=
^
o
^ n.
3
Este resultado es muy interesante, pues permite poner en prctica un pro-
cedimiento iterativo, del siguiente modo: en cada etapa, partimos de unos de-
terminados valores numricos para los parmetros , del modelo, que utilizamos
para generar los errores de ajuste, ^ n, y estimamos una regresin de dichos errores
sobre las variables que conguran el vector gradiente
J}(rt,o)
Jo
. Los coecientes
estimados en dicha regresin son las correcciones que hay que introducir so-
bre el estimador disponible en en dicha etapa para obtener un nuevo vector de
estimaciones. Para comenzar este proceso, hemos de empezar con unas estima-
ciones iniciales, que se seleccionan bien utilizando informacin muestral, o bien
escogiendo valores numricos que simpliquen el modelo.
El estimador resultante tras la convergencia del procedimiento tiene una
distribucin asinttica Normal, con esperanza matemtica igual al verdadero
vector de parmetros ,, y su matriz de covarianzas puede estimarse por,
^ o
2
u
_
_
0)(r
|
, ,)
0,
_
0
o=
~
o
_
0)(r
|
, ,)
0,
_
o=
~
o
_
1
(3)
con ^ o
2
u
=
1
T|

T
|=1
~ n
2
|
,siendo el residuo ~ n
|
= j
|
)(r
|
,
~
,).
1.1.2 Ejemplo 1: Modelo exponencial con constante. Aproximacin
lineal
Consideremos la estimacin del modelo exponencial:
j
|
= c +,
1
c
o
2
rt
+n
|
= )(r
|
, 0) +n
|
con 0 = (c, ,
1
, ,
2
) . El gradiente de la funcin ) que dene la relacin entre
variable dependiente e independiente es,
0)(r
|
, 0)
00
=
_
1, c
o
2
rt
, ,
1
r
|
c
o
2
rt
_
0
por lo que la aproximacin lineal al modelo original es,
j
|
)(r
|
,
^
0) +
_
0)(r
|
, 0)
00
_
0
0=
^
0
_
0
^
0
_
+n
|
, t = 1, 2, ..., T,
que deniendo variables:
j

|
= j
|
)(r
|
,
^
0) +
_
0)(r
|
, 0)
00
_
0
0=
^
0
^
0 = j
|
+
^
,
1
^
,
2
c
^
o
2
rt
.
1|
= c
^
o
2
rt
.
2|
=
^
,
1
r
|
c
^
o
2
rt
conduce a estimar el modelo,
j

|
= c +,
1
.
1|
+,
2
.
2|
+n
|
, t = 1, 2, ..., T (4)
4
A partir de unas estimaciones iniciales denotadas por el vector
^
0 =
_
^ c,
^
,
1
,
^
,
2
_
,
generamos observaciones numcas para la variable j

|
, as como para las varaibles
.
1|
, .
2|
, y procedemos a estimar el modelo (4) , obteniendo las nuevas estima-
ciones numricas de los tres parmetros. Con ellos, podramos volver a obtener
observaciones numricas de j

|
, .
1|
, .
2|
, e iterar el procedimiento.
Como hemos visto antes, este procedimiento puede tambin ponerse en prc-
tica estimando la regresin de los residuos sobre el vector gradiente:
^ n
|
= c
0
+c
1
.
1|
+c
2
.
2|
Tanto el clculo del vectror de residuos como la generacin de datos para
el vector gradiente dependern de la estimacin concreta disponible en ese mo-
mento, y procederemos a la actualizacin de valores numricos de los parmet-
ros, mediante:
^ c
n
= ^ c
n1
+
^
c
0
;
^
,
1,n
=
^
,
1,n1
+
^
c
1
;
^
,
2,n
=
^
,
2,n1
+
^
c
2
siendo ^ n
|
= j
|
)(r
|
,
^
0
n1
).
1.1.3 Ejemplo 2: Modelo potencial. Aproximacin lineal
Supongamos que queremos estimar el modelo potencial:
j
|
= c +,r
~
|
+n
|
, t = 1, 2, ..., T
la funcin )(r
|
, ,) es: )(r
|
, ,) = c+r
~
|
, de modo que el vector gradiente es:
0)(r
|
, ,)
0,
=
_
0)(r
|
, ,)
0c
,
0)(r
|
, ,)
0,
,
0)(r
|
, ,)
0
_
= (1, r
~
|
, ,r
~
|
lnr
|
)
[Recordemos que la derivada de la funcin r
~
con respecto a es igual a
r
~
lnr].
Ntese que para cada observacin t tenemos un vector de tres valores numri-
cos para el vector
J} (rt,o)
Jo
, que siempre tiene como primer elemento en este caso
el nmero 1.
A partir de unas estimaciones
^
,, calculamos los errores de ajuste:
^ n
|
= j
|
^ c
^
,r
^ ~
|
, t = 1, 2, ..., T
y estimamos una regresin con ^ n
|
como variable dependiente, y las tres variables
del vector
J} (rt,o)
Jo
como variables explicativas. El vector de estimaciones se
aade, con el signo que haya tenido (es decir, se suma si es positivo, y se resta si
es negativo), de las estimaciones iniciales, para tener una nueva estimacin. el
algoritmo continua hasta que alcance la convergencia, y el punto al que converge
se toma como estimacin del vector ,.
En este modelo, una estimacin inicial razonable consistira en partir de =
1,que simplica el modelo hacindolo lineal. Si estimamos una regresin lineal
5
por mnimos cuadrados: j
|
= c + ,r
|
+ n
|
, t = 1, 2, ..., T, el vector
_
^ c,
^
,, 1
_
,
donde ^ c y
^
, denotan las estimaciones de mnimos cuadrados del modelo lineal,
serviran como estimaciones iniciale para comenzar el procedimiento iterativo.
1.2 Minimizacin de una funcin
Supongamos que queremos hallar el valor del vector de parmetros 0 que min-
imiza una funcin 1 (0) . A partir de una estimacin inicial del valor de dicho
vector,
^
0
n1
, aproximamos la funcin 1 (.) .
1 (0) 1
_
^
0
n
_
+
_
\1
_
^
0
n
__
0
_
0
^
0
n
_
+
1
2
_
0
^
0
n
_
0
_
\
2
1
_
^
0
n
__ _
0
^
0
n
_
= ' (0)
Si quisiramos minimizar la funcin ' (0) ,resolveramos el sistema de ecua-
ciones,
' (0) =
_
\1
_
^
0
n
__
+
_
\
2
1
_
^
0
n
__ _
0
^
0
n
_
= 0
que conduce a,
0 =
^
0
n

_
\
2
1
_
^
0
n
__
1
_
\1
_
^
0
n
__
valor numrico que puede tomarse como la nueva estimacin,
^
0
n+1
. Por
supuesto, convendr comprobar que el Hessiano \
2
1
_
^
0
n
_
es denido positivo.
El algoritmo se basa en condiciones de primer orden por lo que, cuando el
algoritmo converja, no sabremos si hemos alcanzado un mximo o un mnimo,
y necesitaremos hacer alguna exploracin adicional. Si aplicamos la expresin
anterior a la minimizacin de una funcin cuadrtica: 1(0) = a0
2
+ /0 + c,
obtenemos:
^
0
n
= /,2a, llegando a este punto crtico de la funcin sin necesidad
de hacer ninguna iteracin.
Este es un algoritmo iterativo, conocido como algoritmo de Newton-Raphson.
Converge en una sla etapa al mnimo local cuando la funcin 1 (0) es cuadrtica.
En los dems casos, no hay ninguna seguridad de que el algoritmo vaya a con-
verger. Incluso si lo hace, no hay seguridad de que converja al mnimo global,
frente a hacerlo a un mnimo local. Adems, no es posible saber si el lmite
alcanzado es o no un mnimo de naturaleza local. Por eso, conviene repetir
el ejercicio partiendo de condiciones iniciales muy distintas para, si converge,
certicar que lo hace a un mnimo local peor que el alcanzado previamente.
Las iteraciones continan hasta que se satisfacen las condiciones de conver-
gencia que hallamos disedo. Estas pueden ser una combinacin de condiciones
de diverso tipo,
6
_
^
0
n

^
0
n1
_
0
_
^
0
n

^
0
n1
_
< -
1
_
\1
_
^
0
n
__
0
_
\1
_
^
0
n
__
< -
2
1
_
^
0
n
_
1
_
^
0
n1
_
< -
3
En este tipo de algoritmos puede utilizarse un parmetro ` de longitud de
paso, para tratar de controlar la velocidad de convergencia y, con ello, posibilitar
que nos aproximemos al mnimo global, o que no abandonemos demsiado pronto
una determinada regin del espacio paramtrico:
0 =
^
0
n
`
_
\
2
1
_
^
0
n
__
1
_
\1
_
^
0
n
__
1.3 Estimacin por Mnimos Cuadrados
Si queremos obtener el estimador de Mnimos Cuadrados del modelo no lineal,
querremos minimizar la funcin,
1 (0) =
T

|=1
(j
|
)(r
|
, ,))
2
= o1(,)
y la regla iterativa anterior se convierte en,
^
,
n
=
^
,
n1

_
\
2
1
_
^
,
n1
__
1
_
\1
_
^
,
n1
__
en la que es fcil ver que,
\1
_
^
,
n1
_
=
0o1(,)
0,
= 2
T

|=1
0)(r
|
, ,)
0,
n
|
\
2
1
_
^
,
n1
_
=
0
2
o1(,)
0,0,
0
= 2
T

|=1
_
0)(r
|
, ,)
0,
__
0)(r
|
, ,)
0,
_
0
2
T

|=1
0
2
)(r
|
, ,)
0,0,
0
n
|
en este caso, el algoritmo de Newton-Raphson consiste en:
^
,
n
=
^
,
n1
+
_
T

|=1
_
0)(r
|
, ,)
0,
__
0)(r
|
, ,)
0,
_
0

0
2
)(r
|
, ,)
0,0,
n
|
_
1
_
T

|=1
0)(r
|
, ,)
0,
n
|
_
El estimador resultante es asintticamente insesgado, con matriz de covari-
anzas,
o
2
u
_
\
2
1
_
^
0
n
__
1
7
estimndose el parmetro o
2
u
del modo antes referido, mediante el cociente
de la Suma de Cuadrados de los errores de ajuste y el nmero de grados de
libertad del modelo.
El algoritmo de Gauss-Newton consiste en ignorar la presencia de la segunda
derivada en la matriz inversa anterior, y considerar el esquema iterativo,
^
,
n
=
^
,
n1
+
_
T

|=1
_
0)(r
|
, ,)
0,
__
0)(r
|
, ,)
0,
_
0
_
1
_
T

|=1
0)(r
|
, ,)
0,
n
|
_
Al despreciar la segunda derivada, este algoritmo entra en dicultades cuando
la supercie a optimizar no tiene suciente curvatura que, como veremos ms
adelante, son las situaciones que en trminos estadsticos, corresponden a iden-
ticacin imperfecta de los parmetros del modelo.
El inters de este segundo algoritmo estriba en que la expresin matricial
que aparece en el segundo sumando corresponde con las estimaciones de mn-
imos cuadrados del vector de errores, calculado con las estimaciones actuales,
sobre las / variables denidas por el vector gradiente
J}(rt,o)
Jo
. Son / variables,
tanta como parmetros hay que estimar, porque el vector gradiente consta de
una derivada parcial con respecto a cada uno de los / parmetros del modelo.
Las estimaciones resultantes son las correcciones a introducir sobre las actuales
estimaciones del vector , para tener un nuevo vector de estimaciones numricas.
1.3.1 Ejemplo 3: El modelo exponencial
Consideremos de nuevo la estimacin del modelo exponencial,
j
|
= c +,
1
c
o
2
rt
+n
|
= )(r
|
, 0) +n
|
Si denotamos por 1 (0) la funcin Suma de Cuadrados de Residuos, tenemos el
gradiente y matriz hessiana,
\1 (0) = 2

0) (r
|
, 0)
00
^ n
|
= 2

0)
|
00
^ n
|
= 2

_
1, c
o
2
rt
, ,
1
r
|
c
o
2
rt
_
^ n
|
\
2
1 (0) = 2

_
0)
|
00
__
0)
|
00
_
0
2

0
2
)
|
00
2
^ n
|
=
= 2
T

|=1
_
_
1 c
o
2
rt
,
1
r
|
c
o
2
rt
c
o
2
rt
c
2o
2
rt
,
1
r
|
c
2o
2
rt
,
1
r
|
c
o
2
rt
,
1
r
|
c
2o
2
rt
,
2
1
r
2
|
c
2o
2
rt
_
_
2
T

|=1
_
_
0 0 0
0 0 r
|
c
o
2
rt
0 r
|
c
o
2
rt
,
1
r
2
|
c
o
2
rt
_
_
^ n
|
=
= 2
T

|=1
_
_
1 c
o
2
rt
,
1
r
|
c
o
2
rt
c
o
2
rt
c
2o
2
rt
r
|
c
o
2
rt
^ n
|
+,
1
r
|
c
2o
2
rt
,
1
r
|
c
o
2
rt
r
|
c
o
2
rt
_
,
1
c
o
2
rt
^ n
|
_
,
1
r
2
|
c
o
2
rt
_
,
1
c
o
2
rt
^ n
|
_
_
_
8
y el algoritmo de Newton-Raphson consiste en actualizar los valores numri-
cos de los parmetros mediante el esquema,
^
0
n
=
^
0
n1

_
\
2
1
_
^
0
n1
__
1
\1
_
^
0
n1
_
El algoritmo de Gauss-Newton es una versin simplicada del anterior, susti-
tuyendo la matriz hessiana por el producto,
T

|=1
_
0)
|
00
_
0=
^
0
_
0)
|
00
_
0
0=
^
0
que equivale a despreciar las derivadas de segundo orden. La aproximacin
ser apropiada por tanto cuando la funcin a optimizar sea aproximadamente
cuadrtica. En ese caso, el hessiano sera constante. Como en la expresin
del algoritmo Newton-Raphson aparece la suma de productos del hessiano por el
residuo, si el hessiano es aproximadamente constante, la suma seria proporcional
a la suma de residuos, que debera ser pequea (sera cero si el modelo fuese
lineal).
Bajo esta aproximacin, tenemos el esquema iterativo,
^
0
n
=
^
0
n1
+
_
T

|=1
_
0)
|
00
_
0=
^
0n1
_
0)
|
00
_
0
0=
^
0n1
_
1
_
T

|=1
0)(r
|
, ,)
0,
^ n
|
_
que, como puede verse, coincide con la estimacin de la aproximacin lineal
al modelo no lineal que antes analizamos.
En el modelo exponencial tendramos,
^
0
n
=
^
0
n1
+
_
_
T

|=1
_
_
1 c
o
2
rt
,
1
r
|
c
o
2
rt
c
o
2
rt
c
2o
2
rt
,
1
r
|
c
2o
2
rt
,
1
r
|
c
o
2
rt
,
1
r
|
c
2o
2
rt
,
2
1
r
2
|
c
2o
2
rt
_
_
_
_
1
_
_
T

|=1
_
_
^ n
|
c
o
2
rt
^ n
|
,
1
r
|
c
o
2
rt
^ n
|
_
_
_
_
Pero lo verdaderamente interesante del algoritmo de Gauss-Newton es que
la actualizacin en el estimador puede llevarse a cabo mediante una regresin
de los errores de ajuste, calculados con el estimador actualmente disponible,
sobre el vector gradiente de la funcin ) . Los coecientes estimados en esta
regresin auxiliar se aaden a los actuales valores numricos de los parmetros
para obtener el nuevo estimador, y se contina de modo iterativo hasta lograr
a convergencia del algoritmo.
1.3.2 Condiciones iniciales
En algunos casos, puede comenzarse de estimaciones iniciales sencialles, pero no
demasiado. La estructura de este modelo sugiere comenzar de ,
2
= 0, con lo que
desaparecera el trmino exponencial, y c = 0, con lo que tendramos ,
1
= j, y
9
residuos: ^ n
|
= j
|
j. Sin embargo, en este caso, las matrices a invertir en los
algoritmos de Newton- Raphson y Gauss-Newton resultan, respectivamente:
2
T

|=1
_
_
1 1 jr
|
1 1 r
|
^ n
|
+ jr
|
jr
|
r
|
^ n
|
+ jr
|
r
2
|
j^ n
|
+ j
2
r
2
|
_
_
= 2
T

|=1
_
_
1 1 jr
|
1 1 r
|
j
|
+ 2 jr
|
jr
|
r
|
j
|
+ 2 jr
|
r
2
|
jj
|
+ 2 j
2
r
2
|
_
_
;
T

|=1
_
_
1 1 jr
|
1 1 jr
|
jr
|
jr
|
j
2
r
2
|
_
_
siendo la segunda de ellas singular.
Afortunadamente, las condiciones de optimalidad del procedimiento de Mn-
imos Cuadrados nos sugieren cmo obtener estimaciones iniciales razonables.
Notemos que la primera condicin puede escribirse,
c = :(j) ,
1
:(c
o
2
rt
)
que, sustituida en la segunda, nos proporciona,
:(j
|
c
o
2
rt
) = :(c
o
2
rt
):(j) ,
1
_
:(c
o
2
rt
)

2
+,
1
:(c
2o
2
rt
)
Dado un valor numrico de ,
2
, tenemos,
,
1
=
:(j
|
c
o
2
rt
) :(c
o
2
rt
):(j)
:(c
2o
2
rt
) [:(c
o
2
rt
)]
2
que, como es habitual, tiene la forma de cociente entre una covarianza y una
varianza muestrales.
La ltima condicin de optimalidad nos dice,
:
_
j
|
r
|
c
o
2
rt
_
= c:
_
r
|
c
2o
2
rt
_
+,
1
:
_
r
|
c
2o
2
rt
_
que proporcionara otra eleccin de ,
1
,
,
1
=
:(j
|
r
|
c
o
2
rt
) :(r
|
c
2o
2
rt
):(j)
:(r
|
c
2o
2
rt
) [:(r
|
c
2o
2
rt
)]
2
Podramos optar por escoger el valor numrico de ,
1
con cualquiera de ellas.
Tambin podramos caracterizar la interseccin, si existe, de las dos curvas para
elegir ambos parmetros, ,
1
y ,
2
.
1.3.3 Ejemplo 4: Modelo potencial
Consideremos la utilizacin del modelo potencial para estimar la relacin entre
el tipo de inters a largo plazo 1
|
y el tipo de inters a corto plazo r
|
,
1
|
= ,
1
+,
2
r
~
|
+n
|
son,
10
T

|=1
(1
|
,
1
,
2
r
~
|
) = 0
T

|=1
(1
|
,
1
,
2
r
~
|
) r
~
|
= 0
,
2
T

|=1
(1
|
,
1
,
2
r
~
|
) r
~
|
lnr
|
= 0
que constituyen las ecuaciones normales del problema de estimacin. De las
dos primeras ecuaciones, obtenemos,
T

|=1
1
|
= T,
1
+,
2
T

|=1
r
~
|
=T:(1) = T,
1
+,
2
T:(r
~
) =,
1
= :(1) ,
2
:(r
~
)
T

|=1
1
|
r
~
|
= ,
1
T

|=1
r
~
|
+,
2
T

|=1
r
2~
|
=T:(1r
~
) = T:(1):(r
~
) ,
2
T:(r
~
)
2
+,
2
T:(r
2~
) =
= ,
2
=
:(1r
~
) :(1):(r
~
)
:(r
2~
) :(r
~
)
2
El primer resultado sugiere que la estimacin del trmino independiente se
obtenga, una vez estimados ,
2
y , de modo similar a como se recupera el
trmino independiente en la estimacin de un modelo lineal.
Lo ms interesante es observar que la segunda ecuacin sugiere estimar el
parmetro ,
2
en funcin de momentos muestrales de algunas funciones de los
tipos a largo y a corto plazo. Para calcular dichos momentos precisamos conocer
el parmetro , pero tambin podemos poner en marcha una bsqueda de red
puesto que, por las caractersticas de la funcin de consumo, dicho parmetro
ha de ser positivo y no muy elevado. Por tanto, una red que cubra el inter-
valo (0.5, 2.0) puede ser suciente. De hecho, para cada valor numrico posible
de podemos utilizar la expresin anterior para estimar ,
2
,sin necesidad de
optimizar, y despus utilizar la primera condicin de optimalidad para estimar
,
1
.
1.3.4 Ejemplo 5: Modelo exponencial sin constante.
Consideremos ahora la estimacin del modelo,
j
|
= cc
ort
+n
|
= )(r
|
, 0) +n
|
con 0 = (c, ,) . Entre muchas otras aplicaciones, este modelo se ha utilizado
para representar una funcin de demanda de dinero, que relaciona la cantidad
11
de saldos monetarios reales en la economa en funcin de las expectativas de
inacin:
_
'
|
1
|
_
J
= cc
ot
e
t
+n
|
, t = 1, 2, ..., T, c 0, , < 0
El gradiente de la funcin ) que dene la relacin entre variable dependiente
e independiente, es,
0)(r
|
, 0)
00
=
_
c
ort
, cr
|
c
ort
_
0
Es importante apreciar la expresin analtica de las derivadas parciales de
esta funcin,
0j
0r
= c,c
ort
,
0
2
j
0r
2
= c,
2
c
ort
,
Como la funcin exponencial es positiva con independencia del signo de ,
y de r
|
, tenemos que la primera derivada tendr el signo del producto c,,
mientras que la segunda derivada tendr el signo del parmetro c. Esto nos
puede dar pautas para la eleccin de condiciones iniciales. Por ejemplo, si la
nube de puntos de j
|
sobre r
|
tiene un perl decreciente y convexo, tendramos
un valor positivo de c, debido a la convexidad, junto con un valor negativo de
,.
Aproximacin lineal por lo que la aproximacin lineal al modelo original es,
j
|
)(r
|
,
^
0) +
_
0)(r
|
, 0)
00
_
0
0=
^
0
_
0
^
0
_
+n
|
, t = 1, 2, ..., T,
que, deniendo las variables j

|
= j
|
)(r
|
,
^
0) +
_
J}(rt,0)
J0
_
0
0=
^
0
.
^
0, .
1|
=
c
^
ort
, .
2|
= ^ cr
|
c
^
ort
, puede escribirse:
j

|
= c.
1|
+,.
2|
+n
|
, t = 1, 2, ..., T, (5)
A partir de unas estimaciones iniciales denotadas por el vector
^
0 =
_
^ c,
^
,
_
,
generamos observaciones numricas para la variable j

|
, as como para las vari-
ables .
1|
, .
2|
, y procedemos a estimar el modelo (5) , obteniendo las nuevas
estimaciones numricas de c y ,. Con ellos, podramos volver a obtener series
temporales para las variables j

|
, .
1|
, .
2|
, e iterar el procedimiento.
Como es sabido, este procedimiento puede tambin ponerse en prctica es-
timando la regresin,
^ n
|
= c
1
.
1|
+c
2
.
2|
y procediendo a la actualizacin de valores numricos de los parmetros,
12
^ c
n
= ^ c
n1
+
^
c
1
;
^
,
n
=
^
,
n1
+
^
c
2
siendo ^ n
|
= j
|
)(r
|
,
^
0
n1
).
Algoritmo de Newton-Raphson Si denotamos por 1 (0) la funcin Suma
de Cuadrados de Residuos,
min
0
o1(
^
0) = min
0
T

|=1
^ n
|
_
^
0
_
= min
0
T

|=1
(j
|
)(r
|
, 0)
2
= min
0
T

|=1
_
j
|
cc
ort
_
2
que conduce a las condiciones de optimalidad,

j
|
c
ort
= c

c
2ort

j
|
r
|
c
ort
= c

r
|
c
2ort
donde la primera condicin sugiere tomar como estimacin inicial,
^ c =
:(jc
or
)
:(c
2or
)
mientras que de la segunda condicin tenemos:
^ c =
:(jrc
or
)
:(rc
2or
)
Ejercicio prctico con rutina Matlab Considerando nuevamente la fun-
cin Suma de Cuadrados de Residuos,
min
0
o1(
^
0) = min
0
T

|=1
^ n
|
_
^
0
_
= min
0
T

|=1
(j
|
)(r
|
, 0)
2
= min
0
T

|=1
_
j
|
cc
ort
_
2
Comenzamos generando una serie temporal de datos simulando la variable
r
|
a partir de un proceso i., id., (j, o
2
r
), y para el trmino de error del modelo
a partir de un proceso (0, o
2
u
). Por ltimo, generamos la serie temporal de
datos para j
|
utilizando la estructura del modelo y las series temporales de r
|
y
de n
|
, una vez que hemos jado valores numricos para los parmetros c y ,.
Con las series temporales j
|
, r
|

T
|=1
, podemos estimar el modelo siguiendo
varios procedimientos:
Utilizando la instruccin "fminunc" de Matlab, para minimizar la suma
de cuadrados de los residuos o errores de ajuste 'i:
o,o

T
|=1
_
j
|
cc
or
t

2
.
13
Utilizando la instruccin "fsolve" de Matlab, que encuentra las raices o
soluciones de una ecuacin lineal o no lineal, lo que se puede aplicar al
sistema formado por las dos condiciones de optimalidad o de primer orden
del problema de minimizacin de la suma de cuadrados de los errores,
2
T

|=1
_
j
|
cc
or
t
_
c
or
t
= 0
2
T

|=1
_
j
|
cc
or
t
_
cr
|
c
or
t
= 0
Utilizando el algoritmo de Gauss-Newton (9), con expresiones analticas
para el gradiente (6) y el hessiano (7) de la funcin objetivo, que es la
Suma de Cuadrados de los errores de ajuste. Tenemos el gradiente y
matriz hessiana,
\1 (0) = 2

0) (r
|
, 0)
00
^ n
|
= 2

0)
|
00
^ n
|
= 2

_
c
ort
, cr
|
c
ort
_
^ n
|
(6)
\
2
1 (0) = 2
T

|=1
_
c
2ort
cr
|
c
2ort
r
|
cc
2ort
c
2
r
2
|
c
2ort
_
2
T

|=1
_
0 r
|
c
ort
r
|
c
ort
r
2
|
cc
ort
_
^ n
|
(7)
= 2
T

|=1
_
c
2ort
r
|
c
ort
_
cc
ort
^ n
|
_
r
|
c
ort
_
cc
ort
^ n
|
_
r
2
|
cc
ort
_
cc
ort
^ n
|
_
_
por lo que el algoritmo de Newton-Raphson sera,
^
0
n
=
^
0
n1

_
T

|=1
_
c
2ort
r
|
c
ort
_
cc
ort
^ n
|
_
r
|
c
ort
_
cc
ort
^ n
|
_
r
2
|
cc
ort
_
cc
ort
^ n
|
_
_
_
1
_
T

|=1
_
c
ort
cr
|
c
ort
_
^ n
|
_
(8)
mientras que el algoritmo de Gauss-Newton sera,
^
0
n
=
^
0
n1

_
T

|=1
_
c
2ort
cr
|
c
2ort
cr
|
c
2ort
c
2
r
2
|
c
2ort
_
_
1
_
T

|=1
_
c
ort
cr
|
c
ort
_
^ n
|
_
(9)
Utilizando el algoritmo de Gauss-Newton (9), con evaluacin numrica de
las derivadas parciales que aparecen en el gradiente (6) y el hessiano (??)
de la funcin objetivo, que es la Suma de Cuadrados de los Errores:
14
0)
0r
I
= lim
:!0
)(r
1
, .., r
I
+-, .., r
n
) )(r
1
, .., r
I
-, .., r
n
)
2-
, i = 1, 2, ..., :
siendo las derivadas segundas:
J
2
}
JriJrj
=
J
Jrj
, donde q =
J}
Jri
, de modo que:
0
2
)
0r
I
0r

= lim
:!0
)(r
1
, .., r
I
+-, .., r

+-, .., r
n
) )(r
1
, .., r
I
+-, .., r

-, .., r
n
) )(r
1
, .., r
I
-, .., r

+-, .., r
n
) +)(r
1
, .., r
I
-, .., r

-, .., r
n
)
4-
2
1.3.5 Ejemplo 6: Un modelo no identicado
Supongamos, por ltimo, que pretendemos estimar el modelo,
j
|
= c +,
1
,
2
r
|
+n
|
en el que la aplicacin del algoritmo de Newton-Raphson resulta en,
_
_
1 ,
2
r
|
,
1
r
|
,
2
r
|
,
2
2
r
2
|
,
1
,
2
r
2
|
,
1
r
|
,
1
,
2
r
2
|
,
2
1
r
|
2
_
_

_
_
0 0 0
0 0 r
|
0 r
|
0
_
_
n
|
mientras que el algoritmo de Gauss-Newton consistira en,
_
_
1 ,
2
r
|
,
1
r
|
,
2
r
|
,
2
2
r
2
|
,
1
,
2
r
2
|
,
1
r
|
,
1
,
2
r
2
|
,
2
1
r
|
2
_
_
1.4 Estimador de Mxima Verosimilitud
Otra estrategia de estimacin consiste en utilizar un procedimiento de Mxima
Verosimilitud, lo que requiere establecer un determinado supuesto acerca del
tipo de distribucin que sigue el trmino de error (innovacin) del modelo. El
estimador resultante es eciente supuesto que la hiptesis acerca del tipo de
distribucin sea correcta. En el caso de que supongamos que n
|
~ (0, o
2
u
), la
funcin de verosimiltud es,
1(,, o
2
u
) =
_
1
2o
2
u
_
T/2
exp
_

1
2o
2
u
T

|=1
(j
|
)(r
|
, ,))
2
_
y su logaritmo,
ln1(,, o
2
u
) =
T
2
ln2
T
2
lno
2
u

1
2o
2
u
T

|=1
(j
|
)(r
|
, ,))
2
cuyo gradiente, de dimensin / + 1 hay que igualar a 0
|+1
para obtener la
estimacin de Mxima Verosimilitud. Su matriz de covarianzas es la inversa de
la matriz de informacin,
15
\ ar
_
^
,
1\
_
=
_
1(,, o
2
u
)

1
=
_
1
0
2
ln1(0)
0
2
0
_
1
=
_
T

|=1
1
0
2
ln|
|
(0)
0
2
0
_
1
donde 0 =
_
,, o
2
u
_
y ln|
|
(0) denota el logaritmo de la funcin de densidad
correspondiente a un perodo de tiempo.
Es fcil probar que esta matriz es diagonal a bloques, en , y o
2
u
, por lo que
la estimacin del vector , y del parmetro o
2
u
son independientes, siendo por
tanto, estadsticamente eciente llevarlas a cabo por separado.
En el aso del modelo exponencial:
ln1(j
|
, r
|
, 0, o
2
u
) =
T
2
ln2
T
2
lno
2
u

1
2o
2
u
T

|=1
_
j
|
(c +,
1
c
o
2
rt
)
_
2
tendremos el conocido resultado de que la eleccin de valores numricos
para los componentes de 0 que maximiza la funcin de verosimilitud resultante
coinciden con los valores numricos que minimizan la suma de cuadrados de los
errores de estimacin.
En este procedimiento, sin embargo, a diferencia de la estimacin por Mni-
mos Cuadrados, consideramos la estimacin de la varianza del trmino de error,
o
2
u
, simultneamente con la de los parmetros que componen el vector 0. La
ecuacin de optimalidad correspondiente nos dir, como tambin es habitual,
que la estimacin de mxima verosimilitud de dicho parmetro se obtiene divi-
diendo por T la suma de cuadrados de los residuos que resultan al utilizar las
estimaciones de mxima verosimilitud de los parmetros que entran en 0.
Si queremos maximizar el logaritmo de la funcin de verosimilitud, ten-
dremos 1 (0) = ln1(,, o
2
u
) y el algoritmo Newton-Raphson es,
^
0
n
=
^
0
n1

_
0
2
ln1(0)
0000
0
_
1
0=
^
0n1
.
_
0 ln1(0)
00
_
0=
^
0n1
y el estimador resultante es asintticamente insesgado, con distribucin Nor-
mal y matriz de covarianzas,
\ ar
_
^
0
n
_
=
_
0
2
ln1(0)
0000
0
_
1
0=
^
0n
El algoritmo conocido como quadratic hill-climbing consiste en sustituir en
cada iteracin la matriz hessiana por,
\
2
1
_
^
0
n1
_
+j1
|
de modo que sea siempre denida positiva. Cuando esta correccin se intro-
duce en el algoritmo de Gauss-Newton, se tiene el algoritmo de Marquardt.
16
El algoritmo de scoring consiste en sustituir la matriz hessiana del logaritmo
de la verosimilitud, por su esperanza matemtica, la matriz de informacin
cambiada de signo, lo que simplica mucho su expresin analtica y, por tanto,
los clculos a efectuar en cada etapa del algoritmo,
^
0
n
=
^
0
n1
+
_
1(
^
0
n1
)
_
1
0=
^
0n1
.
_
T

|=1
0 ln|
|
(0)
00
_
0=
^
0n1
y la matriz de covarianzas del estimador resultante es, por supuesto, la in-
versa de la matriz de informacin.
El algoritmo de Gauss-Newton, aplicado a la estimacin por mxima verosimil-
itud, es,
^
0
n
=
^
0
n1
+
_
T

|=1
_
0 ln|
|
(0)
00
__
0 ln|
|
(0)
00
_
0
_
1
0=
^
0n1
.
_
T

|=1
0 ln|
|
(0)
00
_
0=
^
0n1
En este caso, el algoritmo Gauss-Newton est justicado por la conocida
propiedad terica de la funcin de verosimilitud,
1
_
_
0 ln1(0)
00
__
0 ln1(0)
00
_
0
_
=
_
1
0
2
ln1(0)
0
2
0
_
1
En el caso del modelo exponencial, el gradiente de la funcin logaritmo de
la verosimilitud es,
\ln1(j
|
, r
|
, 0, o
2
u
) =
1
o
2
u
_
_
_
_
_

T
|=1
^ n
|

T
|=1
c
o
2
rt
^ n
|

T
|=1
,
1
r
|
c
o
2
rt
^ n
|

T
2c
2
u
+
1
2(c
2
u
)
2

^ n
2
|
_
_
_
_
_
y la matriz hessiana es,
H =
1
o
2
u
T

|=1
_
_
_
_
_
_
1 c
o
2
rt
,
1
r
|
c
o
2
rt

1
c
2
u

T
|=1
^ n
|
c
o
2
rt
c
2o
2
rt
,
1
r
|
c
2o
2
rt

1
c
2
u

T
|=1
c
o
2
rt
^ n
|
,
1
r
|
c
o
2
rt
,
1
r
|
c
2o
2
rt
,
2
1
r
2
|
c
2o
2
rt

1
c
2
u

T
|=1
,
1
r
|
c
o
2
rt
^ n
|

1
c
2
u

T
|=1
^ n
|

1
c
2
u

T
|=1
c
o
2
rt
^ n
|

1
c
2
u

T
|=1
,
1
r
|
c
o
2
rt
^ n
|
T
2(c
2
u
)
2

1
(c
2
u
)
3

^ n
2
|
_
_
_
_
_
_
Al tomar esperanza matemtica en los elementos de la matriz hessiana y
cambiar su signo, obtenemos la matriz de informacin, que tendr ceros en la
ltima la y columna, correspondientes a la estimacin de o
2
u
, excepto en su
elemento diagonal.
17
1
_
0, o
2
u
_
=
1
o
2
u
T

|=1
_
_
_
_
1 c
o
2
rt
,
1
r
|
c
o
2
rt
0
c
o
2
rt
c
2o
2
rt
,
1
r
|
c
2o
2
rt
0
,
1
r
|
c
o
2
rt
,
1
r
|
c
2o
2
rt
,
2
1
r
2
|
c
2o
2
rt
0
0 0 0
T
2(c
2
u
)
2
_
_
_
_
que demuestra que el estimador de mxima verosimilitud de dicho modelo es
estadsticamente independiente de los estimadores de los restantes parmetros,
lo que no sucede con los estimadores de mxima verosimilitud de estos entre s,
que tienen covarianzas no nulas.
1.5 Criterios de convergencia
Antes de ello, vamos a establecer criterios de convergencia: decimos que el algo-
ritmo iterativo anterior ha convergido, y detenemos el procedimeitno numrico
de estimacin, cuando se cumple alguna de las siguientes condiciones:
el valor numrico de la funcin objetivo vara menos que un cierto umbral
previamente establecido al pasar de una estimacin
^
0
n1
, a la siguiente,
^
0
n
,
el gradiente de la funcin objetivo, evaluado en la nueva estimacin, \1
_
^
0
n
_
,
es pequeo, en el sentido de tener una norma reducida. Para comprobar el
cumplimiento de esta condicin, puede utilizarse la norma eucldea: raiz
cuadrada de la suma de los cuadrados de los valores numricos de cada
componente del gradiente, o puede utilizarse el valor numrico de cualquier
forma cuadrtica calculada con el vector gradiente y una matriz denida
positiva.
la variacin en el vector de estimaciones es inferior a un umbral pre-
viamente establecido. Para comprobar esta condicin utilizaramos una
norma del vector diferencia
^
0
n

^
0
n1
,
se ha alcanzado el mximo nmero de iteraciones establecido en el pro-
grama de clculo numrico que lleva a cabo la actualizacin de estima-
ciones descrita en (??) . Esto se hace con el objeto de que el programa
de estimacin no contine iterando durante un largo perodo de tiempo,
especialmente, si no est mejorando signicativamente la situacin de es-
timacin.
El programa de estimacin puede disearse para que se detenga cuando se
cumple uno cualquiera de estos criterios, o todos ellos. Es importante puntu-
alizar, por tanto, que al estimar mediante un algoritmo numrico, el investigador
puede controlar: i ) las estimaciones iniciales, ii ) el mximo nmero de itera-
ciones a efectuar, y iii ) el tamao del gradiente, iv) la variacin en el vector
de parmetros y v) el cambio en el valor numrico de la funcin objetivo por
18
debajo de los cuales se detiene la estimacin. Cuando se utiliza una rutina
proporcionada por una librera en un determinado lenguaje, dicha rutina incor-
pora valores numricos para todos los criterios sealados, que pueden no ser
los que el investigador preferira, por lo que es muy conveniente poder variar
dichos parmetros en la rutina utilizada. Alternativamente, lo que es mucho
ms conveniente, el investigador puede optar por escribir su propio programa
de estimacin numrica.
Estos aspectos afectan asimismo a la presentacin de los resultados obtenidos
a partir de un esquema de estimacin numrica: como generalmente no sabemos
si hemos alcanzado un ptimo local o global, esto debe examinarse volviendo
a repetir el ejercicio de estimacin a partir de condiciones inniciales sustan-
cialmente diferentes de las utilizadas en primer lugar, con objeto de ver si se
produce la convergencia, y cual es el valor de la funcin objetivo en dicho punto.
Conviene repetir esta prueba varias veces. Asimismo, cuando se presentan es-
timaciones, deberan acompaarse de la norma del graidnet en dicho punto, as
como de los umbrales utilizados para detener el proceso de estimacin, tanto
en trminos del vector gradiente, como de los cambios en el vector de estima-
ciones, o en el valor numrico de la funcin objetivo, como hemos explicado en
el prrafo anterior.
1.6 Dicultades prcticas en el algoritmo iterativo de es-
timacin
Cuando se utilizan algoritmos numricos para la maximizacin de la fun-
cin de verosimilitud es frecuente encontrar situaciones en las que el al-
goritmo numrico encuentra dicultades para encontrar una solucin al
problema de optimizacin. Es muy importante que, en todos los casos en
que la rutina de estimacin o de optimizacin se detenga, examinemos cul
es el criterio de parada que ha actuado. Cuando el programa se ha escrito
de modo que se detenga cuando se cumple alguno de los criterios antes
sealados, conviene incluir en el programa un mensjae que haga explcito
cul de los criterios ha conducido a su parada, de modo que reduzcamos
el umbral asociado a dicho criterio.
Si la razn es que se ha excedido el mximo nmero de iteraciones prop-
uesto en el programa, siempre se debe volver a ejecutar dicho programa.
En la mayora de los casos, es razonable elevar el nmero mximo de it-
eraciones y, posiblemente, comenzar a partir del vector de parmetros en
el que se haya detenido.
En ocasiones la rutina numrica itera un nmero reducido de veces y,
sin exceder del mximo nmero de iteraciones, se detiene en un punto
muy prximo al que hemos utilizado como condiciones iniciales. Esto
puede deberse a que los umbrales de parada que hemos seleccionado, o
que estn escritos como valores por defecto en la rutina que implemente el
algoritmo numrico son demasiado grandes. As, en los primeros clculos,
19
los cambios en las estimaciones o en el valor de la funcin objetivo son
inferiores a dichos umbrales, y el algoritmo se detiene. Deben reducirse
dichos umbrales y volver a estimar.
Si el programa se detiene sin exceder el mximo nmero de iteraciones,
es importante comparar los valores paramtricos en los que se detiene,
con los que se utilizaron como condiciones iniciales. Esta comparacin
que, lamentablemente, no suele efectuarse, muestra frecuentemente que
en alguno de los parmetros el algoritmo no se ha movido de la condicin
inicial. Salvo que tengamos razones slidas para creer que dicha condicin
inicial era ya buena, esto signica que, o bien el algoritmo est teniendo
dicultades para encontrar en que sentido mover en la direccin de di-
cho parmetro para mejorar el valor numrico de la funcin objetivo, o
no ha tenido suciente posibilidad de iterar en esa direccin, dadas las
dicultades que encuentra en otras direcciones (o parmetros). En estos
casos quiz conviene ampliar el nmero mximo de iteraciones, y quiz
tambin reducir la tolerancia del algoritmo (la variacin en 0 o en 1 que
se ha programado como criterio de parada), para evitar que el algoritmo
se detenga demasiado pronto.
Todo esto no es sino reejo, en general, de un exceso de parametrizacin,
que conduce a que la supercie que representa la funcin objetivo, como
funcin de los parmetros, sea plana en algunas direcciones (o parmet-
ros). Esto hace que sea dicil identicar los valores numricos de cada
uno de los parmetros del modelo por separado de los dems, por lo que el
algoritmo encuentra dicultades en hallar una direccin de bsqueda en la
que mejore el valor numrico de la funcin objetivo. Una variacin, incluso
si es de magnitud apreciable, en la direccin de casi cualquier parametro,
apenas vara el valor numrico de la funcin objetivo. Por eso, el algoritmo
no encuentra un modo de variar los valores paramtricos de modo que la
funcin objetivo cambie por encima de la tolerancia que hemos jado, y
se detiene. En estos casos, el gradiente va a ser tambin muy pequeo,
que puede ser otro motivo por el que el algoritmo se detenga. De hecho,
la funcin objetivo vara de modo similar (poco, en todo caso) tanto si
el algoritmo vara uno como si cambia varios parmetros, que es lo que
genera el problema de identicacin, similar al que se obtiene en el mod-
elo lineal general cuando existe colinealidad entre alguna de las variables
explicativas. Las dicultades en la convergencia del algoritmo producidas
por una excesiva sobreparametrizacin del modelo se reejan en unas ele-
vadas correlaciones de los parmetros estimados. Como en cualquier otro
problema de estimacin, conviene examinar no slo las varianzas de los
parmetros estimados, sino tambin las correlaciones entre ellos.
Otra dicultad puede presentarse en la forma de cambios muy bruscos
en el estimador. Ello se corrige introduciendo en el algoritmo (??) un
parmetro ` que se conoce como longitud de salto,
20
0 =
^
0
0
`
_
\
2
1
_
^
0
0
__
1
\1
_
^
0
0
_
(10)
Hay que tener en cuenta que posiblemente est incorporado en el programa
una determinada magnitud para `, que el investigador puede alterar cuando
observe cambios bruscos en el vector de parmetros.
1.7 Estimacin condicionada y precisin en la estimacin
Para tratar estas situaciones, cuando se identican uno o dos parmetros al-
tamente correlacionados con los dems, puede llevarse a cabo una estimacin
condicionada, jando valores alternativos de dichos parmetros a lo largo de
una red, maximizando la verosimilitud respecto de los dems, y comparando
resultados para alcanzar el mximo absoluto. En otras ocasiones, sin necesidad
de incurrir en dicultades numricas, se aprecia que imponer un valor unmrico
para uno o dos parmetros simplica enormemente la estructura del modelo a
estimar, por ejemplo, hacindola linear. Si este es el caso, puede establecerse
una red de bsqueda en dichos parmetros y, para cada uno de ellos, estimar
el modelo lineal resultante. Se resuelve as un conjunto de muchos problemas
simples, frente a la alternativa de resolver un nico problema complicado que
es, en ocasiones, mucho ms difcil.
Una limitacin de esta estrategia de estimacin, que tantas veces simplica
el problema computacional, es que no nos proporciona una estimacin de la var-
ianza para el parmetro o los parmetros sobre los que se ha hecho la estimacin
condicional. Segn cul sea el grado de simplicacin alcanzado, podramos no
tener varianzas para ninguno de los parmetros. Esto sugiere una cuestin an
ms profunda, acerca del signicado real de las varianzas proporcionadas por
el problema de estimacin. En realidad, lo que el investigador quiere tener es
una medida del grado de precisin obtenido en su estimacin, y ello bien puede
depender del objetivo nal de la estimacin del modelo. Por ejemplo, consid-
eremos el habitual problema de calcular la volatilidad implcita de una opcin.
Obtener las sensibilidades de la respuesta a dicha pregunta a variaciones en el
valor de alguno de los parmetros que se ja equivale a determinar un rango de
conanza para el parmetro que se estima.
Consideremos que el subyacente de una opcin call cotiza a 100, que el precio
de ejercicio de la misma es 95, el tipo de inters, supuesto constante hasta el
vencimiento, es 7,5%, el plazo residual es 3 meses, y el precio de la opcin es de
10. La inversin de la frmula de Black Scholes (BS) proporciona una volatilidad
de 31,3%. Este no es un problema estadstico, y no se ha llevado a cabo ningn
proceso de muestreo. Sin embargo, el usuario que conoce la limitacin del
modelo BS por los supuestos que incorpora, puede estar dispuesto a aceptar un
rango de valores de volatilidad que no generen un precio terico que se separe
en ms de 0,25 del precio observado en el mercado. Ello le llevar a considerar
un rango de volatilidades entre 29,8% y 32,7%.
La misma idea puede aplicarse en un problema de estimacin para evaluar
la precisin con que se ha estimado un determinado parmetro. En funcin de
21
la utilidad que se vaya a dar al modelo, el usuario puede determinar que est
dispuesto a aceptar variaciones de hasta un 1% alrededor del valor de la funcin
objetivo que ha obtenido en su estimacin. Se trata entonces de perturbar el
valor numrico del parmetro cuya precisin se quiere medir, y estimar condi-
cionando en dicho valor mientras que el valor resultante para la funcin objetivo
satisfaga la condicin prejada. Se obtiene as numericamente, un intervalo de
conanza alrededor de la estimacin inicialmente obtenida. En principio, esta
regin no tiene por qu coincidir con la tradicional regin de conanza. Puede
resultar extrao hablar de regiones de conanza paramtricas en el caso del
clculo de la volatilidad implcita pues, como hemos dicho, no es realmente un
problema estadstico. Existe un razonamiento distinto del anterior, con ms
base estadstica que conduce asimismo a una regin de conanza paramtrica.
Para ello, consideremos que el usuario de la expresin BS, consciente de que
el tipo de inters relevante no va a permanecer constante hasta vencimiento,
y desconociendo su evolucin establece un conjunto de posibles escenarios de
evolucin de los tipos, cada uno acompaado de una probabilidad que recoge
la mayor o menor verosimilitud asignada a dicho escenario, e identica cada
escenario con distintos niveles constantes del tipo de inters. Calculando la
volatilidad implcita para cada nivel de tipos de inters considerado, mientras
se mantienen constantes los restantes parmetros, generaramos una distribu-
cin de probabilidad para la volatilidad implcita. Por supuesto, este argumento
se puede generalizar el caso en que la incertidumbre a priori se recoge en la forma
de una distribucin de probabilidad multivariante para el vector de parmetros
sobre los que se condiciona en el proceso de estimacin.
1.8 Algunos modelos tpicos
1.8.1 Estimacin de modelos MA(q)
Una aplicacin interesante de este procedimiento consiste en la estimacin de
estructuras de medias mviles en modelos lineales de series temporales.
Modelo MA(1) Consideremos un modelo MA(1),
j
|
= -
|
0-
|1
El modelo es de la forma: j
|
= )(r
|
, ,) + n
|
,con , = 0, )(r
|
, ,) = 0-
|1
y n
|
= -
|
,de modo que:
J}(rt,o)
Jo
= -
|1
, por lo que, siendo 0
0
una estimacin
inicial del parmetro del modelo, podemos escribir la erxpresin genrica para
la aproximacin lineal j
|
)(r
|
, 0
0
) +
_
J}(rt,0)
J0
_
0=0
0
0
0
=
_
J}(rt,0)
J0
_
0=0
0
0 +-
|
,
para este modelo particular, obteniendo:
22
j
|
)(r
|
, 0
0
) +
_
0)(r
|
, 0)
00
_
0=0
0
0
0
= j
|
+0
0
-
|1
0
0
-
|1
= j
|
= -
0
|
0
0
-
0
|1
_
0)(r
|
, 0)
00
_
0=0
0
0 +-
|
= 0-
0
|1
+-
|
,
lo que nos lleva a:
-
0
|
0
0
-
0
|1
= 0-
0
|1
+-
|
que conduce a estimar el modelo lineal de regresin,
n
|
= 0r
1|
+-
|
donde,
n
|
= -
0
|
0
0
-
0
|1
r
1|
= -
0
|1
Pero el trmino de error -
0
|
no es observable, por lo que utilizamos la propia
expresin del modelo '(1), escrito en la forma,
-
|
= j
|
+0
0
-
|1
para generar la serie temporal -
0
|
, t = 2, ....T, mediante:
-
0
1
= 0,
-
0
2
= j
2
+0
0
-
0
1
= j
2
,
-
0
3
= j
3
+0
0
-
0
2
= j
3
+0
0
j
2
-
0
4
= j
4
+0
0
-
0
3
= j
4
+0
0
j
3
+
_
0
0
_
2
j
2
y as sucesivamente. Ahora podemos generar series temporales para las
variables del modelo, n
|
y r
1|
a partir de la serie temporal de -
0
|
.
Ntese que en este caso, la estimacin de la regresin auxiliar n
|
= 0r
1|
+-
|
nos proporciona el valor numrico del estimador del parmetro 0, no la correccin
a introducir en una pre-estimacin. Pero el procedimiento es iterativo, pues las
series temporales de -
0
|
, n
|
, r
1|
, dependen del valor numrico que se considere
para el parmetro 0.
Modelo MA(2) Como ejemplo, consideremos un modelo MA(2),
j
|
= -
|
0
1
-
|1
0
2
-
|2
que puede aproximarse linealmente por,
23
-
|
-
0
|
+
_
0
1
0
0
1
_
_
0-
|
00
1
_
0=00
+
_
0
2
0
0
2
_
_
0-
|
00
2
_
0=00
siendo 0
0
=
_
0
0
1
, 0
0
2
_
una estimacin inicial de los parmetros del modelo.
En este modelo se tiene,
0-
|
00
1
= -
|1
;
0-
|
00
2
= -
|2
por lo que podemos escribir la aproximacin anterior como,
-
0
|
0
0
1
_
0-
|
00
1
_
0=00
0
0
2
_
0-
|
00
2
_
0=00
= 0
1
_
0-
|
00
1
_
0=00
0
2
_
0-
|
00
2
_
0=00
+-
|
es decir,
-
0
|
0
0
1
-
0
|1
0
0
2
-
0
|2
= 0
1
-
0
|1
0
2
-
0
|2
+-
|
que conduce a estimar el modelo lineal de regresin,
n
|
= 0
1
r
1|
+0
2
r
2|
+-
|
donde,
n
|
= -
0
|
0
0
1
-
0
|1
0
0
2
-
0
|2
r
1|
= -
0
|1
r
2|
= -
0
|2
Para obtener los errores en este caso, se jan los 2 primeros igual a su
esperanza matemtica, cero, y se utiliza la propia expresin del modelo '(2),
escrito en la forma,
-
|
= j
|
+0
0
1
-
|1
+0
0
2
-
|2
para generar la serie temporal -
0
|
, t = 1, 2, ....T.
24

Anda mungkin juga menyukai