Anda di halaman 1dari 26
FCONOMETRIA Segunda edicién ALFONSO NOVALES CINCA Catedratico del Departamento de Economia Cuantitativa Facultad de Econémicas. Universidad Complutense Madrid McGraw-Hill MADRID « BUENOS AIRES » CARACAS « GUATEMALA ¢ LISBOA # MEXICO NUEVA YORK ¢ PANAMA « SAN JUAN # SANTAFE DE BOGOTA e SANTIAGO SAO PAULO ‘AUCKLAND ¢ HAMBURGO @ LONDRES @ MILAN e MONTREAL # NUEVA DELHI PARIS @ SAN FRANCISCO e SIDNEY e SINGAPUR @ ST. LOUIS # TOKIO # TORONTO ECONOMETRIA. Segunda edicién No esta permitida la reproduccién total o parcial de este libro, ni su tratamiento informatico, ni la transmision de ninguna forma o por cualquier medio, ya sea electrénico, mecénico, por fotocopia, por registro u otros métodos, sin el permiso previo y por escrito de los titulares del Copyright. DERECHOS RESERVADOS © 1993, respecto a la primera edicién en espaol, por McGRAW-HILL/INTERAMERICANA DE ESPANA, S. A. U. Edificio Valrealty, 12 planta Basauri, 17 28023 Aravaca (Madrid) ISBN: 84-481-0128-6 Depésito legal: M. 49,970-2000 Editora: Isabel Capella Cubierta: Félix Pifuela. Grafismo electrénico Compuesto en: Fernandez Ciudad, S. L. Impreso en: LAVEL, Industria Grafica, S.A. IMPRESO EN ESPANA - PRINTED IN SPAIN CAPITULO 11 MODELOS NO LINEALES 11.1. INTRODUCCION 372 11.1.a. Especificaciones no lineales La Teoria Econémica propone modelos de relacién entre variables econdmi- cas, pero deja generalmente indeterminada la forma funcional de dichas rela- ciones, lo que sugiere que éstas puedan ser, en ocasiones, no lineales. En tales casos, el modelo econométrico es del tipo: y=S% Pty, t=1,2.. ay donde f(x,, B) es, en general, una funcién no lineal de las componentes de los vectores x, y B. Como veremos en seguida, las dificultades surgen cuando. condicional en x,, la dependencia de y, respecto de B es no lineal, por lo que es ésta la que nos preocupa. Como caso particular en que la dependencia respecto a Bes lineal, e! modelo lineal general aparece cuando f(x, B) = X/B Al hablar por primera vez de esta dificultad en el Capitulo 3, se propor- cionaba como ejemplo la funcién de produccién Cobb-Douglas. Es ésta, en efecto, una situacién en que, de acuerdo con el modelo tedrico, el nivel del producto depende, en forma no lineal, de los inputs del proceso productivo: Sin embargo, ya mostramos en aquel momento que, si dicha funcién de pro- duecién viene afectada por un témino de error multiplicativo, entonces es equivalente a un modelo lineal que relaciona el logaritmo del producto con los logaritmos de las cantidades de los inputs utilizadas en produccion, Una especificacion no lineal de un modelo econométrico puede estar indicando la incertidumbre del investigador acerca de la verdadera relacién entre las variables del modelo. Por ejemplo, supongamos que para relacionar los gastos en bienes de consumo C,, con la renta disponible Y,, se especifica el modelo: C= By + BYP +4, (11.2) Modelos no lineales 373 En dicho modelo, la estimacion del parametro f3 permitiria contrastar la hipotesis de dependencia lineal o propension marginal al consumo constante (Bs = 1), frente a otras alternativas, como la de una menor sensibilidad del gasto en consumo a variaciones en la renta disponible (; < 1). Este modelo seria, claramente, menos restrictivo que una especificacion lineal; también puede interpretarse como una primera especificacion, para pasar a estimar un modelo lineal si la hipdtesis 8; = | no se rechaza en una primera estimacion del modelo {11.2}. Sin embargo, conviene distinguir entre varios tipos de no linealidades que pueden presentarse en la practica. Consideremos los modelos: a) Ye= By + Bre + BaxaXap + Ue D) YX + By I Y= Boxe + Me ©) Y= Br + Bre Xa + ey 4) Y= By + (In Ba)x, + ) = Bit Bart? +4, Estos cinco modelos tienen en comiin el proponer relaciones no lineales entre la variable endégena por un lado y las variables explicativas y los coeficientes por otro. Sin embargo, también presentan diferencias importantes que hacen que su tratamiento econométrico sea bien distinto. La no linealidad del modelo a) afecta imicamente a sus variables, pero no a sus coeficientes. En tal caso, basta definir unas nuevas variables: 22, = exp(X2,), 23, = X3:Xa para obtener el modelo lineal: Co) Ye = Bs + Baza. + Baza + Me que puede tratarse, sin ninguna dificultad, por los métodos desarrollados en los capitulos previos. En definitiva, siempre que la no linealidad del modelo afecte tinicamente a sus variables explicativas, entonces dicho problema queda resuelto mediante una transformacién de datos. La inica excepcion a esta afirmacién la constituyen los modelos en que la no linealidad afecta también @ la variable endégena de algin modo que haga imposible expresarla de modo explicito como funcién de los vectores x, y B. Esto es lo que sucede en el modelo 6). La forma funcional de tales modelos es una funcién implicita: IV X B= 4, t= 1, 2, T (11.3) de la que el modelo [11.1] es, a su vez, un caso particular. La no linealidad del modelo c) afecta tan slo a sus coeficientes pero no a sus variables. Mediante los métodos estudiados en los capitulos anteriores podrian estimarse el término independiente y el coeficiente de la variable x. pero no podrian recuperarse estimaciones de los coeficientes B, y Bs, a no ser que se contara con informacion adicional acerca de sus valores numéricos (por ejemplo, si su suma o cociente fuesen conocidos). Por ultimo, hay ocasiones en que el modelo es no lineal en los coeficientes sin que ello presente dificultades serias de estimacién, como es el caso del 374 Econometria modelo d). En dicho modelo se estima un término independiente y un coeficiente de la variable x, y a continuacién puede recuperarse el valor del parametro f, mediante B, = exp(coeficiente de x, estimado). Sin embargo, el valor de B, asi obtenido no heredaria las propiedades estadisticas que pudiera tener el estimador de e#. El modelo e) es otro ejemplo de modelo no lineal que no puede tratarse por métodos lineales. Finalmente, es importante observar que, a diferencia de los modelos linea- les, en modelos no lineales el namero de parametros no coincide necesaria- mente con el némero de variables explicativas, como ocurre en los modelos 6), ©) y e) anteriores 11.1.b. Una aproximacién lineal al modelo no lineal Un primer tratamiento de la estimacién del modelo [11.1] consistiria en obte- ner la mejor aproximacion lineal (mediante un desarrollo en serie de Taylor) de la funcion f(x,, B) alrededor de un estimador inicial B y estimar el modelo lineal resultante, utilizando los procedimientos desarroilados en capitulos anteriores. Dicha aproximacién es: v= 8) + (2 Ge py O-D+u, 212. op ier 0, Io que es lo mismo: noon be (BP) 0 (820) pry roa. i - obteniéndose el modelo lineal: yee (2o0B) th, [iL] donde: oye Af BY Y= I~ LO B+ ( a } af, ' En lo-sucesivo, denotamos por zf el vector gradiente en cada periodo: 7 5 a oer de dimensién k x 1 y por en su valor en el punto B = B. a A \ A pesar de lo-que pudiera parecer; Ia notacion denota la operacién de derivada afB) o parcial en primer lugar y la evaluacién de ésta en et punto B= B. Logicamente, no tendria sentido efectuar estas operaciones en sentido inverso. Modelos no lineales 375 De este modo, dada una primera aproximacion al estimador f, se trataria de construir la variable y#, asi como las k variables que componen el valor del oh, gradiente de la funcién f(x,, B) en el punto B = B, es decir, te ToL eee ks Las «observaciones muestrales» correspondientes a estas variables son funcién de las observaciones muestrales de y,. x, y del vector B. A continuacién se estima por minimos cuadrados el modelo lineal que tiene por variable end6- gena y*, y por variables explicativas los componentes del vector gradiente of(B) op para obtener la nueva estimacién del vector B. a Si denotamos por x y por f(X, B) las matrices: Of (6B; OF i/OBr OF 1B, FO, B) asic eR Ns gop] ee? Ofr/B: Of rib... Afr! Fr, B) de dimensiones Tx k y TX 1 respectivamente, y por arb) S(X, B) sus op” evaluaciones en el punto § = i, el estimador MCO del modelo lineat [11.4] seria: B- af@)y (2f@)\]-* of) oe ee ap )Y = _ [(r@y (ar) (ary r® [CYC Ca) r= 8) _a aFBY (2fB\ |" (ef BY [RYT Ce donde a = y — f(X, f) es el residuo obtenido con la estimacién inicial B. Esta expresion proporciona la nueva estimacin B a partir de B, mientras que la acién del parametro a? puede obtenerse de modo similar a un modelo donde —£&, B) ary (20) B op de probabilidad del estimador de minimos cuadrados de esta’ aproximacién lineal es: 1 Si existe la matriz inversa (( | » entonces la distribucion 376 Econometria (5. {APY PT) : T— k)é2 . ; mientras que (— 2 56 distribuye, aproximadamente, como una variable chi-cuadrado con T— k grados de libertad, independiente de la distribucién Normal del vector f. Todo ello permite llevar a cabo cualquier analisis de inferencia de modo andlogo a como se discutid en el Capitulo 4. Ejemplo 11.1. Consideremos la estimacién del modelo no lineal: Ve = Sp % B) + my = 00 u, (1.5] en el que se tiene el vector gradiente: af, da’ OB por lo que el modelo puede aproximarse linealmente por: a, 7 YS Cp Yop Bo) + aoe ay + hoe od Bo= — ofi(ao» Bo) Afu(o» Bo) = a+ e = (8; axe) [11.6] B+u, a partir de unos valores iniciales (ao, fo), para estimar los pardmetros a y f. Si tomamos como valores iniciales By = 0, % = ¥ y denotamos por y¥ el miembro izquierdo de [11.6], tenemos: Y= —- I+ H+ IXO=y, y el modelo linearizado [11.6] resulta: YE = ye + BXP + ty donde x¥ = x, t= 1, 2,00 T. Hay que hacer hincapié en que este procedimiento s6lo dara buenos resul- tados si las condiciones iniciales estén proximas a los verdadetos valores de ay B, y eso es algo sobre lo que a priori no tenemos mucha informacion. 11.2. MINIMOS CUADRADOS NO LINEALES Otra posibilidad es tratar de aplicar el procedimiento de minimizaci6n de la suma residual directamente al modelo no lineal [11.1]. En efecto, la idea que Modelos no lineales 377 subyace al procedimiento de minimos cuadrados no depende en modo alguno de la linealidad del modelo, por o que es aplicable en condiciones mas generales. La nica variacién es que, como vamos a ver en esta seccién, la resolucién analitica del problema de estimacién es bastante mas compleja que en el modelo lineal. Siguiendo con la l6gica del método de minimos cuadrados, se trataria de escoger valores de los parametros B de modo que se minimice la suma residual: SRB) = Ziv, — 0%, B)? Tomando derivadas con respecto a cada uno de los componentes del vector fi se tiene: po) 281 (v1 — F%0 (GR) esR(p) . -251(y, = Xp B)) (3 ‘) La derivada parcial # es un escalar para cada i=1, 2,...,k y cada periodo t = 1, 2, ..., T, y lo mismo ocurre con la diferencia y, — f(x,, B) para cada t=, 2,..., T. Las k ecuaciones anteriores constituyen él sistema de ecuaciones normales, totalmente andlogo al que se obtenia en modelos lineales. El sistema anterior puede expresarse mas abreviadamente: ET(y, — £0. B) as 0, 7 o también, en forma matricial: (4 r= (4 ) x, B) [11.8] En el caso lineal, a =X y f(X, f) = XB, por lo que el sistema [11.8] resultaria X’y = (X’X)B. La solucién al sistema de ecuaciones normales [11.8] es el estimador de minimos cuadrados no lineales, denotado en lo sucesivo por MCNL. Al igual que en el modelo lineal, se define el residuo di, como la diferencia y, — f(x, B), con lo que las ecuaciones normales pueden escribirse: f,B) , op 12). =0 para 378 Econometria o, en forma matricial: pat oo a= (arya O (11.9) que se reducen a la ortogonalidad entre residuos y variables explicativas cuando el modelo es lineal. Ejemplo. El sistema de ecuaciones normales para el modelo del Ejemplo 11.1 es: ETyebs = gETetbe Li yx = BLT x, 78% Mas generalmente, puede establecerse la siguiente: Definicién 11.1. El estimador de minimos cuadrados del modelo y, = =S(%, B) + uy t= 1, 2,... T es aquel vector de coeficientes B que genera un vector de residuos ortogonal a cada uno de los componentes del vector gra- diente de la funcién f(x, B) evaluado en B, como en [11.9] Una diferencia muy importante con el modelo lineal es que, en modelos en que la funcién /(x,, B) no depende linealmente del vector , sus derivadas parciales tampoco serdn, en general, funciones lineales de las componentes del vector B. Esto se aprecia en el ejemplo anterior, donde se muestra que: a) la obtencién del estimador de minimos cuadrados requiere la resolucién de un sistema de ecuaciones normales no lineales, y 6) dicho estimador sera, en general, una funcién no lineal del vector y. Esta peculiaridad de los modelos no lineales genera, a su vez, una serie de dificultades: 1. La dependencia lineal del estimador MCO con respecto al vector a era una caracteristica fundamental para probar que dicho estimador era inses- gado. El hecho de que el estimador de minimos cuadrados no lineales dependa del vector y, y en consecuencia del vector u en forma no lineal, hace que dicho estimador no sea, en general, insesgado. En estas nuevas condiciones carecemos de un resultado que garantice la optimalidad de este estimador entre los de una determinada clase. Las propiedades del estimador de minimos cuadrados no lineales vendran de su posible relacién con el estimador de maxima verosimilitud. 2, La solucion a un sistema de ecuaciones no lineales puede no ser iinica Y. por tanto, un modelo no lineal puede poseer varios estimadores minimo cuadraticos. Por la misma razon, pudiera ser que el estimador de minimos cuadrados no existiese, pues un sistema de ecuaciones no lineales no siempre tiene solucién. Esto es bien distinto de lo que ocurre en el caso lineal, en el que siempre existe al menos una solucién. Por no poder obtener una expresion explicita para el estimador de mini- mos cuadrados, hay que resolver el sistema de ecuaciones normales o el problema de optimizacién del que éstas proceden por métodos numéricos Modelos no lineales 379 (algoritmos) que veremos en el siguiente capitulo. Como ya veremos, cuando el tamafio muestral crece, el estimador de minimos cuadrados obtenido por alguno de los algoritmos numéricos mencionados tiene una distribucién Normal, con esperanza B y matriz de covarianzas: vag) = 03 [ (Ze B) (Fee BY) donde el parametro a2 se estima mediante™: a Gay =a", donde a=y—f(X, B) De nuevo puede verse que estas expresiones se reducen a las ya conocidas en el caso en que el modelo sea lineal. Como consecuencia de la distribucién Normal que acabamos de ver, los habituales contrastes de hipotesis mediante estadisticos 1 0 F son validos, sin mas que utilizar las expresiones anteriores en el cdlculo de la matriz de covarianzas. Las condiciones bajo las que los resultados anteriores son validos incluyen la existencia de un tinico minimo global de la funcién SR(B) y la no singularidad de la matriz limite: oli) Ejemplo 11.1 (continda). Las condiciones de optimalidad para la obtencién del estimador MCNL en el Ejemplo 11.1 serian: ASR) _ _asry(y, — debs =0 oa ee =2ET (G4 — deh)x,eF%] = 0 que carecen de solucién explicita. Suponiendo que el sistema pudiera resol- verse, la matriz de covarianzas de las estimaciones seria: a Var (&, B) = 67ET VLC A) VIC, BY (Stet okt xe 1 HG ery 2h o2STx2e2hx akTx,e7 a ZT xPe’ © No es sorprendente que la aproximacién lineal que antes discutimos tenga la misma distribucién asintética que el estimador de minimos cuadrados, puesto que el modelo Por tanto, segin i e B + u, coincide con el modelo y, = f(x, B) +, cuando B iteramos en él modelo linearizado, nos aproximamos al estimador de MCNL. 380 Econometria donde 6? se obtendria de: ET, = defy? joe oe PD 11.3. EL ESTIMADOR DE MAXIMA VEROSIMILITUD Como ya vimos en el caso del modelo lineal, la obtencién del estimador de maxima verosimilitud precisa de un determinado supuesto acerca de la distribucion de probabilidad del término de error, de modo que, en realidad, no existe «el» estimador de maxima verosimilitud, sino «un» estimador de maxima verosimilitud dependiendo del supuesto que se haga acerca de dicha distribucién de probabilidad 11.3.a. Condiciones necesarias Supongamos, como es habitual, que tal distribucién es u~ N(0;, 671;), en cuyo caso la funcion de verosimilitud muestral es: (ch) oof (2) 226-1007] y su logaritmo, evaluado en (B, 62): LB, o%) 1 — 537 SRO) [11.10} In LB, 6? =—Tinoe- Tina? donde SR(B) = E7(y, — f(x, f))?. La expresin [11.10] ilustra claramente la propiedad de que si el parimetro 2 no depende de ninguno de los parame- tros i, entonces escoger el vector de pardmetros ff que maximice la funcién de verosimilitud (0 su logaritmo) es equivalente a escoger el vector B que minimice la suma residual SR(B). En consecuencia, al igual que en el modelo lineal, si el término de error sigue una distribucién de probabilidad Normal y si su varianza es independiente de las componentes del vector , entonces los estimadores de maxima verosimilitud y de minimos cuadrados, si existen. coinciden. Las condiciones necesarias para la maximizacién de la funcién de verosi- militud son: 2 In LO, 6 1 @sR 1 af, ; * a ~ 3g2 - se =z Ei(%— fl B) “og =0, (k ecuaciones) @ In LG, 6; T 1 ET (ve — FO% BP = 0 (1 ecuacion) “Oa? 3g * 268 Modelos no tineales 381 cuyas soluciones proporcionan las estimaciones de maxima verosimilitud del vector B y el parimetro 6? bajo la hipdtesis de Normalidad. De nuevo, estas condiciones necesarias muestran que el estimador de maxima verosimilitud del vector B coincide, bajo los supuestos hechos al comienzo de esta seccidn, con el estimador de minimos cuadrados, ya que el primer bloque de ecuaciones son las condiciones de ortogonalidad [11.7] del estimador MCNL. Finalmente, la Gitima ecuacién genera la estimacién de maxima verosimilitud de 2, una vez que se haya obtenido la estimacion del vector B: expresion igual a la obtenida en el caso del modelo econométrico lineal 11.3.b. Matriz de covarianzas Como vimos en el Capitulo 2, la matriz de covarianzas del estimador de maxima verosimilitud puede aproximarse, para muestras grandes, por la inversa de la matriz de informacién. Para calcular dicha matriz es preciso obtener previamente las derivadas de segundo orden del logaritmo de la funcién de verosimilitud y calcular su esperanza matematica. @inb 1 SR®) op OB Baz OB op 1 @SR(B) rn ne 2 SRB), 2? SRO) op apap residual, y su matriz hessiana, formada por las derivadas de segundo orden. En las ecuaciones anteriores cabe observar lo siguiente: af, f)|=0. » (40) me mie puesto que las derivadas parciales que en esta expresién aparecen son fun- ciones de las variables explicativas (deterministas) y de, los coeficientes B (constantes desconocidas). Como consecuencia: donde denotan, respectivamente, el gradiente de la suma 382 Econometria y la matriz de informacién resulta ser diagonal a bloques (un bloque superior de dimension k x k, correspondiente al vector B, y otro inferior | x 1, corres- pondiente al parametro o2) y. por tanto, las estimaciones de maxima verosi- militud del vector B y del parametro 62 son independientes segiin crece el tamafio muestral _, 2 SRB) 1(@h\ (BV — o5r, & b) La matriz es igual a 227( a) ~2E Fu apap en la OB cp que ambos sumandos son matrices k x k. El primer sumando es el producto del gradiente de la funcién f(x, B). dispuesto como vector columna, por si mismo, esta vez ordenado como vector fila. El segundo sumando es la matriz de derivadas segundas de la funcién f(x,. B), multiplicada por el término de error de dicho periodo, u,, Ambas son matrices simétricas y. por tanto, tam- “@ SR . _ O SR bien © 7 ay les. El elemento genérico (i, j) de la matriz a es: zr he Oh: Heyy Phe ] "9p, 8, ™! 06,08, c) Finalmente: eink Boe ( a02 ai) Por tanto, la matriz de informacién es: Manel a2 | \ap/ \ap. * T % * 2ot 1(B, o%) = Y, si invertimos y sustituimos los parametros desconocidos por sus estima- ciones, obtendremos la matriz de covarianzas del estimador de maxima verosimilitud en el caso de que el término de error siga una distribucién de probabilidad Normal y que el tamafio de la muestra sea suficientemente grande: Modelos no tineales. 383 vat aye( Cor) Car] 8 268 0, nD : iF ta matriz. (2) (2Y ingul siempre que la matriz (7p)( =p) sea no singular. Este resultado, junto con Ia equivalencia entre el estimador de maxima verosimilitud y el de minimos cuadrados no lineales, justifica la distribucion Normal asintética que para este ultimo estimador propusimos en la Sec- cién 11.2. En la practica slo se dispone de muestras finitas, por lo que la matriz anterior es solo una aproximacion a dicha matriz de covarianzas. Ejemplo. Volviendo al Ejemplo 11.1, la matriz de covarianzas. del estima- dor (& B, 62)sry es: ET gh atx," \-t 9 2 { \akTxe% a? ET x7 eh 0 2o¢ 0 0 7 evaluada en las estimaciones maximo-verosimiles. La submatriz. 2 x 2 superior coincide con la expresién analitica de Var(&, ) que vimos antes. También existe la posibilidad, por supuesto, de que la matriz de covarian- zas del vector u no sea diagonal, sino una matriz simétrica, definida positiva cualquiera. En tal caso, el logaritmo de la funcion de verosimilitud es: 1 1 In LO, x5 B, E) = constante— 5 In |E| — 5 ly ~ F(X, BYE "y — SX Bd] y, por tanto, la condicién necesaria de optimalidad que surge al tomar deri- vadas con respecto a los elementos de la matriz £~! es: oink wt Phy -J0%, Bly -/0%, BI! = Oras que tiene por solucién: Luv = fy - OX Bly —S% BY donde debe notarse que se utiliza la serie de residuos para estimar una matriz Tx F. De este modo, habria que poner en practica un procedimiento iterativo: Dada una estimacion B del vector de coeficientes del modelo, pueden obtener- 384 = Econometria se los residuos, que seran utilizados en la estimacién de la matriz X. Una vez estimada esta matriz, debe maximizarse la funcién de verosimilitud, lo que equivale a minimizar [y — f(X, B)]Z~ Ly — /(X, )]' con respecto al vector B, y asi sucesivamente. Sin embargo, este problema de minimizacion dista de ser trivial, y debe resolverse mediante algoritmos numéricos en un ordenador, como los que presentamos en el proximo capitulo. Las propiedades estadisticas del estimador B generado por este procedi- miento son las mismas a partir de la primera iteracién, y coinciden con las del estimador de maxima verosimilitud. En particular, dicho estimador cs eficiente. Sin embargo, conviene iterar para tratar de minimizar el error muestral producido por la estimacién de la matriz de covarianzas ©. Ejemplo 11.2. Si volvemos a la estimacién de la funcién de consumo del Capitulo 7, podriamos considerar una version algo mas general de la relacion entre el Consumo y el PIB: C,= By + BY + uy fu] donde, si = I, tenemos nuevamente el modelo lineal. Si, por el contrario, + es un parametro a estimar, entonces el modelo es no lineal. La funcion SX» B) = B, + B27 tiene por gradiente: OSC BY _ ae por lo que, de acuerdo con la linearizacién que efectuamos en la Seccion 11.1: (1s YBa Wn ¥y C=C, + 7B, ¥ In ¥ Se trata, por tanto, de dar valores iniciales a los pardmetros fy. B>. )- construir el vector gradiente asi como C*, y estimar una regresion de esta variable sobre las tres que integran el gradiente. En este modelo, #, no juega ningiin papel esencial en tal proceso de estimacién. Con los datos de la Tabla 7.1 obtuvimos el siguiente proceso iterativo: Iteraciones 1: Ba a 0 = 0,70 1,0 1 1.6765 —0,9767_ 1.2434 | 1.610.242 10 2 1377.2 0,07902 1.2448 | 3.120.269,6 3 1.377,7 — 0,07882 1,262 38.633,0 4 1.3768 0,08046 1,221 16.288,6 5 1376.7 0,08050 11,2210 16.288,4 Modelos no lineales 385 con matriz de covarianzas: 49.9968 Var (By, Ba 9) = ~7,83 0,13 107? 9,60 0,16 10°? 0,20 10-2 Los coeficientes estimados en el modelo no lineal [11.11] no son compara- bles a los del modelo lineal del Capitulo 7. En particular, parece que nuestra estimacién de f; = 0,080 proporciona una propensién marginal al consumo muy reducida, aunque tal impresion es equivocada. En el modelo [11.11], la 7 dc, oe propensién marginal es <' = B,y¥7-', que depende, por consiguiente, del ay, valor de Y,. Utilizando el valor muestral del afio base: Yy9gq = 15.209,12, se tiene: ac 0,22 = = (0,080) (1,22) (15.209,1)°?? = 0,81 a) sons 11.4. TRANSFORMACION BOX-COX La familia de transformaciones Box-Cox de la Seccién 6.6 puede utilizarse para especificar una relacién del tipo: Wat BOK) +m 11.12) donde: 90%) = Si 2 =0, entonces se tiene g(x,) = log x,, mientras que si 2 = 1, se tiene el modelo lineal; si 2 = —1, entonces g(x,) = 1/x,. Si el valor del parametro 7 fuese conocido, entonees [11.12] se convierte en un modelo de regresion lineal simple; por el contrario, si 4 es un pardmetro a estimar, entonces se trata de un modelo intrinsecamente no lineal. Un modo sencillo de tratar este modelo utiliza el hecho de que, fijado un valor de 4, el modelo se convierte en lineal tras un cambio de variables obvio. Por ello, podemos obtener diversas estimaciones de los coeficientes a y B condicionales en un valor dado del pardmetro A, que cabe esperar que se halle entre ~1 y 1. Aquel valor de 4 para el que se obtenga una suma residual menor, junto con los valores de a y f asociados, constituyen el estimador de minimos cuadrados del modelo [11.12]; bajo el supuesto de Normalidad de los residuos, seran también la estimacion de maxima verosi- militud. Sin embargo, puesto que se ha efectuado un proceso de biisqueda sobre el rango de valores admisibles del parametro 2, la matriz de covarianzas del 386 © Econometria par (a, B) que se obtiene en la regresién condicionada que se ha seleccionado como éptima no-es valida y tendera a subestimar las yerdaderas varianzas Como alternativa, puede considerarse la estimacion de maxima verosimi- litud, suponiendo que u, ~ N(0, 62), teniéndose entonces: T T 12 InL=—7indn—ZInoy 55 Du El jacobiano de la transformacién es: a de modo que se tiene la funcién de verosimilitud: T T I In b= — 5 In 2x In of ~ 555 ET De — 0 — Bax y si denotamos por J, el logaritmo de la verosimilitud del periodo t, tenemos el vector gradiente: ay, oa oe a, op Oh, th g(x) _ 2 t Ax? In x, — nF o oh =B oe rg a_i (ey 602 207 \a? que habria que igualar a cero para tratar de obtener las estimaciones numéricas de MV de @ = (a, B, 4, 02). Dicho sistema no tiene, sin embargo, solucion analitica, y hay que recurrir a procedimientos numéricos como los que analizaremos en el préximo capitulo. : -—2 Multiplicando este vector gradiente por si mismo y por una estimacién de o?: 2 2 a = xp D+ tea se tiene una estimacién de la matriz de covarianzas del vector 0 = (&, B, 4, 62). Para ello habria que resolver previamente el sistema de condiciones de primer Modelos no lineales 387 orden: V In L(8) = 04, obtener los residuos 4, y sustituirlos en la expresion mencionada de la matriz de covarianzas. En algunas ocasiones es interesante someter a la variable endégena a la misma transformacion que la exdgena, considerando el modelo: 90%) = & + Bole) +H En tal caso, el jacobiano de la transformacién de wa y es: ro. =I du dy por lo que el logaritmo de la funcién de verosimilitud es: st FTW) 2e? a — Ba(x,))? [11.13] T T InL=(A—D2] In y,—5 In 2n—5 nog Si se levase a cabo un procedimiento de biisqueda sobre 2, habria que utilizar [11.13] como criterio a minimizar, y no simplemente SR(0). Si se pretende maximizar la funcin de verosimilitud directamente, se a, a ah aa’ OB” da? expresién analitica del modelo anterior. Sin embargo, ahora: Ue (690) 9 G(X) a \ a aa obtiene el gradiente, cuyos componentes tienen la misma al, on donde: gly) _ Ay Iny,— ye +1. Ogle) _ Axt in x,— xP +1 on e 7 0 a Nuevamente, el sistema de ecuaciones generado al igualar a cero’ el gradiente slo tiene solucion numérica, excepto por el estimador de a? que, una vez caleuladas las estimaciones de los demas pardmetros, se obtendria por cociente entre la suma residual y el tamaiio muestral. Sin embargo, las expresiones analiticas pueden utilizarse en alguno de los algoritmos numéricos que veremos en el proximo capitulo. La matriz de covarianzas del estimador resultante se estima de modo similar al del caso anterior. 388 Econometria 11.5. CONTRASTE DE RESTRICCIONES 11.5.a. Restricciones lineales El contraste de un conjunto de hipétesis lineales: RB = r, toma como elemento basico la holgura o discrepancia: d= RB —r, que se obtiene directamente a partir del estimador MCO, f. Incluso si las hipotesis que se contrastan fuesen ciertas, no debe esperarse que el vector discrepancia fuese exactamente igual a cero, al menos debido al error muestral. Por tanto, la tarea del investigador debe decidir si dicho vector discrepancia es suficientemente grande como para hacer imposible el mantenimiento de la hipotesis nula Ho Como el vector discrepancia es una funcion lineal del estimador B, que tiene distribucion Normal, también d tendra distribucion Normal; bajo la hipotesis nula, es decir, si Hy es cierta, se tiene: E(d) = E(RB — ) = RE(B) — Var(d) = Var(RB — r) = R Var( a? R(X’X)7 Estos resultados sugieren la realizacion del contraste de Ho utilizando el criterio de Wald: W = d[Var(@))"'4 que utilizando la Seccién 2.8 sobre formas cuadraticas de rango completo obtenidas de una variable Normal se distribuye como una 72. En la prictica se desconoce el valor de 0, por lo que se divide WY, que depende tan sdlo de la estimacién MCO del vector de coeficientes, por otra forma cuadratica que depende s6lo de la estimacién de «; como ambas esti- maciones son independientes entre si, el cociente de ambas formas cuadraticas se distribuye como una F. 11.5.b. Restricciones no lineales El contraste de un conjunto de restricciones no lineales acerca de los coeficien- tes de un modelo de regresién: Ho: R(B) =r, no presenta una diferencia conceptual importante con respecto al caso de restricciones lineales. Supone- mos en lo sucesivo que la matriz @R(B)/oB, de orden q x k, con q Pin (Qn) — = Fin es he y puesto que el estimador MV de o? es 6? = SR/T=(I/T)Z1#, se tiene ja funcién de verosimilitud concentrada: in L@) =~ Fn Ce — Ting 7 que implica, si denotamos por Lg el valor de la funcién de verosimilitud, evaluada en el estimador restringido B,: 32) In Lg—InL= 5 Qn 6? -map= Fin (Fe Fy Be —2(n Ly—In L)=T In (3) se distribuye asintoticamente como una variable aleatoria 72. La utilizacién de este estadistico de razon de verosimilitudes (RV) cons- tituye, por tanto, un procedimiento alternativo de llevar a cabo el contraste de las hipotesis Ho: R(B) =F, si bien requiere calcular tanto el estimador restringido como el estimador sin En ocasiones existe la inclinacion a utilizar el estadistico RV para el contraste de una hipdtesis nula simple frente a una alternativa también simple; sin embargo, ello no esta justificado tedricamente: los grados de libertad del estadistico RV vienen determinados por la reduccion que, en la dimension del espacio paramétrico, se consigue con la imposicién de las restricciones. En un contraste de hipotesis nula simple frente a simple, dicha reduccion es cero. y el estadistico Modelos no lineales 391 Contraste de los multiplicadores de Lagrange (ML) La suma residual de un modelo restringido excede siempre a la del mismo modelo sin restringir, no importa cuales sean el modelo y las restricciones Esta es la base del contraste de los multiplicadores de Lagrange (ML) que se basa, precisamente, en la disminucin que se produciria en el valor numérico de la suma residual si se abandonan las restricciones. Supongamos que maximizamos la funcién de verosimilitud L@) sujeta a las restricciones R(B) =r, donde el vector 0 incluye, junto a los coeficientes B, los parametros de la matriz de covarianzas del modelo. Si denotamos por i el vector q x 1 de multiplicadores de Lagrange para este problema de optimi- zaci6n restringida y por L(0,) y L(@) las funciones de verosimilitud restringida y sin restringir, el lagrangiano es: In L@) = In L@) + X'[RB) — Fr] y las condiciones necesarias de maximizacin son: @lnL, Ain LQ) Ri =0, ~o* 7 Si las restricciones son ciertas, su imposicién apenas reduciré el valor maximo de la funcién de verosimilitud, por lo que las derivadas de In Ly y In L que aparecen en el primer bloque de ecuaciones deberian ser muy similares. Por consiguiente, el vector R’2 y, en particular, el valor dptimo de los multiplicadores de Lagrange deberia ser muy reducido, es decir: 2 In L@,) _ 2 in L@) 6 ~ @ =-RL =O, El mismo razonamiento utilizado al presentar el contraste de Wald sugiere el uso de la forma cuadratic: _ (2m LOY @ In Lx) tae (gee) tar (ag) Ejemplo, En el modelo de regresion no lineal, Judge y otros (1985) muestran que si denotamos los residuos obtenidos a partir de los estimadores restringi- dos: a, = y,—f(%: Br). ¥ por X la matriz de observaciones del gradiente de la funcion f, evaluado en los estimadores restringidos, se tiene: _ WR RRR IM = Gaye TR 392 Econometria se distribuye como una 2. Por R? denotamos el coeficiente de determinacion en la regresion del vector de residuos & sobre la matriz de variables explicati- vas X. Esta formulacion del contraste ML es muy util en el trabajo aplicado, siendo el modo en que mas frecuentemente se lleva a cabo el contraste. El contraste ML s6lo precisa del estimador restringido, lo que lo hace especialmente interesante en aquellos casos en que la imposicién de las restricciones conduce a un modelo mas sencillo que aquel de que se partia. La Figura 11.1 ilustra la légica conceptual de cada uno de los tres procedimientos de contrastacion de hipdtesis que acabamos de presentar: El test de Wald se basa en que si Ho es cierta, entonces el vector discrepancia evaluado en Byy deberia ser proximo a cero, puesto que el estimador MV es consistente. Asi rechazamos la hipétesis nula si el vector discrepancia, evalua- do en el estimador MV: R(@yy) —r, es grande. El contraste de razon de verosimilitudes se fundamenta en que si las restricciones que se contrastan fuesen ciertas, entonces su imposicion no implicaria una reduccion significa- tiva en el valor maximo de la funcidn de verosimilitud, por lo que la diferencia In L—In Lg, que es un escalar, debe ser pequefia. Por iltimo, el contraste de los multiplicadores de Lagrange se basa en que si las restricciones que se contrastan son validas, el estimador restringido FIGURA 11.1. Modelos no lineales 393 deberia estar proximo al punto que maximiza globalmente la funcion de verosimilitud: en consecuencia, la pendiente de la funcién de verosimilitud en el estimador restringido deberia ser proxima a cero; asi, este contraste se basa en el valor numérico de dicha pendiente. ‘Aunque los tres contrastes son equivalentes asintoticamente, se comportan de modo diferente en pequefias muestras. Lamentablemente, su comporta- miento depende de cada aplicacién particular, lo que impide elaborar una teoria general acerca de sus interrelaciones. Por ello, la eleccién entre ellos se efecttia generalmente en base a su sencillez de computacion en cada caso particular. En algunos casos particulares, como ocurre con el modelo lineal general, puede probarse la relacion ML < RV < W, de manera que si un contraste ML rechaza la hipétesis nula, o si un test de Wald no rechaza Ho, no se producira contradicci6n entre Jos tres estadisticos. Ejemplo 11.4. Consideremos nuevamente el modelo de consumo del Ejem- plo 11.2: C=a+ BYP tuy, y>0 en el que queremos contrastar si la propensién marginal al consumo es inde- pendiente de la renta, lo que haria lineal al modelo: Ho: y = 1. El contraste F habitual se basa en las sumas residuales de la estimacién minimo-cuadratica del modelo sin restringir (Ejemplo 11.2), y del modelo res- tringido (Ejemplo 7.6.a). El estadistico: (SRR — SRS)/q _ [1.079.364,7 — (16.288,4) - 35/1 ‘SRS/edI(MSR) ——_(16.288,4) - 35)(35 — 3) = 28,59 que se distribuye como una Fy. 32. El estadistico de Wald se basa en la discrepancia del estimador restringido: _ (1,221 = 1,0)? © (0,0443)? = 25,14 que se distribuye como una 7}. El estadistico RV: RV = —2(In Ly — In L) = T(In 63 — In 6? = 35(10,3365 — 61429) = 146,8 que se distribuye como una 72. Por ultimo, para llevar a cabo el contraste ML, comenzamos estimando a y Ben el modelo restringido: C, = + BY, + v,, para obtener los residuos restringidos, El gradiente de la funcién f que define el modelo anterior cuando se escribe en la forma C, = f(Yy 04; % B, 1) es: of . oj 5 Giee ” ab Gpt My, Gp OMIM 394 > Econometrla que, evaluado bajo la restriccién y= 1, resulta (1, Y,, 2), donde 2, = BY, In(¥,), en el que f debe sustituirse por su estimacion MCO. En una segunda etapa estimamos una regresion de los residuos previos sobre este vector de variables, comparando el producto TR? = 35(0,474826) = = 16,62 con una distribucién 73. Ejemplo 11 Volviendo al modelo dinamico de consumo del Capitulo 9, queremos contrastar la hipotesis de que la propension marginal al consumo a largo plazo es igual a 1, es decir, en el modelo C= Bi t+ BY + BsC-1 + queremos contrastar: =1 — Bs que ya tratamos en el Ejemplo 11.3. ‘Aunque ya vimos en dicho capitulo que, en realidad, esta restriccién puede escribirse facilmente como lineal, vamos a tratarla ahora como no lineal, con: Bz — Bs 3 (aati) op 3” (By, por lo que utilizando los resultados de la estimacién del Capitulo 9 tenemos: ORB) _ ; Sap = (786: 1371) Var [RB)] = 1,7867(0,1592 10°?) + 1,3717(0,2742 1077) — — 2(1,786)(1,371)(0,2079 10-7) = 0,51 10-4 RB =; El gradiente es: cuya raiz cuadrada es 0,71 107?. Como R@—r tenemos: RB) -r 0,232 VVar[R®)] que, comparada con una N(0, 1), conduce a rechazar la hipotesis nula. ~32,68 Modelos no tineates 395 Sin embargo, en este caso parece razonable que la hipétesis nula hubiese sido: Ba Meth

Anda mungkin juga menyukai