Anda di halaman 1dari 5

APUNTES DE CLASE ECONOMETRA I UDI ECONOMETRA E INFORMTICA Prof. Ramn Maha ramon.mahia@uam.

es HIPTESIS ESTRUCTURALES: MULTICOLINEALIDAD Qu se entiende por Multicolinealidad en el marco del MBRL? : Existen dos tipos de Multicolinealidad. La denominada multicolinealidad Exacta y la llamada Multicolinealidad Aproximada . La exacta se define como la existencia de una combinacin lineal exacta entre dos o mas variables exgenas incluidas en el modelo; dicho de modo analtico, el incumplimiento de la propiedad de Rango Pleno de la matriz X de exgenas del modelo. La Multicolinealidad aproximada se define como la existencia de una relacin lineal fuerte, aunque no exacta, entre dos o ms variables exgenas. Por qu se produce?: En primer lugar puede decirse que la multicolinealidad es, en cierto modo, un fenmeno inevitable: en un sistema econmico es generalmente muy difcil suponer la total falta de correlacin entre sus distintos elementos; an al contrario, la propia Econometra, como ejercicio analtico, se apoya de forma fundamental en la idea de la existencia de interrelaciones entre las variables de los sistemas econmicos analizados de modo que es posible encontrar relaciones (correlaciones) amplias e incluso relaciones indirectas en la evolucin temporal o la distribucin transversal de dos acontecimientos o realidades econmicos aparentemente distantes. No obstante, no resulta conveniente achacar siempre la existencia de una elevada correlacin entre variables a la esencia del sistema econmico ya que, en ocasiones, es el modelizador quien, descuidando una correcta especificacin y un adecuado tratamiento de los datos, puede generar en un modelo un problema de multicolinealidad inexistente en origen , an cuando ni siquiera exista ningn parecido conceptual entre las series que generan el problema. As pues y, resumiendo, diremos que: 1. La multicolinealidad aproximada puede aparecer bien por relaciones de causalidad que se producen en el contexto general econmico (todo est relacionado) o bien de forma casual sin que exista ningn contenido terico en la misma. Un caso muy habitual de esta ltima situacin sucede cuando se introducen variables en niveles: la simplicidad en los niveles de las variables hacen que aparezcan con facilidad parecidos casuales tal y como se observa en el grfico de la siguiente pgina. 2. La multicolinealidad exacta slo puede aparecer por un error en la especificacin cometido por el modelizador que ignora una igualdad o combinacin lineal exacta entre variables. Por ejemplo, el siguiente modelo es, obviamente, un modelo con multicolinealidad exacta:

y i = 0 + 1 D.Interna + 2 C.Privado + 3 C.Pblico + 4 Inversin + u i


ya que, por definicin de Contabilidad Nacional, la Demanda Interna de un pas es, precisamente, igual a la suma del Consumo Privado, el Consumo Pblico y la Inversin. Otro ejemplo igualmente comn es caer en lo que se denomina La trampa de las ficticias que consiste en incluir un nmero tal de variables ficticias que todas ellas acabe por generar una combinacin lineal con el trmino independiente.

La lnea superior representa el perfil trimestral de evolucin del empleo en la agricultura en miles de personas desde 1986 a 1999 y la inferior la evolucin de la demanda interna en miles de millones de pesetas en ese mismo perodo. Es evidente que, aunque habra quien encontrara nexos causales entre una y otra variables, el parecido se debe a la sencillez de su patrn temporal de evolucin.

Cules son las consecuencias sobre el MBRL?: Las consecuencias sobre las propiedades del Modelo Bsico de Regresin Lineal deben distinguirse nuevamente segn se est hablando de Multicolinealidad Exacta o Aproximada: 1. En el caso de existencia de multicolinealidad exacta, los parmetros no pueden estimarse ya que, al existir dentro de la matriz X de observaciones de variables exgenas una combinacin lineal de variables, sta no tendr rango pleno y por tanto no ser invertible. Si eso sucede, el producto (XX) tampoco tendr inversa de modo que no podremos calcular la expresin del estimador Mnimo Cuadrtico: =( X ' X ) 1 X ' Y 2. En el caso de multicolinealidad aproximada las propiedades de los estimadores (insesgadez, eficiencia y consistencia ) no se ven afectadas. Es decir, el estimador de MCO sigue siendo el estimador con mejores propiedades de entre los de su clase de estimadores. Sin embargo, a pesar de que las varianzas del estimador de MCO son las mnimas posibles, (es decir, a pesar de la eficiencia del estimador MCO) estas varianzas son mayores que las que se lograran en ausencia del problema de multicolinealidad. En concreto, puede demostrarse que la varianza de los estimadores es:

)= V ( j

1 V ( y) 1 R 2 n k V (x j ) 1 R 2 j

donde R2j representa la correlacin que mantiene la variable X ij con el resto de variables exgenas incluidas en el modelo.

El problema descrito anteriormente de mayor varianza en las estimaciones, provoca los siguientes efectos inmediatos: Que los parmetros estimados se interpreten peor, al poder estar muy alejados del verdadero valor del parmetro: varianza e imprecisin son una misma cosa, a mayor varianza en la estimacin, mayor imprecisin y por lo tanto, resultados ms alejados de la realidad. Que los parmetros sean muy inestables y flucten de forma importante al introducir nueva informacin. Efectivamente, al ser el parmetro ms impreciso, al presentar mayor rango de variacin, una nueva estimacin puede arrojar valores muy diferentes a la anterior. Que los contrastes individuales t tiendan a tomar valores inferiores a los reales haciendo que rechacemos variables realmente significativas. Debemos recordar que, efectivamente, la ratio t de significacin individual se obtiene mediante la expresin:
t= ) V (

por lo que, a mayor varianza, menor valor del ratio t. As, en una situacin de multicolinealidad y, por tanto, de mayor varianza en las estimaciones, esas ratios t aparecern artificialmente ms bajas de lo que realmente seran si modificsemos convenientemente la especificacin. Cmo se detecta?: La deteccin parte del clculo de las correlaciones entre las variables explicativas. Las correlaciones entre variables deben ser menores que un lmite determinado. No hay un lmite fijo a partir del cual podamos hablar de un problema; ese lmite debe establecerse desde el sentido comn y segn las circunstancias de anlisis especficas, por ejemplo: Tamao muestral: un mismo valor de un coeficiente de correlacin implica distinto grado de correlacin segn el tamao muestral; en muestras de tamao elevado, una correlacin aparentemente pequea (0,3 0,4) implica la existencia de una evidente correlacin serial. Forma de medicin de las variables: las variables en niveles exhiben correlaciones con mayor facilidad de modo que el lmite asumible puede ser ms alto que si las variables exgenas estn medidas en tasas. Relaciones tericas asumidas a priori entre las variables: una correlacin moderad pero no esperada a priori desde el punto de vista terico puede estar avisando de algn defecto en la especificacin o el tratamiento de los datos. ).

En todo caso, si se desea una regla generalmente utilizada, una prctica habitual consiste en establecer generalmente la R2 del modelo original como lmite de la correlacin observada entre dos o ms variables: diremos que existe multicolinealidad cuando existan correlaciones entre las variables, superiores al coeficiente de determinacin del modelo. Sin embargo, debemos recordar nuevamente las limitaciones de cualquier receta de este tipo; por eje, lgicamente diremos que existe multicolinealidad cuando, an sin superar la R 2 del modelo, las correlaciones sean mayores de un 0,70%. Las correlaciones entre las variables las calcularemos de tres modos diferentes:

Correlaciones simples entre cada par de variables

r jk =
-

Cov ( x j x k ) DT ( x j ) DT ( x k )

Correlaciones entre cada variable y el conjunto simultneo del resto incluidas en la especificacin de una ecuacin del tipo:

x j = f ( x1 , x 2 ,......., x j 1 , x j+ 1 ,........ x k )

Correlaciones parciales entre cada par de variables. El concepto de correlacin parcial tiene sentido en el contexto del anlisis multivariante. La idea es encontrar la correlacin que une a dos variables descontado el efecto del resto de variables; es decir, la correlacin particular, ms all de la correlacin que ambas exhiben y en la que intervienen el resto de variables. Por ejemplo, si se toman datos relativos a 3 tipos de inters a corto plazo en una economa seguramente se encontrarn elevadas correlaciones simples y mltiples, sin embargo, ser difcil encontrar una correlacin parcial entre dos de los tres tipos de inters considerados ya que, la parte comn que les une, es comn a los tres y no existe ms parecido bilateral que el que es compartido por todos ellos. La forma ms sencilla de calcular esos coeficientes de correlacin parcial aprovechando los anteriores clculos es aplicando la expresin comentada anteriormente:
p r jk = + / a b

donde a es el coeficiente asociado a x k en la regresin de x j sobre el conjunto de variables restantes y b es el coeficiente de x j en la regresin de x k sobre el conjunto de variables restantes. El signo +/- no expresa la doble solucin de la raz, sino que deber escogerse una de las dos soluciones, la positiva o la negativa, segn el signo observado en los coeficientes a y b de las regresiones parciales. La razn de atender al signo antes de realizar el clculo es que, por razones obvias de simetra, el signo de a siempre ser el mismo que el de b por lo que, en el producto ab, ese signo se perder en el caso de ser ambos coeficientes negativos. Cmo se corrige?: La correccin del problema requiere conocer sus causas. Si se trata de una correlacin casual debida generalmente a defectos en la especificacin (por ejemplo, un modelo en niveles), el problema debe solventarse corrigiendo esta especificacin o bien, en ltimo extremo deflactar la multicolinealidad. Si estamos ante un problema de informacin repetida, la solucin pasa por la re-especificacin del modelo, bien eliminando la informacin redundante, bien transformndolo de cara a perder el mnimo de informacin. En ese sentido, cabe transformar dos o ms variables correlacionadas en una combinacin de las mismas. Conviene recordar a este respecto la tcnica del anlisis multivariante factorial.

APUNTES SOBRE EL ANLISIS DE MULTICOLINEALIDAD EN E-VIEWS Realizar el anlisis de multicolinealidad en E-Views es sencillo. Para observar de forma rpida las correlaciones simples Las correlaciones simples las calculamos con sencillez en E-Views. A forma ms rpida de observar estas correlaciones es: 1.- Crear un grupo con las variables involucradas en la regresin: una vez abierta la regresin, seleccionando el comando Procs-Make Regressor Group del men de ecuacin. 2.- Una vez creado el grupo, en la barra de herramientas del mismo se solicita la vista de modo correlaciones: View-Correlations.

Para realizar las regresiones parciales con el objetivo de computar las correlaciones mltiples y parciales (segn se detall en la teora) no hay ninguna operacin especial que deba conocerse en E-Views: cada una de las regresiones auxiliares se crea de forma independiente como cualquier otra regresin.

Anda mungkin juga menyukai