es demasiado fuerte, en el
sentido de que la multicolinealidad se considera daina nicamente cuando no se puede
separar la totalidad de las influencias de las variables explicativas sobre Y .
2. Altas correlaciones entre parejas de regresoras. Otra regla prctica recomendable
consiste en observar el coeficiente de correlacin de orden cero o entre dos regresoras. Si
ste es alto, digamos, superior a 0.8, la multicolinealidad es un problema grave. La
desventaja con este criterio es que, aunque las altas correlaciones de orden cero pueden
sugerir la presencia de colinealidad, no es necesario que dichas correlaciones sean altas
para tener colinealidad en un determinado caso especfico. En trminos un poco tcnicos:
las correlaciones de orden cero elevadas son una condicin suficiente pero no necesaria
para la existencia de multicolinealidad, debido a que puede existir a pesar de que las
correlaciones de orden cero o correlaciones simples sean comparativamente bajas (es
decir, inferiores a 0.50). Para apreciar esta relacin, suponga un modelo con cuatro
variables:
Yi =1 +2X2i +3X3i +4X4i +ui
y suponga que
X4i =2X2i +3X3i
donde 2 y 3 son constantes, sin ser las dos iguales a cero. Obvio, X4 es una
2
combinacin lineal exacta de X2 y X3, que da R4 .2 3 = 1, el coeficiente de determinacin
en la regresin de X4 sobre X2 y X3.
Ahora recordemos esta frmula para escribir
2
Pero, como R4 .2 3 = 1 por la existencia de colinealidad perfecta, obtenemos
No es difcil ver que se satisface con r4 2 = 0.5, r4 3 = 0.5 y r2 3 = 0.5, que no son
valores muy altos.
Entonces tenemos esta regla prctica: Si k est entre l00 y 1 000, existe una
multicolinealidad que va de moderada a fuerte, mientras que si excede de 1 000, existe
multicolinealidad grave. De otro modo, si el IC ( = k) est entre 10 y 30, hay
multicolinealidad entre moderada y fuerte, y si excede de 30, una multicolinealidad grave.
Algunos autores consideran que e1 ndice de condicin es el mejor diagnstico de
multicolinealidad disponible. Sin embargo, esta opinin no es muy aceptada. As, el IC es
slo una regla prctica, quiz un poco ms compleja. Para mayores detalles, el lector
puede consultar las referencias.
2
6. Tolerancia y factor de inflacin de la varianza. Conforme R j , el coeficiente de
determinacin en la regresin de la regresora Xj sobre las regresoras restantes del
cuatro cuadros porque hay cuatro variables en el modelo, una variable dependiente (C) y
tres variables explicativas: ingreso personal disponible real (Yd), riqueza real (W) y tasa
de inters real (I).
Primero considere la diagonal principal, de la esquina superior izquierda a la esquina
inferior derecha. No hay puntos de dispersin en estos cuadros en la diagonal principal. Si
los hubiera, tendran un coeficiente de correlacin de 1, pues las grficas seran de una
variable dada sobre s misma. Los cuadros fuera de la diagonal muestran
intercorrelaciones entre las variables. Por ejemplo, el cuadro de riqueza (W) muestra que
la riqueza y el ingreso estn muy correlacionados (el coeficiente de correlacin entre los
dos es 0.97), pero no de manera perfecta. Si tuvieran correlacin perfecta (es decir, si
tuvieran un coeficiente de correlacin de 1), no habramos podido estimar la regresin
porque habra una relacin lineal exacta entre riqueza e ingreso. El diagrama de
dispersin tambin muestra que la tasa de inters no est muy correlacionada con las
otras tres variables.
Como la funcin de diagrama de dispersin se incluye ahora en varios programas
estadsticos, este diagnstico debe tomarse en consideracin junto con los que
estudiamos antes. No obstante, hay que recordar que las correlaciones simples entre
parejas de variables pueden no ser un indicador definitivo de colinealidad, como ya
sealamos.
Medidas correctivas
No hacer nada
precios no varan mucho. Sea 3 la elasticidad ingreso estimada a partir de los datos de
corte transversal. Con esta estimacin, la anterior regresin de series de tiempo se
escribe como
Yt
= 1 + 2 ln Pt + ut
total. Como el PIB y la poblacin aumentan con el tiempo, es muy probable que estn
correlacionados. Una solucin a este problema consiste en expresar el modelo mediante
una base per cpita; es decir, dividir la anterior ecuacin entre X3 para obtener:
Dicha transformacin tal vez reduzca la colinealidad en las variables originales. Sin
embargo, la transformacin que utiliza primeras diferencias o las transformaciones de
razn crean otros problemas.
5. Datos nuevos o adicionales. Como la multicolinealidad es una caracterstica de la
muestra, es posible que en otra muestra con las mismas variables la colinealidad no sea
tan grave como en la primera. A veces, con slo aumentar el tamao de la muestra (si
esto es posible) se atena el problema de colinealidad. Por ejemplo, en el modelo de tres
variables aparece que:
2
Ahora, a medida que aumenta el tamao de la muestra, x 2i por lo general aumenta.
(Por qu?) Por consiguiente, para cualquier r2 3 dado, la varianza de 2 disminuir,
para reducir el error estndar, lo cual permite estimar 2 de manera ms precisa.
Como ejemplo, considere la siguiente regresin del gasto de consumo Y sobre el ingreso
X2 y la riqueza X3 basada en 10 observaciones.
Yi = 24.377 + 0.8716X2i 0.0349X3i
t = (3.875) (2.7726) (1.1595)
2
R = 0.9682
El coeficiente de la riqueza en esta regresin no slo tiene el signo equivocado, sino que
estadsticamente no es significativo en el nivel de 5%. Pero cuando el tamao de la
muestra se increment a 40 observaciones (micronumerosidad?) se obtuvieron los
siguientes resultados:
Yi = 2.0907 + 0.7299X2i + 0.0605X3i
t = (0.8713) (6.0014) (2.0014)
2
R = 0.9672
Heteroscedasticidad
homoscedasticidad, o igual (homo) dispersin (cedasticidad), es decir, igual varianza.
Simblicamente,
2 2
Eui =
i=1,2,...,n
2
esta varianza y la suposicin de que se conocen las i , es posible establecer intervalos
de confianza y probar hiptesis con las pruebas t y F usuales? La respuesta suele ser no,
5
pues puede demostrarse que var (2 ) var (2), lo cual significa que los intervalos de
confianza basados en estos ltimos sern innecesariamente grandes. Como resultado, es
probable que las pruebas t y F den resultados imprecisos en el sentido de que la var ( 2)
es demasiado grande, y lo que parece un coeficiente estadsticamente no significativo
(pues el valor t es ms bajo de lo apropiado), de hecho puede resultar significativo si se
establecen inter- valos de confianza correctos con base en el procedimiento de MCG.
Estimacin por MCO sin heteroscedasticidad
La situacin se torna muy grave si, adems de 2, tambin se sigue utilizando la frmula
habitual de varianza (homoscedstica) dada, aunque exista heteroscedasticidad o se
sospeche su existencia: observe que ste es el caso ms probable de los dos que aqu se
analizan, pues al hacer una regresin estndar por MCO e ignorar (o no conocer) la
existencia de la heteroscedasticidad se producir una varianza de 2. En resumen, si
insistimos en los procedimientos de prueba usuales a pesar de la presencia de
heteroscedasticidad, las conclusiones o inferencias que obtengamos pueden ser muy
equivocadas.
Deteccin
Mtodos informales
Naturaleza del problema
Con mucha frecuencia la naturaleza del problema en consideracin sugiere la posibilidad
de heteroscedasticidad. Por ejemplo, a partir del trabajo pionero de Prais y Houthakker
sobre estudios de presupuesto familiar, en el cual hallaron que la varianza residual
correspondiente a la regresin del consumo sobre el ingreso aumentaba con el ingreso,
hoy en da generalmente se supone que en encuestas similares se pueden esperar
varianzas desiguales entre las perturbaciones. De hecho, en la informacin de corte
transversal que comprende unidades heterogneas, la heteroscedasticidad puede ser la
regla y no la excepcin. As, en el anlisis de corte transversal que relaciona el gasto de
inversin con las ventas, la tasa de inters, etc., suele esperarse la presencia de
heteroscedasticidad si se agrupan empresas pequeas, medianas y grandes.
Mtodo grfico
Si no hay informacin a priori o emprica sobre la naturaleza de la heteroscedasticidad, en
la prctica se puede llevar a cabo un anlisis de regresin con el supuesto de que no hay
heteroscedasticidad y luego hacer un examen post mortem de los residuos elevados al
2
2
cuadrado, ui , para ver si exhiben algn patrn sistemtico. Aunque los ui no son lo
2
mismo que los ui , los primeros sirven como representantes de los ltimos sobre todo si el
tamao de la muestra es lo bastante grande.
Mtodos formales
Prueba de Park
2
Park formaliza el mtodo grfico con la sugerencia de que i es algn tipo de funcin de
la variable explicativa Xi. La forma funcional fue
2 2 vi
i = Xi e
o
2
2
ln =ln +lnXi +vi
Prueba de Glejser
La prueba de Glejser en esencia es similar a la de Park. Despus de obtener los residuos
u i de la regresin MCO, Glejser sugiere una regresin sobre los valores absolutos de u i
2
sobre la variable X que se cree muy asociada con i . En sus experimentos, Glejser
utiliz las siguientes formas funcionales:
| u i | = 1 + 2 X i + v i
| u i | = 1 + 2 X i + v i
| u i | = 1 + 2 1/X i + v i
| u i | = 1 + 2 1/X i + v i
| u i | = ( 1 + 2 X2 i )+ v i
Paso 2. Ignore el signo de u i, es decir, tome su valor absoluto |u i|, y ordene los valores
|u i| y Xi (o Yi) de acuerdo con un orden ascendente o descendente, y calcule el
coeficiente de correlacin de orden de Spearman dado antes.
Paso 3. Si supone que el coeficiente poblacional de correlacin de orden s es cero y n >
8, la significancia del rs muestral se prueba mediante la prueba t de la siguiente manera
con gl = n 2 :
es una constante.
2
El supuesto enterior postula que i es proporcional al cuadrado de la variable X. En su
estudio de presupuestos familiares, Prais y Houthakker encontraron muy til ese
2
supuesto. Si es la relacin apropiada, significara que i sera mayor mientras mayores
fueran los valores de Xi. Si ste resulta ser el caso, es muy probable que haya
heteroscedasticidad en el modelo. Para probar esto explcitamente, Goldfeld y Quandt
sugieren los siguientes pasos:
Paso 1. Ordene las observaciones de acuerdo con los valores de Xi, a partir del valor ms
bajo de X.
Paso 2. Omita las c observaciones centrales, donde c se especific a priori, y divida las
observaciones restantes (n c) en dos grupos, cada uno de (n c)/2 observaciones.
Paso 3. Ajuste regresiones MCO separadas a las primeras (n c)/2 observaciones y a las
ltimas (n c)/2 observaciones, y obtenga las respectivas sumas de cuadrados residuales
SCR1 y SCR2; SCR1 representa la SCR de la regresin correspondiente a los valores
ms bajos de Xi (el grupo de varianza pequea), y SCR2, a los valores ms grandes de
Xi (el grupo de varianza grande). Cada SCR tiene
Si supusimos que las ui estn normalmente distribuidas (lo cual suele hacerse), y si el
supuesto de homoscedasticidad es vlido, entonces se demuestra que de sigue la
distribucin F con un nmero de gl en el numerador y uno en el denominador iguales a (n
c 2k)/2.
Si en una aplicacin ( =F ) calculada es superior al F crtico en el nivel de significancia
seleccionado, podemos rechazar la hiptesis de homoscedasticidad, es decir, podemos
afirmar que la heteroscedasticidad es muy probable.
Antes de ilustrar la prueba, conviene explicar la omisin de las observaciones centrales c.
Estas observaciones se omiten para agudizar o acentuar la diferencia entre el grupo de
varianza pequea (es decir, SCR1) y el grupo de varianza grande (es decir, SCR2). Pero
la capacidad de la prueba Goldfeld-Quandt para lograrlo depende de la forma de
seleccionar c. Para el modelo con dos variables, los experimentos Monte Carlo realizados
por Goldfeld y Quandt sugieren que c sea alrededor de 8 si el tamao de la muestra es
alrededor de 30, y alrededor de 16 si el tamao de la muestra es alrededor de 60. Sin
embargo, Judge et al., encontraron satisfactorios en la prctica los niveles de c = 4 si n =
30 y c = 10 si n es alrededor de 60.
Antes de proseguir, cabe notar que, en caso de que haya ms de una variable X en el
modelo, el ordenamiento de las observaciones, que es el primer paso en la prueba, puede
hacerse de acuerdo con cualquiera de ellas. Por tanto, en el modelo: Yi = 1 + 2X2i +
3X3i + 4X4i + ui se pueden ordenar los datos de acuerdo con cualquiera de estas X. Si,
a priori, no hay seguridad sobre cul variable X es la adecuada, realice la prueba sobre
cada variable X o aplique la prueba de Park, por turnos, sobre cada X.
Prueba Breusch-Pagan-Godfrey
2 =
2 2
Paso 3. Construya las variables pi definidas como pi=ui que es simplemente cada
2
residuo elevado al cuadrado dividido entre .
Paso 4. Haga la regresin de los pi as construidos sobre las Z como pi =1 +2Z2i
++mZmi +vi donde vi es el trmino de residuo para esta regresin.
Paso 5. Obtenga la SCE (suma de cuadrados explicada) y defina
es decir, sigue una distribucin ji cuadrada con (m 1) grados de libertad. (Nota: asin
significa asintticamente.)
2
2
Por consiguiente, si en una aplicacin el (-) = calculado excede al valor crtico en el
nivel de significancia seleccionado, se rechaza la hiptesis de homoscedasticidad; de lo
contrario, no se rechaza.
+ 5 X3i
+ 6 X2i X3i + v i
Cuando no se conoce i
2
Si se conocen las verdaderas i , podemos utilizar el mtodo de MCP para obtener
2
estimadores MELI. Como pocas veces se conocen las verdaderas i , existe alguna
forma de obtener estimaciones consistentes (en el sentido estadstico) de las varianzas y
covarianzas de los estimadores de MCO aunque haya heteroscedasticidad? La respuesta
es s.
Varianzas y errores estndar consistentes con heteroscedasticidad de White
White demostr que esta estimacin puede realizarse de forma que las inferencias
estadsticas sean asintticamente vlidas (es decir, para muestras grandes) sobre los
verdaderos valores de los parmetros. Sin embargo, en la actualidad hay diversos
paquetes de computacin que presentan varianzas y errores estndar con la correccin
de heteroscedasticidad de White en forma simultnea con las varianzas y los errores
estndar de MCO usuales. A propsito, los errores estndar de White corregidos
mediante heteroscedasticidad tambin se conocen como errores estndar robustos.
Supuestos razonables sobre el patrn de heteroscedasticidad
Una desventaja del procedimiento de White, adems de ser de muestras grandes, es que
los estimadores obtenidos por este medio pueden no ser tan eficientes como los
obtenidos por mtodos que transforman la informacin para reflejar tipos especficos de
heteroscedasticidad.
Yi =1 +2Xi +ui.
Autocorrelacin:
El trmino autocorrelacin se define como la correlacin entre miembros de series de
observaciones ordenadas en el tiempo [como en datos de series de tiempo] o en el
espacio [como en datos de corte transversal]. En el contexto de regresin, el modelo
clsico de regresin lineal supone que no existe tal autocorrelacin en las perturbaciones
ui. Simblicamente,
cov(ui, uj|xi, xj) = E(uiuj) = 0
i j
Consecuencias:
Se distinguen dos casos.
Estimacin por MCO tomando en cuenta la autocorrelacin
Como se mencion, 2 no es MELI, y aunque se fuera a usar var( 2)AR1, es probable
que los intervalos de confianza derivados de all sean ms amplios que los basados en el
procedimiento MCG. Como seala Kmenta, es probable que ste sea el resultado aunque
el tamao de la muestra se incremente indefinidamente. Es decir, 2 no es
asintticamente eficiente. La implicacin de este hallazgo para pruebas de hiptesis es
clara: es probable que se declare un coeficiente estadsticamente no significativo (es
decir, no diferente de cero) aunque en realidad pueda serlo (es decir, si se basa en el
procedimiento MCG correcto).
Estimacin por MCO ignorando la autocorrelacin
La situacin es potencialmente muy grave si no slo utilizamos 2 sino tambin var (2)
2
2
= / xt , con lo cual se ignora por completo el problema de autocorrelacin; es decir,
creemos errneamente que los supuestos usuales del modelo clsico se mantienen.
Surgirn errores por las siguientes razones:
1. Es probable que la varianza de los residuos
2
= u t /(n 2) subestime la verdadera
2
.
2
2. Como resultado, es probable que se sobreestime R .
3. Aunque 2 no est subestimada, var(2) puede subestimar var(2) AR1 su varianza
con autocorrelacin (de primer orden), pese a que esta ltima sea ineficiente comparada
con var(2)MCG.
Deteccin:
I. Mtodo grfico
Recuerde que el supuesto de no autocorrelacin del modelo clsico se relaciona con las
perturbaciones poblacionales ut, las cuales no pueden observarse directamente. En su
lugar disponemos de valores sustitutos, los residuos ut, a partir del procedimiento usual
MCO. Aunque las ut no son
lo mismo que las ut, con mucha frecuencia un examen visual de las da algunas claves
sobre la posible presencia de autocorrelacin en las u. En realidad, un examen visual de
2
ut o (u t ) proporciona informacin til no slo sobre la autocorrelacin, sino tambin
sobre heteroscedasticidad. Como afirma un autor:
No se puede exagerar la importancia de producir y analizar grficos [de residuos] como
parte habitual del anlisis estadstico. Adems de proporcionar en ocasiones un resumen
accesible para entender un problema complejo, permiten el examen simultneo de los
datos, considerados en su conjunto, mientras que a la vez ilustran con claridad el
comportamiento de los casos individuales.
II. Prueba de las rachas
Definimos ahora una racha como una sucesin ininterrumpida de un smbolo o atributo,
como + o . Definimos adems la longitud de una racha como el nmero de elementos
que contiene. En la anterior sucesin , hay 5 rachas: una racha de 8 signos menos (es
decir, de longitud 8), una racha de 21 signos ms (es decir, de longitud 21), una racha de
11 signos menos (es decir, de longitud 11), una racha de 3 signos ms (es decir, de
longitud 3) y una racha de 3 signos menos (es decir, de longitud 3). Para un mejor efecto
visual, presentamos las rachas entre parntesis.
Al examinar el comportamiento de las rachas en una sucesin de observaciones
estrictamen- te aleatoria, es posible derivar una prueba de aleatoriedad de las rachas.
Nos planteamos la si- guiente pregunta: son muchas o muy pocas las 5 rachas
observadas en el ejemplo ilustrativo consistente en 46 observaciones en comparacin con
el nmero de rachas esperadas en una su- cesin de 46 observaciones estrictamente
aleatoria? Si hay muchas rachas, significa que en el ejemplo los residuos cambian de
signo frecuentemente, y se indica con esto una correlacin serial negativa (compare esto
con la figura 12.3b). En forma similar, si hay muy pocas rachas, pueden indicar
autocorrelacin positiva, como en la figura 12.3a). Entonces, a priori, la figura indicara
una correlacin positiva en los residuos.
Ahora, sea:
N = nmero total de observaciones = N1 + N2
N1 = nmero de smbolos + (es decir, residuos +)
H0: = 0 frente a H1: > 0. Si el valor estimado d < dU, rechace H0 en el nivel . Es decir,
hay correlacin positiva estadsticamente significativa.
2.
H0: = 0 frente a H1: < 0. Si el valor estimado (4 d) < dU, rechace H0 en el nivel ; es
decir, hay evidencia estadsticamente significativa de autocorrelacin negativa.
3.
pasos:
1. Estime (12.6.14) mediante MCO y obtenga los residuos ut.
2. Haga la regresin ut sobre la Xt original (si hay ms de una variable X en el modelo
original, inclyalas tambin) y u t 1 , u t 2 , . . . , u t p, donde estas ltimas son los
valores rezagados de los residuos estimados en el paso 1. Por tanto, si p = 4,
introduciremos en el modelo cuatro valores rezagados de los residuos como regresoras
adicionales. Observe que para hacer esta regresin slo hay (n p) observaciones (por
qu?). En resumen, realice la siguiente regresin:
ut =1 +2Xt +1ut1 +2ut2 ++putp +t
2
33
y obtenga R de esta regresin (auxiliar).
3. Si el tamao de la muestra es grande, Breusch y Godfrey demostraron que
2
2
(n p)R p
2
Es decir, asintticamente, n p veces el valor de R obtenido en la regresin auxiliar
2
sigue la distribucin ji cuadrada con p gl. Si en una aplicacin (n p)R excede el valor
crtico ji cuadrada en el nivel de significancia seleccionado, podemos rechazar la hiptesis
nula, en cuyo caso, por lo menos una es significativamente diferente de cero.
Pueden mencionarse los siguientes puntos prcticos sobre la prueba BG:
1. Las regresoras incluidas en el modelo de regresin pueden contener valores rezagados
de la variable regresada Y; es decir, Yt1, Yt2, etc., pueden aparecer como variables
explicativas. Contraste este modelo con la restriccin de la prueba de Durbin-Watson, que
no permite valores rezagados de la variable regresada entre las variables explicativas.
2. Como ya sealamos, la prueba BG es aplicable aunque las perturbaciones sigan un
proceso de promedios mviles (PM) de orden p, es decir, aunque las ui se generen como
sigue:
ut =t +1t1 +2t2 ++ptp donde t es un trmino de error de ruido blanco; es
decir, el trmino de error que satisface todos los supuestos clsicos.
3. Si p = 1, que significa autorregresin de primer orden, la prueba BG se conoce como
prueba m de Durbin.
4. Una desventaja de la prueba BG es que el valor de p, la longitud del rezago, no puede
especificarse a priori. Es inevitable algn grado de experimentacin con el valor de p. A
veces se pueden utilizar los llamados criterios de informacin Akaike y Schwarz para
seleccionar la longitud del rezago.
5. Con los valores de las variables X y los valores rezagados de u, la prueba supone que
la varianza de u en la ecuacin anterior es homoscedstica.
Medidas correctivas
Si despus de aplicar una o ms pruebas de diagnstico para la autocorrelacin de las
analizadas en la seccin previa encontramos autocorrelacin, qu hacer? Hay cuatro
opciones:
1. Trate de averiguar si se trata de autocorrelacin pura y no el resultado de una mala
especificacin del modelo. A veces se observan patrones en los residuos porque el
modelo est mal especificado es decir, se excluyeron variables importantes o porque su
forma funcional no es correcta.
2. Si se trata de autocorrelacin pura, se puede utilizar una transformacin apropiada del
modelo original de manera que en el modelo transformado no se presente el problema de
la autocorrelacin (pura). Como en la heteroscedasticidad, habr que emplear algn
mtodo generalizado de mnimos cuadrados (MCG).
3. En muestras grandes se puede utilizar el mtodo Newey-West para obtener los errores
estndar de los estimadores de MCO corregidos para autocorrelacin. Este mtodo en
realidad es una extensin del mtodo de errores estndar consistentes con
heteroscedasticidad de White, que analizamos en el captulo anterior.
4. En algunas situaciones se puede conservar el mtodo MCO.Debido a la importancia de
cada uno de estos temas, les dedicamos una seccin.