Anda di halaman 1dari 27

Hernán Ariel Steinbrun

1. Procesos estacionarios y no estacionarios.

Un proceso estocástico es una colección o familia de variables aleatorias. Ejemplos de


eventos que pueden ser considerados procesos estocásticos son los resultados sucesivos de
tirar una moneda, el precio de cierre de una determinada acción, los ingresos de una
empresa determinada etc. Cuando se lanza una moneda no se sabe si caerá cara (que será
denotada mediante C) o ceca (T), de la misma manera que tampoco se conoce en forma
anticipada el precio de cierre de una cierta acción. Los resultados particulares pueden ser
múltiples, de hecho infinitos y cada resultado particular constituye lo que se denomina una
realización del proceso. Así, por ejemplo la sucesión CCTC representa una realización del
proceso “tirar cuatro veces una moneda”, la realización CTTC representa otra, la sucesión
2; 2,10; 2,05; 2,05 representa una realización del proceso ”precio de cierre de la acción
XX”, etc.

En particular los procesos estocásticos que se desarrollan en el tiempo, en los que el tiempo
es el índice del proceso, se suelen denominar series cronológicas o series de tiempo y en lo
que sigue, a menos que se indique lo contrario, el tiempo será, por lo general, el conjunto
índice de referencia.

Como se ha señalado, en cada punto del tiempo los procesos estocásticos pueden tener
múltiples realizaciones de modo que ellos se desenvuelven en dos espacios: el del tiempo (o
si se prefiere el del conjunto índice) y el de las variables aleatorias donde se manifiestan las
realizaciones. En el ejemplo de las monedas se consignaron dos realizaciones en el espacio
de las variables aleatorias W.

El tiempo será denotado mediante t que es un elemento del conjunto T y será representado
en la recta real, de manera sintética, T = { t / - ∞< t < ∞} y el espacio de variables aleatorias
W posee elementos que serán denotados mediante w, es decir: W ={ w/- ∞< w < ∞}y será
representado en el eje de ordenadas.

A modo de ejemplo se presentarán dos realizaciones del proceso estocástico “lanzar cuatro
veces una moneda”. Se supondrá que se trata de un juego donde uno gana $1 si sale cara y
pierde $1 si sale ceca, que la riqueza inicial del jugador es $10 (con probabilidades
simétricas, es decir iguales a 0,5) y que las realizaciones son TTCT y CCCT.
Si la realización es TTCT, en términos de ingresos es: -1, -1, 1, -1 y en términos de riqueza
es 10, 9, 8, 9, 8. Estos valores pueden ser representados en el espacio de las variables
aleatorias y corresponden a los puntos 0, 1, 2, 3 y 4 del tiempo respectivamente.

A cada una de las realizaciones posibles de la variable aleatoria le corresponde una cierta
probabilidad que, en este caso, puede ser obtenida mediante la distribución binomial.

En este ejemplo tanto el tiempo como el espacio de variables aleatorias fue discreto ya que
la binomial es una variable aleatoria discreta, pero ambos pueden ser continuos o puede que
uno sea continuo y el otro discreto. En lo que sigue el tiempo será discreto medido por días,
meses, trimestres o años y el espacio de las variables aleatorias muchas veces será continuo
ya que se utilizará en gran medida la distribución normal.

También en el ejemplo anterior se consideró solo un proceso “lanzar cuatro veces una
moneda” correspondiente a un único jugador que lo hace contra un contrincante, un
ejemplo extraído de la economía, es cuando se considera individualmente la producción de
cemento o la de acero, etc. Estos procesos se denominan univaluados o univariados. Pero
puede suceder que se consideren en forma conjunta, como por ejemplo la producción de
cemento, la de acero y el producto bruto interno, la riqueza correspondiente a 3 jugadores,
etc.; en estos casos se trata de procesos multivaluados o multivariados y se verá que son
importantes las relaciones mutuas entre los procesos. En una primera etapa se considerarán
procesos o series de tiempo individuales o univaluadas.

Los procesos estocásticos en general y las series de tiempo en particular se clasifican en


estacionarios y no estacionarios. A su vez, la estacionariedad es considerada en sentido
fuerte o débil.
Un proceso estocástico es estacionario en sentido fuerte si, de un modo general, todas sus
distribuciones de probabilidad se mantienen constantes en el tiempo, es decir no cambian.
Un ejemplo de proceso estacionario en sentido fuerte es el denominado ruido blanco, que
consiste en una sucesión de variables aleatorias independientes, { ε t } = { ε 1, ε 2, …} tales
que por definición tienen media cero y varianza constante. Se puede agregar el supuesto
que son normales, así que sintéticamente: ε t ~ N ( 0; σε2) donde E (ε t ) = 0, Var (ε t) =
constante = σε2 y Cov (ε t, ε t - s ) = 0. Esta última propiedad sigue del hecho de que las
variables aleatorias son independientes. Este proceso estocástico posee, por definición,
iguales distribuciones de probabilidad en cualquier parte del tiempo, ya sea que se
consideren distribuciones conjuntas o en otro caso univaluadas.

En el gráfico siguiente se muestran 1000 números pseudoaleatorios generados en el Eviews


provenientes de una distribución normal de media cero y varianza 1. Se han generado
empleando el comando Genr mediante alea=nrnd. En tanto que alea es un nombre arbitrario
asignado a la variable, el comando nrnd suministrado por el programa corresponde a
variables aleatorias normales estandarizadas es decir, N (0; 1) de media cero y varianza 1.

Se ha especificado que son números pseudoaleatorios porque los procedimientos para


generarlos se basan en cálculos deterministas ( a pesar de que se busca que los resultados
sean lo más casuales posibles) y de que el azar, sin adentrarnos en aspectos metafísicos o
filosóficos, es un concepto sumamente complejo como para poder ser aprehendido
cabalmente y por ende es muy difícil que sea obtenido por nosotros.

ALEA
3

-1

-2

-3

-4
250 500 750 1000

En la vida real las distribuciones de probabilidad son generalmente desconocidas y el concepto


de estacionariedad fuerte es aplicable básicamente para el desarrollo de la teoría. Pero, de
todos modos, para que sea factible el análisis de los procesos estocásticos reales o lo que aquí
nos ocupa, el análisis de las series cronológicas, se torna necesario acotar el campo de
estudio. Como hemos visto, las series cronológicas se desenvuelven en dos espacios, el del
tiempo y el de las variables aleatorias y ambos pueden tener extensión infinita. Lo que procura
el investigador es conocer el proceso generador de los datos (pgd) y para ello recurre a
muestras que por fuerza son de extensión finita. Para conocer mediante muestras finitas este
proceso generador debe suponer entonces que los procesos no cambian en el tiempo, pues así
una parte del recorrido del proceso le permitirá abarcar la totalidad. Si este no fuera el caso, es
decir si los procesos cambiaran en el tiempo, estos cambios podrían ser continuos y
presumiblemente se requerirían muestras de tamaño infinito para indagar acerca del pgd. En
resumen, resultaría imposible la investigación.

Es por ello que se requiere que los procesos sean estacionarios.

Pero, por otra parte, en el mundo real de los fenómenos económicos y financieros no es
posible conocer las distribuciones de probabilidad que requiere el concepto de estacionariedad
fuerte. Es por ello que la estacionariedad fuerte es reemplazada en el análisis por la
denominada estacionariedad en sentido débil que incluye solamente a la media, a la varianza y
a las covarianzas. Se dirá entonces que una serie de tiempo o un proceso estocástico es
estacionario en sentido débil si la media, la varianza y las covarianzas son constantes en el
tiempo, es decir, no dependen del tiempo. En símbolos E ( yt ) = µ , Var (yt ) = σ2 y Covar (yt ,
yt -s ) = γs donde µ y σ2 son constantes y en γs el subíndice s denota el “lag” o separación entre
las variables.

Se verifica inmediatamente que todos los procesos estacionarios en sentido fuerte lo son en
sentido débil, pero la recíproca no es necesariamente cierta, aunque en el caso de normalidad
la estacionariedad débil determina la estacionariedad fuerte o estricta.

Ejercicios

1. Indique las palabras clave de la lectura.

2.Usted posee $20 y participa en el juego de la moneda descrito anteriormente. Grafique


CCTTTCT. Con qué distribución de probabilidades puede calcular la probabilidad de esa
realización?.

3) Si ahora se hubieran efectuado 200 lanzamientos Con qué distribución de probabilidades


puede calcular la probabilidad de esa realización?.

4) Genere 50 números aleatorios a) mediante el Excel y b) mediante el Eviews. Grafíquelos.


5) Indique las características de un proceso aleatorio en sentido estricto o fuerte y en sentido
débil.

6) Por qué un proceso estacionario en sentido fuerte lo es en sentido débil?

7) Por qué si un proceso es normal en sentido débil lo es en sentido fuerte?

8) Cuáles son las propiedades del ruido blanco? Puede ensayar una explicación acerca de por
qué, con qué finalidad, le habrán atribuido esas propiedad?

2. Ejemplos de procesos estacionarios.

2.1. El proceso autoregresivo de orden 1.

Un ejemplo de una serie cronológica estacionaria en sentido débil es el proceso autoregresivo


de orden 1, sintéticamente, AR (1): yt = a1 yt -1 + ε t donde a1 < 1 . También se le puede agregar
una constante, a0 , que omitimos en esta primer etapa para simplificar la notación.

Este modelo puede utilizarse cuando uno piensa que el valor actual de una serie puede ser
explicado por el inmediato anterior, es decir la observación precedente sintetiza toda la
información acerca del desarrollo de un fenómeno.

Se puede ver que: yt – a1 L yt = ε t donde L yt = yt -1 y en general Lk yt = yt –k siendo L el


operador de retardos o rezagos. Puede escribirse sacando factor común (1- a 1L ) yt = ε t y de
aquí: yt = ε t / (1- a 1L ).

Si se efectúa la división se tiene que: 1 / (1- a 1L ) = 1 + a 1L + a12 L 2+ …… de modo que:

yt = ε t (1 + a1L + a12 L 2 + ……) = ε t + a 1 ε t-1 + a12 ε t - 2 +…….

Se trata de una suma de infinitos términos y para que tenga sentido debe ser a1 < 1 . Nótese
que si 1 - a1L = 0 significa que a1 L = 1 o bien a 1 = 1 / L, es decir, como soluciones de la
denominada ecuación característica a1 y L se comportan en forma inversa. Uniendo ambos
resultados y considerando un círculo unitario la expresión anterior se suele expresar como que
el valor de los parámetros del modelo, los a1, se hallan dentro del círculo unitario (el radio es
igual a uno) o bien que las raíces del polinomio característico se hallan fuera del mismo. De
esta manera se pueden generalizar los resultados.

Por otra parte, observemos el proceso generador de los datos partiendo del momento 0 con el
valor y0 . Así que: y1 = a1 y0 + ε 1 y2 = a1 y1 + ε 2 = a1 (a1 y0 + ε 1 ) + ε 2 . Si se efectúan los
2
productos resulta: y2 = a1 y0 + a1 ε 1 + ε 2 , y ,en general, si se sigue de la misma manera: y t
= a1t y0 + a1t-1 ε 1 + ……+ ε t. Como a1 < 1 entonces cuando t crece a1t y0 tiende a cero y la
suma es convergente.

En el gráfico siguiente se presenta el proceso autoregresivo y t = 0,60 yt -1 + ε t donde y0 = 0 y


los ε t se han generado como la variable alea del ejemplo anterior, es decir son N (0; 1).

El procedimiento para generar los datos fue el siguiente:

1) Se generó alea. 2) se generó y=0 3) se generó y=.6* y(-1) + alea. En este paso antes de
cerrar la ventana se modificó el tamaño de la muestra colocando sample 2 1000.

Y
5

-1

-2

-3

-4
250 500 750 1000

Vamos a hallar los principales momentos del proceso autoregresivo de orden 1 y veremos que
es estacionario en forma débil. Ya hemos visto que el módulo de a1 debe ser menor que 1.

Si agregamos una constante al AR (1) tendremos: yt = a0 + a1 yt -1 + ε t.

Si ahora calculamos valores medios se tendrá: E ( y t ) =E ( a0 )+ E (a1 yt -1 )+ E (ε t). Esto se


puede escribir: (1 - L a1) E ( yt ) = a0 . De modo que: E ( yt ) = a0 / (1 - L a1) donde el
operador de rezagos L puede omitirse ya que se aplica a una constante y esta no tiene rezagos,
es decir L a = a.

Entonces: E ( yt ) = a0 / (1 - a1 ) es constante, no depende de t. En el ejemplo dado que a0 = 0


resulta E ( yt ) = 0.

Por otra parte considerando la expresión yt = ε t + a 1 ε t-1 + a12 ε t - 2 +……. Resulta entonces:

Var (yt )= σε2 (1 + a12 + a14 +……) = σε2 / (1 - a12 ). En el ejemplo: Var (yt ) = 1/ 0,64 = 1,5625
y el desvío estándar es 1,25.

s e2 a1s
Se puede demostrar que g s = y que r s , el coeficiente de autocorrelación de orden s es
1 - a12
r s = a1s . Como │ a 1 │< 1 entonces r s decae exponencialmente. En el ejemplo r1 = 0,60, r 2 =
0,36 , etc.

Los resultados anteriores muestran que en el proceso autoregresivo de orden uno con a1 < 1 es
estacionario y que la media, la varianza y las autocovarianzas no dependen del tiempo. Por lo
tanto es un proceso estacionario en sentido débil.

Los resultados del proceso generado en el Eviews se pueden apreciar a continuación:

90
Series: Y
80 Sample 1 1000
Observations 1000
70

60 Mean 0.082353
Median 0.100407
50 Maximum 4.215779
Minimum -3.876506
40
Std. Dev. 1.227421
30 Skewness -0.023443
Kurtosis 2.852344
20
Jarque-Bera 1.000026
10 Probability 0.606523
0
-3.75 -2.50 -1.25 0.00 1.25 2.50 3.75

La media es 0,08 y el desvío estándar es 1,227. Las autocorrelaciones (A) y las autocorrelaciones
parciales (AP) se muestran en el cuadro siguiente. Por ejemplo la primer autocorrelación es 0,623,
la de orden dos es 0,375 y así siguiendo. Puede observarse que decaen exponencialmente.

Las autocorrelaciones parciales indican la relación entre dos variables, por ejemplo entre y t y yt –s
sin que intervenga la dependencia lineal que esas variables tienen con las variables intermedias,

yt –s+1, yt –s+2, …. yt –1, es decir es la correlación “neta” entre esas dos variables libres de la influencia
lineal de las otras. Como el procedimiento de cálculo es complicado lo omitimos, pero se pueden
recurrir a la bibliografía especializada. Una explicación clara y bastante detallada se puede
encontrar en William S. Wei, Time Series Analysis, Addison Wesley, 1990. En el caso del AR (1)
puede demostrarse que solo la primer autocorrelación parcial es distinta de cero.
Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|***** | .|***** | 1 0.623 0.623 389.35 0.000

.|*** | .| | 2 0.375 -0.021 530.80 0.000

.|** | .| | 3 0.199 -0.044 570.49 0.000

.|* | .| | 4 0.114 0.021 583.59 0.000

.| | *| | 5 0.007 -0.095 583.64 0.000

.| | .| | 6 -0.029 0.011 584.46 0.000

.| | .| | 7 -0.042 -0.003 586.24 0.000

.| | .| | 8 -0.038 -0.004 587.71 0.000

.| | .| | 9 -0.053 -0.030 590.51 0.000

.| | .| | 10 -0.041 0.009 592.20 0.000

El Eviews presenta dos estadísticos para comprobar si las autocorrelaciones son distintas de cero.
Uno de ellos es el test de Bartlett referido a las autocorrelaciones muestrales. Bajo la hipótesis que
son ruido blanco ( media cero) y para grandes muestras el desvío estándar es aproximadamente

1/ (N)½ donde N es el número de observaciones. Considerando distribución normal y un nivel de


significación del 5%, los límites de la región crítica (de rechazo de la hipótesis nula) serán
aproximadamente 2* 1/ (N)½. Bajo H0: “las autocorrelaciones son cero”, si las autocorrelaciones
distan de cero en más de dos desvíos estándares se concluirá que son distintas de cero. En nuestro
ejemplo resulta: ± 2 / 1000½ = ( - 0,063; 0,063).

El Eviews traza dos líneas paralelas a cero por esos puntos y por ejemplo se observa que solo la
primer autocorrelación parcial es distinta de cero y que las autocorrelaciones declinan
rápidamente, la séptima autocorrelación no es significativamente distinta de cero.

También presenta el denominado estadístico Q cuyos autores son G. Ljung y G. Box cuyo
propósito es igual que el anterior, ver si un grupo de autocorrelaciones es significativamente
s
r2
distinto de cero. Su fórmula es: Q = N ( N + 2)� k y posee distribución c 2 con s grados de
k =1 ( N - k )

libertad, donde s es el número de autocorrelaciones empleadas para efectuar la prueba.

Si el valor de Q calculado mediante esa fórmula excede al de c 2 con s grados de libertad,


entonces como mínimo un valor de las autocorrelaciones es significativamente distinto de cero al
nivel especificado. Los valores del estadístico Q muestran que hay valores significativamente
distintos de cero. Esto se puede apreciar en la última columna donde se presentan los valores “p”
de ese estadístico.

Los valores p muestran la probabilidad de cometer un error de tipo 1 (probabilidad de rechazar


una hipótesis correcta si el valor del estadístico es el especificado.

Si se considera la autocorrelación de orden 1 el valor de Q es: 1000 * (1002) * (0,623) 2 / (1000 -1)
= 389,295. El valor de c 2 con 1 grado de libertad considerando una prueba unilateral con un nivel
de significación del 5% es 5,024 de modo que como el valor empírico supera al teórico se rechaza
H0 , es decir la autocorrelación de orden 1 es distinta de cero. Al valor 389,295 suministrado por el
Eviews le corresponde un área a su izquierda de 1,18* 10 -86 lo que significa que, en este caso la
probabilidad de cometer un error de tipo 1 es cero y uno puede confiar en que la autocorrelación
de orden 1 es distinta de cero.

Las claves para identificar un proceso AR (1) se encuentran básicamente en las funciones de
autocorrelación y de autocorrelación parcial. Las funciones de autocorrelación declinan
exponencialmente y las funciones de autocorrelación parcial presentan un solo pico significativo
distinto de cero.

La estimación de los coeficientes de un proceso AR (1) se puede efectuar mediante el método de


MCO (mínimos cuadrados ordinarios) siendo aplicables los tests “t- Student”, “F-Snedecor”,
Akaike, Schwarz y demás estadísticos habituales en ese procedimiento.

Ejercicios.

1. Genere en el Eviews el proceso AR(1) yt = 2 + 0,50 yt -1 + ε t donde ε t ~ N ( 0; σε2= 4).


Grafíquelo.

Halle la media, la varianza y las primeras autocorrelaciones teóricamente y compárelas con las
obtenidas mediante el programa. Comente los resultados de los tests de Bartlett y Q.

2. Qué puede suceder en el proceso considerado si a1 =1?

3. Cuándo utilizaría un modelo AR (1)?

4. Cómo comprobaría que el modelo es adecuado? (Sugerencia: “La prueba del budín es
comerlo”)

2.2. El proceso autoregresivo de orden 2.


El modelo yt = a0 + a1 yt -1+ a2 yt -2 + ε t con ciertas condiciones sobre los coeficientes que después
serán especificadas representa un modelo autoregresivo de segundo orden estacionario o
simplemente AR (2).

En este caso tanto la observación precedente como la de dos períodos atrás influencian el
desarrollo de la serie. Si esta influencia correspondiera exclusivamente a la observación ocurrida
dos períodos atrás el coeficiente a1 resultaría nulo y el término a1 yt carecería de sentido en el
modelo.

Como el modelo puede escribirse: ( 1- L a1 – L2 a2 ) yt = a0 + ε t y dado que en el primer término se


halla, dentro del paréntesis, una ecuación de segundo grado se aprecia a primera vista que este
modelo posee una estructura más complicada que el anterior. Esta apreciación se ve reforzada por
consideraciones analíticas puesto que las raíces que intervienen en la solución de la ecuación de
segundo grado son las que gobiernan el desarrollo del proceso y como se recordará estas
soluciones pueden ser reales o complejas.

En el caso de las soluciones reales la conducta del proceso es, con las consiguientes salvedades,
bastante similar a la del AR (1) pero las raíces complejas incorporan comportamientos distintos.
Como estas raíces están relacionadas con exponenciales, las que pueden expresarse mediante las
funciones seno y coseno que están caracterizadas por desarrollos ondulatorios, cabe esperar que
estos desarrollos estén presentes cuando se analiza un AR (2) cuyas raíces son complejas.

En lo que sigue no se harán demostraciones, simplemente se presentarán algunos resultados y si el


tema lo amerita se efectuarán breves comentarios.

Para que el proceso sea estacionario en forma débil se requiere que: las raíces características del
polinomio ( 1- L a1 – L2 a2 ) se hallen fuera del círculo unitario. Ahora bien, como es más
conveniente expresar esta relación en función de los coeficientes del modelo y recordando la
relación inversa entre las raíces puede escribirse ai < 1 . En este caso i =1,2. Estas condiciones
referidas al círculo unitario implican: 1) a2 < 1 ; 2) a2 - a1 < 1 y 3) a1 + a2 <1.

Puesto que las raíces de la ecuación 1- L a1 – L2 a2 = 0 son:

a1 a 2 + 4a2 a1 a 2 + 4 a2
- + 1 y - - 1 se verifica que si a12 > 4a2 son reales y distintas, si
2a2 2a2 2a2 2 a2

a12 = 4a2 son reales e iguales y si a12 < 4a2 son complejas conjugadas.

Si las raíces son reales la función de autocorrelación decae a medida que aumenta el lag, si las
raíces son complejas posee características sinusoidales, su gráfica es ondulatoria.

La función de autocorrelación parcial presenta dos picos significativos en las dos primeras
autocorrelaciones parciales.

A modo de ejemplo se presentará un modelo AR (2) estacionario con raíces complejas, cuya
ordenada al origen, a0, valga 0 , con perturbaciones normales cuya varianza es: Var (ε t ) = 4. Se
utilizarán 500 observaciones.

Por ejemplo si a0 = 0, a1 = 0,3 y a2 = -0, 5, el modelo es yt = 0,3 yt -1- 0,5 yt -2 + ε t . Se puede


comprobar que se verifican las condiciones de estacionariedad y la ecuación característica es
1 - 0,3 L + 0,5 L2 = 0. Como cumple la condición a12 < 4a2 las raíces serán complejas conjugadas.

Una de esas raíces será: 0,3 + (0,09 - 4.0,5) ½ = 0,3 + 1,38 i donde i representa a la unidad
imaginaria, esto es i = (-1) ½ . La conjugada de esta es: 0,3 – 1,38 i.

Para generar el proceso se efectuaron los siguientes pasos: 1) Se generó la serie alea=2*nrnd, esta
es una serie normal con desvío estándar 2 y varianza 4. 2) se generó la serie y=2. 3) se generó la

serie y=0.3*y(-1)-0.5*y(-2)+alea. Se modificó el tamaño de muestra a 3 500.

El término aleatorio tiene media cero y varianza 4, la instrucción y=2 es la que hace que la serie se
inicie en el valor 2 ya que es el primer valor de la serie.

El gráfico de la serie se presenta más abajo. Una primer ojeada parece mostrar que es estacionario,
que no tiene tendencia ya sea esta creciente o decreciente y que los valores fluctúan en torno a la
media cero. Sin embargo uno no puede confiarse en la vista puesto que lo que uno ve y opina en
consecuencia puede no congeniar con lo que otro ve y lo que a su vez opina sobre lo mismo y si
bien una visión del gráfico es importante, esto no asegura que se cumplan las especificaciones
técnicas comentadas anteriormente, es decir, a partir del gráfico y sobre todo en casos de duda,
uno puede creer que la serie es estacionaria cuando las pruebas estadísticas indican lo contrario.
Y
8

-4

-8

-12
50 100 150 200 250 300 350 400 450 500

En el diagrama gráfico que sigue se pueden observar los estadísticos suministrados por el
Eviews.

Se ve que la media es cero. La varianza del proceso se puede calcular mediante la fórmula:

(1 - a2 )s e2
Var ( yt ) =
(1 + a2 )[(1 - a2 ) 2 - a12 ]

En nuestro ejemplo esta apreciación teórica, resulta 5,56 con un desvío estándar de 2,36.
Fue obtenida reemplazando el valor de los parámetros, a1 = 0,3 y a2 = -0, 5, en la fórmula
precedente y es comparable con el valor suministrado por el Eviews que es 2,52.

50
Series: Y
Sample 1 500
40 Observations 500

Mean -0.009020
30 Median 0.187458
Maximum 6.759619
Minimum -8.899268
20 Std. Dev. 2.524218
Skewness -0.233447
Kurtosis 3.141750
10
Jarque-Bera 4.960066
Probability 0.083740
0
-8 -6 -4 -2 0 2 4 6
En el gráfico siguiente se presentan las autocorrelaciones, las autocorrelaciones parciales y
los estadísticos ya comentados. Se puede apreciar el carácter ondulatorio de la función de
autocorrelación y que la función de autocorrelación parcial presenta solo dos picos
significativos correspondientes a las dos primeras autocorrelaciones. El test de Bartlett
indica que los límites de la zona crítica son ± 0,089; estos valores son superados por las dos
primeras autocorrelaciones parciales. El test Q muestra, por ejemplo, que la primer
autocorrelación es distinta de cero.

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|** | .|** | 1 0.223 0.223 24.903 0.000

***|. | ****|. | 2 -0.472 -0.548 137.09 0.000

**|. | .|. | 3 -0.289 -0.006 179.19 0.000

.|* | .|. | 4 0.160 0.004 192.20 0.000

.|** | .|. | 5 0.216 0.000 215.93 0.000

.|. | .|. | 6 -0.037 -0.036 216.61 0.000

*|. | .|. | 7 -0.175 -0.052 232.25 0.000

*|. | *|. | 8 -0.101 -0.088 237.42 0.000

.|. | .|. | 9 0.049 -0.025 238.67 0.000

.|* | .|. | 10 0.098 -0.006 243.62 0.000

Consideremos ahora el problema inverso. Supongamos que ahora tenemos un conjunto de


datos y queremos indagar si pueden explicarse por su propia historia, es decir queremos
conocer el proceso generador que es una incógnita para nosotros. El primer paso puede ser
graficar los datos e indagar acerca de los estadísticos que describen la serie, cuyos
resultados aparecen en los dos primeros cuadros presentados aquí. Si bien mediante el
gráfico podríamos esperar que la serie fuese estacionaria y el cuadro nos presenta diversos
estadísticos esto no nos proporciona la suficiente información para conocer el pgd.

El próximo paso puede consistir entonces en analizar las correlaciones entre los datos para
obtener alguna información adicional. Esto se puede efectuar considerando el correlograma
con el cual presumiblemente podemos pensar que un AR de orden 2, explique
satisfactoriamente el pgd.

Si efectuamos una regresión mediante MCO utilizando el Eviews, con y como variable dependiente
y como regresores a esta misma variable rezagada uno y dos períodos podríamos tener más
asidero para sustentar nuestra conjetura. Los resultados se presentan seguidamente.

Dependent Variable: Y

Method: Least Squares

Date: 10/29/09 Time: 12:30

Sample (adjusted): 3 500

Included observations: 498 after adjustments

Coefficient Std. Error t-Statistic Prob.

C -0.014699 0.092427 -0.159030 0.8737

Y(-1) 0.343676 0.037563 9.149221 0.0000

Y(-2) -0.549162 0.037559 -14.62122 0.0000

R-squared 0.335977 Mean dependent var -0.017088

Adjusted R-squared 0.333294 S.D. dependent var 2.526066

S.E. of regression 2.062586 Akaike info criterion 4.291804

Sum squared resid 2105.859 Schwarz criterion 4.317169

Log likelihood -1065.659 Hannan-Quinn criter. 4.301759

F-statistic 125.2278 Durbin-Watson stat 2.004616

Prob(F-statistic) 0.000000

El estadístico “t” indica que solo la constante no es significativamente distinta de cero, por
lo que habría que descartarla del modelo, en cambio la muestra presenta evidencias que los
otros parámetros son distintos de cero.

Descartada la constante y efectuada nuevamente la regresión los residuos de la misma se


comportaron como ruido blanco, lo que puede apreciarse en los dos gráficos siguientes.
60
Series: RESID
Sample 1 500
50
Observations 498

40 Mean -0.014699
Median 0.064167
Maximum 5.749982
30 Minimum -6.166241
Std. Dev. 2.058431
20 Skewness -0.160993
Kurtosis 2.902906

10 Jarque-Bera 2.346877
Probability 0.309302
0
-6 -4 -2 0 2 4 6

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|. | .|. | 1 -0.004 -0.004 0.0089 0.925

.|. | .|. | 2 0.002 0.002 0.0109 0.995

.|. | .|. | 3 -0.007 -0.007 0.0355 0.998

.|. | .|. | 4 -0.023 -0.023 0.2963 0.990

.|. | .|. | 5 -0.020 -0.021 0.5058 0.992

.|. | .|. | 6 -0.058 -0.059 2.2373 0.897

.|. | .|. | 7 -0.047 -0.048 3.3753 0.848

.|. | *|. | 8 -0.065 -0.067 5.5241 0.700

.|. | .|. | 9 0.021 0.018 5.7517 0.764

.|. | .|. | 10 -0.035 -0.040 6.3883 0.782

Los estadísticos Q y de Bartlett muestran que no hay autocorrelaciones de los residuos


distintas de cero.

Por último, se efectuó nuevamente la regresión, pero suponiendo que se trata de un AR(3)
es decir se ha incorporado Y(-3) en el cálculo. Se puede observar que los resultados
sugieren que el parámetro correspondiente a Y(-3) no es significativamente distinto de cero,
concordando con el pgd del modelo.

Dependent Variable: Y

Method: Least Squares

Date: 10/29/09 Time: 15:05

Sample (adjusted): 4 500

Included observations: 497 after adjustments

Coefficient Std. Error t-Statistic Prob.

Y(-1) 0.339484 0.045075 7.531512 0.0000

Y(-2) -0.546316 0.040656 -13.43762 0.0000

Y(-3) -0.007903 0.045085 -0.175301 0.8609

R-squared 0.335914 Mean dependent var -0.015744

Adjusted R-squared 0.333225 S.D. dependent var 2.528433

S.E. of regression 2.064624 Akaike info criterion 4.293791

Sum squared resid 2105.760 Schwarz criterion 4.319195

Log likelihood -1064.007 Hannan-Quinn . 4.303762

Durbin-Watson stat 1.995416

2.3. El proceso autoregresivo de orden p.

Un AR(p) puede escribirse como: yt = a0 + a1 yt -1+ a2 yt -2 +…….+ ap yt -p + ε t . Constituye


una extensión de los casos anteriores. Como la ecuación característica es de grado p y dado
que una ecuación de este grado puede tener hasta p raíces, sean estas raíces reales o
complejas, cabe esperar que la función de autocorrelación presente conductas sinusoidales
si las raíces son complejas y un decaimiento exponencial si son reales o una combinación
de ambos comportamientos si los dos casos están presentes. La función de autocorrelación
parcial presenta p picos significativos. Cabe señalar que, habitualmente se requieren
modelos con un corto número de rezagos, por lo general con pocos rezagos alcanza para
analizar series de índole económico financiera.

Este requerimiento de síntesis que es común en los análisis científicos, ha sido denominado
“parsimonia” por los autores G. Box y G. Jenkins en su libro Time Series Analysis
Forecasting and Control, Holden Day 1976, quienes prácticamente estructuraron la
metodología de las series cronológicas a tal punto que a esta se la suele denominar
metodología de Box-Jenkins.

Ejercicios.

1. Empleando el Eviews construya el modelo y t =1 + 0,2 yt -1 + 0,5 yt -2 + ε t . Grafíquelo.


Indique si es estacionario y fundaméntelo. Indique si las raíces son reales o complejas.
Obtenga el correlograma del modelo.

2. Con los datos del ejercicio anterior efectúe 3 regresiones empleando un AR(1), un AR(2)
y un AR(3). Analice los valores t- Student de cada modelo, los otros estadísticos y el
correlograma de los residuos. Compare los resultados y extraiga conclusiones.

2.4. Los modelos de promedios móviles.

Los modelos de promedios móviles o medias móviles representan combinaciones de shocks


aleatorios representados por los ε t cuyas características ya fueron especificadas. En inglés
se denominan moving average y las primeras letras de esta denominación se emplean para
construir su sigla: MA.

El MA (q) puede ser escrito: yt = ε t - b1 ε t -1 - b2 ε t -2 - ….- bq ε t –q . en esta ecuación el signo


menos es solo una cuestión de conveniencia ya que algunos autores utilizan simplemente el
signo de suma. Como por lo general se requieren procesos MA de órdenes bajos solo
consideraremos los de orden 1 y 2.

El MA(1) puede escribirse: yt = ε t - b1 ε t -1 ; si se prefiere se puede agregar una constante


resultando: yt = c + ε t - b1 ε t -1 . El valor medio del proceso sin constante es cero ya que:

E(yt ) = E (ε t - b1 ε t -1 ) = E (ε t ) - b1 E( ε t -1 ) = 0 y si posee la constante su valor es c.


La varianza es: Var (yt ) = Var (ε t ) + b12 Var ( ε t -1 ) = ( 1 + b12 ) σ ε 2 . Esta expresión es
finita siempre puesto que b1 se supone finito y la varianza de las perturbaciones también es
finita. Esto implica que no se requieren condiciones adicionales para que el MA(1) sea
estacionario.

-b1
En el MA (1) la autocorrelación de orden 1 vale: r1 = y vale cero si se trata de una
1 + b12
autocorrelación de orden superior. Es decir la función de autocorrelación presenta un solo
valor distinto de cero.

La función de autocorrelación parcial al igual que la media, la varianza y la autocorrelación


no depende del tiempo y por lo tanto se puede concluir que el MA (1) es un proceso
débilmente estacionario. La identificación de este proceso se puede efectuar como en los
procesos AR observando el correlograma: en el MA (1) la función de autocorrelación
presenta un solo pico y la función de autocorrelación parcial declina exponencialmente,
exactamente al revés de lo que ocurría en el AR.

Como ejemplo se presentará el MA(1): yt = 1 + ε t - 0,4 ε t -1 . Se considerarán 500


observaciones y los shocks aleatorios o perturbaciones del modelo serán elaboradas como
normales con varianza 4.

La construcción reconoce los siguientes pasos: 1) Se genera alea=2*nrnd. 2) Se genera

y=1+alea-0,4*alea(-1) En sample se coloca 2 500.

El gráfico sugiere que se trata de una serie estacionaria. El modelo fue elaborado para que
su media fuera 1 y para que su varianza resultara 4,64 o bien que su desvío estándar fuera
2,15. Estos resultados se pueden obtener aplicando las fórmulas de media y varianza
presentadas más arriba con los valores propuestos para el modelo.
Y
10

-2

-4

-6

-8
50 100 150 200 250 300 350 400 450 500

50
Series: Y
Sample 1 500
40 Observations 499

Mean 1.042765
30 Median 1.029320
Maximum 8.193766
Minimum -5.979475
20 Std. Dev. 2.341380
Skewness 0.140900
Kurtosis 2.964754
10
Jarque-Bera 1.676919
Probability 0.432376
0
-6 -4 -2 0 2 4 6 8

El test de Bartlett indica que los límites de la región crítica para las funciones de
autocorrelación y de autocorrelación parcial con un nivel de significación del 5% con 500
observaciones son: ± 2/ (500)½ = ± 0,0894. Se aprecia que solo la primer autocorrelación
supera a ese nivel y que las autocorrelaciones parciales declinan gradualmente, indicio de
que este proceso puede identificarse como un MA(1).
Autocorrelation Partial Correlation AC PAC Q-Stat Prob

**|. | **|. | 1 -0.332 -0.332 55.202 0.000

*|. | *|. | 2 -0.068 -0.200 57.517 0.000

.|. | *|. | 3 0.028 -0.076 57.912 0.000

.|. | .|. | 4 0.010 -0.023 57.963 0.000

.|. | .|. | 5 -0.005 -0.009 57.978 0.000

.|. | .|. | 6 0.003 0.001 57.984 0.000

*|. | *|. | 7 -0.085 -0.098 61.660 0.000

.|. | *|. | 8 0.011 -0.068 61.727 0.000

.|. | .|. | 9 0.041 -0.005 62.568 0.000

.|. | .|. | 10 0.036 0.054 63.221 0.000

Bajo ciertas condiciones a partir de un modelo MA se puede obtener un modelo AR, en


cuyo caso se dice que el MA es invertible. A modo de ejemplo lo mostraremos para el
MA(1), yt = ε t - b1 ε t -1 .

Se puede escribir: yt = (1- L b1 ) ε t de manera que: ε t = yt / (1- L b1 ). Si se desarrolla esta


última expresión resulta: ε t = yt + b1 yt -1 + b12 yt -2 + …….. Para que esta expresión
converja se requiere que│b1│<1. Se puede apreciar que la condición de invertibilidad de un
modelo MA es similar a la de estacionariedad de un modelo AR.

Cuál es el significado de esto?. Por una parte que si │b 1│<1 el MA (1) es invertible, es
decir se transforma en un AR infinito y esto a su vez indica una síntesis o parsimonia del
modelo MA en el sentido que con los pocos términos (ε t - b1 ε t -1) representa los infinitos
términos del otro. De todos modos, otra interpretación de esto es una comprobación del
problema que representa el azar: el MA representa azar, ruido, lo no explicado, así que
necesito infinitos términos para hallar una “explicación”.

También el AR puede convertirse en un MA infinito. Se ha mostrado en el punto 2.1 cuando


se consideró el AR(1): yt = a1 yt -1 + ε t donde a1 < 1 se podía escribir como:
yt = ε t (1 + a1L + a12 L 2 + ……) = ε t + a 1 ε t-1 + a12 ε t - 2 +…….

Esto significa también que el AR es parsimonioso con respecto al MA ya que con un solo
término explicativo a1 yt -1 cumple lo que al MA le demanda infinitos términos.

El modelo MA(2), si se prescinde de la constante, puede escribirse:

yt = ε t - b1 ε t-1 - b2 ε t - 2

Se comprueba fácilmente que su media es cero y que su varianza es:

Var ( yt ) = (1 + b12 + b22 )s e2

La función de autocorrelación presenta dos picos significativos y la función de


autocorrelación parcial decae exponencialmente. Estas funciones no dependen del tiempo,
sino del rezago que hay entre las variables de manera que el MA(2) es estacionario en
forma débil.

Ejercicios.

1) Genere un MA (2) sin constante con b1 = -0,4 ; b2 = 0,5 y {ε t } ruido blanco normal
con varianza 9. Número de observaciones: 500. Grafique y comente los resultados.

2) Qué condiciones se requieren para que un MA(2) sea invertible?

3) Resultará invertible el proceso del ejercicio 1 ?. Explique.

4) Con los datos obtenidos en el ejercicio 1 estime el modelo mediante el Eviews, obtenga
el correlograma de los residuos y explíquelo con referencia particular a los tests Q y de
Bartlett.

2.5. Los modelos mixtos.


Los modelos mixtos, denominados ARMA se producen por el agregado de un proceso AR y
un proceso MA. Por ejemplo el ARMA ( p, q ) combina un AR ( p) y un MA ( q ) de la
siguiente manera:

yt = a1 yt -1 + a2 yt -2 + …..+ ap yt -p + ε t - b1 ε t-1 - b2 ε t - 2 -…… bq ε t – q

En particular un ARMA (1, 1) resulta: yt = a1 yt -1+ ε t - b1 ε t-1 . En ambos casos, en el


ARMA ( p, q ) como en el ARMA (1, 1 ) se ha prescindido de la constante.

Puesto que un ARMA (1, 1 ) puede escribirse: y t a1 yt -1 = ε t - b1 ε t-1 , o sea: (1 – L a1) yt =


(1 – L b1) εt se ve que las condiciones de estacionariedad dependen del modelo AR y las
condiciones de invertibilidad del modelo MA. Estas condiciones son las mismas que fueron
enunciadas anteriormente.

En los modelos ARMA (1, 1) tanto las funciones de autocorrelación como las de
autocorrelación parcial decaen exponencialmente, pero esta última tiene una forma más
complicada.

A modo de ejemplo se mostrarán los estadísticos y las funciones de autocorrelación que


fueron obtenidas a partir del modelo yt = 0,6 yt -1+ ε t - 0,4 ε t-1 . Los ε t fueron generados
como ruido blanco normal con varianza 1 y se consideraron 500 observaciones. Los
comandos en el Eviews fueron: 1) alea=nrnd. 2) y=0 . 3) y=0.6*y(-1)+alea-0.4alea(-1). En
sample se colocó 2 500.

50
Series: Y
Sample 1 500
40 Observations 500

Mean -0.150129
30 Median -0.156165
Maximum 3.182568
Minimum -2.942601
20 Std. Dev. 1.096396
Skewness 0.033370
Kurtosis 2.785262
10
Jarque-Bera 1.053473
Probability 0.590529
0
-3 -2 -1 0 1 2 3

Puede observarse que las funciones de autocorrelación y de autocorrelación parcial declinan y que
presentan valores significativamente distintos de cero.
Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|* | .|* | 1 0.173 0.173 15.082 0.000

.|* | .|* | 2 0.144 0.118 25.571 0.000

.|. | .|. | 3 0.045 0.002 26.573 0.000

.|. | .|. | 4 0.065 0.043 28.739 0.000

.|. | *|. | 5 -0.062 -0.088 30.690 0.000

.|. | .|. | 6 -0.042 -0.035 31.580 0.000

.|. | .|. | 7 -0.053 -0.026 32.998 0.000

.|. | .|. | 8 0.024 0.049 33.300 0.000

.|. | .|. | 9 0.031 0.043 33.779 0.000

.|. | .|. | 10 0.027 0.009 34.156 0.000

Los datos fueron estimados empleando el Eviews mediante la sucesión de instrucciones


Object New Object Equation. En el cuadro se escribió: y ar(1) ma(1).

Los resultados de la regresión que se consignan más abajo muestran que los coeficientes
son: el autoregresivo 0,64 y el de medias móviles 0,46, comparables con los suministrados
al modelo que fueron 0,60 y 0,40 respectivamente.

Se puede apreciar que los estadísticos t muestran que los coeficientes son
significativamente distintos de cero y que el correlograma de los residuos sugiere que estos
son ruido blanco, es decir no aportan información adicional al modelo. Los valores críticos
de los estadísticos Q y de Bartlett no son superados por las autocorrelaciones estimadas
para ese modelo.

Dependent Variable: Y
Method: Least Squares

Date: 11/01/09 Time: 10:40

Sample (adjusted): 2 500

Included observations: 499 after adjustments

Convergence achieved after 9 iterations

MA Backcast: 1

Coefficient Std. Error t-Statistic Prob.

AR(1) 0.639656 0.137746 4.643742 0.0000

MA(1) -0.463416 0.158423 -2.925173 0.0036

R-squared 0.031650 Mean dependent var -0.150429

Adjusted R-squared 0.029701 S.D. dependent var 1.097475

S.E. of regression 1.081054 Akaike info criterion 2.997751

Sum squared resid 580.8332 Schwarz criterion 3.014635

Log likelihood -745.9388 Hannan-Quinn criter. 3.004377

Durbin-Watson stat 2.027128

Inverted AR Roots .64

Inverted MA Roots .46

La raíz de la ecuación 1-0,639656 L = 0 es L = 1,563340. Su inversa es aproximadamente


0,64. Otro tanto ocurre con la raíz de 1 – 0,463416 L = 0. En este caso L = 2,157888 y la
inversa es aproximadamente 0, 46.

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|. | .|. | 1 -0.024 -0.024 0.2871 0.592


.|. | .|. | 2 0.034 0.033 0.8660 0.649

.|. | .|. | 3 -0.033 -0.031 1.4111 0.703

.|. | .|. | 4 0.044 0.041 2.3673 0.669

*|. | *|. | 5 -0.088 -0.084 6.2638 0.281

.|. | .|. | 6 -0.045 -0.052 7.2740 0.296

.|. | .|. | 7 -0.060 -0.055 9.1260 0.244

.|. | .|. | 8 0.028 0.022 9.5269 0.300

.|. | .|. | 9 0.024 0.034 9.8287 0.365

.|. | .|. | 10 0.015 0.009 9.9476 0.445

Ejercicios.

1. Genere un Arma (2;1) sin constante donde a1 = 0,50; a2 = 0,30 y b1 = 040. Emplee 500
observaciones y ε t ~ N ( 0,1). Muestre los estadísticos y el correlograma.

2. Con los datos del Ejercicio 1 efectúe una regresión utilizando el modelo original Arma
(2,1) y alternativamente los modelos Arma (2,2), AR(3), MA(2). En cada caso halle el
correlograma de los residuos. Comente los resultados.

Hernán Ariel Steinbrun

Enero de 2010

Anda mungkin juga menyukai