1
1
1
1
]
1
) n ( x
) 1 ( x
x(p) x(1) x
como expresarse puede tambin que nxp dimensin de
) np ( x ) 1 n ( x
) ij ( x
) p 1 ( x ) 11 ( x
)) ij ( x ( x
contiene todas las observaciones de la j-sima variable. Por lo cual se
define una matriz de datos como el arreglo de:
La media muestral de la j-sima variable de una matriz de datos se
define por:
la varianza muestral de la j-sima variable se la define por.
Matriz de varianzas y covarianzas S
Dada una matriz de datos, la varianza muestral de la j-sima variable se la
define por:
:
1
1
1
1
]
1
(p) x
(1) x
x
promedio vector el
ser (j) x los por formado vector el y
x(ij) n / 1 ) j ( x
n
1 i
2
n
1 i
)) j ( x - (x(ij) 1/n ) ij ( s
1
1
1
1
]
1
) pp ( s ) 1 p ( s
) jk ( s
) p 1 ( s ) 11 ( s
S
Matriz de Correlacin R
A partir de los elementos de la matriz S es posible calcular los
elementos de la matriz R, de igual dimensin que S, y cuyos elementos
sean los coeficientes de correlacin entre la j-sima y la k-sima
variable.
Los cuales tambin pueden ser arreglados en una matriz de
correlacin muestral cuya diagonal principal estar formada por
nmeros uno y ser simtrica como la matriz de covarianzas, por
ser r(jk) =r(kj):
La matriz S de covarianza es una manera de expresar la dispersin de
los datos alrededor de la media. Sin embargo, a veces es necesario en
ocasiones encontrar un escalar que sintetice esta dispersin.
2.1.2 El mtodo de Anlisis por componentes principales
) k ( s ) j ( s
) jk ( s
) kk ( s ) ij ( s
) jk ( s
) jk ( r
1
1
1
1
]
1
1 ) pk ( r ) 1 p ( r
1
1
) p 1 ( r 1
R
Los componentes principales es una tcnica multivariada de
interdependencia, en la que se estudian p variables de inters, que
constituyen un vector aleatorio X=(X
1
,X
2
,..............X
p
), posiblemente
normal multivariado ( X -N ( , ) ) o tal vez en el que estas p
variables observables, generarn k variables latentes, k <p, que se
pretende que contengan tanta informacin como sea posible.
Esta tcnica fue descubierta a inicios de siglo 20 por Pearson y luego
formalizada por Hotelling quien fue el primero en formular el anlisis
de componentes principales tal como se ha difundido hasta nuestros
das.
Los objetivos ms importantes de todo anlisis por componentes
principales son:
Generar nuevas variables que puedan expresar la informacin
contenida en el conjunto original de datos.
Reducir la dimensionalidad del problema que se est estudiando
como paso previo para futuro anlisis.
Eliminar, cuando sea posible, algunas de las variables originales
si ellas aportan poca informacin.
Los componentes principales poseen algunas caractersticas
deseables tales como independencia (cuando se asume
multinormalidad ), y en todos los casos no correlacin. Esto significa
que si las variables originales no estn correlacionadas, el anlisis no
ofrece ventaja alguna.
Cada componente principal sintetiza la mxima variabilidad residual
contenida en los datos.
Este anlisis se aplica cuando se dispone de un conjunto de datos
multivariados y no se puede postular, sobre la base de conocimientos
previos del universo en estudio, una estructura particular de las
variables. Cuando se conoce la existencia de una o varias variables
independientes y, por lo tanto, otro conjunto de variables dependientes,
pueden aplicarse las tcnicas de regresin mltiple o las de regresin
multivariada.
El anlisis de componentes principales deber ser aplicado cuando se
desee conocer la relacin entre los elementos de una poblacin y se
sospeche que en dicha relacin influye de manera desconocida un
conjunto de variables o propiedades de los elementos.
2.1.3 Deduccin de los Componentes Principales de una poblacin .
Sea X un vector aleatorio p variado con media y matriz de
varianzas , esto es, X
T
= (X
1
,X
2
,.........X
p
) , suponiendo que adems
los valores propios caractersticos de son :
1
2
3
.........
p
.
Definamos p variables no observadas Y
1
, Y
2
, ........Y
p
como una
combinacin lineal de X
1
,X
2
, ...........X
p
as.
Consideremos la combinacin lineal .
Y
1
=a
t
1
x = a
11
X
1
+ a
12
X
2
+.............................+ a
1p
X
p
Y
2
= a
t
2
x = a
21
X
1
+ a
22
X
2
+..............................+a
2p
X
p
.
.Y
p=
a
p
t
X = a
p1
X
1
+ a
p2
X
2
+...............................a
pp
X
p
de donde obtenemos
Var ( Y
i
) = a
i
t
a
i
i=1,2,.......................p
Cov (Y
i
,Y
k
)= a
i
t
a
k
i,k =1,2,...................p
Las componentes principales Y
1
,Y
2
, .................Y
P
, son combinaciones
lineales no correlacionadas, cuyas varianzas son tan grandes como
sea posible.
La primera componente principal es la combinacin lineal con la
mxima varianza de todas.
a
1
t
X donde Var ( a
T
1
X ) est sujeta a
1
T
a
1
=1
La segunda componente principal es la mxima combinacin lineal
de a
2
T
X donde.
Var (a
2
T
X) est sujeta a a
2
T
a
2
= 1 y Cov (a
1
T
X, a
2
T
X ) = 0
Y en la i-sima componente ser la mxima combinacin lineal de
a
i
T
X donde , Var (a
i
T
X ) est sujeta a,
a
1
T
a
i
=1 y Cov ( a
i
T
X, a
k
T
X) = 0 para k < i
Con la matriz de covarianzas asociada con el vector aleatorio
X
T
=[ X
1
, X
2
, ........., X
p
] obtenemos los pares de los valores
caractersticos y los pares de los vectores caractersticos denotados
como (
1
, e
1
) , (
2
, e
2
) ,.............., (
p
, e
p
) donde
1
>=
2
>=........>=
p
, as podemos mostrar que la i-sima componente principal se
denota como,
Y
i
= e
i
T
X= e
i1
X
1
+ e
i2
X
2
+................+e
ip
X
p
; i= 1,2,..................p
Con esta definicin podemos mostrar la estructura de sus varianzas y
covarianzas como,
Var(Y
i
) = e
i
T
e
i =
i
; i=1,2,............p (Las varianzas de los
componentes principales es igual a los valores propios de )
Cov ( Y
i ,
Y
k
) = e
i
t
e
k
= 0
i k
( Los componentes principales
son variables no correlacionadas ).
Para la covarianza podemos mostrarla como max
a 0
[a
t
a / a
T
a ]=
1
(solo cuando a= e
1
T
e
1
T
e
1
= 1 debido a que los vectores
caractersticos son normalizados tenemos.
max a 0[ a
t
a / a
t
a ]=
1
= e
1
T
e
1
/ e
1
T
e
1
= Var (Y
1
) .
As una notacin para los dems vectores caractersticos se
representa como,
max
a|
e
1,
e
2
,.......,e
k
[a
t
a / a
T
a ] =
k+1
; k=1,2,.....................p-1
Para el caso a = e
k+1
, con e
t
k+1
e
i
= 0 para i = 1,2,..................,k
y
k = 1,2,................., p-1
e
t
k+1
e
k+1
/ e
t
k+1
e
k+1
= e
t
k+1
e
k+1
= Var (Y
k+1
) =
k+1
esto es e
i
t
e
k
= 0 para i k obtenindose Cov ( Y
i
, Y
k
) = 0.
Ahora los vectores propios de son ortogonales y todos los
valores propios
1
,
2
,
3
,..............
p
son distintos. Si los valores
propios no son todos distintos, los vectores propios correspondientes
para los valores propios comunes pueden ser ortogonales.
Aqu para cualquier dos eigenvectores e
i
y e
k
, e
t
i
e
k
= 0 para
i k .
e
k
=
k
e
k
multiplicando por e
t
.
Cov (Y
i
, Y
k
) = e
i
t
e
k
= e
i
t
k
e
k
=
k
e
i
t
e
k
= 0
para i k
Varianza total de la Poblacin
De igual manera se puede probar que :
11
+
22
+ .............+
pp
= Var ( X
1
) + Var ( X
2
) +............+Var ( X
p
)
=
1
+
2
+.......................................+
p
= Var (Y
1
) + Var (Y
2
) +................+Var (Y
p
)
Consecuentemente , la proporcin de la varianza total explicada por
la i sima componente principal es.
El nmero de componentes principales escogidas depender del
porcentaje de varianza que se desee explicar, lo cual este en funcin
del tipo de estudio que se est realizando.
Si la mayor parte de la varianza total de la poblacin ( 80 o 90 % ) para
valores grandes de p , puede ser explicada por una, dos o tres
componentes, entonces, estas pueden reemplazar las p variables
originales sin mucha prdida de informacin, la correlacin entre la i
sima componente principal y la k sima variable de inters est
dada por:
( )
1,2,.....p i
.......
2 1
+ + +
p
i
2.2. Anlisis de Series de Tiempo.
Una serie de tiempo es un conjunto de observaciones hechas en
momentos determinados a intervalos iguales.
Matemticamente una serie de tiempo se define por los valores Y
1
,
Y
2
,.......de una variable Y, en los momentos t
1
, t
2
, .........tn . As Y es una
funcin de t, simbolizada por Y =F(t).
2.2.1 Movimiento Caractersticos de las Series de Tiempo
Se puede considerar el grfico de una serie de tiempo, como un punto
que se mueve con el paso del tiempo, en muchos aspectos anlogos
al movimiento de una partcula bajo la influencia de fuerzas fsicas,
que tambin puede ser debido a la combinacin de fuerzas
econmicas, sociolgicas, psicolgicas u otras.
( )
1,2......p k i,
kk
x
ii
k
ik
, Y
e
i
La experiencia basada en muchos ejemplos de series de tiempo ha
revelado ciertos movimientos o variaciones caractersticas, algunos o
todo de ellos se presentan en diferentes grados.
2.2.1.1Clasificacin de Movimientos
Los movimientos caractersticos de una serie de tiempo pueden
clasificarse en cuatro movimientos llamados a menudo componentes
de una serie de tiempo.
Movimientos seculares o de larga duracin .-Se refiere a la
direccin general que el grfico de una serie de tiempo parece dirigirse
en un intervalo grande de tiempo. Este movimiento circular o variacin
secular o tendencia secular como se llama a veces, se indica por una
curva de tendencia, que aparece a trazos. En algunas series puede ser
apropiada una recta de tendencia. Esta curva de tendencia se la puede
hallar mediante el mtodo de mnimos cuadrados.Como se aprecia en
la figura 2.1 y 2.2
FIGURA 2.1 LINEA DE TENDENCIA
Series Plot
0 100 200 300 400 500
Case
0
100
200
300
400
500
V
A
R(
1)
FIGURA 2.2 MOVIMIENTO DE LARGA DURACIN
Movimientos Cclicos .- o variaciones cclicas, se refieren a las
oscilaciones de larga duracin alrededor de la recta o curva de
tendencia. Estos ciclos, como se llaman a veces pueden ser o no
peridicos, es decir pueden o no seguir caminos anlogos despus de
intervalos de tiempos iguales. En negocios y actividades econmicas,
los movimientos se consideran cclicos solamente si su perodo tiene
un intervalo de tiempo superior a un ao.Ver figura 2.3. Un ejemplo
importante de movimientos cclicos son los llamados asuntos cclicos,
que representan los intervalos de prosperidad, retroceso, depresin y
recuperacin.
FIGURA 2.3 MOVIMIENTOS CCLICOS
Series Plot
0 20 40 60 80
Case
-300000
-200000
-100000
0
100000
200000
300000
400000
VA
R(
1)
Movimientos Estacionales .-o variaciones estacionales se refieren a
las idnticas, o casi idnticos movimientos que una serie de tiempo
parece seguir durante los correspondientes meses de los sucesivos
aos. Tales movimientos se deben a sucesos recurrentes que se
repiten anualmente, la figura 2.4 presenta movimientos estacionales.
FIGURA 2.4 MOVIMIENTOS ESTACIONALES
Movimientos irregulares o al azar .- Se refieren a movimientos
espordicos de las series de tiempo debido a sucesos ocasionales
tales como fenmenos como inundaciones, etc. Normalmente se
supone que tales sucesos producen variaciones que solamente duran
un corto intervalo de tiempo, tambin se concibe que sean tan intensos
que originen un nuevo ciclo u otros movimientos .Ver figura 2.5
FIGURA 2.5 MOVIMIENTOS IRREGULARES
Series
Plot
0 1
0
2
0
3
0
4
0
5
0
6
0
7
0 Cas
e
0
1000
00
2000
00
3000
00
4000
00
V
A
R(
1)
Ser i es Pl ot
0 10 20 30 40 50 60 70
Case
-200000
-100000
0
100000
200000
V
A
R(
1)
El anlisis de las series de tiempo consiste en una investigacin de los
factores, que originan los movimientos de tendencia (T), cclicos (C),
estacionales (S) e irregulares (I), y a menudo se refiere a una
descomposicin de una serie de tiempo en sus movimientos
componentes bsicos.
Y = TCSI ( 1)
Aunque algunos estadsticos consideran a Y como una suma de los
factores
T + C+ S + I de las variables bsicas que lo componen.
2.2.1.2 Estimacin de la tendencia
La estimacin de la tendencia puede conseguirse de varias formas
posibles
1.-El mtodo de los mnimos cuadrados . Se puede utilizar para
hallar la ecuacin de una recta o curva de tendencia adecuada. De
esta ecuacin se pueden calcular los valores de tendencia T .
2.-El mtodo libre , que consiste en ajustar una recta o curva de
tendencia mediante la sola observacin del grfico, puede utilizarse
para estimar T. Sin embargo esto tiene el incoveniente de depender
en gran parte del criterio personal.
3.-El mtodo de promedios mviles.
Movimientos Medios .Suavizacin de Series de Tiempo
Dado un conjunto de nmeros Y
1
,Y
2
, Y
3
,........ se define un
movimiento medio de orden N al que viene dado por por la sucesin
de medias aritmticas.
Y
1
+ Y
2
+...........+Y
n
, Y
2+
Y
3
+.......+Y
N+1
, Y
3
+Y
4
+......+Y
N+2
N N N
Las sumas de los numeradores se llaman movimientos totales de
orden N.
Esta tcnica matemtica consiste en utilizar un promedio para suprimir
las variaciones estadsticas. Al utilizar un promedio mvil como base de
un sistema de estimacin, una consideracin importante es la
seleccin de n, nmero de trminos que incluyen en el promedio.
Cuanto mayor sea n, las estimaciones resultantes quedarn alisadas de
modo ms considerable. Cuando el proceso bsico que produce la
sucesin es relativamente estable, convienen valores grandes de n.
Pero cuando el proceso est sujeto a cambios, es conveniente emplear
un sistema de estimacin que sea ms sensible, o sea, uno en que
influyan ms las variaciones significativas, es decir se utilizan
pequeos valores de n.
En el presente estudio debido a que la produccin de cacao en
nuestro pas est sujeta a la presencia de variaciones cclicas
anuales es conveniente utilizar un promedio mvil con un n
pequeo, como los datos se encuentran en forma anual tomar 2 y 3
aos.
mvil. promedio del trminos del nmero n
mvil. promedio del valor X
trmino. siguiente del estimacin X
trmino. reciente ms o ltimo del nmero i
: ecuaciones estas
X
donde
i
1 i
i
+ + +
+
+
En
n
X ....... X X X
X X
1 n i 2 i 1 i i
i 1 i
El procedimiento del mtodo de promedios mviles puede escribirse en
trminos generales de la siguiente manera:
PRINCIPIO DEL METODO
Consideremos una serie X= [X
t
] admitiendo una descomposicin
aditiva:
X
t
= Z
t
+ S
t
+ u
t
para t=1,.............T
Una fase simple de determinar una de las componentes de esta serie,
por ejemplo la tendencia Z
t,
consiste en aplicar una transformacin
lineal f, que conserva la tendencia y anula las otras componentes . Ms
precisamente notemos X
t
*
, Z
t
*
, S
t
*
, u
t
*
las t
simas
componentes de las
transformadas por f de las series X, S, Z, U; como f es lineal ; nosotros
tenemos: X
*
t
= Z
*
t
+ S
*
t
+ u
*
t
; por otra parte, f anula la estacionaliedad:
S
*
t
=0, la perturbacin : u
*
t
= 0 y conserva la tendencia Z
*
t
= Z
t .
La serie
X
*
transformada de la serie inicial es entonces confundida con la
tendencia.
Toda la dificultad de este mtodo se encuentra evidentemente dentro
de la eleccin de la transformacin f. Las definiciones de diversas
componentes estn muy confusas no se puede razonablemente
esperar constuir una transformacin conservando exactamente la
tendencia y anulando exactamente todas las estacionaliedades y
todas las perturbaciones.Se puede adems tratar de tener estas
propiedades aproximativamente, Z
*
t
# Z
t
, S
*
t
#0, u
*
t
# 0 y exactamente
para ciertas formas particulares de las componentes.
La eleccin de una funcin f no es automtica y debe ser fundamentada
sobre un examen previo de la serie y sobre una modelizacin de sus
diversas componentes. La eleccin de esta funcin debe tambin
permitir de evitar ciertos incovenientes del mtodo de regresin.
Las transformaciones generalmente utilizadas son las medias mviles .
X
*
t
es entonces por definicin una suma ponderada de valores de X
correspondiente a los datos entorno de t:
El nombre de los puntos m
1
+m
2
+1 intervenientes dentro de la
transformacin es llamado orden de la media mvil.
. ,......., m , donde
... ..........
2
2 1 1
1
m
2
i t
*
t
m t 1 1 m m t
m
*
t
X X
X X X
+ + +
+ + +
y m
1
2
1
2 1
m -
1
m
-m i
i
m m - t X
El clculo precedente no tiene evidentemente el sentido cuando .
m
1
+1<= t <= T-m
2
Habr que encontrar otras escrituras para exprimir los valores extremos
X
*
1,
X
*
m1
y X
*
T-m2+1
,..........., X
*
T
en funcin de valores de la serie
inicial . Dentro de un primer tiempo es preferible no tener en cuenta
esta dificultad.
Por esto podemos suponer que la serie observada es indexada por Z;t
vara entonces de menos infinito a ms infinito y no hay valores
extremos.
Definicin
Una media mvil es una aplicacin escrita como una combinacin lineal
finita de poderes positivos y negativos del operador de retardo.
i
m
m i
i
B M
2
1
X ] [ MX X
: escribe se mvil
media la poor da transforma serie la (X serie la er correspond hace
) t , (X serie la en que retardo de operador el B notamos nosotros Si
2
1
m
-m i
j
*
, 1 - t
t
i
B
) Z t
Las medias mviles son frecuentemente centradas tales que m
1
= m
2
= m
. El operador M puede entonces escribirse como:
Los procedimientos fundamentados sobre las medias mviles son
principalmente utilizados para la desestacionalizacin. Habitualmente la
serie es desestionalizada, se comienza por aplicar una media mvil
vista en conservar la tendencia y anular las otras componentes. Se
obtiene asi una primera estimacin de la tendencia y por diferencia con
la serie inicial, de la suma S+u , (esta es ms fcil que a partir de
Z+S+u ) se aplica una media mvil vista a conservar S y anular u .
Sustrayendo la estimacin de S de la serie inicial X, se obtiene un valor
aproximado de Z+u a partir del cual la tendencia deber ser estimada
con mayor precisin que la primera vez y as sucesivamente . Esta
(F) B
: tiene se
.... .......... X (X)
: que tal polinomio el
y B F por definido avanzado operador el F a
....... B [ B
m
m 1 m - m -
1 -
-1
1 m -
m
+ + +
+ + +
+
+
M
X
Notando
] B M
m 2
m 2
m m
. polinomio del los a iguales es, coeficient
sus nte evidenteme y 1 d 1 2m que ya media, esta de orden
el efecto en conoce Se M. centrada media la a caracteriz polinomio
0
+ +
El
aproximacin iteractiva permite la construccin de procedimientos de
desestacionalizacin .
Remarcando que las medias utilizadas anulan la tendencia y conservan
la estacionaliedad, o a la inversa, pero que todas deben eliminar la
perturbacin o al menos reducirla.
2.3 Procesos Estocsticos
El proceso estocstico (p.e) se define como una familia de variables
aleatorias, definidas en un espacio probabilstico ( ,A, P) que
corresponden a momentos sucesivos del tiempo .
Y(t,w) donde t es el tiempo , w e y w es una variable aleatoria.
Notando al proceso y (t,w ) por Y
t
, esto no quiere decir que estamos
fijando la variable aleatoria w.
El anlisis de un proceso estocstico se lo puede hacer de dos formas :
1.-Mediante las funciones de distribucin conjunta .
2.-A partir de los momentos (no de la funcin generadora de
momentos ).
1.-Para t= t
i
la funcin de distribucin de la v.a Y
ti
es F(Y
ti
).
Para t =t
i
y t =t
j
la funcin de distribucin conjunta es F(Yt
i
, Yt
j
) .
En general para un conjunto finito de valores en el tiempo t
1,
t
2
,.........,t
n
la distribucin conjunta es F(Yt
1,
Yt
2, ................
Yt
n
). .
Se dice que un proceso estocstico est perfectamente
caracterizado, cuando se pueden determinar las funciones de
distribucin para cualquier conjunta finito de variables t del proceso,
es decir para cada valor finito de n variables se puede determinar F(Yt
1
,
Yt
2
, .....Yt
n
).
Este procedimiento en s es muy complicado por lo que se acostumbra
a utilizar el mtodo de los momentos.
En una distribucin de probabilidad se pueden calcular momentos de
diversos orden, aunque los ms utilizados son los de 1 y 2 orden.
En un proceso estocstico, la media o momento de 1 orden se define
por :
t
= E(Y
t
).
Como momentos de 2 orden con respecto a la media, adems de la
varianza, se consideran las covarianzas entre variables referidas a
distintos instantes de tiempo (autocovarianzas ).
s , t t
)]
s
Y Y Y Y s t s t,
)( E[( ) Cov(
Si t=s tenemos la varianza .
Var (Y
t
) = E [ (Y
t
-
t
)
2
]
Los Coeficientes de Autocorrelacin se definen por
Para -1= < <=1
Es preferible usar las autocorrelaciones pues estas carecen de
unidades, es decir, son cantidades o medidas relativas a las que no
afectan las unidades de medida. .La caracterizacin de un proceso
estocstico por medio de los momentos de 1 y 2 orden es en principio
ms incompleta que cuando se hace por funciones de distribucin
conjunta. Ahora si el proceso es normal gaussiano este s queda
perfectamente caracterizado a travs de los 2 primeros momentos.
En una serie temporal (s.t ), se dispone de una observacin para cada
perodo de tiempo, por lo que se la puede considerar como una
muestra de tamao 1 tomada en perodos sucesivos de tiempo en un
procesos estocstico, en otras palabras, una serie temporal es una
realizacin de un proceso estocstico.
) ( ) (
) , (
Ys Var Yt Var
Ys Yt Cov
A diferencia de un muestreo aleatorio simple, donde cada extraccin es
independiente a las dems, en una serie temporal el dato extrado para
un perodo completo no ser, en general independiente de los datos
de perodos anteriores, en cambio si se dispone de n datos de una
serie temporal, con ellos hay que estimar n medias y n varianzas, sin
contar las autocovarianzas tal como se plantea el problema, no tiene
solucin. Para poder a partir de una sola realizacin efectuar
inferencias sobre un proceso estocstico, es preciso imponer
restricciones a dicho proceso stas son, que sea estacionario y
ergdico. Se dice que un proceso estocstico es estacionario en
sentido estricto cuando al realizar el mismo desplazamiento en el
tiempo de todas las variables aleatorias de cualquier distribucin
conjunta finita, resulta que la distribucin no vara.
F(Y
t1
, Y
t2
,...........Y
tk
) = F(Y
t1+h
, Y
t2+h
,.............,Y
tk+h
)
Se dice que un proceso estocstico es estacionario de primer orden o
en media si :
t : E [ Y
t
] =
La media permanece constante en el tiempo.
Se dice que un proceso estocstico es estacionario de segundo orden
o en sentido amplio s:
1. - t : Var (Yt ) = E [(Yt - )
2
] =
2
<.
2.- La autocovarianza entre 2 perodos distintos de tiempo viene
afectada nicamente por el lapso de tiempo transcurrido entre estos dos
perodos.
Un proceso estacionario de 2 orden tiene que ser ante todo
estacionario de primer orden, pues no viene afectada por t .
Estacionario en sentido estricto y tiene momentos de 2 orden finito
Estacionario en sentido amplio.
Si el proceso es estacionario en sentido amplio y es normal entonces
es estacionario en sentido estricto.
A ms de la estacionalidad es necesario que el proceso estacionario
sea ergdico.
Si un proceso estocstico es ergdico tenemos que:
] [ Var
] [ Cov Para
] [ Cov
] [ Cov
)] ( ) E[ :
Y
Y Y
Y Y
Y Y
Y
(Y
t
0
t 0, t
0
k
t , k t
k
t k, t
k
t
k t
t
+
+
+
+
0
k
k
lim
En otras palabras el coeficiente de correlacin a la larga se hace cero.
Si para valores altos de k las autocorrelaciones tambin son altas, se
tiene que al aumentar el tamao de la muestra se aade poca
informacin nueva, en consecuencia los estimadores obtenidos no
sern consistentes.
2.3.1 Procesos Lineales
Estos procesos estocsticos en sentido amplio y ergdicos,
consisten en combinaciones lineales de variables aleatorias.
1.-Proceso Puramente Aleatorio
Ruido blanco.
0 ] , [ E . 3
] [ E . 2
0 ] [ E . 1
2 t 1 t
2 2
t
t
1.-
t
media cero ,
donde
t t Y
2.-
t
varianza constante,
3.- no hay correlacin entre instantes diferentes de tiempo , t
1
t
2
2.-Procesos Autoregresivos de orden p : AR(p) .
Y
t
=
1
Y
t-1
+
2
Y
t-2
+...............+
p
Y
t- p
+
t
.
(L) Y
t
=
t
.
con (L) = 1-
1
L -
2
L
2
-................-
P
L
p
.
Para que el proceso sea estacionario se requiere que las races de la
ecuacin (L) =0 estn fuera del circulo unidad.
3.-Procesos de Medias Mviles de orden q : MA(q) .
Y
t
=
t
-
1
t-1
-
2
t-2
- .......................- q
t-q .
Para que un proceso MA(q) sea inversible se requiere que las races
del polinomio : 1 -
1
L -
2
L
2
-.....................-
q
L
q
=0 caigan fuera del
crculo unidad .
Adems se tiene que :
4.-Procesos Arma (p,q )
Es una combinacin de los dos anteriores
Y
t
=
1
Y
t-1
+
2
Y
t-2
+...............+
p
Y
t- p
+t -
1
t
-
1
-
2
t
2
- .................-
q
t-q
2.3.2 MODELO ARIMA
A un proceso integrado Y
t
se le denomina proceso Arima (p, d, q ) si
tomando diferencias de orden d se obtiene un proceso estacionario W
t
del tipo ARMA (p,q ).
Sea Y
t
un modelo original ( no estacionario ), del cual tomando
diferencias de orden d se tiene un modelo estacionario, este modelo
estacionario W
t
del tipo ARMA (p ,q ).
W
t
=
d
Y
t
.
= 1 L
w
t
= ( 1 L )
d
Y
t
(1-
1
L -...........-
p
L
p
) W
t
= (1-
1
L
1
- ...........-
q
L
q
)
t
( 1 -
1
L
1
-..........-
p
L
p
) ( 1 L )
d
Y
t
= ( 1-
1
L
1-...........-
q
L
q
)
t
.
'
>
+ + +
+ + +
+ + + +
q si 0
1,......q si
......... 1
...... -
) ....... 1 (
2
q
2
1
q q
1 1
2
2
q
2
2
2
1
0
Entonces la representacin de un proceso ARIMA ( p, d ,q ) es :
(L )(1 L )
d
Y
t
= ( L )
t
.
Por medio de estos procesos ARIMA, se puede considerar una amplia
clase de series, gracias, a que aplicando transformaciones de tipo no
lineal muchos de ellas pasan a ser representadas por medio de estos
modelos, existen series en las que a lo largo de un perodo extenso de
tiempo la varianza puede estar afectada por una tendencia la cual no
desaparece al tomar diferencias (la idea de un proceso estocstico es
que la varianza no vara y permanece constante ).
Busqueda de un modelo ARIMA
a) Se comienza por buscar a partir de las observaciones, los valores
posibles para (p, d, q ). Esta etapa constituye la fase de
identificacin a priori del modelo. Se requiere de muchos clculos,
y en general no se obtiene una sola tripleta de valores (p, d, q ).
Esto se explica porque un proceso estacionario puede
aproximarse, tanto como se quiera, por un proceso ARMA (p,q)
donde el valor de p puede ser cualquiera.
b)Para cada tripleta obtenida de valores de (p,d,q), se procede a la fase
de estimacin de los coeficientes de los polinomios autoregresivos y
media mvil.
c )Al final de la etapa b se dispone de varios modelos estimados.
Estos pasan entonces por una fase de pruebas estadsticas (test de
significacin para los coeficientes, test concerniente a las no
correlaciones de los ruidos blancos ,etc ), para verificar los resultados
obtenidos con las hiptesis hechas. Esta es la fase de verificacin y
puede resultar que todos los modelos sean rechazados.
d)Puede darse el caso de que varios modelos pasen la fase de
verificacin. En este caso se escoge al modelo que tenga el mayor
poder predictivo o la mayor cantidad de informacin Las etapas c y d
constituyen la fase de identificacin a posteriori, es decir despus de la
estimacin.
2.3.2.1 Identificacin de Modelos Estacionarios
( Determinacin de p y q ).
Para la identificacin de los modelos estacionarios se utilizaron
principalmente la funcin de autocorrelacin estimada (FACE ) y
la funcin de autocorrelacin parcial estimada (FACPE ).
A partir de una muestra los coeficientes de autocorrelacin
estimados, cuya secuencia constituye la FACE, son tiles para
identificar el proceso.
Por otro lado, la funcin de autocorrelacin parcial estimada
(FACPE ), se utiliza para la identifcacin del Modelo ARMA,
segn sea el tamao de la muestra, la identificacin del proceso
generador, pues revierte distinto grado de dificultad.
Por otro lado, la funcin de autocorrelacin parcial estimada
(FACPE ) se utiliza para la identificacin de modelos ARMA
segn sea el tamao de la muestra, la identificacin del proceso
generador puede revertir distinto grado de dificultad.
Por eso tambin se analizar la incidencia del tamao muestral en el
proceso de identificacin.
A partir de una muestra de tamao N de valores de una serie
estacionaria W
t
igual se puede calcular un coeficiente de
autocorrelacin muestral.
FACE
,
_
1
1
]
1
,
_
,
_
N
1 t
2
t
N
1 t
t t
W
W W
W
W W
El proceso original Y
t
se convierte en un proceso estacionario W
t
al
tomar diferencias, en cada diferencia que se toma se pierde una
observacin al comienzo de la serie.
Si para obtener W
t
se ha tomado diferenciaciones, entonces la
muestra original de tamao T se la ha reducido a una muestra de
tamao t - .
es el coeficiente de autocorrelacin terica y por lo tanto
1
,
2
,..........,
FACE. la de grfica
forma una es que estimado ma correlogra el constituye ........ 1,2,3..... para
de valores de secuencia la y sesgo menor de estimador el es FACE La
22
AR(3)
31
32
33
1
1
1
1
1
]
1
1
1
1
1
1
]
1
1
1
1
1
]
1
p p
p
p
1
1
1
1
1 1
1
1
1
1
1
AR(4)
p1
p2
.....................................
pp
AR(P11)
p+1,1
p+2,2
p+3,3
.............................
p+1,p+q
Si se toma el ltimo coeficiente de cada uno de los procesos se tiene
la FACPT (funcin de autocorrelacin parcial terica ) , entonces los
coeficientes
11,
22
,
33
,.................,
pp
,
p+1, p+1
constituyen la
FACPT.
Si se supone el orden del modelo AR es p los valores
kk
sern
distintos de cero para k p y sern iguales a cero para k >p.
Si se considera un MA (q), este es equivalente a un AR ( ) y por lo
tanto su FACPT tendr infinitos elementos distintos de cero. En otras
palabras la FACPT de un MA (q) se comporta en forma anloga a la
FACT de un AR(P) y recprocamente.
La funcin de Autocorrelacin Parcial Estimada es el instrumento
emprico prctico que se utiliza para estimar la funcin de
autocorrelacin parcial terica y se puede calcular de dos formas .
1.-Mediante las ecuaciones de Yule - Walker
I
. .........
2
22
.. regresin por obtienen es coeficient . 2
2 1
1
2 1
1
11
t
kk
21
Y
Y Y Y Y
Y Y Y
Y
k t t t
k
t
t t t
t
kk k
se Los
+ + +
33
1
1 2
1 1
2 1
33
32
22
2
1
1
1
1
22
21
11 1
11
1
1
1 31
1
1
1
1
1
1
]
1
1
1
1
1
1
1
]
1
1
1
]
1
1
1
]
1
1
1
1
1
]
1
Independientemente de cmo se lo obtenga se tiene que , si se trata de
un modelo AR (P) el coeficiente
kk
Estar prxima a cero para k
>p puesto que el correspondiente coeficiente terico
kk
es cero.
Para k p ,
kk
tendr un valor significativamente distinto de cero ,
siempre que el tamao de la muestra sea el adecuado .
En un proceso AR(P) los coeficientes de autocorrelacin parcial
tienen aproximacin a u:na distribu cin normal con media cero y
varianza 1.
Es preferible tener una muestra de 50 o 60 observaciones para obtener
estimadores consistentes, aunque el tamao de la muestra depende
del tipo de modelo y de los parmetros p y q.
Modelos AR(p)
En un modelo AR(p) los coeficientes de autocorrelacin
t
presentan un decrecimiento rpido exponencial que puede ser simple o
alternado .
Modelos MA(q)
El comportamiento de estos modelos es inverso al de los modelos
AR(p).
As en un MA(q) la funcin de autocorrelacin FACT se hace cero
para retardos superiores a q.
Por el contrario la FACPT decrece de forma rpida sin llegar a
anularse.
2.3.2.3 Modelos ARMA
Estos modelos son ms difciles de identificar , pues tanto la FACT
como la FACPT tienen un nmero infinito de coeficientes distinto de
cero.
En la FACT los coeficientes
1
, .................,
q
no tienen un patrn
fijo de comportamiento ya que dependen de los valores de los
coeficientes de medias mviles del modelo .
Para > q los coeficientes de
(B)
k
1 h
N
[ ] ) residuos los de , h orden de estimada n correlaci la representa ( e
h
t
0
0
B ) ( ) ( B Z B
t
do
Parecen no verificar las hiptesis de independencia y normalidad
Utilizando las funciones de autocorrelacin y autocorrelacin parcial
estimada de los B
t
y los mtodos explicados anteriormente , podemos
tratar de ajustar un modelo :
para la serie B
t
. Eliminando B
t
de las ecuaciones anteriores llegamos
a plantear un modelo :
que puede ser ajustado nuevamente y verificado.
2.3.2.6 Validacin del modelo
Para que un modelo sea vlido debe cumplir lo siguiente :
t
(B) ) (
t
d
B B
t
t
d do
B B B B
Z
) ( ) ( ) ( ) (
0
0
- 1
2
2
R
( )
1 /
) /(
- 1
2
2
N V
q p N
R
este coeficiente permite tomar en cuenta los grados de los
polinomioos autoregresivoos y media mvil .
4. El estadstico de Fisher :
En el criterio 2,3 y 4 se trata de maximizar.
2.3.2.7 El PREDICTOR OPTIMO
Se designar por ^Y
T+L/T
al predictor ptimo para el perodo T+L ,
utilizando toda la informacin disponible hasta el perodo T se
supone que:
1) Los parmetros
i y
j
son conocidos .
2) Los ruidos blancos presentes y pasados
t
,
t-1
, .................,
1
,
0
son conocidos .
( )
) /(
/ ) (
2
2
q p N
pq V
F
Y
t+L/T cumple que
E
2
[Y
t+L
- Y
T+l/T
]<= E
2
[ Y
T+L - -
Y
*
T+L/T]
donde Y
*
T+L/T
es otro predictor cualquiera esto significa que el
predictor ptimo tiene un error cuadrtico mnimo .
2
2
1
2
2
2
1 l/T T
2 2 1 1 l
0 j
j l l)/T (T
) ...... 1 ( ) ECM(
es medio cuadrtico error su y
Y
~
por define se ptimo predictor
+
+ +
+ +
+ + + +
+
l
T l t J T
El
.