Anda di halaman 1dari 55

ANALISIS MULTIVARIADO

Las tcnicas multivariadas se pueden clasificar en funcin de la tcnica


obteniendo 2 tipos:

EXPLICATIVAS
Se emplean en contextos de investigacin experimentales. En estas tcnicas
consideramos a las variables independientes como causas potenciales de las
variables dependientes. Su objetivo es contrastar hiptesis relativas.
Aqu podemos distinguir las siguientes tcnicas:
a) Anlisis de regresin mltiple
Intenta predecir el criterio desde el conjunto de predictores mtricos
(expresan magnitud) medidos. Se consigue combinando linealmente los
predictores, es decir, la suma ponderada de los valores de los predictores.
Los pesos de cada variable (ya que cada valor puede tener un peso diferente)
se determinan mediante un proceso de estimacin llamado mnimos cuadrados
que intenta obtener pesos cuya suma de los cuadrados de los errores de
prediccin sea mnima. Esta tcnica se puede usar bajo la condicin de que las
variables estn medidas en una escala de intervalos o de razn (escalares).
b) Anlisis discriminante
Se utiliza en los casos en los que la muestra pueda dividirse en grupos
conocidos de antemano (como variables politmicas y dicotmicas), siempre que
los predictores sean variables escalares.
Sus objetivos son:
Calcular la probabilidad de que los individuos pertenezcan a uno u otro
de los grupos a partir de los predictores

Determinar cuales de las variables predictoras son realmente tiles (ya
que algunos pueden resultar innecesarios)
c) Anlisis multivariado de varianza y covarianza
Podemos distinguir entre los siguientes:
Su objetivo es determinar si una o ms variables independientes
(pueden ser mtricas o no) producen efectos diferentes sobre dos o ms
variables dependientes (deben ser variables mtricas).
Tambin es aplicable en diseos de medidas repetidas (se mide la misma
variable dependiente de forma reiterada).
MANCOVA:
Si en el diseo no se ha podido realizar un control experimental
adecuado. Intenta un control estadstico midiendo variables relacionadas con las
dependientes antes de que se apliquen las independientes a los sujetos
(covariados).
Se basa en asumir que lo que puede ser predicho por los covariados no es
atribuible a las independientes.
d) Anlisis de regresin logstica
Esta tcnica se utiliza cuando las varibles predictoras no son mtricas.
Su objetivo es predecir el grupo al que pertenece un individuo, y para ello trata
de combinar variables predictoras con la ponderacin adecuada. Aunque la
relacin entre la mezcla de variables y la variable predictora no es lineal y la
estimacin de los pesos se realiza por un proceso interactivo denominado
mxima verosimilitud.
e) Ecuaciones lineales estructurales (LISREL)
Utilizada cuando nos centramos en relaciones de prediccin secuenciales.
Se construye un modelo estructural donde se especifica la forma en que estn
relacionadas las variables predictoras y los criterios.
El modelo suele basarse en presupuestos tericos y define qu variables se
van a emplear para cada variable criterio o predictora.
El modelo de medida nos permite determinar cmo cada tarea contribuye a la
medicin de la capacidad de memoria operativa.
DESCRIPTIVAS
Los aplicamos en contextos no experimentales. Su objetivo es resumir el
conjunto de datos conforme nuestros objetivos.
Los tipos de tcnicas descriptivas son los siguientes:
a) Anlisis de datos categricos
Se utiliza cuando queremos medir variables de carcter categrico
(nominal) u ordinal.
Nuestro objetivo es establecer si existe una relacin entre las variables
medidas.
Para analizar la relacin entre variables cualitativas utilizamos el anlisis
de frecuencias de mltiples vas (anlisis log-lineal). Cuando solamente hay dos
variables se mide la asociacin con el estadstico c2, pero cuando el nmero de
variables es mayor de dos, se utiliza el anlisis de tablas de contingencia
mltiples.
El anlisis de datos categricos puede tambin utilizarse por la tcnica de
anlisis por correspondencias. Los objetivos y mtodos son los mismos aunque
realiza una transformacin de los datos no mtricos para obtener datos mtricos
y adquirir las dimensiones subyacentes a los mismos y mapas de representacin
de la cercana de los valores de las variables medidas.
b) Correlacin cannica
Medimos a un grupo de sujetos dos conjuntos de variables y varias
medidas. Se correlacionan combinaciones lineales de las variables de un
conjunto con combinaciones lineales de las variables del otro conjunto.
c) Anlisis de cluster
Esta tcnica consiste en clasificar individuos o variables semejantes
entre s en las variables que hemos medido sin un criterio de clasificacin a
priori. Permite agrupar individuos o variables en funcin de su semejanza.
d) Anlisis factorial y de componentes principales
Su objetivo es reducir los datos a partir de las correlaciones para
encontrar un nmero reducido de factores que los expliquen. En las etapas se
miden las variables, se computan las correlaciones y arreglan en una matriz
para posteriormente extraer los factores (que son combinaciones lineales de
las variables). A veces es necesario rotar para interpretar los resultados de
forma ms efectiva.
e) Anlisis de supervivencia
El inters se centr en establecer el tiempo necesario que ha de
transcurrir para que ocurra algo. Trata de describir la proporcin de casos en
diferentes momentos del tiempo que permanecen en el estudio. A menudo se
emplea ms de un grupo. El anlisis presenta curvas de supervivencia para cada
grupo, aunque tambin es posible realizar pruebas estadsticas para comparar
los grupos.
MARCO TERICO DEL ANLISIS
1- ANALISIS MULTIVARIADO
En el anlisis multivariado se utilizan diferentes enfoques tales como la
simplificacin de la estructura de datos, el cual es una manera simplificada
de representar el universo de estudio, mediante la transformacin
(combinacin lineal o no lineal) de un conjunto de variables
interdependientes en otro conjunto independiente o en un conjunto de
menor dimensin.
Este tipo de anlisis permite ubicar las observaciones dentro de grupos o
bien concluir que los individuos estn dispersos aleatoriamente en el
multiespacio; tambin pueden agruparse variables.
El objetivo es examinar la interdependencia de las variables, la cual abarca
desde la independencia total hasta la colinealidad cuando una de ellas es
combinacin lineal de algunas de las otras o, en trminos an ms
generales, es una funcin f(x) cualquiera de las otras.
Entre los mtodos de anlisis multivariado para detectar la
interdependencia entre variables y tambin entre individuos se incluyen el
anlisis de factores, el anlisis por conglomerados o clusters, el anlisis de
correlacin cannica, el anlisis por componentes principales, el anlisis de
ordenamiento multidimensional, y algunos mtodos no paramtricos. Los
mtodos para detectar dependencia comprenden el anlisis de regresin
multivariado, el anlisis de contingencia mltiple y el anlisis discriminante.
El mtodo de anlisis de componentes principales es uno de los ms
difundidos, permite la estructuracin de un conjunto de datos
multivariados obtenidos de una poblacin.
2.1.1 Definiciones
Para la interpretacin del anlisis de componentes principales se
necesita un conjunto de conceptos necesarios entre los cuales se
encuentran:
Matriz de datos
Se dice que un conjunto de datos constituye una muestra aleatoria
multivariada si cada individuo ha sido extrado al azar de una
poblacin de individuos y en l se han medido u observado una serie
de caractersticas. Sean x(ij) la observacin de la j-esima variable en el
i-simo individuo, x(i) el vector fila que contiene las observaciones de
todas las variables en el i-simo individuo y x(j) el vector columna que
1
1
1
1
]
1


1
1
1
1
]
1


) n ( x
) 1 ( x
x(p) x(1) x
como expresarse puede tambin que nxp dimensin de
) np ( x ) 1 n ( x
) ij ( x
) p 1 ( x ) 11 ( x
)) ij ( x ( x






contiene todas las observaciones de la j-sima variable. Por lo cual se
define una matriz de datos como el arreglo de:
La media muestral de la j-sima variable de una matriz de datos se
define por:
la varianza muestral de la j-sima variable se la define por.
Matriz de varianzas y covarianzas S
Dada una matriz de datos, la varianza muestral de la j-sima variable se la
define por:
:
1
1
1
1
]
1

(p) x
(1) x
x
promedio vector el
ser (j) x los por formado vector el y
x(ij) n / 1 ) j ( x
n
1 i

2
n
1 i
)) j ( x - (x(ij) 1/n ) ij ( s

s covarianza y varianzas de matriz la ser s(jj) los y s(jk) los


de arreglo el por formada matriz la
p ,......., 1 k , j
)) k ( x ) ik ( x ))( j ( x - (x(ij) 1/n ) jk ( s
: por variable sima - k la y
sima - j la entre covarianza la define se y
)) j ( x - (x(ij) 1/n ) ij ( s
n
1 i
2
n
1 i

1
1
1
1
]
1

) pp ( s ) 1 p ( s
) jk ( s
) p 1 ( s ) 11 ( s
S




Matriz de Correlacin R
A partir de los elementos de la matriz S es posible calcular los
elementos de la matriz R, de igual dimensin que S, y cuyos elementos
sean los coeficientes de correlacin entre la j-sima y la k-sima
variable.
Los cuales tambin pueden ser arreglados en una matriz de
correlacin muestral cuya diagonal principal estar formada por
nmeros uno y ser simtrica como la matriz de covarianzas, por
ser r(jk) =r(kj):
La matriz S de covarianza es una manera de expresar la dispersin de
los datos alrededor de la media. Sin embargo, a veces es necesario en
ocasiones encontrar un escalar que sintetice esta dispersin.
2.1.2 El mtodo de Anlisis por componentes principales
) k ( s ) j ( s
) jk ( s
) kk ( s ) ij ( s
) jk ( s
) jk ( r
1
1
1
1
]
1

1 ) pk ( r ) 1 p ( r
1
1
) p 1 ( r 1
R




Los componentes principales es una tcnica multivariada de
interdependencia, en la que se estudian p variables de inters, que
constituyen un vector aleatorio X=(X
1
,X
2
,..............X
p
), posiblemente
normal multivariado ( X -N ( , ) ) o tal vez en el que estas p
variables observables, generarn k variables latentes, k <p, que se
pretende que contengan tanta informacin como sea posible.

Esta tcnica fue descubierta a inicios de siglo 20 por Pearson y luego
formalizada por Hotelling quien fue el primero en formular el anlisis
de componentes principales tal como se ha difundido hasta nuestros
das.
Los objetivos ms importantes de todo anlisis por componentes
principales son:
Generar nuevas variables que puedan expresar la informacin
contenida en el conjunto original de datos.
Reducir la dimensionalidad del problema que se est estudiando
como paso previo para futuro anlisis.
Eliminar, cuando sea posible, algunas de las variables originales
si ellas aportan poca informacin.

Los componentes principales poseen algunas caractersticas
deseables tales como independencia (cuando se asume
multinormalidad ), y en todos los casos no correlacin. Esto significa
que si las variables originales no estn correlacionadas, el anlisis no
ofrece ventaja alguna.
Cada componente principal sintetiza la mxima variabilidad residual
contenida en los datos.
Este anlisis se aplica cuando se dispone de un conjunto de datos
multivariados y no se puede postular, sobre la base de conocimientos
previos del universo en estudio, una estructura particular de las
variables. Cuando se conoce la existencia de una o varias variables
independientes y, por lo tanto, otro conjunto de variables dependientes,
pueden aplicarse las tcnicas de regresin mltiple o las de regresin
multivariada.
El anlisis de componentes principales deber ser aplicado cuando se
desee conocer la relacin entre los elementos de una poblacin y se
sospeche que en dicha relacin influye de manera desconocida un
conjunto de variables o propiedades de los elementos.
2.1.3 Deduccin de los Componentes Principales de una poblacin .

Sea X un vector aleatorio p variado con media y matriz de
varianzas , esto es, X
T
= (X
1
,X
2
,.........X
p
) , suponiendo que adems
los valores propios caractersticos de son :
1

2

3
.........
p
.
Definamos p variables no observadas Y
1
, Y
2
, ........Y
p
como una
combinacin lineal de X
1
,X
2
, ...........X
p
as.
Consideremos la combinacin lineal .
Y
1
=a
t
1
x = a
11
X
1
+ a
12
X
2
+.............................+ a
1p
X
p
Y
2
= a
t
2
x = a
21
X
1
+ a
22
X
2
+..............................+a
2p
X
p
.
.Y
p=
a
p
t
X = a
p1
X
1
+ a
p2
X
2
+...............................a
pp
X
p
de donde obtenemos
Var ( Y
i
) = a
i
t
a
i
i=1,2,.......................p
Cov (Y
i
,Y
k
)= a
i
t
a
k
i,k =1,2,...................p
Las componentes principales Y
1
,Y
2
, .................Y
P
, son combinaciones
lineales no correlacionadas, cuyas varianzas son tan grandes como
sea posible.
La primera componente principal es la combinacin lineal con la
mxima varianza de todas.
a
1
t
X donde Var ( a
T
1
X ) est sujeta a
1
T
a
1
=1
La segunda componente principal es la mxima combinacin lineal
de a
2
T
X donde.
Var (a
2
T
X) est sujeta a a
2
T
a
2
= 1 y Cov (a
1
T
X, a
2
T
X ) = 0
Y en la i-sima componente ser la mxima combinacin lineal de
a
i
T
X donde , Var (a
i
T
X ) est sujeta a,
a
1
T
a
i
=1 y Cov ( a
i
T
X, a
k
T
X) = 0 para k < i
Con la matriz de covarianzas asociada con el vector aleatorio
X
T
=[ X
1
, X
2
, ........., X
p
] obtenemos los pares de los valores
caractersticos y los pares de los vectores caractersticos denotados
como (
1
, e
1
) , (
2
, e
2
) ,.............., (
p
, e
p
) donde
1
>=
2
>=........>=

p
, as podemos mostrar que la i-sima componente principal se
denota como,
Y
i
= e
i
T
X= e
i1
X
1
+ e
i2
X
2
+................+e
ip
X
p
; i= 1,2,..................p
Con esta definicin podemos mostrar la estructura de sus varianzas y
covarianzas como,
Var(Y
i
) = e
i
T
e
i =

i
; i=1,2,............p (Las varianzas de los
componentes principales es igual a los valores propios de )
Cov ( Y
i ,
Y
k
) = e
i
t
e
k
= 0

i k

( Los componentes principales
son variables no correlacionadas ).
Para la covarianza podemos mostrarla como max
a 0
[a
t
a / a
T
a ]=
1
(solo cuando a= e
1
T
e
1
T
e
1
= 1 debido a que los vectores
caractersticos son normalizados tenemos.
max a 0[ a
t
a / a
t
a ]=
1
= e
1
T
e
1
/ e
1
T
e
1
= Var (Y
1
) .
As una notacin para los dems vectores caractersticos se
representa como,
max
a|
e
1,
e
2
,.......,e
k
[a
t
a / a
T
a ] =
k+1
; k=1,2,.....................p-1
Para el caso a = e
k+1
, con e
t
k+1
e
i
= 0 para i = 1,2,..................,k
y
k = 1,2,................., p-1
e
t
k+1
e
k+1
/ e
t
k+1
e
k+1
= e
t
k+1
e
k+1
= Var (Y
k+1
) =
k+1
esto es e
i
t
e
k
= 0 para i k obtenindose Cov ( Y
i
, Y
k
) = 0.
Ahora los vectores propios de son ortogonales y todos los
valores propios
1
,
2
,
3
,..............
p
son distintos. Si los valores
propios no son todos distintos, los vectores propios correspondientes
para los valores propios comunes pueden ser ortogonales.
Aqu para cualquier dos eigenvectores e
i
y e
k
, e
t
i
e
k
= 0 para
i k .
e
k
=
k
e
k
multiplicando por e
t
.
Cov (Y
i
, Y
k
) = e
i
t
e
k
= e
i
t

k
e
k
=
k
e
i
t
e
k
= 0
para i k
Varianza total de la Poblacin
De igual manera se puede probar que :

11
+
22
+ .............+
pp
= Var ( X
1
) + Var ( X
2
) +............+Var ( X
p
)
=
1
+
2
+.......................................+
p
= Var (Y
1
) + Var (Y
2
) +................+Var (Y
p
)
Consecuentemente , la proporcin de la varianza total explicada por
la i sima componente principal es.
El nmero de componentes principales escogidas depender del
porcentaje de varianza que se desee explicar, lo cual este en funcin
del tipo de estudio que se est realizando.
Si la mayor parte de la varianza total de la poblacin ( 80 o 90 % ) para
valores grandes de p , puede ser explicada por una, dos o tres
componentes, entonces, estas pueden reemplazar las p variables
originales sin mucha prdida de informacin, la correlacin entre la i
sima componente principal y la k sima variable de inters est
dada por:
( )
1,2,.....p i
.......
2 1

+ + +

p
i
2.2. Anlisis de Series de Tiempo.
Una serie de tiempo es un conjunto de observaciones hechas en
momentos determinados a intervalos iguales.
Matemticamente una serie de tiempo se define por los valores Y
1
,
Y
2
,.......de una variable Y, en los momentos t
1
, t
2
, .........tn . As Y es una
funcin de t, simbolizada por Y =F(t).
2.2.1 Movimiento Caractersticos de las Series de Tiempo
Se puede considerar el grfico de una serie de tiempo, como un punto
que se mueve con el paso del tiempo, en muchos aspectos anlogos
al movimiento de una partcula bajo la influencia de fuerzas fsicas,
que tambin puede ser debido a la combinacin de fuerzas
econmicas, sociolgicas, psicolgicas u otras.
( )
1,2......p k i,
kk

x
ii
k

ik
, Y
e
i
La experiencia basada en muchos ejemplos de series de tiempo ha
revelado ciertos movimientos o variaciones caractersticas, algunos o
todo de ellos se presentan en diferentes grados.
2.2.1.1Clasificacin de Movimientos
Los movimientos caractersticos de una serie de tiempo pueden
clasificarse en cuatro movimientos llamados a menudo componentes
de una serie de tiempo.
Movimientos seculares o de larga duracin .-Se refiere a la
direccin general que el grfico de una serie de tiempo parece dirigirse
en un intervalo grande de tiempo. Este movimiento circular o variacin
secular o tendencia secular como se llama a veces, se indica por una
curva de tendencia, que aparece a trazos. En algunas series puede ser
apropiada una recta de tendencia. Esta curva de tendencia se la puede
hallar mediante el mtodo de mnimos cuadrados.Como se aprecia en
la figura 2.1 y 2.2

FIGURA 2.1 LINEA DE TENDENCIA
Series Plot
0 100 200 300 400 500
Case
0
100
200
300
400
500
V
A
R(
1)


FIGURA 2.2 MOVIMIENTO DE LARGA DURACIN
Movimientos Cclicos .- o variaciones cclicas, se refieren a las
oscilaciones de larga duracin alrededor de la recta o curva de
tendencia. Estos ciclos, como se llaman a veces pueden ser o no
peridicos, es decir pueden o no seguir caminos anlogos despus de
intervalos de tiempos iguales. En negocios y actividades econmicas,
los movimientos se consideran cclicos solamente si su perodo tiene
un intervalo de tiempo superior a un ao.Ver figura 2.3. Un ejemplo
importante de movimientos cclicos son los llamados asuntos cclicos,
que representan los intervalos de prosperidad, retroceso, depresin y
recuperacin.
FIGURA 2.3 MOVIMIENTOS CCLICOS
Series Plot
0 20 40 60 80
Case
-300000
-200000
-100000
0
100000
200000
300000
400000
VA
R(
1)
Movimientos Estacionales .-o variaciones estacionales se refieren a
las idnticas, o casi idnticos movimientos que una serie de tiempo
parece seguir durante los correspondientes meses de los sucesivos
aos. Tales movimientos se deben a sucesos recurrentes que se
repiten anualmente, la figura 2.4 presenta movimientos estacionales.

FIGURA 2.4 MOVIMIENTOS ESTACIONALES

Movimientos irregulares o al azar .- Se refieren a movimientos
espordicos de las series de tiempo debido a sucesos ocasionales
tales como fenmenos como inundaciones, etc. Normalmente se
supone que tales sucesos producen variaciones que solamente duran
un corto intervalo de tiempo, tambin se concibe que sean tan intensos
que originen un nuevo ciclo u otros movimientos .Ver figura 2.5
FIGURA 2.5 MOVIMIENTOS IRREGULARES
Series
Plot
0 1
0
2
0
3
0
4
0
5
0
6
0
7
0 Cas
e
0
1000
00
2000
00
3000
00
4000
00
V
A
R(
1)
Ser i es Pl ot
0 10 20 30 40 50 60 70
Case
-200000
-100000
0
100000
200000
V
A
R(
1)
El anlisis de las series de tiempo consiste en una investigacin de los
factores, que originan los movimientos de tendencia (T), cclicos (C),
estacionales (S) e irregulares (I), y a menudo se refiere a una
descomposicin de una serie de tiempo en sus movimientos
componentes bsicos.
Y = TCSI ( 1)
Aunque algunos estadsticos consideran a Y como una suma de los
factores
T + C+ S + I de las variables bsicas que lo componen.
2.2.1.2 Estimacin de la tendencia
La estimacin de la tendencia puede conseguirse de varias formas
posibles
1.-El mtodo de los mnimos cuadrados . Se puede utilizar para
hallar la ecuacin de una recta o curva de tendencia adecuada. De
esta ecuacin se pueden calcular los valores de tendencia T .
2.-El mtodo libre , que consiste en ajustar una recta o curva de
tendencia mediante la sola observacin del grfico, puede utilizarse
para estimar T. Sin embargo esto tiene el incoveniente de depender
en gran parte del criterio personal.
3.-El mtodo de promedios mviles.
Movimientos Medios .Suavizacin de Series de Tiempo
Dado un conjunto de nmeros Y
1
,Y
2
, Y
3
,........ se define un
movimiento medio de orden N al que viene dado por por la sucesin
de medias aritmticas.
Y
1
+ Y
2
+...........+Y
n
, Y
2+
Y
3
+.......+Y
N+1
, Y
3
+Y
4
+......+Y
N+2
N N N
Las sumas de los numeradores se llaman movimientos totales de
orden N.
Esta tcnica matemtica consiste en utilizar un promedio para suprimir
las variaciones estadsticas. Al utilizar un promedio mvil como base de
un sistema de estimacin, una consideracin importante es la
seleccin de n, nmero de trminos que incluyen en el promedio.
Cuanto mayor sea n, las estimaciones resultantes quedarn alisadas de
modo ms considerable. Cuando el proceso bsico que produce la
sucesin es relativamente estable, convienen valores grandes de n.
Pero cuando el proceso est sujeto a cambios, es conveniente emplear
un sistema de estimacin que sea ms sensible, o sea, uno en que
influyan ms las variaciones significativas, es decir se utilizan
pequeos valores de n.
En el presente estudio debido a que la produccin de cacao en
nuestro pas est sujeta a la presencia de variaciones cclicas
anuales es conveniente utilizar un promedio mvil con un n
pequeo, como los datos se encuentran en forma anual tomar 2 y 3
aos.
mvil. promedio del trminos del nmero n
mvil. promedio del valor X
trmino. siguiente del estimacin X
trmino. reciente ms o ltimo del nmero i
: ecuaciones estas
X
donde
i
1 i
i

+ + +

+
+

En
n
X ....... X X X
X X

1 n i 2 i 1 i i
i 1 i
El procedimiento del mtodo de promedios mviles puede escribirse en
trminos generales de la siguiente manera:
PRINCIPIO DEL METODO
Consideremos una serie X= [X
t
] admitiendo una descomposicin
aditiva:
X
t
= Z
t
+ S
t
+ u
t
para t=1,.............T
Una fase simple de determinar una de las componentes de esta serie,
por ejemplo la tendencia Z
t,
consiste en aplicar una transformacin
lineal f, que conserva la tendencia y anula las otras componentes . Ms
precisamente notemos X
t
*
, Z
t
*
, S
t
*
, u
t
*
las t
simas
componentes de las
transformadas por f de las series X, S, Z, U; como f es lineal ; nosotros
tenemos: X
*
t
= Z
*
t
+ S
*
t
+ u
*
t
; por otra parte, f anula la estacionaliedad:
S
*
t
=0, la perturbacin : u
*
t
= 0 y conserva la tendencia Z
*
t
= Z
t .
La serie
X
*
transformada de la serie inicial es entonces confundida con la
tendencia.
Toda la dificultad de este mtodo se encuentra evidentemente dentro
de la eleccin de la transformacin f. Las definiciones de diversas
componentes estn muy confusas no se puede razonablemente
esperar constuir una transformacin conservando exactamente la
tendencia y anulando exactamente todas las estacionaliedades y
todas las perturbaciones.Se puede adems tratar de tener estas
propiedades aproximativamente, Z
*
t
# Z
t
, S
*
t
#0, u
*
t
# 0 y exactamente
para ciertas formas particulares de las componentes.
La eleccin de una funcin f no es automtica y debe ser fundamentada
sobre un examen previo de la serie y sobre una modelizacin de sus
diversas componentes. La eleccin de esta funcin debe tambin
permitir de evitar ciertos incovenientes del mtodo de regresin.
Las transformaciones generalmente utilizadas son las medias mviles .
X
*
t
es entonces por definicin una suma ponderada de valores de X
correspondiente a los datos entorno de t:
El nombre de los puntos m
1
+m
2
+1 intervenientes dentro de la
transformacin es llamado orden de la media mvil.
. ,......., m , donde
... ..........
2
2 1 1
1
m
2
i t
*
t
m t 1 1 m m t
m
*
t
X X
X X X


+ + +

+ + +

y m


1
2
1
2 1
m -
1
m
-m i
i
m m - t X
El clculo precedente no tiene evidentemente el sentido cuando .
m
1
+1<= t <= T-m
2
Habr que encontrar otras escrituras para exprimir los valores extremos
X
*
1,
X
*
m1
y X
*
T-m2+1
,..........., X
*
T
en funcin de valores de la serie
inicial . Dentro de un primer tiempo es preferible no tener en cuenta
esta dificultad.
Por esto podemos suponer que la serie observada es indexada por Z;t
vara entonces de menos infinito a ms infinito y no hay valores
extremos.
Definicin
Una media mvil es una aplicacin escrita como una combinacin lineal
finita de poderes positivos y negativos del operador de retardo.
i
m
m i
i
B M
2
1


X ] [ MX X
: escribe se mvil
media la poor da transforma serie la (X serie la er correspond hace
) t , (X serie la en que retardo de operador el B notamos nosotros Si
2
1
m
-m i
j
*
, 1 - t
t
i
B
) Z t


Las medias mviles son frecuentemente centradas tales que m
1
= m
2
= m
. El operador M puede entonces escribirse como:
Los procedimientos fundamentados sobre las medias mviles son
principalmente utilizados para la desestacionalizacin. Habitualmente la
serie es desestionalizada, se comienza por aplicar una media mvil
vista en conservar la tendencia y anular las otras componentes. Se
obtiene asi una primera estimacin de la tendencia y por diferencia con
la serie inicial, de la suma S+u , (esta es ms fcil que a partir de
Z+S+u ) se aplica una media mvil vista a conservar S y anular u .
Sustrayendo la estimacin de S de la serie inicial X, se obtiene un valor
aproximado de Z+u a partir del cual la tendencia deber ser estimada
con mayor precisin que la primera vez y as sucesivamente . Esta
(F) B
: tiene se
.... .......... X (X)
: que tal polinomio el
y B F por definido avanzado operador el F a
....... B [ B
m
m 1 m - m -
1 -
-1
1 m -
m

+ + +

+ + +


+

+
M
X
Notando
] B M
m 2
m 2
m m
. polinomio del los a iguales es, coeficient
sus nte evidenteme y 1 d 1 2m que ya media, esta de orden
el efecto en conoce Se M. centrada media la a caracteriz polinomio
0

+ +
El
aproximacin iteractiva permite la construccin de procedimientos de
desestacionalizacin .
Remarcando que las medias utilizadas anulan la tendencia y conservan
la estacionaliedad, o a la inversa, pero que todas deben eliminar la
perturbacin o al menos reducirla.
2.3 Procesos Estocsticos
El proceso estocstico (p.e) se define como una familia de variables
aleatorias, definidas en un espacio probabilstico ( ,A, P) que
corresponden a momentos sucesivos del tiempo .
Y(t,w) donde t es el tiempo , w e y w es una variable aleatoria.
Notando al proceso y (t,w ) por Y
t
, esto no quiere decir que estamos
fijando la variable aleatoria w.
El anlisis de un proceso estocstico se lo puede hacer de dos formas :
1.-Mediante las funciones de distribucin conjunta .
2.-A partir de los momentos (no de la funcin generadora de
momentos ).
1.-Para t= t
i
la funcin de distribucin de la v.a Y
ti
es F(Y
ti
).
Para t =t
i
y t =t
j
la funcin de distribucin conjunta es F(Yt
i
, Yt
j
) .
En general para un conjunto finito de valores en el tiempo t
1,
t
2
,.........,t
n
la distribucin conjunta es F(Yt
1,
Yt
2, ................
Yt
n
). .
Se dice que un proceso estocstico est perfectamente
caracterizado, cuando se pueden determinar las funciones de
distribucin para cualquier conjunta finito de variables t del proceso,
es decir para cada valor finito de n variables se puede determinar F(Yt
1
,
Yt
2
, .....Yt
n
).
Este procedimiento en s es muy complicado por lo que se acostumbra
a utilizar el mtodo de los momentos.
En una distribucin de probabilidad se pueden calcular momentos de
diversos orden, aunque los ms utilizados son los de 1 y 2 orden.
En un proceso estocstico, la media o momento de 1 orden se define
por :
t
= E(Y
t
).
Como momentos de 2 orden con respecto a la media, adems de la
varianza, se consideran las covarianzas entre variables referidas a
distintos instantes de tiempo (autocovarianzas ).


s , t t
)]
s
Y Y Y Y s t s t,
)( E[( ) Cov(
Si t=s tenemos la varianza .
Var (Y
t
) = E [ (Y
t
-
t
)
2
]
Los Coeficientes de Autocorrelacin se definen por
Para -1= < <=1
Es preferible usar las autocorrelaciones pues estas carecen de
unidades, es decir, son cantidades o medidas relativas a las que no
afectan las unidades de medida. .La caracterizacin de un proceso
estocstico por medio de los momentos de 1 y 2 orden es en principio
ms incompleta que cuando se hace por funciones de distribucin
conjunta. Ahora si el proceso es normal gaussiano este s queda
perfectamente caracterizado a travs de los 2 primeros momentos.
En una serie temporal (s.t ), se dispone de una observacin para cada
perodo de tiempo, por lo que se la puede considerar como una
muestra de tamao 1 tomada en perodos sucesivos de tiempo en un
procesos estocstico, en otras palabras, una serie temporal es una
realizacin de un proceso estocstico.
) ( ) (
) , (
Ys Var Yt Var
Ys Yt Cov

A diferencia de un muestreo aleatorio simple, donde cada extraccin es
independiente a las dems, en una serie temporal el dato extrado para
un perodo completo no ser, en general independiente de los datos
de perodos anteriores, en cambio si se dispone de n datos de una
serie temporal, con ellos hay que estimar n medias y n varianzas, sin
contar las autocovarianzas tal como se plantea el problema, no tiene
solucin. Para poder a partir de una sola realizacin efectuar
inferencias sobre un proceso estocstico, es preciso imponer
restricciones a dicho proceso stas son, que sea estacionario y
ergdico. Se dice que un proceso estocstico es estacionario en
sentido estricto cuando al realizar el mismo desplazamiento en el
tiempo de todas las variables aleatorias de cualquier distribucin
conjunta finita, resulta que la distribucin no vara.

F(Y
t1
, Y
t2
,...........Y
tk
) = F(Y
t1+h
, Y
t2+h
,.............,Y
tk+h
)
Se dice que un proceso estocstico es estacionario de primer orden o
en media si :

t : E [ Y
t
] =
La media permanece constante en el tiempo.
Se dice que un proceso estocstico es estacionario de segundo orden
o en sentido amplio s:
1. - t : Var (Yt ) = E [(Yt - )
2
] =
2
<.
2.- La autocovarianza entre 2 perodos distintos de tiempo viene
afectada nicamente por el lapso de tiempo transcurrido entre estos dos
perodos.
Un proceso estacionario de 2 orden tiene que ser ante todo
estacionario de primer orden, pues no viene afectada por t .
Estacionario en sentido estricto y tiene momentos de 2 orden finito
Estacionario en sentido amplio.
Si el proceso es estacionario en sentido amplio y es normal entonces
es estacionario en sentido estricto.
A ms de la estacionalidad es necesario que el proceso estacionario
sea ergdico.
Si un proceso estocstico es ergdico tenemos que:
] [ Var
] [ Cov Para
] [ Cov
] [ Cov
)] ( ) E[ :
Y
Y Y
Y Y
Y Y
Y
(Y
t
0
t 0, t
0
k
t , k t
k
t k, t
k
t
k t
t

+
+
+
+
0
k
k
lim


En otras palabras el coeficiente de correlacin a la larga se hace cero.
Si para valores altos de k las autocorrelaciones tambin son altas, se
tiene que al aumentar el tamao de la muestra se aade poca
informacin nueva, en consecuencia los estimadores obtenidos no
sern consistentes.
2.3.1 Procesos Lineales
Estos procesos estocsticos en sentido amplio y ergdicos,
consisten en combinaciones lineales de variables aleatorias.
1.-Proceso Puramente Aleatorio
Ruido blanco.

0 ] , [ E . 3
] [ E . 2
0 ] [ E . 1
2 t 1 t
2 2
t
t


1.-
t
media cero ,
donde
t t Y
2.-
t
varianza constante,
3.- no hay correlacin entre instantes diferentes de tiempo , t
1
t
2
2.-Procesos Autoregresivos de orden p : AR(p) .
Y
t
=
1
Y
t-1
+
2
Y
t-2
+...............+
p
Y
t- p
+
t
.
(L) Y
t
=
t
.
con (L) = 1-
1
L -
2
L
2
-................-
P
L
p
.
Para que el proceso sea estacionario se requiere que las races de la
ecuacin (L) =0 estn fuera del circulo unidad.
3.-Procesos de Medias Mviles de orden q : MA(q) .
Y
t
=
t
-
1

t-1
-
2

t-2
- .......................- q
t-q .
Para que un proceso MA(q) sea inversible se requiere que las races
del polinomio : 1 -
1
L -
2
L
2
-.....................-
q
L
q
=0 caigan fuera del
crculo unidad .
Adems se tiene que :
4.-Procesos Arma (p,q )
Es una combinacin de los dos anteriores
Y
t
=
1
Y
t-1
+
2
Y
t-2
+...............+
p
Y
t- p
+t -
1

t
-
1
-
2

t

2
- .................-
q

t-q
2.3.2 MODELO ARIMA
A un proceso integrado Y
t
se le denomina proceso Arima (p, d, q ) si
tomando diferencias de orden d se obtiene un proceso estacionario W
t
del tipo ARMA (p,q ).
Sea Y
t
un modelo original ( no estacionario ), del cual tomando
diferencias de orden d se tiene un modelo estacionario, este modelo
estacionario W
t
del tipo ARMA (p ,q ).
W
t
=
d
Y
t
.
= 1 L
w
t
= ( 1 L )
d
Y
t
(1-
1
L -...........-
p
L
p
) W
t
= (1-
1
L
1
- ...........-
q
L
q
)
t
( 1 -
1
L
1
-..........-
p
L
p
) ( 1 L )
d
Y
t
= ( 1-
1
L
1-...........-

q
L
q
)
t
.

'

>

+ + +
+ + +

+ + + +

q si 0
1,......q si
......... 1
...... -

) ....... 1 (
2
q
2
1
q q
1 1
2
2
q
2
2
2
1
0
Entonces la representacin de un proceso ARIMA ( p, d ,q ) es :
(L )(1 L )
d
Y
t
= ( L )
t
.
Por medio de estos procesos ARIMA, se puede considerar una amplia
clase de series, gracias, a que aplicando transformaciones de tipo no
lineal muchos de ellas pasan a ser representadas por medio de estos
modelos, existen series en las que a lo largo de un perodo extenso de
tiempo la varianza puede estar afectada por una tendencia la cual no
desaparece al tomar diferencias (la idea de un proceso estocstico es
que la varianza no vara y permanece constante ).
Busqueda de un modelo ARIMA
a) Se comienza por buscar a partir de las observaciones, los valores
posibles para (p, d, q ). Esta etapa constituye la fase de
identificacin a priori del modelo. Se requiere de muchos clculos,
y en general no se obtiene una sola tripleta de valores (p, d, q ).
Esto se explica porque un proceso estacionario puede
aproximarse, tanto como se quiera, por un proceso ARMA (p,q)
donde el valor de p puede ser cualquiera.
b)Para cada tripleta obtenida de valores de (p,d,q), se procede a la fase
de estimacin de los coeficientes de los polinomios autoregresivos y
media mvil.
c )Al final de la etapa b se dispone de varios modelos estimados.
Estos pasan entonces por una fase de pruebas estadsticas (test de
significacin para los coeficientes, test concerniente a las no
correlaciones de los ruidos blancos ,etc ), para verificar los resultados
obtenidos con las hiptesis hechas. Esta es la fase de verificacin y
puede resultar que todos los modelos sean rechazados.
d)Puede darse el caso de que varios modelos pasen la fase de
verificacin. En este caso se escoge al modelo que tenga el mayor
poder predictivo o la mayor cantidad de informacin Las etapas c y d
constituyen la fase de identificacin a posteriori, es decir despus de la
estimacin.
2.3.2.1 Identificacin de Modelos Estacionarios
( Determinacin de p y q ).
Para la identificacin de los modelos estacionarios se utilizaron
principalmente la funcin de autocorrelacin estimada (FACE ) y
la funcin de autocorrelacin parcial estimada (FACPE ).
A partir de una muestra los coeficientes de autocorrelacin
estimados, cuya secuencia constituye la FACE, son tiles para
identificar el proceso.
Por otro lado, la funcin de autocorrelacin parcial estimada
(FACPE ), se utiliza para la identifcacin del Modelo ARMA,
segn sea el tamao de la muestra, la identificacin del proceso
generador, pues revierte distinto grado de dificultad.
Por otro lado, la funcin de autocorrelacin parcial estimada
(FACPE ) se utiliza para la identificacin de modelos ARMA
segn sea el tamao de la muestra, la identificacin del proceso
generador puede revertir distinto grado de dificultad.
Por eso tambin se analizar la incidencia del tamao muestral en el
proceso de identificacin.
A partir de una muestra de tamao N de valores de una serie
estacionaria W
t
igual se puede calcular un coeficiente de
autocorrelacin muestral.
FACE

,
_

1
1
]
1

,
_

,
_


N
1 t
2
t
N
1 t
t t
W
W W
W
W W

El proceso original Y
t
se convierte en un proceso estacionario W
t
al
tomar diferencias, en cada diferencia que se toma se pierde una
observacin al comienzo de la serie.
Si para obtener W
t
se ha tomado diferenciaciones, entonces la
muestra original de tamao T se la ha reducido a una muestra de
tamao t - .


es el coeficiente de autocorrelacin terica y por lo tanto

1
,

2
,..........,

constituye la forma grfica de la FACT (funcin de


autocorrelacin terica ) .
) Var( 1.96 ), ( Var (-1.96
son % 95 del confianza de intervalos los , normal mente aproximada es que Puesto

FACE. la de grfica
forma una es que estimado ma correlogra el constituye ........ 1,2,3..... para
de valores de secuencia la y sesgo menor de estimador el es FACE La

2.3.2.2 Funcin de autocorrelacin parcial terica y estimada


A diferencia de los modelos MA , en los AR de cualquier orden , la
funcin de autocorrelacin terica (FACT ) empieza a decrecer a partir
de un determinado retardo , pero nunca se hace cero , por esta razn
es difcil deducir el valor de p para un modelo AR , a partir del
correlograma .
A travs de las ecuaciones de Yule - Walken se pueden calcular los
coeficientes de
i
de un AR (p) a partir de los valores de
i
para i
= 1,2,...........p.
Ahora bien cuando se trabaja con series reales se desconoce p. Si el
sistema anterior se resuelve sucesivamente para un AR (1),
AR(2 ), ......, etc se obtienen los siguientes coeficientes.
AR(1)
11
AR(2)
21

22
AR(3)
31

32

33
1
1
1
1
1
]
1

1
1
1
1
1
]
1

1
1
1
1
]
1

p p
p
p

1
1
1
1
1 1
1
1
1
1
1
AR(4)
p1

p2
.....................................
pp
AR(P11)
p+1,1

p+2,2

p+3,3
.............................
p+1,p+q
Si se toma el ltimo coeficiente de cada uno de los procesos se tiene
la FACPT (funcin de autocorrelacin parcial terica ) , entonces los
coeficientes
11,

22
,
33
,.................,
pp
,
p+1, p+1
constituyen la
FACPT.
Si se supone el orden del modelo AR es p los valores
kk
sern
distintos de cero para k p y sern iguales a cero para k >p.
Si se considera un MA (q), este es equivalente a un AR ( ) y por lo
tanto su FACPT tendr infinitos elementos distintos de cero. En otras
palabras la FACPT de un MA (q) se comporta en forma anloga a la
FACT de un AR(P) y recprocamente.
La funcin de Autocorrelacin Parcial Estimada es el instrumento
emprico prctico que se utiliza para estimar la funcin de
autocorrelacin parcial terica y se puede calcular de dos formas .
1.-Mediante las ecuaciones de Yule - Walker
I
. .........
2
22
.. regresin por obtienen es coeficient . 2
2 1
1
2 1
1
11
t
kk
21
Y
Y Y Y Y
Y Y Y
Y
k t t t
k
t
t t t
t
kk k
se Los

+ + +

33
1
1 2
1 1
2 1
33
32
22
2
1
1
1
1
22
21
11 1
11
1
1
1 31
1
1

1
1
1
1
]
1

1
1
1
1
1
1
]
1

1
1
]
1

1
1
]
1

1
1
1
1
]
1


Independientemente de cmo se lo obtenga se tiene que , si se trata de
un modelo AR (P) el coeficiente
kk
Estar prxima a cero para k
>p puesto que el correspondiente coeficiente terico
kk
es cero.
Para k p ,
kk
tendr un valor significativamente distinto de cero ,
siempre que el tamao de la muestra sea el adecuado .
En un proceso AR(P) los coeficientes de autocorrelacin parcial
tienen aproximacin a u:na distribu cin normal con media cero y
varianza 1.
Es preferible tener una muestra de 50 o 60 observaciones para obtener
estimadores consistentes, aunque el tamao de la muestra depende
del tipo de modelo y de los parmetros p y q.
Modelos AR(p)
En un modelo AR(p) los coeficientes de autocorrelacin
t
presentan un decrecimiento rpido exponencial que puede ser simple o
alternado .
Modelos MA(q)
El comportamiento de estos modelos es inverso al de los modelos
AR(p).
As en un MA(q) la funcin de autocorrelacin FACT se hace cero
para retardos superiores a q.
Por el contrario la FACPT decrece de forma rpida sin llegar a
anularse.
2.3.2.3 Modelos ARMA
Estos modelos son ms difciles de identificar , pues tanto la FACT
como la FACPT tienen un nmero infinito de coeficientes distinto de
cero.
En la FACT los coeficientes
1
, .................,
q
no tienen un patrn
fijo de comportamiento ya que dependen de los valores de los
coeficientes de medias mviles del modelo .
Para > q los coeficientes de

decrecen formando oscilaciones


sinusoidales y/o exponenciales amortiguadas.
La FACPT , los coeficientes
11
,
12
, ..................,
PP
presenta p
valores iniciales sin un patrn fijo de comportamiento seguido de
oscilaciones sinusoidales y/o exponenciales decrecientes.
2.3.2.4 FASE DE VERIFICACION
Las pruebas estadsticas utilizadas en esta fase son de dos tipos:
Las pruebas concernientes a los parmetros a
i
y b
j
de los procesos
autoregresivos y media mvil, respectivamente , del modelo
propuesto ARMA (p,q ) , de la serie diferenciada d veces , y las
pruebas concernientes a las hiptesis de ruidos blancos.
Pruebas concernientes a los parmetros :
Nos interesa saber si es posible disminuir el nmero de
parmetros ; es decir , si disponemos de un modelo ARMA (p,q) ,
queremos ver si es posible formular un modelo ARMA (p-1 , q ) o un
modelo ARMA (p, q-1 ) . Esto quiere decir , que queremos examinar
el nivel de significacin del coeficiente A
p
o de b
q
, para lo que se
utiliza una prueba de tipo student (bajo hiptesis de normalidad de
ruido blanco ).
Sea
p
el estimador de a
p
en la formalizacin ARMA (p,q ) y
V
p
su varianza estimada . Se aceptar con un riesgo de primera
especie del 5 % , la hiptesis de que el modelo es ARMA (p-1 ,
q ) si 1
p
1 / ( V
p
)

< 1.96; de lo contrario se acepta la


modelizacin ARMA (p,q ).
De manera similar se procede para examinar el nivel de significacin
del parmetro b
q
.Tambin se puede efectuar esta prueba para
examinar el nivel de significacin de un parmetro a
p+1
o b
q+1
; no es
conveniente probar la hiptesis de que un modelo sea ARMA(p+1,
q+1 ), o un ARMA (p-1 q-1 ).
Pruebas concernientes al ruido blanco
Se pretende verificar si la serie de residuos .
Es coherente con la hiptesis de que los
t
forman un ruido blanco; es
decir , verificar si los residuos son independientes, centrados, de
varianza
2
y gausianos.
Prueba de Box- Pierre (overcoat )
t
t
X
e
(B)

(B)

El test se basa en que el estadstico :Sigue asintticamente una ley


X
2
con k-p-q grados de libertad bajo la hiptesis de independencia de
s
t
.
Luego, se rechaza la hiptesis de independencia de los ruidos blancos
al nivel , si Q >X
2
1-
[k-p-q]. El nmero k debe ser suficientemente
grande , habitualmente se lo toma entre 15 y 20 . Cuando la hiptesis
se declara inadecuada , se puede utilizar la funcin de autocorrelacin
estimada de los residuos , para ver en que forma se modifica el
modelo.
2. 3.2.5 Uso de los ruidos blancos para modificar el modelo .
Cuando la funcin de autocorrelacin de los ruidos blancos de un
modelo ajustado indica un modelo inadecuado , es necesario
considerar en qu manera el modelo podra ser modificado.
Supongamos que los ruidos blancos B
t
del modelo :
[ ] e Q
h

k
1 h
N
[ ] ) residuos los de , h orden de estimada n correlaci la representa ( e
h

t
0
0
B ) ( ) ( B Z B
t
do


Parecen no verificar las hiptesis de independencia y normalidad
Utilizando las funciones de autocorrelacin y autocorrelacin parcial
estimada de los B
t
y los mtodos explicados anteriormente , podemos
tratar de ajustar un modelo :
para la serie B
t
. Eliminando B
t
de las ecuaciones anteriores llegamos
a plantear un modelo :
que puede ser ajustado nuevamente y verificado.
2.3.2.6 Validacin del modelo
Para que un modelo sea vlido debe cumplir lo siguiente :
t
(B) ) (


t
d
B B
t
t
d do
B B B B
Z

) ( ) ( ) ( ) (
0
0

1.-Los residuos del comportamiento estimado se aproximan al


comportamiento del ruido blanco .
2.-El modelo es estacionario e invertible .
3.-Los coeficientes son estadsticamente significativos que estn
poco correlacionados entre s .
4.-Los coeficientes del modelo son suficiente para representar la
serie .
5.- El grado de ajuste es elevado en comparacin al de otros modelos
alternativos .
Eleccin del modelo
Puede suceder que varios modelos pasen la fase de verificacin . En
este caso existen criterios que no poseen una base terica slida ,
pero son tiles a la hora de realizar una eleccin .
a)Criterio del mayor valor predictivo .
En un modelo ARMA , el error de la previsin al horizonte 1 , es tal que
V[e
t(1)
] =
2.
Se puede entonces proponer escoger el modelo que
conduzca a un error e prediccin pequeo .Diversos criterios son
disponibles :
1.-En este criterio se trata de minimizar .
2.-El coeficiente de determinacin modificado :

donde V, es la varianza emprica de la serie inicial diferenciada d
veces .
3.- El coeficiente de determinacin modificado .
varianza. la de o estimacin
2 1
La
V

- 1
2
2

R
( )
1 /
) /(
- 1
2
2

N V
q p N
R

este coeficiente permite tomar en cuenta los grados de los
polinomioos autoregresivoos y media mvil .
4. El estadstico de Fisher :
En el criterio 2,3 y 4 se trata de maximizar.
2.3.2.7 El PREDICTOR OPTIMO
Se designar por ^Y
T+L/T
al predictor ptimo para el perodo T+L ,
utilizando toda la informacin disponible hasta el perodo T se
supone que:
1) Los parmetros
i y

j
son conocidos .
2) Los ruidos blancos presentes y pasados
t
,
t-1
, .................,
1
,
0
son conocidos .
( )
) /(

/ ) (
2
2
q p N
pq V
F

Y
t+L/T cumple que
E
2
[Y
t+L
- Y
T+l/T
]<= E
2
[ Y
T+L - -
Y
*
T+L/T]
donde Y
*
T+L/T
es otro predictor cualquiera esto significa que el
predictor ptimo tiene un error cuadrtico mnimo .
2
2
1
2
2
2
1 l/T T
2 2 1 1 l
0 j
j l l)/T (T
) ...... 1 ( ) ECM(
es medio cuadrtico error su y
Y
~
por define se ptimo predictor





+
+ +

+ +
+ + + +
+

l
T l t J T
El
.

Anda mungkin juga menyukai