Anda di halaman 1dari 25

UNIVERSIDAD NACIONAL DE

TRUJILLO
Facultad de Ciencias Fsicas y
Matemticas
Departamento de Estadstica

El Anlisis Factorial como mtodo de


Validacin de instrumentos
Dr. Luis Alberto Rubio Jcobo
Docente DAE

ANLISIS FACTORIAL
1. Introduccin
2. El proceso del anlisis factorial:
A. Fase de preparacin
B. Extraccin de factores
C. Seleccin del numero de
factores
D. Rotacin de factores
E. Evaluacin y valoracin del
anlisis
3. Esquema de procedimiento con
SPSS
4. Aplicacin

1. INTRODUCCIN
El anlisis factorial es una tcnica
multivariante de reduccin de datos que
sirve para encontrar grupos homogneos
de variables a partir de un conjunto
numero de variables.
Esos grupos homogneos se forman con las
variables que correlacionan mucho entre s
y procurando, inicialmente, que unos
grupos sean independientes de otros.
El anlisis factorial es, por tanto, una
tcnica de reduccin de la dimensionalidad
de los datos.
Su propsito ltimo consiste en buscar el
numero mnimo de dimensiones capaces
de explicar el mximo de informacin
contenida en los datos.
En este anlisis todas las variables del
anlisis cumplen el mismo papel, es decir,
todas son independientes en el sentido de
que no existe a priori una dependencia

X
1

F
1

X
2

X
3

X
4
F
2
X
5

X
6

2. PROCESO DEL ANALISIS FACTORIAL

A. Fase de preparacin
B. Extraccin de factores
C. Seleccin del numero de
factores
D. Rotacin de factores
E. Evaluacin y valoracin
del anlisis

A. Fase de preparacin
Variables:

La seleccin de las variables no


debe ser caprichosa.
Debe
estar
justificada
con
antecedentes
de
anteriores
investigaciones o a razonamientos
tericos.
Las variables debe ser de escala
mtrica para aplicar anlisis
factorial puesto que se opera a
partir
de
una
matriz
de
correlaciones.
Puede extenderse a variables no
Casos:
mtricas utilizando un coeficiente
Se recomienda tener al menos 100 casos para efectuar el AF y
de correlacin adecuado.
nunca menos de 50.
Por lo menos se ha de disponer de un nmero de casos cinco veces
al numero de variables a analizar

continuacin
Examen de la matriz de Correlaciones:

Uno de los requisitos que se deben cumplir para realizar


un Anlisis de factorial es que las correlaciones sean altas
o sean significativas entre las variables. (p<0.05).
Si no fuera as el AF podra no tener sentido.
Por lo tanto, antes de continuar con el AF, es necesario
examinar la matriz de correlaciones .
Este examen puede realizarse de varias formas:

1. Analizar la matriz de correlaciones y ver si son mayores


de 0.5 en algunos casos mayores que 0.3.
2. El determinante de la matriz de correlacin.
3. La prueba de esfericidad de Bartlet
4. El estadstico Kaiser-Meyer-Olkin (KMO)
5. La correlacin anti-imagen
6. El ndice MSA
7. El coeficiente de correlacin mltiple

evaluacin de la Matriz de
Correlaciones
1. Matriz de correlaciones:
Observar ver si son mayores de 0.5 en algunos casos
solamente recomiendan sean mayores que 0.3.
2. El determinante de la matriz de correlacin.
(D 0).
Un determinante muy bajo indica que
correlaciones son muy altas.
3. Test de Esfericidad de Bartlett.
El Test de Esfericidad de Bartlett
se
utiliza
para
someter
a
comprobacin la hiptesis de que
la matriz de correlaciones es la
matriz identidad (Ho: R = I R
=1).
Si una matriz de correlaciones es la
matriz identidad significa que las
intercorrelaciones
entre
las
variables son cero, que indicar
que
el
modelo
factorial
es

las

Donde:
n es el nmero de
individuos de la muestra y
p el de variables que
entran a formar parte de la
matriz de correlaciones.

evaluacin de la Matriz de
Correlaciones
4.
El ndice de KMO de
Kaiser-Meyer-Olkin
La medida de la adecuacin
de la muestra de KMO
(Kaiser-Meyer-Olkin), es un
ndice para comparar las
magnitudes
de
los
coeficientes de correlacin
observados
con
las
magnitudes
de
los
coeficientes de correlacin
parcial.
Contrasta
si
las
correlaciones
parciales
Kaiser
da un baremo de
entre
las
variables
son
evaluacin
de KMO:
pequeas.
Se calcula a
travs de la frmula:

Donde rij es el coeficiente


de correlacin entre las
variables i y j, sij es el
coeficiente
de
correlacin parcial entre
0.90
< KMO 1i y j.Muy bueno
las
variables
0.80 < KMO
0.90
0.70 < KMO
0.80
0.60 < KMO
0.70
0.50 < KMO
0.60
KMO 0.50

Satisfactorio
Mediano
Mediocre
Bajo
Inaceptable

evaluacin de la Matriz de
Correlaciones
5.
Correlacin antiimagen.
La
matriz
de
correlaciones
antiimagen contiene los
negativos
de
los
coeficientes
de
correlacin parcial y la
matriz de covarianza
anti-imagen
contiene
los negativos de las
covarianzas parciales.
En un buen modelo
factorial la mayora de
los
elementos
no
diagonales deben ser
pequeos.
En la diagonal de la
matriz de correlaciones
anti-imagen se muestra

6. Medida de Adecuacin de la
Muestra (MSA).
Una medida de la adecuacin de
la muestra se puede calcular
cada variable de forma similar al
KMO.
En esta prueba solo se incluyen
los
coeficientes
correspondientes a la variable
que se desea comprobar.
La expresin para calcularlo es
la siguiente:
Si MSA es bajo, se desaconseja un anlisis
factorial.
Si los MSA se dan solo en unas cuantas
variables,
se
podra
plantear
la
posibilidad de eliminarlas.
En el paquete estadstico SPSS, el ndice MSA
queda reflejado en la diagonal principal de la
matriz de correlaciones anti-imagen.

evaluacin de la Matriz de
Correlaciones
7.

Correlacin mltiple.
El coeficiente de correlacin mltiple entre cada
una de las variables y todas las dems es un buen
indicador del grado de correlacin; es decir, la
asociacin lineal entre las variables.
Las variables que representan un coeficiente de
correlacin mltiple bajo se podran eliminar del
anlisis.
El coeficiente de correlacin mltiple coincide con
la comunalidad inicial cuando el mtodo de
extraccin de factores no es el de Componentes
principales.

B. Extraccin de factores
Se
pretende
ahora
la
reduccin
de
las
dimensiones consiguiendo
las variables latentes, que
son
transformaciones
matemticas exactas de las
variables
observadas
(componente principales)
o se pueden establecer
inferencias
sobre
la
estructura de las variables
y la fuente de variacin
para su obtencin.
En uno u otro caso los
factores se extraen de
forma
que
sean
independientes entre s,
sean,
ortogonales
o
incorrelacionados.
En principio, existen dos

X
1

X
2

X
3

X
4
F
2
X
5

X
6

Analisis Factorial Confirmatorio:


Es un tipo de anlisis que no
requiere
ninguna
hiptesis
particular
respecto
a
la
estructura que subyace a las
variables.
Se busca la mejor combinacin
lineal de variables que recoja
una mayor parte de la varianza
de los datos.
La primera componente puede
ser considerada como el mejor
resumen de las relaciones
lineales
existentes
en
los
datos.
La segunda componente ser
el segundo mejor resumen con
la condicin de que sea
ortogonal a la primera, y as
sucesivamente.
La solucin de componentes

Facto
r1

Facto
r2

X1

0.694

X2

0.736

X3

0.565

X4

0.590

X5

0.520

X6

0.383

continua:
Una vez que se extraen los
factores aparece la matriz
factorial,
que
da
los
coeficientes que tiene cada
variable en cada factor (las
cargas de cada variable en
cada factor), y stas indican
el peso que cada variable
asigna a cada factor.
Cuando las variables tienen
cargas altas en un factor
significa que estn asociadas
a l.
Cuando hay variables con
ponderaciones altas en un
factor y bajas en todas las
dems se dice que estn
saturadas en ese factor.
Un anlisis factorial cobra
sentido cuando todas las

Facto
r1

Facto
r2

X1

0.694

X2

0.736

X3

0.565

X4

0.590

X5

0.520

X6

0.383

2. Anlisis factorial
exploratorio:
El mtodo exploratorio parte de la
X
distincin de la variabilidad de las
1
variables observadas, y por tanto de
F
la varianza, en dos tipos:
X
1
2
Una parte comn, explicada por
un conjunto de factores comunes
X
3
que afectan a todas las variables.
Bien entendido que no captan
X
4
toda la variabilidad, sino slo la
F
comn.
2
X
Una parte especfica, exclusiva
5
para cada variable y sin relacin
X
con las dems, explicada por
6
factores especficos o nicos que
informan sobre la especificidad o
unicidad
de cada variable.
Son
Aunque
pertenecen
a una misma
familia, el anlisis
factores
confirmatorio
yindependientes
exploratorio no sonytotalmente equivalentes
ortogonales.
y su
distincin a veces se presenta algo confusa.

Otros mtodos
3. MTODO DE EJES
PRINCIPALES (PRINCIPAL
AXIS FACTORING)
Es
parecido
al
de
componentes principales,
pero
supone
un
procedimiento iterativo.
La opcin que se toma es
sustituir la diagonal de las
matrices de correlaciones
por estimaciones de la
comunalidad,
que
para
comenzar
son
los
coeficientes de correlacin
mltiples
al
cuadrado
entre cada variable y las
dems.
ste es el punto de partida
para obtener las cargas
factoriales, se
tienen m

4. MTODO DE LOS MMMOS


CUADRADOS
NO
PONDERADOS
Hace mnima la suma de las
diferencias al cuadrado entre
las matrices de correlacin
reproducida y la observada,
ignorando los elementos de la
diagonal.
MTODO
DE MNIMOS
5.Con
esta condicin
se obtiene
CUADRADOS
un nmero determinado de
GENERALIZADOS
factores.
Opera igual que el anterior
pero
en
este
caso
las
correlaciones se ponderan
inversamente a la unicidad o
especificidad
de
las
variables.
As, las correlaciones entre
variables
con
alta

Otros mtodos
6. MXIMA VEROSIMILITUD
Tambin es un proceso iterativo en el que las
correlaciones estn ponderadas inversamente a la
especificidad.
7. MTODO ALFA
Persigue maximizar el coeficiente de fiabilidad alfa.
Considera los casos como poblacin y las variables como
muestra.
En este caso los valores propios no se obtienen como
8. OTROS
MTODOS
suma de
las cargas factoriales al cuadrado.
Existen otros como el mtodo del centroide (de los ms
antiguos), o el mtodo de la imagen que supone una
regresin mltiple de una variable sobre todas las dems.
Cuando se utilizan mnimos cuadrados o mxima
verosimilitud y se trata de una distribucin normal existe
la posibilidad de recurrir a test de bondad del ajuste del
modelo factorial.

C. Determinacin del nmero de


factores
Una vez realizada la extraccin de los factores, lo siguiente
es determinar su nmero.
Aunque hay algunos criterios tericos para fomentar la
seleccin del nmero de factores o componentes, su validez
es discutida.
Sin embargo, existen diferentes cnterios de naturaleza
1. Fijar a priori un nmero de factores determinado. Tiene
emprica que nos ayudan en la seleccin:
sentido su utilizacin cuando se dispone de informacin
previa del fenmeno en estudio y, por tanto, del nmero de
factores que se espera identificar. Es simple y cmodo.
2. Fijar un porcentaje mnimo de varianza que se quiere
conservar para el anlisis y, en funcin de esto, seleccionar
el nmero de ejes. As, si el nivel mnimo fijado es del 85%
se escoger un nmero j de factores cuya suma, ordenados
de mayor a menor, suponga una cantidad al menos igual al
85%. De esta forma se asegura un porcentaje cierto de
varianza explicada.

... continua
3. Determinar el nmero de factores o componentes que
representen una proporcin dada de la informacin. As,
podemos calcular el cociente 100/p (Siendo p = nmero de
variables observables iniciales) y entonces seleccionar los
factores que expliquen una parte mayor a la que le
correspondera proporcionalmente segn el nmero total de
variables iniciales. Si hubiera 10 variables a cada una le
correspondera por trmino medio un 10%, luego las nuevas
variables latentes o factores seleccionados al menos deben
explicar ese porcentaje.
4. Grfico de sedimentacin o scree plot (test del codo o de
Catell en la versin analtica). Consiste en representar en
abscisas el nmero de factores y en ordenadas el porcentaje
explicado por cada factor, seleccionando factores hasta que
se llegue a uno cuya no consideracin suponga una prdida
de informacin mnima. Normalmente se asemeja a una
montaa en cuyo pie se acumulan los sedimentos, que
forman el codo a partir del cual seleccionar un factor ms

... continua
5. Criteno del valor propio (test de Kaiser), segn el cual se
seleccionan o retienen los factores con valores propios
mayores que l. Tiene su Justificacin en que al tratarse de
variables tipificadas con varianza la unidad, las variables
latentes que se retengan han de explicar al menos lo mismo
que las de partida, es decir, deben tener un auto valor igual
o mayor que l. Con pocas variables resulta un criterio
conservador.
6. Criterio de la fiabilidad por mitades. Consiste en dividir la
muestra en dos partes y proceder a realizar el anlisis por
separado. Se retienen los factores que tengan una gran
correspondencia en muchos casos.

4. ROTACIONES FACTORIALES

El objetivo de la rotacin factorial consiste en


obtener una nueva matriz que sea ms fcilmente
interpretable.
Una
forma
de
conseguirlo
es
intentando
aproximarla al principio de estructura simple.
Segn este principio, la matriz factorial debe reunir
las siguientes caractersticas:
Cada factor debe tener unas cargas altas y las otras
prximas a cero.
Cada variable no debe estar saturada ms que a un
factor;
No deben existir factores con la misma distribucin;
es decir, dos factores distintos deben presentar
distribuciones diferentes de cargas altas y bajas.
El SPSS permite seleccionar el mtodo de rotacin
factorial.
Los mtodos disponibles son: varimax, equamax,

mtodos de rotacin
Hay una variada gama de tipos de rotacin que suele agruparse
en dos grandes bloques: los que mantienen la ortogonalidad o
la incorrelacin entre los ejes (rotacin ortogonal o rgida) y
los que no (rotacin oblicua). Destacamos cuatro mtodos; las
tres primeras son ortogonales:
1. Varimax es uno de los mtodos ms utilizados. Intenta
minimizar el nmero de variables que tienen cargas grandes
en un factor, para lo cual maximiza la suma de varianzas de
las cargas factoriales dentro de cada factor, dejando por
columna cantidades prximas a los 0. Para evitar la excesiva
influencia en la solucin factorial de las variables con mayor
comunalidad,
una
variante.
denominada
Varmax
Normalizada, consiste en dividir por la comunalidad de la
variable correspondiente.
2. Quartmax; mientras que el anterior pretenda simplificar las
columnas este mtodo lo pretende con las filas. La rotacin
se plantea para conseguir que una variable tenga una carga
alta con un factor y baja con los dems. Maximiza la
varianza en la fila de la matriz de cargas factoriales. Esto
hace que tienda a conseguir un factor general con cargas
altas en todas las variables.

Estos tres tipos de rotacin son ortogonales, son ms simples


pero nada garantiza que la realidad mantenga esa
ortogonalidad. La ortogonal es una rotacin aproximada.
4. Rotacin oblicua. A diferencia de las anteriores, los
factores rotan libremente hasta alcanzar la mejor
descrpcin de la estructura de las vanables, pudiendo
estar correlacionados entre s; no se mantiene la
independencia.
La
interpretacin
y
la
posible
generalizacin ha de enfocarse con precaucin para este
tlpo de rotacin, para eVitar llegar a cualquIer solucin. Es
una rotacin que resulta interesante para la identificacin
de constructos sin importar que estn correlaconados,
aunque por otra parte no es fcil una total incorrelacin
entre variables.

3.4. EVALUACIN DEL MODELO


El ltimo paso en el Anlisis factorial es estudiar la
validez del modelo. Dicha validacin debe hacerse
en dos direcciones:
1. Analizando la bondad de ajuste del mismo y la
generalidad de sus conclusiones.
2. A fin de determinar el ajuste del modelo, pueden
estudiarse las diferencias entre las correlaciones
observadas (como se dan en la matriz de
correlacin de entrada) y las correlaciones
reproducidas (como se estiman a partir de la
matriz factorial). Estas diferencias se conocen
como residuos. Si el modelo factorial es
adecuado, entonces estos residuos deben ser
pequeos. Se sabe, adems, que hay ms
estabilidad en los resultados si el nmero de
casos por variable es alto.

ANLISIS FACTORIAL CON SPSS

Para realizar un anlisis factorial, realice los


siguientes pasos:

ANALIZAR REDUCCIN DE DATOS ANLISIS


FACTORIAL y seleccione las variables
y las
1
especificaciones para el anlisis. TABLA
.

APLICACIN:

Realicemos el anlisis FACTORIAL


teniendo en cuenta los siguientes datos.
Realice algunos comentarios adicionales.
Para comenzar partimos de una matriz de
datos y como primeros pasos mostramos
las estadsticas descriptivas y las
correlaciones

Matriz de datos inicial

MUCHAS GRACIAS

Anda mungkin juga menyukai