*notas Kline
analiza las ecuaciones para una sola variable endógena cada vez y no asumen ni
normalidad multivariada ni necesitan modelos identificados. Están menos afectados
por los errores de especificación que los métodos simultáneos.
Estiman todos los parámetros libres de una vez pero requieren modelos identificados.
Sus estimaciones son más eficientes pero para ello es necesario que se cumplan
ciertas condiciones.
[ML parte de la idea de que el modelo está correctamente especificado con lo cual
hara lo que sea para forzar el modelo a los datos. Es por esto que se dan los casos
Heywood. Algunos softwares permiten constreñir las varianzas a números positivos
para evitarlos pero lo mejor es verlos y así poder identificar el problema. ]
ML es libre de escala e invariante siempre que se analicen matrices de cov. o datos
originales. Además requiere muestras grandes, observaciones independientes, error
distribuidos normalmente, no missing values con el archivo completo.
Para vv. continuas pero con alejamiento importante de la normalidad: MLR. Problemas
de no usar MLR en este caso p. 239 puntos 1 y 2.
Ajuste local
Efecto indirecto de una variable en otra: multiplicamos los coeficientes de los dos
efectos que lo conforman. 0.390*-0.250=-0.098. Sobel test para buscar sign. de esto.
SEM software suele estimar únicamente un efecto directo (no todas las posibilidades
que existen) efectos directos como suma de ellos e indirectos como producto. Si
existen caminos alternativos (Backdoor criterion)
☺Valid tracing: a variable is not entered through an arrowhead and exited by the
same arrowhead; nor is entered twice in the same tracing.
Calculo de la correlación entre dos variables con caminos distintos: camino 1 (→*→)
+ camino 2 (→*→). Se puede valorar cuanto se parece a la correlación muestral de
estas dos variables y ver si el modelo infra o sobreestima. p. 251-252 <--- esto es
difícil de hacer a mano, apreciando todas las vías etc. por eso usamos software.
OTROS ESTIMADORES
ULS genera estimadores insesgados pero no es tan eficiente como ML. Requiere que
todas las variables observadas estén en la misma escala (el mº no es ni scale free ni
scale invariant) No requiere una matriz de covarianza definida positiva. Robusto
también respecto a los valores de inicio. Se podría incluso utilizar para generar unos
primeros estimadores iniciales que después se utilicen para analizar el mismo modelo
con ML.
GLS es scale free y scale invariant. Se puede utilizar para datos que se alejan
bastante de la normalidad. Si hubiese normalidad multivariada, GLS y ML son
asintóticos.
Los estadísticos de ajuste nunca ofrecen una respuesta si/no sobre si el modelo debe
mantenerse o no. Existen heurísticos y reglas aceptadas pero se debe usar el juicio
propio del investigador al tomar decisiones. Se deben inspeccionar toda la salida del
software incluida la parte de local fit.
- Los estadísticos de ajuste global reflejan el ajuste medio del modelo. Es posible que
algunas partes del modelo ajusten mal, el modelo sea inadecuado pero que el valor
global del estadístico sea bueno. En este caso el modelo sería inadecuado.
- Cada estadístico refleja un aspecto particular del ajuste. No hay un solo estadístico
que dice todo lo que queremos saber del ajuste del modelo.
- Los estadísticos de ajuste global no indican donde está el problema de ajuste ->
necesitamos otros diagnósticos de local fit.
- Los estadísticos de ajuste no dicen nada sobre como de buenos son generando
pronósticos nuestros modelos.
Exact fit hypothesis: no hay diferencia entre las covarianzas pronosticadas por el
modelo, dadas las estimaciones de los parámetros y la covarianza poblacional.
Queremos poder retener la hipótesis nula. Pag. 265 explica sobre tipos de Error y α, β
Resumiendo: no son muy fiables pero son un informe preliminar que debemos tener en
cuenta antes de evaluar el resto de índices.
Índices de ajuste absoluto: como de bien el modelo propuesto explica los datos, sin
otro modelo como punto de referencia. No dice mucho, casi cualquier just-identified
model puede explicar las covarianzas observadas.
Índices de ajuste comparativo: miden la mejora del ajuste del modelo frente a un
modelo base (normalmente el modelo nulo o de independencia, que asume
covarianzas de cero entre las variables endógenas. Distintos softwares utilizan
distintos conceptos de modelo nulo, pág 266, punto 2) El supuesto de covarianzas
cero es poco realista y estos índices siempre mejorarán el ajuste.
Índices de ajuste predictivo: estiman el ajuste del modelo en hipotéticas replicas con
muestras del mismo tamaño y aleatoriamente seleccionadas de la misma población
que la muestra original. Estos índices pueden considerarse basados en la población
más que basados en la muestra. SEM no suele aplicarlos.
Algunos de estos Approximate fit indexes tienen pruebas estadísticas (model test
statistics) esto significa que se basan en los mismo supuestos distribucionales. Si
estos supuestos no se cumplen tanto el índice como el test correspondiente no son
fiables.
Todos los valores aceptables que tenemos hoy en día provienen de estudios de
simulación en el marco de modelo CFA y con errores de especificación pequeños y en
muchos casos con ML y variables continuas, lo que quiere decir que pueden no
generalizarse a otros datos (Categóricos)
Si el modelo pasa el test de Chi, también hay que chequear el ajuste local. La idea es
encontrar discrepancias modelo-datos que aunque no sean grandes como para sign.
estadística, nos hagan dudar del modelo.
3. Reportar los approximate fit indexes pero nunca, nunca justificar la retención del
modelo por sus valores ya que los umbrales (no lo estadísticos en sí) están totalmente
desacreditados. Aún más si el modelo no ha pasado el test chi y hay patrones de
residuos sospechosos. Hay que reportar al menos: RMSEA, CFI y SRMR. (criterio
mixto?)
4. Si se respecifica el modelo, habrá que justificar por qué explicando por ejemplo que
papel han jugado los residuos.
5. Si no se retiene ningún modelo, hay que explicar muy bien las implicaciones que
esto tiene para la teoría que estaba siendo puesta a prueba. Se retenga o no, lo
importante es el proceso y la justificación.
Chi-square: (N-1) FML o solo N FML <- si es igual a cero, el modelo ajusta a los datos
de manera perfecta, suele ocurrir en just-identifed models. (cada covarianza
observada es igual a la predicha) Si el ajuste de un modelo sobre identificado y no
correctamente especificado empeora, el chi aumenta. Estadístico de maldad de ajuste
Cuidado con Chi, es fácil conseguir que ajuste el modelo al añadir parámetros libres
extra al modelo. También se ve afectado por: 1) falta de normalidad multivariada
(puede mejorar o empeorar el ajuste) 2) alta correlación entre variables observadas da
altos valores de Chi para modelos incorrectos, 3) unicidad (varianza única) variables
con ↑ unicidad (posible falta de fiabilidad en las medidas) pueden llevarnos a aceptar
el modelo fácilmente, si no lo aceptamos con ↑ unicidades también debemos
sospechar (en general hay que fijarse de nuevo en local fit) y 4) chi suele aumentar
según aumenta el N, con lo cual es fácil que rechacemos H0 de buen ajuste.
***A pesar de estos problemas, no se debe ignorar el Chi porque nos ha salido mal y a
la vez, aceptar el modelo e interpretar los tests de significación de los parámetros
individuales. No tiene sentido rechazar una cosa y aceptar la otra.
RMSEA: absolute fit index. El cero es el mejor resultado. Premia modelos con muchos
gl o con N grande con valores más bajos. Se basa en el alejamiento del modelo de
ajuste aproximado (no del ajuste perfecto como chi). Es decir que RMSEA nos dice
que las discrepancias no llegan a exceder las del ajuste aproximado pero no las del
ajuste perfecto. El umbral de 0.05 es debatible.
Parece que penaliza modelos pequeños con pocas variables <- tener en cuenta para
interpretación. Breivik y Olsson 2001
CFI: índice de ajuste incremental. Un resultado de 0.90 indica que el ajuste del modelo
propuesto es un 90% mejor que el del modelo base. (version rescalada de RNI).
Similar es TLI/NNFI aunque estos penalizan mucho más la complejidad del modelo
que CFI. Solo debemos reportar uno u otro, son muy parecidos.
Dudas sobre el criterio de CFI ≥0.95 y SRMR ≤ 0.08. Hu & Bentler lo recomiendan
pero las simulaciones no lo apoyan.
Los residuos de las correlaciones son más fáciles de interpretar que los residuos de la
matriz covarianza. Residuos en valor absoluto mayores a 0.10 deben ser tenidos en
cuenta. !! Aunque no es posible relacionar el tamaño de los residuos con el tipo o
grado de falta de especificación del modelo. Es decir un residuo pequeño puede pasar
desapercibido pero estar escondiendo un error de especificación grave, esto es porque
la mala especificación de un modelo afecta a su vez (negativamente) a los valores de
los residuos y de los estadísticos incluidos los de modificación.
Ej. X e Y están conectadas por caminos indirectos en el modelo estructura, RXY > 0 el
residuo para este par es positivo, esto indica que el modelo infrapronostica su
asociación observada. La idea de que no hay efecto directo entre X e Y debe ponerse
en duda y reespecificar añadiendo un efecto directo o una disturbance correlation. El
problema es que el residuo no te puede decir la dirección de las flechas.
El ajuste global del nuevo modelo con el término adicional es estadísticamente mejor
que el del modelo original. El test es univariado, si hubiésemos hecho más cambios y
tuviésemos gl de la diferencia ≥ 2 el test nos diría que los cambios resultan
estadísticamente significativos pero los cambios tomados individualmente pueden
serlo o no, lo más seguro es que al menos uno lo sea, pero podría no serlo.
*Si el Chi calculado es Satorra Bentler, usamos el método de pág.282 (también la web)
Modelos no anidados
AIC (penaliza por complejidad aunque esta penalización es más pequeña a medida
que el N aumenta) y BIC (tiene más en cuenta el N). AIC y BIC sirven para comparar
modelos competidores, al elegir el que menor valor tenga.