Anda di halaman 1dari 2

Análisis de Datos en Investigación Psicológica

TEMA 9: ANÁLISIS DE REGRESIÓN LINEAL

Dentro del análisis de regresión lineal tenemos:


 Simple: 1 variable dependiente o respuesta (cuantitativa) y 1 variable independiente o predictora
(cuantitativa o categórica)
 Múltiple: una variable dependiente o respuesta (cuantitativa) y 2 o más variables independientes o
predictoras (cuantitativa o categórica)
 Modelo lineal: valora el impacto individual y colectivo de las variables independientes sobre la variable
dependiente, es decir, cuál es el efecto de una de las variables y de las dos juntas sobre la otra.
También efectúa un pronóstico sobre la variable dependiente, con el que vamos a poder estimar los
cambios en la variable dependiente. Tendremos estrategias que nos informarán sobre la calidad del
modelo creado y cómo mejorarlo.

1. Análisis de regresión lineal simple


El objetivo será pronosticar y explicar una variable dependiente (Y) (cuantitativa), a partir de la otra (X) (VI
cat o cuant).

I. Lo primero que tendré que hacer es ver si las variables están


relacionadas. Esto lo haré con un diagrama de dispersión.
II. Averiguar la intensidad de la relación: Correlación de Pearson

III. Cuando ya se que existe relación y cuan de intensa es, tengo que Correlación mas o menos
obtener una recta de regresión. Para ello elaboraré una ecuación de fuerte
regresión de Y sobre X.
Pendiente: grado de inclinación de la recta
Intersección: punto que vale y cuando x=0. A
partir de este punto comienza la recta de
regresión.
Pronóstico: lo que intentamos averiguar.

IV. Para poder quedarnos con la mejor recta, que mejor represente nuestra nube de puntos, usaremos
los mínimos cuadráticos. Se trata de un criterio para elegir recta, que suma los cuadrados de las
distancias verticales entre cada punto y la recta.
 Residuos: errores de predicción. Cada una de las distancias a la recta de regresión escogida.
 Cuanto menor sea el valor de este criterio, mejor será la recta.

V. Una vez que tenemos la recta escogida, podemos ver cómo de buena es con la Bondad de ajuste,
que lo que hace es cuantificar el tamaño de los residuos (errores que he cometido).
 Proporción de varianza de Y no explicada por la regresión: todos los puntos dispersos que no
entran dentro de la recta.
 Proporción de varianza Y explicada por la regresión: cómo de bien he ajustado la recta creada.
Análisis de Datos en Investigación Psicológica

Se lleva a cabo con el coeficiente de correlación de Pearson al cuadrado R2 (0-1) o coeficiente de


determinación. Esto me indica:
 La proporción de reducción de los errores de predicción, es decir, en que grado he conseguido
reducir los errores de predicción
 La proporción de varianza común explicada: he conseguido explicar el x% de la variable.

2. Análisis de regresión lineal múltiple


Tendré una variable dependiente cuantitativa y 2 o más variables independientes cuantitativas o
categóricas. Intentaremos explicar en qué medida sirven las variables independientes (X) para explicar o
pronosticar la dependiente (Y)
Para poder determinar si existe relación lineal con las variables de mi estudio, tendré que observar el gráfico
de dispersión parcial.

I. Tendré que obtener la ecuación de regresión múltiple:


Ŷ= B0 + B1X1+ B2X2+...+BpXp tantos como variables haya introducido en el estudio.

Me va a permitir conocer la importancia relativa de las variables:


 Coeficientes de regresión tipificados (β): la que más contribuye al cambio esperado en Y: de todas las
variable introducidas en mi estudio, cuáles de ellas me explican los cambios en Y. Cuanto mayor es el
coeficiente, mayor es el cambio esperado en Y asociado al cambio en X.
 Cuadrado del coeficiente de la correlación semiparcial: la que más contribuye al ajuste global
 Coeficiente de correlación múltiple: la cantidad que aumenta la proporción de varianza explicada al
incorporar X2 a una ecuación que ya contiene X1, es decir, cómo aumenta mi grado de explicación de Y
cuando meto más variables.

Principios de un modelo estadístico:


 Principio de parsimonia: con un menos número de variables posibles
 Principio de máximo ajuste: poder dar la mayor explicación posible de la variable dependiente.

Supuestos del modelo, tanto para el simple como para el múltiple.


 Linealidad: cambio constante en Y de tamaño B cada vez que aumenta una unidad X, es decir, que la
relación entre las variables sea lineal. Cuando no se cumple este supuesto, pero aún así llevamos a
cabo este modelo, cometeremos un error de especificación.
 Colinealidad: altas correlaciones entre las variable independientes. Si hay colinealidad, no puedo
realizar un análisis de regresión lineal, ya que tengo unas variables independientes que explican casi
lo mismo de la variable dependiente. Para poder realizar un análisis de regresión lineal, necesito que
la tolerancia (T) sea mayor de 0,10 y los valores de FIV por debajo de 10.
 Independencia de los residuos (errores de predicción): el estadístico de Durbin-Watson toma 2
cuando los residuos son completamente independientes. Tendré que tener este estadístico entre 1,5
y 2,5 para considerar que tengo independencia
 Normalidad de los residuos: cuanto más cerca estén los puntos dispersos de la recta, más podré
asumir normalidad. Lo observaré con los gráficos de regresión