Anda di halaman 1dari 5

Residuales Un residual i r es la diferencia entre el valor observado i Y y el valor estimado por la linea de regresin Yi , es decir, i i i r = Y -Y .

El residual puede ser considerado como el error aleatorio i e observado. Tambin se acostumbra usar el Residual estandarizado, el cual se obtiene al dividir el residual entre la desviacin estndar del residual (siempre que hagamos anlisis de residuales debemos utilizar Residual estandarizado), y el Residual estudentizado "deleted", que es similar al anterior pero eliminando de los clculos la observacin cuyo residual se desea hallar. El anlisis de residuales permite cotejar si las suposiciones del modelo de regresin se cumplen. Se puede detectar: a) Si efectivamente la relacin entre las variables X e Y es lineal. b) Si hay normalidad de los errores. c) Si hay valores anormales en la distribucin de errores (Si se usa Residual estandarizado, cualquier observacin con un residual mayor de 2 o menor de 2 es considerado outlier) d) Si hay varianza constante (propiedad de Homocedasticidad) y e) Si hay independencia de los errores. El anlisis de residuales se puede llevar a cabo grficamente o en forma analtica.

Regresin lineal

En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modeliza la relacin entre una variable dependiente Y, las variables independientes Xi y un trmino aleatorio . Este modelo puede ser expresado como:

: variable dependiente, explicada o regresando. : variables explicativas, independientes o regresores. : parmetros, miden la influencia que las variables explicativas tienen sobre el regresando. donde es la interseccin o trmino "constante", las son los parmetros respectivos a cada variable independiente, y es el nmero de parmetros independientes a tener en cuenta en la regresin. La regresin lineal puede ser contrastada con la regresin no lineal.

El modelo de regresin lineal

El modelo lineal relaciona la variable dependiente Y con K variables explicativas (k = 1,...K), o cualquier transformacin de stas, que generan un hiperplano de parmetros desconocidos: (2) donde es la perturbacin aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carcter estocstico. En el caso ms sencillo, con una sola variable explicativa, el hiperplano es una recta: (3) El problema de la regresin consiste en elegir unos valores determinados para los parmetros desconocidos , de modo que la ecuacin quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observacin cualquiera i-sima (i= 1,... I) se registra el comportamiento simultneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables). (4) Los valores escogidos como estimadores de los parmetros, , son los coeficientes de regresin, sin que se pueda garantizar que coinciden con parmetros reales del proceso generador. Por tanto, en (5) Los valores son por su parte estimaciones de la perturbacin aleatoria o errores.

Supuestos del modelo de regresin lineal Para poder crear un modelo de regresin lineal, es necesario que se cumpla con los siguientes supuestos:3 1. 2. 3. 4. La relacin entre las variables es lineal. Los errores en la medicin de las variables explicativas son independientes entre s. Los errores tienen varianza constante. (Homocedasticidad) Los errores tienen una esperanza matemtica igual a cero (los errores de una misma magnitud y distinto signo son equiprobables). 5. El error total es la suma de todos los errores.

Anlisis de la Varianza (Anova) El anlisis de la varianza (o Anova: Analysis of variance) es un mtodo para comparar dos o ms medias. Es necesario porque cuando se quiere comparar ms de dos medias es incorrecto utilizar repetidamente el contraste basado en la t de Student.

En resumen, el anlisis de varianza sirve para comparar si los valores de un conjunto de datos numricos son significativamente distintos a los valores de otro o ms conjuntos de datos. El mtodo para comparar estos valores est basado en la varianza global observada en los grupos de datos numricos a comparar. Tpicamente, el anlisis de varianza se utiliza para asociar una probabilidad a la conclusin de que la media de un grupo de puntuaciones es distinta de la media de otro grupo de puntuaciones.

El ANOVA parte de algunos supuestos que han de cumplirse:


La variable dependiente debe medirse al menos a nivel de intervalo. Independencia de las observaciones. La distribucin de la variable dependiente debe ser normal. Homocedasticidad: homogeneidad de las varianzas.

Existen tres tipos de modelos:

El modelo de efectos fijos asume que el experimentador ha considerado para el factor todos los posibles valores que ste puede tomar. Ejemplo: Si el gnero del individuo es un factor, y el experimentador ha incluido tantos individuos masculinos como femeninos, el gnero es un factor fijo en el experimento. Los modelos de efectos aleatorios asumen que en un factor se ha considerado tan slo una muestra de los posibles valores que ste puede tomar. Ejemplo: Si el mtodo de enseanza es analizado como un factor que puede influir sobre el nivel de aprendizaje y se ha considerado en el experimento slo tres de los muchos ms mtodos posibles, el mtodo de enseanza es un factor aleatorio en el experimento. Los modelos mixtos describen situaciones donde estn presentes ambos tipos de factores: fijos y aleatorios.

La tcnica fundamental consiste en la separacin de la suma de cuadrados (SS, 'sum of squares') en componentes relativos a los factores contemplados en el modelo. Como ejemplo, mostramos el modelo para un ANOVA simplificado con un tipo de factores en diferentes niveles. (Si los niveles son cuantitativos y los efectos son lineales, puede resultar apropiado un anlisis de regresin lineal). SSTotal = SSError + SSFactores El nmero de grados de libertad (gl) puede separarse de forma similar y se corresponde con la forma en que la distribucin chi-cuadrado describe la suma de cuadrados asociada.

glTotal = glError + glFactores Nota: Por grados de libertad "degrees of freedom" entendemos el nmero efectivo de observaciones que contribuyen a la suma de cuadrados en un ANOVA, es decir, el nmero total de observaciones menos el nmero de datos que sean combinacin lineal de otros.

Anlisis de la regresin De Wikipedia, la enciclopedia libre Saltar a: navegacin, bsqueda La regresin estadstica o regresin a la media es la tendencia de una medicin extrema a presentarse ms cercana a la media en una segunda medicin. La regresin se utiliza para predecir una medida basndonos en el conocimiento de otra. Origen del concepto El trmino regresin fue introducido por Francis Galton en su libro Natural inheritance (1889) y fue confirmada por su amigo Karl Pearson. Su trabajo se centr en la descripcin de los rasgos fsicos de los descendientes (variable A) a partir de los de sus padres (variable B). Estudiando la altura de padres e hijos a partir de ms de mil registros de grupos familiares, se lleg a la conclusin de que los padres muy altos tenan una tendencia a tener hijos que heredaban parte de esta altura, pero que revelaban tambin una tendencia a regresar a la media. Galton generaliz esta tendencia bajo la "ley de la regresin universal": Cada peculiaridad en un hombre es compartida por sus descendientes, pero en media, en un grado menor. Modelos de regresin Regresin lineal Artculo principal: Regresin lineal.

Regresin lineal simple

Dadas dos variables (Y: variable dependiente; X: independiente) se trata de encontrar una funcin simple (lineal) de X que nos permita aproximar Y mediante: = a + bX a (ordenada en el origen, constante) b (pendiente de la recta) A la cantidad e=Y- se le denomina residuo o error residual.

As, en el ejemplo de Pearson: = 85 cm + 0,5X Donde es la altura predicha del hijo y X la altura del padre: En media, el hijo gana 0,5 cm por cada cm del padre.

Anda mungkin juga menyukai