Anda di halaman 1dari 9

LOPEZ OJEDA LUCERO ANAYD 2RM11 5.1 ANALISIS DE REGRECIN LINEAL.

Principales tcnicas utilizadas en el anlisis de regresin lineal simple 1) Ordenamiento y anlisis de la informacin original 2) Diagrama de dispersin e interpretacin El primer pas para determinar si existe o no una relacin entre dos variables es observar la grafica de datos observados. Esta grafica se llama diagrama de dispersin. Un diagrama nos puede da dos tipos de informacin, visualmente podemos buscar patrones que nos indiquen que las variables estn relacionadas. Entonces si esto sucede, podemos ver que tipo de lnea, o ecuacin de estimacin, describe esta relacin. Primero tomamos los datos de la tabla que deseamos analizar y dependiendo de que se desea averiguar se construye la grafica colocando la variable dependiente en el eje Y y la independiente en el eje X, Cuando vemos todos estos puntos juntos, podemos visualizar la relacin que existe entre estas dos variables. Como resultado, tambin podemos trazar, o ajustar una lnea recta a travs de nuestro diagrama de dispersin para representar la relacin. Es comn intentar trazar estas lneas de forma tal que un numero igual de puntos caiga a cada lado de la lnea. El objeto de un anlisis de regresin es investigar la relacin estadstica que existe entre una variable dependiente (Y) y una o ms variables independientes ( X 1 , X 2 , X 3 ,...). Para poder realizar esta investigacin, se debe postular una relacin funcional entre las variables. Debido a su simplicidad analtica, la forma funcional que ms se utiliza en la prctica es la relacin lineal. Cuando solo existe una variable independiente, esto se reduce a una lnea recta:

Y = b0 + b1 X
Donde los coeficientes b0 y b1 son parmetros que definen la posicin e inclinacin de la recta. (Ntese que hemos usado el smbolo especial Y para representar el valor de Y calculado por la recta. Como veremos, el valor real de Y rara vez coincide exactamente con el valor calculado, por lo que es importante hacer esta distincin.) El parmetro b0, conocido como la ordenada en el origen, nos indica cunto es Y cuando X = 0. El parmetro b1, conocido como la pendiente, nos indica cunto aumenta Y por cada aumento de una unidad en X. Nuestro problema consiste en obtener estimaciones de estos coeficientes a partir de una muestra de observaciones sobre las variables Y y X. En el anlisis de regresin, estas estimaciones se obtienen por medio del mtodo de mnimos cuadrados. En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modeliza la relacin entre una variable dependiente Y, las variables

LOPEZ OJEDA LUCERO ANAYD 2RM11 independientes Xi y un trmino aleatorio. Este modelo puede ser expresado como:

Donde 0 es la interseccin o trmino "constante", las son los parmetros respectivos a cada variable independiente, y p es el nmero de parmetros independientes a tener en cuenta en la regresin. La regresin lineal puede ser contrastada con la regresin no lineal. MODELOS: El modelo lineal relaciona la variable dependiente Y con K variables explicativas Xk (k = 1,...K), o cualquier transformacin de stas, que generan un hiperplano de parmetros k desconocidos:

Donde es la perturbacin aleatoria que recoge todos aquellos factores de la realidad no controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su carcter estocstico. En el caso ms sencillo, con una sola variable explicativa, el hiperplano es una recta:

El problema de la regresin consiste en elegir unos valores determinados para los parmetros desconocidos k, de modo que la ecuacin quede completamente especificada. Para ello se necesita un conjunto de observaciones. En una observacin cualquiera i-sima (i= 1,... I) se registra el comportamiento simultneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables).

Los valores escogidos como estimadores de los parmetros, , son los coeficientes de regresin, sin que se pueda garantizar que coinciden con parmetros reales del proceso generador. Por tanto, en

Los valores errores. TIPOS:

son por su parte estimaciones de la perturbacin aleatoria o

Regresin lineal simple Slo se maneja una variable independiente, por lo que slo cuenta con dos parmetros. Si sabemos que existe una relacin entre una variable denominada dependiente y otras denominadas independientes (como por 2

LOPEZ OJEDA LUCERO ANAYD 2RM11 ejemplo las existentes entre: la experiencia profesional de los trabajadores y sus respectivos sueldos, las estaturas y pesos de personas, la produccin agraria y la cantidad de fertilizantes utilizados, etc.), puede darse el problema de que la dependiente asuma mltiples valores para una combinacin de valores de las independientes. "Y es una funcin de X" Y = f(X) Como Y depende de X, Y es la variable dependiente, y X es la variable independiente. En el Modelo de Regresin es muy importante identificar cul es la variable dependiente y cul es la variable independiente. En el Modelo de Regresin Simple se establece que Y es una funcin de slo una variable independiente, razn por la cual se le denomina tambin Regresin Divariada porque slo hay dos variables, una dependiente y otra independiente y se representa as: Y = f (X) "Y est regresando por X" La variable dependiente es la variable que se desea explicar, predecir. Tambin se le llama "'regresando"' "'variable de respuesta"'. La variable Independiente X se le denomina "'variable explicativa"' "'regresor"' y se le utiliza para explicar Y. Se calcula la ecuacin de la recta que pasa por dos puntos dados. Sin embargo, en la regresin lineal por lo general se tiene ms que dos puntos de datos, y raras veces estn todos en una sola recta. El problema es hallar la recta que ajusta los datos tan estrechamente posible. La Ecuacin General es de la forma:

Donde:

LOPEZ OJEDA LUCERO ANAYD 2RM11 Regresin lineal mltiple La regresin lineal nos permite trabajar con una variable a nivel de intervalo o razn, as tambin se puede comprender la relacin de dos o ms variables y nos permitir relacionar mediante ecuaciones, una variable en relacin a otras variables llamndose Regresin mltiple. Constantemente en la practica de la investigacin estadstica, se encuentran variables que de alguna manera estn relacionados entre si, por lo que es posible que una de las variables puedan relacionarse matemticamente en funcin de otra u otras variables. Maneja varias variables independientes. Cuenta con varios parmetros. Se expresan de la forma. 5.1.1 DETERMINACIN DE LA ECUACIN DE LA RECTA DE REGRECIN POR EL METODO DE MINIMOS CUADRADADOS. El procedimiento mas objetivo para ajustar una recta a un conjunto de datos presentados en un diagrama de dispersin se conoce como "el mtodo de los mnimos cuadrados". La recta resultante presenta dos caractersticas importantes: 1. Es nula la suma de las desviaciones verticales de los puntos a partir de la recta de ajuste (Y - Y) = 0. 2. Es mnima la suma de los cuadrados de dichas desviaciones. Ninguna otra recta dara una suma menor de las desviaciones elevadas al cuadrado (Y - Y) 0 (mnima). El procedimiento consiste entonces en minimizar los residuos al cuadrado Ci
Re emplazando nos queda

La obtencin de los valores de a y b que minimizan esta funcin es un problema que se puede resolver recurriendo a la derivacin parcial de la funcin en trminos de a y b: llamemos G a la funcin que se va a minimizar:

Tomemos las derivadas parciales de G respecto de a y b que son las incgnitas y las igualamos a cero; de esta forma se obtienen dos ecuaciones llamadas ecuaciones normales del modelo que pueden ser resueltas por

LOPEZ OJEDA LUCERO ANAYD 2RM11 cualquier mtodo ya sea igualacin o matrices para obtener los valores de a y b.

Derivamos parcialmente la ecuacin respecto de a

Primera ecuacin normal Derivamos parcialmente la ecuacin respecto de b

Segunda ecuacin normal

5.1.2 ERROR ESTANDAR DE ESTIMACIN. El error estndar nos permite deducir la confiabilidad de la ecuacin de regresin que hemos desarrollado. 5

LOPEZ OJEDA LUCERO ANAYD 2RM11 Este error se simboliza Se y es similar a la desviacin estndar en cuanto a que ambas son medidas de dispersin. El error estndar de la estimacin mide la variabilidad, o dispersin de los valores observados alrededor de la lnea de regresin y su formula es la siguiente

X= media de los valores de la variable dependiente Y = valores de la variable dependiente n = numero de puntos de datos

El error estndar de la estimacin designado por sYX mide la disparidad "promedio" entre los valores observados y los valores estimados de . Se utiliza la siguiente formula.

Interpretacin del error estndar de la estimacin Como se aplicaba en la desviacin estndar, mientras ms grande sea el error estndar de estimacin, mayor ser la dispersin de los puntos alrededor de la lnea de regresin. De manera que inversa, si Se = 0, esperemos que la ecuacin de estimacin sea un estimador perfecto de la variable dependiente. En este caso todos lo puntos deben caer en la lnea de regresin y no habra puntos dispersos. Usaremos el error estndar como una herramienta de igual forma que la desviacin estndar. Esto suponiendo que los puntos observados estn distribuidos normalmente alrededor de la lnea de regresin, podemos encontrar un 68% de los puntos en + 1 Se, 95.5% en + 2 Se y 99.7% de los puntos en + 3 Se. Otra cosa que debemos observar es que el error estndar de la estimacin se mide a lo largo del eje Y, y no perpendicularmente de la lnea de regresin.

5.2 ANALISIS DE CORRELACIN El anlisis de correlacin es la herramienta estadstica que podemos usar para describir el grado hasta el cual una variable esta linealmente relacionada con la otra. Con frecuencia el anlisis de correlacin se utiliza junto con el anlisis de regresin para medir que tan bien la lnea de regresin explica los cambio de la

LOPEZ OJEDA LUCERO ANAYD 2RM11 variable dependiente Y. Sin embargo, la correlacin tambin se puede usar sola para medir el grado de asociacin entre dos variables. Los estadsticos han desarrollado dos medidas para describir la correlacin entre dos variables: el coeficiente de determinacin y el coeficiente de correlacin.

5.2.1 CLCULO DEL COFICIENTE DE CORRELACIN Y EL COEFICIENTE DE DETERMINACIN. coeficiente de correlacin el coeficiente de correlacin es la segunda medida que podemos usar para describir que tambin una variable es explicada por la otra. Cuando tratamos con muestras, el coeficiente de variacin de muestra se denomina como r y es la raz cuadrada del coeficiente de determinacin de muestra: cuando la pendiente de estimacin de la muestra es positiva, r es la raz cuadrada positiva, pero si b es negativa, r es la raz cuadrada negativa. Por lo tanto, el signo de indica la direccin de la relacin entre las dos variables X y Y. Si existe una relacin inversa, esto es , si y disminuye Y X Interseccin Y Variable dependiente Pendiente de la lnea Variable independiente

Coeficiente de determinacin

LOPEZ OJEDA LUCERO ANAYD 2RM11 El coeficiente de determinacin es la principal forma en que podemos medir la extensin, o fuerza de asociacin que existe entre dos variables, X y Y. Puesto que hemos desarrollado una muestra de puntos para desarrollar las lneas de regresin, nos referimos a esta medida como el coeficiente de determinacin de la muestra. El coeficiente de determinacin de la muestra se desarrolla de la relacin entre dos tipos de variacin: la variacin de los valores Y en conjunto de los datos alrededor de la lnea de regresin ajustada su propia media el termino variacin en estos dos casos se refiere a la suma de un grupo de desviaciones cuadradas. Al usar esta definicin, entonces es razonable expresar la variacin de los valores Y alrededor de la lnea de regresin con esta ecuacin: variacin de los valores Y alrededor de la lnea de regresin = la segunda variacin, la de los valores de Y con respecto a su propia media, esta determinada por variacin de los valores de Y alrededor de su propia media = uno menos la razn entre estas dos variaciones es el coeficiente de determinacin de la muestra que se simboliza r2 esta ecuacin es una medida del grado de asociacin lineal entre X y Y Una correlacin perfecta es aquella en que todos los valores de Y caen en la lnea de estimacin , por lo tanto el coeficiente de determinacin es 1 Cuando el valor del coeficiente de determinacin es 0 quiere decir que no hay correlacin entre las dos variables En los problemas con que se topa la mayora de los responsables de la toma de decisiones, r2 caer en alguna parte entre estos dos extremos de 1 y 0. recuerde, no obstante que un r2 cercano a 1 indica una fuerte correlacin entre X y Y, mientras que un r2 cercano a 0 significa que existe poca correlacin entre estas dos variables. Un punto que debemos subrayar fuertemente es que r2 mide solo la fuerza de una relacin lineal entre dos variables. Otra interpretacin de r2 Los estadsticos tambin interpretan el coeficiente de determinacin viendo la cantidad de variacin en Y que es explicada por la lnea de regresin. 8

LOPEZ OJEDA LUCERO ANAYD 2RM11 Mtodo de atajo para calcular el coeficiente de determinacin (r2) Hay una formula que nos ahorra muchos clculos tediosos y esta es: en la que:

r2= coeficiente de determinacin de la muestra a = interseccin en Y b = pendiente de la lnea de estimacin de mejor ajuste n = numero de puntos de datos X = valores de la variable independiente Y = valores de la variable dependiente = media de los valores observados de la variable dependiente

Anda mungkin juga menyukai