Anda di halaman 1dari 3

MÉTODO DE MÍNIMOS CUADRADOS PARA EL AJUSTE ÓPTIMO DE UNA RECTA

DE REGRESIÓN
Una recta que mejor se ajusta es una línea recta que es la mejor aproximación del
conjunto de datos dado. Es usada para estudiar la naturaleza de la relación entre dos
variables.
Una recta que mejor se ajusta puede ser determinada aproximadamente usando el
método visual al dibujar una línea recta en una gráfica de dispersión para que tanto el
número de puntos arriba de la recta y debajo de la recta sean casi iguales (y la línea pasa
a través de tantos puntos como sea posible). Una forma más precisa de encontrar la recta
que mejor se ajusta es el método de mínimos cuadrados.
Este método no sólo sirve para ajustar una línea recta, sino también para ajustar
tendencias no lineales, tales como la parabólica, la exponencial, etc.
Siendo la ecuación general de la recta y=bx +c , es necesario indicar que los
conceptos de b y c son exactamente iguales que los establecidos para la regresión.
El primero se denomina coeficiente angular y el valor resultante corresponde al
crecimiento o decrecimiento en la variable ý por cada unidad de tiempo; c es el
coeficiente de posición y será igual a ý cuando x=0 . En cuanto a x sigue
siendo el predictor y corresponde a unidades de tiempo.
COEFICIENTE DE DETERMINACIÓN Y CORRELACIÓN
El coeficiente de determinación es la principal forma en que podemos medir el grado, o
fuerza, de la asociación que existe entre dos variables, X y Y. Debido a que usamos una
muestra de puntos para desarrollar rectas de regresión, nos referimos a esta medida
como el coeficiente de determinación muestral.
El coeficiente de determinación muestral se deriva de la relación entre dos tipos de
variación: la variación de los valores Y en un conjunto de datos alrededor de:
1. la recta de regresión ajustada;
2. su propia media.
El término variación en estos dos casos se utiliza en su sentido estadístico usual para
expresar “la suma de los cuadrados de un grupo de desviaciones”. Usando esta
definición, entonces, es razonable expresar la variación de los valores Y alrededor de la
recta de regresión con esta ecuación:
2

r 2=1−
∑ ( Y −Y^ )
2
∑ ( Y −Ý )
Donde
2
( Y −Y^ ) es la Variación de los valores de Y alrededor de la recta de regresión

∑ ( Y −Ý )2 es la Variación de los valores de Y alrededor de su propia media

El coeficiente de correlación es la segunda medida que podemos usar para describir


qué tan bien explica una variable a otra. Cuando tratamos con muestras, el coeficiente de
correlación de la muestra se denota por r y es la raíz cuadrada del coeficiente de
determinación de muestra:
r= √ r 2
Cuando la pendiente de la ecuación de estimación es positiva, r es la raíz cuadrada
positiva, pero si b es negativa, r es la raíz cuadrada negativa. Entonces, el signo de r
indica la dirección de la relación entre las dos variables X y Y. Si existe una relación
inversa —esto es, si Y disminuye al aumentar X —, entonces r caerá entre 0 y -1. De
manera similar, si existe una relación directa (si Y aumenta al aumentar X), entonces r
será un valor en el intervalo de 0 a 1.

METODO DE COVARIANZA PARA COMPRENDER EL COEFICIENTE DE


CORRELACIÓN

En la práctica muchas relaciones que analizaremos serán débiles y no bastará ver su


gráfico, sino que además tendremos que medir la magnitud o el grado de relación lineal
entre estas variables.
Dos de las medidas más utilizadas para datos bivariantes que sirven para cuantificar el
grado de relación lineal son:

• La covarianza
• El coeficiente de correlación lineal de Pearson

La covarianza mide la relación lineal entre dos variables. Aunque la covarianza es similar
a la correlación entre dos variables, difieren de las siguientes maneras:
Los coeficientes de correlación están estandarizados. Por lo tanto, una relación lineal
perfecta da como resultado un coeficiente de 1. La correlación mide tanto la fuerza como
la dirección de la relación lineal entre dos variables.
Los valores de covarianza no están estandarizados. Por consiguiente, la covarianza
puede ir desde infinito negativo hasta infinito positivo. Por lo tanto, el valor de una relación
lineal perfecta depende de los datos. Puesto que los datos no están estandarizados, es
difícil determinar la fuerza de la relación entre las variables

Usted puede utilizar la covarianza para comprender la dirección de la relación entre las
variables. Los valores de covarianza positivos indican que los valores por encima del
promedio de una variable están asociados con los valores por encima del promedio de la
otra variable y los valores por debajo del promedio están asociados de manera similar.
Los valores de covarianza negativos indican que los valores por encima del promedio de
una variable están asociados con los valores por debajo del promedio de la otra variable.
El coeficiente de correlación depende de la covarianza. El coeficiente de correlación es
igual a la covarianza dividida entre el producto de las desviaciones estándar de las
variables. Por lo tanto, una covarianza positiva siempre producirá una correlación positiva
y una covarianza negativa siempre generará una correlación negativa.

Dados n pares de valores (x 1 , y 1),(x 2 , y 2 ) ,... ,(x n , y n) , que corresponden a la


observación de dos variables X e Y sobre n individuos, se define la covarianza muestral
entre X e Y como:
n
1
S yx = ∑ ( x i−x́ )( y i− ý )
n i=1
Donde
n n
1
x́= ∑ ( x ) , ý= 1n ∑ ( yi ) ,
n i=1 i i=1