Anda di halaman 1dari 18

El análisis de regresión trata del estudio de la

dependencia de la variable dependiente,


respecto a una o más variables (las variables
explicativas), con el objetivo de estimar y/o
predecir la media o valor promedio
poblacional de la primera en términos de los
valores conocidos o fijos (en muestras
repetidas) en las últimas.
Gráfica de datos apareados (x,y) con un eje x
horizontal y un eje y vertical. Los datos se
aparean de tal forma que cada valor de un
conjunto de datos corresponde a un valor de
un segundo conjunto de datos. El patrón de
los puntos graficados suele ser útil para
determinar si hay alguna relación entre las
dos variables.
X X Valor promedio
75 X X
Estatura de los hijos, en pulgadas

X X
X X X
X X X
X X X
X X X
70 X
X X X
X X X
X X X X
X X X X
X X X X
X X X X
65 X X X X
X X X X
X X X
X X X
X X
X RECTA DE
60
REGRESIÓN

60 65 70 75
Estatura de los padres, en pulgadas
Un economista laboral quizá quiera estudiar la tasa de cambio
de los salarios monetarios o nominales en relación con la tasa
de desempleo . A este diagrama de dispersión se le conoce
como curva de Phillips.
Tasa de cambio de los salarios monetarios

0 Tasa de desempleo %

-
En el análisis de regresión se estudia la dependencia estadística entre
variables, pero no la funcional o deterministica propia de la física clásica.

En las relaciones estadísticas entre variables se trata esencialmente con


variables aleatorias o estocásticas, esto es, variables que
tienen distribuciones de probabilidad.

Una variable aleatoria es una variable que toma valores alternativos, cada
uno con una probabilidad entre 0 y 1.

Se puede describir una variable aleatoria al examinar el proceso que genera


sus valores. Este proceso se llama distribución de
probabilidad, el cual, enumera todos los resultados posibles y la
probabilidad de que ocurra cada uno.
Cuando se utilizan variables aleatorias siempre habrá
una seriee de factores (variables), que afectan
colectivamente a la variable dependiente pero pueden
ser difíciles de identificar individualmente.

De esta manera habrá una variabilidad intrínseca o


aleatoria en la variable dependiente, que no puede ser
explicada en su totalidad, sin importar cuantas otras
variables explicativas se consideren.
Las relaciones de causa y efecto, que pueden ser determinísticas o estocásticas.
Pertenecen a la categoría de las determinísticas aquellas en donde la
causa y el efecto están relacionadas directamente: la ocurrencia (o una variación) de
la primera necesariamente conlleva el surgimiento (o el cambio) en el último.
Ahora, en el caso de las estocásticas , la relación entre causa y efecto es
indirecta; la ocurrencia (o una variación) de la primera no se refleja en el efecto, sino
en la probabilidad de su ocurrencia (o de su modificación).

Un ejemplo sencillo de relación estocástica es la que existe entre el tabaco y ciertos


tipos de cáncer: tal relación existe pero no es cierto ni que todos los fumadores
contraerán la dolencia, ni que un no-fumador no la contraiga. Fumar no conduce
necesariamente a la enfermedad como consecuencia pero, ciertamente, aumenta la
probabilidad de que ella aparezca. Además, mientras mayor es la cantidad de
tabaco consumido, la probabilidad aumentará, pudiendo incluso.

Ejemplos de relaciones deterministicas pueden ser: la ley de la gravedad de


Newton, la ley de los gases de Boyle.
A pesar de que el análisis de regresión tiene que ver con la dependencia de
una variable con respecto a otras variables, esto no implica causalidad
necesariamente. Es decir: una relación estadística, sin importar que tan
fuerte y sugestiva sea, nunca podrá establecer una conexión causal.:
nuestras ideas de causalidad deben venir de estadísticas externas, y en
ultimo termino, de una u otra teoría.

Relación estadística no puede por si misma implicar en forma lógica una


causalidad.

Para aducir causalidad se debe acudir a consideración a priori o teóricas.

En el ejemplo citado, uno puede recurrir a la teoría económica al afirmar


que el gasto de consumo depende del ingreso real.
El análisis de correlación está estrechamente relacionado con el
de regresión, aunque conceptualmente son muy diferentes.

En el análisis de correlación el objetivo principal es medir la


fuerza o el grado de asociación lineal entre dos variables. El
coeficiente de correlación (que estudiaremos mas adelante)
mide la fuerza de asociación lineal.

Mientras que en el análisis de regresión no se interesa de medir


esa asociación, en cambio trata de estimar o de predecir el
valor promedio de una variable sobre la base de valores fijos
de otras variables.
DIFERENCIAS SIGNIFICACTIVAS:
En el análisis de regresión hay una asimetría en el tratamiento
que se da a las variables dependientes y explicativas. Se
supone que la dependiente es estadística, aleatoria o
estocástica, eso es, que tiene una distribución de probabilidad,
además da por hecho que las variables explicativas tienen
valores fijos (en muestras repetidas).

En cambio en el análisis de correlación se tratan las dos


variables en forma simétrica, es decir, no hay distinción entre
la variable dependiente y la explicativa. Se supone que las dos
variables son aleatorias.

En el análisis de regresión se supone que la variable


dependiente es estocástica y las explicativas son fijas.
VARIABLE DEPENDIENTE VARIABLE EXPLICATIVA

VARIABLE EXPLICADA VARIABLE INDEPENDIENTE

PREDICHA PREDICTORA

REGRESADA REGRESORA

RESPUESTA ESTÍMULO

ENDÓGENA EXÓGENA

RESULTADO COVARIANTE

VARIABLE CONTROLADA VARIABLE DE CONTROL


Cuando se está estudiando la dependencia de una
variable en una única variable explicativa, dicho
estudio se conoce como ANÁLISIS DE REGRESIÓN
SIMPLE ó con DOS VARIABLES.

Cuando se estudia la dependencia de una variable en


más de una variable explicativa, a ese estudio se le
conoce como análisis de regresión múltiple.

El termino aleatorio es sinónimo de estocástico. (una


variable aleatoria o estocástica es aquella que puede
tomar cualquier conjunto de valores positivos o
negativos, con un probabilidad dada.
La letra Y por lo regular representa la variable dependiente
y las X las explicativas.

N o T representará el número total de observaciones o


valores de la población y n o t el número total de
observaciones o valores de la muestra.

Los subíndices i o t denotarán la observación o valor i-


ésimo o t-ésimo respectivamente.

El subíndice i se utilizará para los datos de corte transversal


(es decir información recogida en un punto del tiempo) y el
subíndice t será utilizado para datos de series de tiempo (es
decir, información recogida a lo largo de cierto periodo).
La DISPONIBILIDAD DE INFORMACIÓN APROPIADA es la
clave del éxito de cualquier análisis econométrico.

Puede haber tres tipos de datos disponibles para el análisis empírico:


1. Series de tiempo: conjunto de observaciones sobre los
valores que toma una variable en diferentes momentos del tiempo.
Tal información debe ser recopilada a intervalos regulares: diaria,
semanal, quincenal, mensual, trimestral, semestral, anual,
quinquenal, decenalmente, etc.

Este tipo de datos presenta un problema: el trabajo empírico con


series de tiempo supone que las series son estacionarias, es decir que
su media y su varianza no varían sistemáticamente con el tiempo.
(no presentan una tendencia constante ni una variabilidad).
2. Información de corte transversal: Consiste en
datos de una o más variables recogidos en el mismo momento
del tiempo.
La problemática con este tipo de información es que cuando se
incluyen unidades heterogéneas en el análisis puede ser muy
afectado por el efecto del tamaño o la escala de las variables en
cuestión. En palabras burdas, debe tenerse cuidado de no
mezclar peras con naranjas.

3. Información combinada: los datos combinados


tienen elementos de series de tiempo de corte transversal
reunida.
FUENTES DE INFORMACIÓN:

http://bancomext.gob.mx
http://www.shcp.gob.mx
http://www.banxico.org.mx
http://www.economia.gob.mx
http://www.inegi.gob.mx
http://www.bmv.com.mx/
http://www.bancomundial.org/
http://www.imf.org/
http://www.wto.org/
http://www.oecd.org/
Siempre se debe tener en mente que el resultado de
la investigación solamente será tan bueno como lo
sea la calidad de los datos.

Las variables se clasifican en cuatro categorías:


Escala de proporción: existe un ordenamiento natural
entre ellas (ascendente o descendente) por lo tanto las
comparaciones como la proporción o la diferencia entre los
valores tienen sentido. La mayoría de las variables económicas
se ubican en esta categoría de medición. (PIB).

Escala de intervalo: los datos pueden ser ordenados y la


diferencia de uno con otro tiene sentido pero no la proporción.
(AÑOS).
Escala ordinal: sólo satisface la característica de ser
ordenados (ejemplos: calificaciones: A,B y C. Ingresos:
alto, medio y bajo). (Curvas de indiferencia una curva
superior señala mayor nivel de utilidad per no se
puede cuantificar en que medida es una curva mayor
que otra).

Escala nominal: las variables de esta categoría no


tiene ninguna característica de las anteriores, es decir,
denotan simples categorías y no existe un orden
lógico para ellas, ni tampoco la diferencia o la
proporción tiene sentido. (estado civil, color de
cabello, sexo, etc).

Anda mungkin juga menyukai