Anda di halaman 1dari 62

1

Modelos de Decisin Binaria: 1- Modelo de Probabilidad Lineal


Muchas veces nos interesa saber qu factores estn por detrs de ciertas decisiones de individuos,
empresas, o gobiernos.


Qu caractersticas tienen las personas que deciden abandonar la
escuela? Por qu algunas personas van a la universidad mientras
otras no? Qu caractersticas explican esta decisin?

Por qu algunas mujeres entran a la fuerza laboral mientras otras
no?
Qu tipo de personas toma un charter y qu tipo toma el transporte
pblico para un cierto recorrido?

Por qu algunas personas deciden ser inquilinos mientras otras
prefieren ser propietarios?


2
Los modelos que han sido desarrollados con este propsito se conocen como
de respuesta cualitativa o modelos de eleccin binaria, con una variable de
resultado (outcome), que denotamos Y, a la que se le asigna un valor de 1 si
el evento ocurre y 0 de otra forma.
Tambin existen modelos para elecciones de ms de dos categoras, pero por
ahora nos concentraremos en la versin ms simple y usual.



4
El modelo ms simple de eleccin binaria es el modelo de probabilidad lineal donde,como el nombre
lo indica, la probabilidad p de que ocurra un cierto evento, es asumida con una funcin lineal de un
conjunto de variables explicativas.
i i i
X Y p p
2 1
) 1 ( | | + = = =



5
X X
i

1
0
|
1
+|
2
X
i
y, p
Si hay una sola variable explicativa, la relacin es como se muestra a continuacin:
i i i
X Y p p
2 1
) 1 ( | | + = = =
|
1



6
P no es observable. Uno tiene el dato de solo un resultado de Y. Es la realizacin de una variable dummy,
pero en este caso es la variable dependiente.
i i i
X Y p p
2 1
) 1 ( | | + = = =


Qu caractersticas tienen las personas que deciden abandonar la
escuela?

Tomamos el siguiente ejemplo: Definamos una variable GRAD que es igual a 1 si el individuo se graduo
de la escuela,, y 0 de otra manera.

. g GRAD = 0

. replace GRAD = 1 if S > 11
(509 real changes made)





. reg GRAD ASVABC

Source | SS df MS Number of obs = 540
-------------+------------------------------ F( 1, 538) = 49.59
Model | 2.46607893 1 2.46607893 Prob > F = 0.0000
Residual | 26.7542914 538 .049729166 R-squared = 0.0844
-------------+------------------------------ Adj R-squared = 0.0827
Total | 29.2203704 539 .05421219 Root MSE = .223

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .0070697 .0010039 7.04 0.000 .0050976 .0090419
_cons | .5794711 .0524502 11.05 0.000 .4764387 .6825035
------------------------------------------------------------------------------
9
Aqui esta el resultado de regresa GRAD sobre ASVABC. Sugiere que cada punto adicional en el score
de ASVABC aumenta la probabilidad de graduarse por 0.007, esto es, 0.7%.
Contruyamos primero la variable dependiente. En la mayora de los casos, sin embargo, no vamos a
tener que hacerlo, ya que la variable estar dada.:

. g GRAD = 0

. replace GRAD = 1 if S > 11
(509 real changes made)

. reg GRAD ASVABC

Source | SS df MS Number of obs = 540
-------------+------------------------------ F( 1, 538) = 49.59
Model | 2.46607893 1 2.46607893 Prob > F = 0.0000
Residual | 26.7542914 538 .049729166 R-squared = 0.0844
-------------+------------------------------ Adj R-squared = 0.0827
Total | 29.2203704 539 .05421219 Root MSE = .223

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .0070697 .0010039 7.04 0.000 .0050976 .0090419
_cons | .5794711 .0524502 11.05 0.000 .4764387 .6825035
------------------------------------------------------------------------------
10
Notar que la constante no tiene una interpretacin sensata. Literalmente sugiere que un individuo con
un score de 0 en el ASVABC tiene una probabilidad de 58% de probabilidad de graduarse. Sin
embargo, un score de 0 no es posible.



11
Desventajas del modelo lineal:
i) El residuo no est normalmente distribuido.

i i i
X Y p p
2 1
) 1 ( | | + = = =
i i i
u Y E Y + = ) (
i i i i i
X p p p Y E
2 1
) 1 ( 0 1 ) ( | | + = = + =
i i i
u X Y + + =
2 1
| |
Como es usual, el valor de la variable dependiente Y
i
en la observacin i tiene un componente
deterministico (no estocstico) y un componente aleatorio (el error). El componente deterministico
depende de X
i
y de sus parmetros.
El componente deterministico est determinado por el valor esperado en ese valor:


Por definicin, el valor esperado es el valor de cada realizacin posible de la variable aleatoria,
multiplicada por su probabilidad de ocurrencia.



Esto significa que podemos reescribir:






X X
i

1
0
|
1
+|
2
X
i
Y, p
i i i
X Y p p
2 1
) 1 ( | | + = = =
15
Esto tambien implica que la funcin de probabilidad es el componente deterministico en la relacin
entre Y y X.
|
1



16
i i i
u X Y + + =
2 1
| |
i i i
X u Y
2 1
1 1 | | = =
i i i
X u Y
2 1
0 | | = =
Notemos tambin que para una cierta observacin i, Y
i
puede tomar solo dos valores, o es 1, y por lo
tanto su error asociado u
i
es (1 |
1
|
2
X
i
), o Y
i
toma el valor 0, y su error asociado u
i
es ( |
1
|
2
X
i
).



X X
i

1
0
|
1
+|
2
X
i
Y, p
i i i
X Y p p
2 1
) 1 ( | | + = = =
|
1
Los dos posibles valores, (A y B), estn ilustrados en el diagrama. Claramente u no va a tener una
distribucin normal. Esto implicar que los errores estndar y los estadsticos t no van a ser validos.
Para un valor de X dado, la distribucin del eeror no es continua, sino que toma dos valores.
A
B
|
1
+|
2
X
i
1 |
1
|
2
X
i



X X
i

1
0
|
1
+|
2
X
i
Y, p
|
1
A
1 |
1
|
2
X
i
B
|
1
+|
2
X
i
18
Tambin se puede demostrar que la varianza del error para la observacin i est dada por la expresin
que sigue. Esta variabilidad cambia con el valor de X
i
, lo que significa que el error es heterocedastico. (
Veremos luego que es un problema)
) 1 )( (
2 1 2 1
2
i i u
X X
i
| | | | o + =



X X
i

1
0
|
1
+|
2
X
i
Y, p
|
1
A
B
|
1
+|
2
X
i
19
2) Una segunda desventaja del modelo lineal es que puede, predecir probabilidades de un valor mayor
a 1. Tambin puede predecir probabilidades que son menores que 0.
1 |
1
|
2
X
i

. tab PROB if PROB > 1
Fitted |
values | Freq. Percent Cum.
------------+-----------------------------------
1.000381 | 6 4.76 4.76
1.002308 | 9 7.14 11.90
1.004236 | 7 5.56 17.46
1.006163 | 3 2.38 19.84

*********************************************

1.040855 | 11 8.73 93.65
1.042783 | 3 2.38 96.03
1.04471 | 2 1.59 97.62
1.046638 | 3 2.38 100.00
------------+-----------------------------------
Total | 126 100.00

21
Podemos ver que hay 126 observaciones con un valor de probabilidad estimada mayor a 1.
Si continuamos con el ejemplo de Stata, podemos chequear si en el modelo estimado se predicen valores
mayores a 1. Usamos el comando predict.
. predict PROB
22
Por otra parte, en este ejemplo no se predicen valores con probabilidad menor que 0.

. tab PROB if PROB < 0
no observations




2
0.00
0.25
0.50
0.75
1.00
-8 -6 -4 -2 0 2 4 6 Z
Z
e
Z F p

+
= =
1
1
) (
) (Z F
X Z
2 1
| | + =
La manera usual de evitar estos problemas es modelar a la probabilidad como una funcin que tiene
forma de S, F(Z), donde Z es la funcin de variables explicativas.
Modelos de Decisin Binaria: 2- Modelo Logit



3
0.00
0.25
0.50
0.75
1.00
-8 -6 -4 -2 0 2 4 6
La funcin logstica cumple las propiedades de tener forma de S. Cuando Z crece al infinito, e
Z
tiende a
0 y p tiende a 1 (pero no puede exceder 1). Cuando Z tiende a menos infinito, e
Z
va a infinito y por lo
tanto p tiende a 0 (pero no puede ser menor que 0).
X Z
2 1
| | + =
) (Z F
Z
e
Z F p

+
= =
1
1
) (
Z



4
0.00
0.25
0.50
0.75
1.00
-8 -6 -4 -2 0 2 4 6
Para valores menores a2, la probabilidad es baja e insensible a variaciones en Z. De la misma forma,
para valores mayores a 2, la probabilidad es alta y poco sensible a variaciones en Z.
X Z
2 1
| | + =
) (Z F
Z
e
Z F p

+
= =
1
1
) (
Z



5
Necesitamos tambin conocer como cambia la probabilidad cuando cambia el valor de las variables
explicativas, por eso diferenciamos aqui F(Z) con respecto a Z. La caja muestra la regla general para la
derivada de un cociente que en esta caso se aplica a F(Z).
V
U
Y =
2
V
dZ
dV
U
dZ
dU
V
dZ
dY

=
2
2
) 1 (
) 1 (
) ( 1 0 ) 1 (
Z
Z
Z
Z Z
e
e
e
e e
dZ
dp


+
=
+
+
=
0 1 = =
dZ
dU
U
Z
Z
e
dZ
dV
e V

=
+ = ) 1 (
Z
e
Z F p

+
= =
1
1
) (



6
0
0.1
0.2
-8 -6 -4 -2 0 2 4 6
2
) 1 (
) (
Z
Z
e
e
dZ
dp
Z f

+
= =
La derivada de la probabilidad ser mxima cuando Z sea 0. La funcin marginal, f(Z), alcanza el mximo
en este punto.
Z
e
Z F p

+
= =
1
1
) (
) (Z f
Z



8
0.00
0.25
0.50
0.75
1.00
-8 -6 -4 -2 0 2 4 6
Aplicamos el modelo para el ejemplo del secundario que vimos anteriormente. Empezamos con el
modelo ms simple donde ASVABC es la nica variable explicativa, por lo que Z es una funcin simple de
esta variable.
Z
e
Z F p

+
= =
1
1
) (
) (Z F
ASVABC Z
2 1
| | + =
Z

. logit GRAD ASVABC

Iteration 0: Log Likelihood =-162.29468
Iteration 1: Log Likelihood =-132.97646
Iteration 2: Log Likelihood =-117.99291
Iteration 3: Log Likelihood =-117.36084
Iteration 4: Log Likelihood =-117.35136
Iteration 5: Log Likelihood =-117.35135

Logit Estimates Number of obs = 570
chi2(1) = 89.89
Prob > chi2 = 0.0000
Log Likelihood = -117.35135 Pseudo R2 = 0.2769

------------------------------------------------------------------------------
grad | Coef. Std. Err. z P>|z| [95% Conf. Interval]
---------+--------------------------------------------------------------------
asvabc | .1666022 .0211265 7.886 0.000 .1251951 .2080094
_cons | -5.003779 .8649213 -5.785 0.000 -6.698993 -3.308564
------------------------------------------------------------------------------

9
El mtodo que se utilizar para encontrar los coeficientes es el de Mxima Verosimilitud (Veremos ms
sobre este mtodo si tenemos tiempo) El comando en Stata es Logit. El proceso es iterativo.

. logit GRAD ASVABC

Iteration 0: log likelihood = -118.67769
Iteration 1: log likelihood = -104.45292
Iteration 2: log likelihood = -97.135677
Iteration 3: log likelihood = -96.887294
Iteration 4: log likelihood = -96.886017

Logit estimates Number of obs = 540
LR chi2(1) = 43.58
Prob > chi2 = 0.0000
Log likelihood = -96.886017 Pseudo R2 = 0.1836

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .1313626 .022428 5.86 0.000 .0874045 .1753206
_cons | -3.240218 .9444844 -3.43 0.001 -5.091373 -1.389063
------------------------------------------------------------------------------

10
ASVABC Z 131 . 0 240 . 3

+ =
i
ASVABC i
e
p
131 . 0 240 . 3
1
1

+
=



11
0.00
0.25
0.50
0.75
1.00
0 10 20 30 40 50 60 70 80 90 100
ASVABC
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.01
0.02
0.03
M
a
r
g
i
n
a
l

e
f
f
e
c
t
ASVABC Z 131 . 0 240 . 3

+ =
Como hay una sola variable explicativa, podemos dibujar la funcin de probabilidad y los efectos
marginales como funciones de ASVABC.
i
ASVABC i
e
p
131 . 0 240 . 3
1
1

+
=



12
El mayor efecto de ASVABC en los graduados est cuando es menor a 40, esto es, un nivel de habilidad
bajo. Cualquier individuo con un cierto score por arriba del promedio se va a graduar con casi
completa seguridad.
0.00
0.25
0.50
0.75
1.00
0 10 20 30 40 50 60 70 80 90 100
ASVABC
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.01
0.02
0.03
M
a
r
g
i
n
a
l

e
f
f
e
c
t
ASVABC Z 131 . 0 240 . 3

+ =
13
El estadstico t indica que los efectos de las variaciones en ASVABC sobre la probabilidad de graduarse son
altamente significativas.
Aqui el estadstico t es denotado como Z, porque la distribucin t solo es valida en distribuciones grandes
y aqui se utiliza la Normal, pero no tiene nada que ver con la funcin Z de la que venimos hablando.

. logit GRAD ASVABC

Iteration 0: log likelihood = -118.67769
Iteration 1: log likelihood = -104.45292
Iteration 2: log likelihood = -97.135677
Iteration 3: log likelihood = -96.887294
Iteration 4: log likelihood = -96.886017

Logit estimates Number of obs = 540
LR chi2(1) = 43.58
Prob > chi2 = 0.0000
Log likelihood = -96.886017 Pseudo R2 = 0.1836

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .1313626 .022428 5.86 0.000 .0874045 .1753206
_cons | -3.240218 .9444844 -3.43 0.001 -5.091373 -1.389063
------------------------------------------------------------------------------

ASVABC Z 131 . 0 240 . 3

+ =
i
ASVABC i
e
p
131 . 0 240 . 3
1
1

+
=



15
Los coeficientes de la funcin Z no tienen ninguna interpretacin intuitiva directa. Pero los utilizamos para
computar los valores de p y de la marginal para obtener resultados que podemos interpretar.
ASVABC Z 131 . 0 240 . 3

+ =
0.00
0.25
0.50
0.75
1.00
0 10 20 30 40 50 60 70 80 90 100
ASVABC
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.01
0.02
0.03
M
a
r
g
i
n
a
l

e
f
f
e
c
t


17
Como p es una funcin de
Z, y Z una funcin de X
variables, el efecto
marginal de X
i
sobre p
puede escribirse como el
producto del cambio
marginal de p sobre Z y el
cambio de Z con X
i
.
i
Z
Z
i
i i
e
e
Z f
X
Z
dZ
dp
X
p
| |
2
) 1 (
) (

+
= =
c
c
=
c
c
k k
X X Z | | | ...
2 2 1
+ + =
Z
e
Z F p

+
= =
1
1
) (


18
Ya obtuvimos
dp/dZ.
Y el efecto de X
i

sobre Z es el
coeficiente |
i
Z
Z
i
i i
e
e
Z f
X
Z
dZ
dp
X
p
| |
2
) 1 (
) (

+
= =
c
c
=
c
c
2
) 1 (
) (
Z
Z
e
e
dZ
dp
Z f

+
= =
k k
X X Z | | | ...
2 2 1
+ + =
Z
e
Z F p

+
= =
1
1
) (
Como p es una funcin de
Z, y Z una funcin de X
variables, el efecto
marginal de X
i
sobre p
puede escribirse como el
producto del cambio
marginal de p sobre Z y el
cambio de Z con X
i
.


19
i
Z
Z
i
i i
e
e
Z f
X
Z
dZ
dp
X
p
| |
2
) 1 (
) (

+
= =
c
c
=
c
c
k k
X X Z | | | ...
2 2 1
+ + =
Z
e
Z F p

+
= =
1
1
) (
2
) 1 (
) (
Z
Z
e
e
dZ
dp
Z f

+
= =
Ya obtuvimos
dp/dZ.
Y el efecto de X
i

sobre Z es el
coeficiente |
Como p es una funcin de
Z, y Z una funcin de X
variables, el efecto
marginal de X
i
sobre p
puede escribirse como el
producto del cambio
marginal de p sobre Z y el
cambio de Z con X
i
.
El efecto marginal no es constante porque depende de Z, que a su vez depende de los valores de las
variables explicativas. Un procedimiento comun es evaluarla en las medias de las variables explicativas.
22
Al evaluarlo en las medias, el valor de Z es igual a 3.507.

. sum GRAD ASVABC

Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
GRAD | 540 .9425926 .2328351 0 1
ASVABC | 540 51.36271 9.567646 25.45931 66.07963





Logit estimates Number of obs = 540
LR chi2(1) = 43.58
Prob > chi2 = 0.0000
Log likelihood = -96.886017 Pseudo R2 = 0.1836

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .1313626 .022428 5.86 0.000 .0874045 .1753206
_cons | -3.240218 .9444844 -3.43 0.001 -5.091373 -1.389063
------------------------------------------------------------------------------
507 . 3 36 . 51 131 . 0 240 . 3
2 1
= + = + = X Z | |
24
El efecto marginal, evaluado en la media es 0.004. Esto implica que un punto de incremento en la
nota de ASVABC aumentar la probabilidad de graduarse por 0.4 por ciento.
028 . 0
) 030 . 0 1 (
030 . 0
) 1 (
) (
2 2
=
+
=
+
= =

Z
Z
e
e
dZ
dp
Z f
004 . 0 131 . 0 028 . 0 ) ( = = =
c
c
=
c
c
i
i i
Z f
X
Z
dZ
dp
X
p
|
030 . 0
507 . 3
= =

e e
Z

. sum GRAD ASVABC

Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
GRAD | 540 .9425926 .2328351 0 1
ASVABC | 540 51.36271 9.567646 25.45931 66.07963




507 . 3 36 . 51 131 . 0 240 . 3
2 1
= + = + = X Z | |



25
En este ejemplo, el efecto marginal de ASVABC es muy bajo. La razon es que cualquiera con una nota
cercana al promedio se va a graduar con alta probabilidad. Entonces un aumento de la nota no tiene
mucho efecto.
51.36
0.00
0.25
0.50
0.75
1.00
0 10 20 30 40 50 60 70 80 90 100
ASVABC
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.01
0.02
0.03
M
a
r
g
i
n
a
l

e
f
f
e
c
t
26
Podramos haber calculado el efecto marginal en una nota de ASVABC ms baja, por ejemplo igual a
30. Un punto de incremento en ASVABC aumenta la probabilidad por 2.9 por ciento.
496 . 0
701 . 0
= =

e e
Z
222 . 0
) 496 . 0 1 (
496 . 0
) 1 (
) (
2 2
=
+
=
+
= =

Z
Z
e
e
dZ
dp
Z f
029 . 0 131 . 0 222 . 0 ) ( = = =
c
c
=
c
c
i
i i
Z f
X
Z
dZ
dp
X
p
|

. sum GRAD ASVABC

Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
GRAD | 540 .9425926 .2328351 0 1
ASVABC | 540 51.36271 9.567646 25.45931 66.07963




701 . 0 30 131 . 0 240 . 3
2 1
= + = + = X Z | |



27
Un individuo con una nota de 30 tiene una probabilidad de 67% de graduarse, y un incremento en la
nota tiene un impacto relativamente grande.



0.00
0.25
0.50
0.75
1.00
0 10 20 30 40 50 60 70 80 90 100
ASVABC
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.01
0.02
0.03
M
a
r
g
i
n
a
l

e
f
f
e
c
t

. logit GRAD ASVABC SM SF MALE

Iteration 0: log likelihood = -118.67769
Iteration 1: log likelihood = -104.73493
Iteration 2: log likelihood = -97.080528
Iteration 3: log likelihood = -96.806623
Iteration 4: log likelihood = -96.804845
Iteration 5: log likelihood = -96.804844

Logit estimates Number of obs = 540
LR chi2(4) = 43.75
Prob > chi2 = 0.0000
Log likelihood = -96.804844 Pseudo R2 = 0.1843

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .1329127 .0245718 5.41 0.000 .0847528 .1810726
SM | -.023178 .0868122 -0.27 0.789 -.1933267 .1469708
SF | .0122663 .0718876 0.17 0.865 -.1286307 .1531634
MALE | .1279654 .3989345 0.32 0.748 -.6539318 .9098627
_cons | -3.252373 1.065524 -3.05 0.002 -5.340761 -1.163985
------------------------------------------------------------------------------
28
Si agregamos algunas variables explicativas ms sabemos que el ajuste va a mejorar:

. sum GRAD ASVABC SM SF MALE

Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
GRAD | 540 .9425926 .2328351 0 1
ASVABC | 540 51.36271 9.567646 25.45931 66.07963
SM | 540 11.57963 2.816456 0 20
SF | 540 11.83704 3.53715 0 20
MALE | 540 .5 .5004636 0 1


29
Estimamos los efectos marginales, usando que todas las variables explicativas son iguales a sus medias.

Logit: Efectos Marginales

mean b product f(Z) f(Z)b

ASVABC 51.36 0.133 6.826 0.028 0.004

SM 11.58 0.023 0.269 0.028 0.001

SF 11.84 0.012 0.146 0.028 0.000

MALE 0.50 0.128 0.064 0.028 0.004

Constant 1.00 3.252 3.252

Total 3.514
30
El primer paso es calcular Z, cuando las X variables son iguales a sus medias.
514 . 3
...
2 2 1
=
+ + =
k k
X X Z | | |
Y luego f(Z).
030 . 0
514 . 3
= =

e e
Z
028 . 0
) 1 (
) (
2
=
+
=

Z
Z
e
e
Z f
32
Los efectos marginales son f(Z) multiplicado por sus coeficientes respectivos.
i
i i
Z f
X
Z
dZ
dp
X
p
| ) ( =
c
c
=
c
c

Logit: Efectos Marginales

mean b product f(Z) f(Z)b

ASVABC 51.36 0.133 6.826 0.028 0.004

SM 11.58 0.023 0.269 0.028 0.001

SF 11.84 0.012 0.146 0.028 0.000

MALE 0.50 0.128 0.064 0.028 0.004

Constant 1.00 3.252 3.252

Total 3.514
El efecto de ASVABC es similar al obtenido anteriormente. La escolaridad de la madre no tiene mucho
efecto y la del padre no tiene ningun efecto.
Los hombres se graduan con un 4% ms de probabilidad.
Estos efectos hubieran sido mayores si los evaluaramos en un score ms bajo.



1
0.00
0.25
0.50
0.75
1.00
-3 -2 -1 0 1 2
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.1
0.2
0.3
0.4
M
a
r
g
i
n
a
l

e
f
f
e
c
t
En el caso del modelo Probit, para mejorar las propiedades del ajuste, estimamos tambin un modelo
no lineal y con forma de S, a diferencia del Logstico, aqu utilizamos la funcin de probabilidad
acumulativa de una Normal.
) (Z F p=
) (Z F
k k
X X Z | | | + + + = ...
2 2 1
Z
Modelos de Decisin Binaria: 2- Modelo Probit



2
0.00
0.25
0.50
0.75
1.00
-3 -2 -1 0 1 2
C
u
m
u
l
a
t
i
v
e

e
f
f
e
c
t
0
0.1
0.2
0.3
0.4
M
a
r
g
i
n
a
l

e
f
f
e
c
t
2
2
1
2
1
) (
Z
e Z f

=
t
El mtodo para obtener los parmetros tambin ser el de Mxima Verosimilitud.
k k
X X Z | | | + + + = ...
2 2 1
Z

. probit GRAD ASVABC SM SF MALE

Iteration 0: log likelihood = -118.67769
Iteration 1: log likelihood = -98.195303
Iteration 2: log likelihood = -96.666096
Iteration 3: log likelihood = -96.624979
Iteration 4: log likelihood = -96.624926

Probit estimates Number of obs = 540
LR chi2(4) = 44.11
Prob > chi2 = 0.0000
Log likelihood = -96.624926 Pseudo R2 = 0.1858

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .0648442 .0120378 5.39 0.000 .0412505 .0884379
SM | -.0081163 .0440399 -0.18 0.854 -.094433 .0782004
SF | .0056041 .0359557 0.16 0.876 -.0648677 .0760759
MALE | .0630588 .1988279 0.32 0.751 -.3266368 .4527544
_cons | -1.450787 .5470608 -2.65 0.008 -2.523006 -.3785673
------------------------------------------------------------------------------
3
En Stata, estimamos el modelo usando el comando PROBIT. Aqu estan los resultados para el modelo
anterior.

. probit GRAD ASVABC SM SF MALE

Iteration 0: log likelihood = -118.67769
Iteration 1: log likelihood = -98.195303
Iteration 2: log likelihood = -96.666096
Iteration 3: log likelihood = -96.624979
Iteration 4: log likelihood = -96.624926

Probit estimates Number of obs = 540
LR chi2(4) = 44.11
Prob > chi2 = 0.0000
Log likelihood = -96.624926 Pseudo R2 = 0.1858

------------------------------------------------------------------------------
GRAD | Coef. Std. Err. z P>|z| [95% Conf. Interval]
-------------+----------------------------------------------------------------
ASVABC | .0648442 .0120378 5.39 0.000 .0412505 .0884379
SM | -.0081163 .0440399 -0.18 0.854 -.094433 .0782004
SF | .0056041 .0359557 0.16 0.876 -.0648677 .0760759
MALE | .0630588 .1988279 0.32 0.751 -.3266368 .4527544
_cons | -1.450787 .5470608 -2.65 0.008 -2.523006 -.3785673
------------------------------------------------------------------------------
4
Como en el caso del Logit, los coeficientes no tienen una interpretacin directa. Sin embargo,
podemos utilizarlos para computar los efectos marginales en la probabilidad de graduarse.
5
De la misma forma que en el Logit, tenemos que computar aqui el efecto marginal como el producto d
del cambio marginal de p cuando cambia Z, multiplicado por el efecto marginal de Z cuando cambia Xi.
i
Z
i
i i
e Z f
X
Z
dZ
dp
X
p
|
t
|
|
|
.
|

\
|
= =
c
c
=
c
c

2
2
1
2
1
) (
k k
X X Z | | | ...
2 2 1
+ + =
) (Z F p=
6
El efecto marginal de Z sobre p esta dado por la distribucin normal estandarizada. El efecto marginal
de X
i
sobre Z esta dado por |
i
.
i
Z
i
i i
e Z f
X
Z
dZ
dp
X
p
|
t
|
|
|
.
|

\
|
= =
c
c
=
c
c

2
2
1
2
1
) (
2
2
1
2
1
) (
Z
e
dZ
dp
Z f

= =
t
k k
X X Z | | | ...
2 2 1
+ + =
) (Z F p=
8
Tambien como en el anlisis de efectos marginales del Logit, los efectos varian con Z. Un
procedimiento comun es evaluarlo para el valor promedio de las variables explicativas.

. sum GRAD ASVABC SM SF MALE

Variable | Obs Mean Std. Dev. Min Max
-------------+--------------------------------------------------------
GRAD | 540 .9425926 .2328351 0 1
ASVABC | 540 51.36271 9.567646 25.45931 66.07963
SM | 540 11.57963 2.816456 0 20
SF | 540 11.83704 3.53715 0 20
MALE | 540 .5 .5004636 0 1



Probit: Efectos Marginales

mean b product f(Z) f(Z)b

ASVABC 51.36 0.065 3.328 0.068 0.004

SM 11.58 0.008 0.094 0.068 0.001

SF 11.84 0.006 0.066 0.068 0.000

MALE 0.50 0.063 0.032 0.068 0.004

constant 1.00 1.451 1.451

Total 1.881
9
881 . 1
...
2 2 1
=
+ + =
k k
X X Z | | |
En este caso Z es igual a 1.881 cuando las X variables son iguales a las medias muestrales.
068 . 0
2
1
) (
2
2
1
= =
Z
e Z f
t
11
i
i i
Z f
X
Z
dZ
dp
X
p
| ) ( =
c
c
=
c
c

Probit: Efectos Marginales

mean b product f(Z) f(Z)b

ASVABC 51.36 0.065 3.328 0.068 0.004

SM 11.58 0.008 0.094 0.068 0.001

SF 11.84 0.006 0.066 0.068 0.000

MALE 0.50 0.063 0.032 0.068 0.004

constant 1.00 1.451 1.451

Total 1.881

Probit: Efectos Marginales

mean b product f(Z) f(Z)b

ASVABC 51.36 0.065 3.328 0.068 0.004

SM 11.58 0.008 0.094 0.068 0.001

SF 11.84 0.006 0.066 0.068 0.000

MALE 0.50 0.063 0.032 0.068 0.004

constant 1.00 1.451 1.451

Total 1.881
12
Cada ao extra de escolaridad de la madre decrece la probabilidad de graduarse por 0.1 por ciento.
Los hombres tienen 0.4 por ciento mayor probabilidad que las mujeres.
i
i i
Z f
X
Z
dZ
dp
X
p
| ) ( =
c
c
=
c
c
Comparacin de los 2 modelos
Logit Probit Linear

f(Z)b f(Z)b b

ASVABC 0.004 0.004 0.007

SM 0.001 0.001 0.002

SF 0.000 0.000 0.001

MALE 0.004 0.004 0.007
13
Los resultados de logit y probit se muestran a continuacin. Los coeficientes en las regresiones son
muy diferentes. Sin embargo los efectos marginales son parecidos.
Si la variable resultado se dividiese entre una gran mayora (por ejemplo de 1s) y una pequea
minoria (por ejemplo de 0s), los resultados diferira, esto es porque en las colas las distribuciones son
distintas.
No tenemos un criterio para elegir el mejor modelo.

18
Finalmente comparamos los resultados con los del modelo lineal.
Si la variable dependiente se distribuyese de forma similar, los coeficientes se aproximaran, pero en
casos como este, donde hay un resultado que domina, los coeficientes difieren notablemente.
Comparacin de los 3 modelos
Logit Probit Linear

f(Z)b f(Z)b b

ASVABC 0.004 0.004 0.007

SM 0.001 0.001 0.002

SF 0.000 0.000 0.001

MALE 0.004 0.004 0.007

Autor: Maria da Piedade Morais, Bruno de Oliveira


Ttulo: Housing Demand, Tenure Choice and Housing policy in Brazil


Pregunta/Propsito:

Con el objetivo de disear polticas orientadas al mercado habitacional, se
busca analizar los determinantes de la tenencia de propiedad en los
mercados formales e informales en Brasil.

Cales son las caractersticas (socioeconmicas) que determinan que las
familias elijan ser propietarios o inquilinos?




Idea de la metodologa:

Anlisis de DTs: Preguntas, metodologas y datos
Dueo
formal
Inquilino
informal
Inquilino
formal
Dueo
informal
Eleccin
de Tenecia
Vulnerabilidad
social
Ciclo de vida
Ingreso -
Riqueza
Localizacin
Dueo de la casa
y de la tierra. La
unidad no est
ubicada en una
zona considerada
de emergencia.
Inquilino en una
zona de
emergencia o
similar
Dueo slo de la
casa u otro tipo
de ocupacin.
Inquilino en una
zona no
considerada de
emergencia


Idea de la metodologa:

Se estima un modelo economtrico de la probabilidad de ser propietario,
inquilino u ocupante.



Modelo Probit o multinomial.
Variables explicativas:
Caractersticas del ciclo de la vida: Tamao de la familia, Edad del jefe
de hogar, Estado Civil
Caractersticas del Ingreso: Ingreso Per cpita, Ingreso del hogar, Aos
de escolaridad del jefe de hogar, proxys del ingreso.
Vulnerabilidad Social y restricciones al crdito: Gnero (mujer soltera
con nios menores de 14), Inmigrante, Raza Dependencia Econmica,
Esttus en el mercado de trabajo
Variables de localizacin: reas metropolitanas, ciudades grandes,
regiones

Anlisis de DTs: Preguntas, metodologas y datos
Algunos Resultados: Estadsticas Descriptivas


Curva de Lorenz

Representacin grfica de una funcin de distribucin acumulada. En general se la
usa para mirar cuestiones relacionadas a la distribucin del ingreso. En este caso
cada punto de la curva representa un "que porcentaje de los individuos posee un
ingreso menor a Y"
En el eje de las abscisas podemos graficar la variable de inters (en trminos
absolutos o en %) y en las ordenadas el porcentaje acumulado.




Curva de Lorenz

Distribucin de perfecta igualdad: Todos los individuos tienen el mismo ingreso. La
curva en realidad es una linea recta 45.

Distribucin de perfecta desigualdad: Una persona tiene todo el ingreso, los dems
nada. En este caso la curva toma y = 0 para todo x < 100%, luego y = 100% cuando
x = 100%.



Anlisis de DTs: Preguntas, metodologas y datos
Algunos Resultados: Estadsticas Descriptivas
Anlisis de DTs: Preguntas, metodologas y datos
Algunos Resultados
Edad y condicin de inmigrante contra la probabilidad de
tenencia de propiedad
Algunos Resultados
Impacto de la edad en la probabilidad de tenencia de propiedad
Ms Resultados:
Las variables de localizacin presentan el signo esperado: Vivir en ciudades
grandes reduce la probabilidad de ser propietario.

La educacin aumenta la probabilidad de ser propietario.


Datos: Caractersticas de la propiedad de las viviendas

i. Muestra de hogares:

Tamao de la familia, Edad del jefe de hogar, Estado
Civil
Ingreso Per cpita, Ingreso del hogar, Aos de
escolaridad del jefe de hogar, proxys del ingreso.
Gnero (mujer soltera con nios menores de 14),
Inmigrante, Raza Dependencia Econmica, Esttus
en el mercado de trabajo
reas metropolitanas, ciudades grandes, regiones

Anda mungkin juga menyukai