Anda di halaman 1dari 114

ESTADISTICA

por

Marco Antonio Alfaro Sironvalle


Ingeniero Civil de Minas, Universidad de Chile

Doctor en Geoestadstica, Escuela de Minas de Pars. Profesor de Estadstica, Probabilidades y Procesos Estocsticos, Universidad De Chile Profesor de Evaluacin de Yacimientos en la Universidad de Santiago de Chile

Junio, 2000

0.

INTRODUCCIN A LA ESTADSTICA.

La palabra Estadstica se usa para caracterizar hechos numricos reunidos sistemticamente en cualquier campo, ya sea de observacin o experimental. La Estadstica se puede dividir en tres grandes captulos: a) Estadstica Descriptiva : Se ocupa del estudio de datos, los cuales se disponen en la forma ms conveniente para su anlisis o inspeccin. b) Teora de Probabilidades : Se ocupa del estudio de un modelo matemtico, que formaliza ciertos elementos de regularidad que sugieren leyes. Estas leyes se expresan en forma de axiomas lgicos, desarrollando las consecuencias de los axiomas, produciendo as un conjunto de teoremas o proposiciones. c) Inferencia Estadstica : Se ocupa de las relaciones entre el modelo matemtico y la practica, constituyendo, en cierta forma, la rama aplicada de la estadstica.

I.

ESTADSTICA DESCRIPTIVA.

I.1.

DEFINICIONES.

a) Fenmenos Aleatorios : Desde hace algunos aos se ha comenzado a estudiar, de manera cientfica, los fenmenos aleatorios, que son aquellos en que las mismas causas dan lugar resultados diferentes. b) Experimentos Aleatorios : Se llama experimento aleatorio a una experiencia cuyo resultado depende del azar, es decir, puede variar cuando esta se repite en condiciones supuestas idnticas, ejemplos. - tirar un dado y ver el nmero que aparece. - medir las horas de duracin de una ampolleta. c) Resultado : Es la informacin aportada por la realizacin de una experiencia. el conjunto de todos los resultados posibles de un experimento se llama espacio muestral y se designa por la letra , ejemplos: - = { 1, 2, 3, 4, 5, 6 }, para el lanzamiento de un dado. - = { x : x 0 }, si se mide la estatura de un individuo. I.2. PRESENTACIN DE RESULTADOS EXPERIMENTALES

a) Variable estadstica asociada a un experimento : Si a cada resultado se le asocia un nmero perteneciente a un cierto conjunto, se dice que este nmero es una variable estadstica. Se utilizan letras maysculas para representar las variables estadsticas, ejemplos: - X = estatura de un individuo. - X= resultado de tirar un dado. - X = temperatura a las 12 horas en un punto dado. b) Muestra de n resultados : Es el conjunto de valores tomados por una variable estadstica durante n experimentos, ejemplo: - M = { 6, 2, 3, 3, 4, 5, 6, 3, 1, 1 } si se tira 10 veces un dado. - M = { 0.96; 1.02; 0.50; 030; 0.89 } si se analizan 5 muestras por cobre dentro de un yacimiento. En general : M = { x1, x2, ..., xn }. I.3. CASO DE UNA VARIABLE DISCRETA.

Una Variable estadstica es Discreta, si el conjunto de valores posibles se puede poner en la forma R = { a1, a2, ... , ak } en que k es el nmero de valores diferentes que puede tomar la muestra. Sea una muestra de tamao n y sea ri el nmero de repeticiones del valor ai en la serie de n experimentos. Se tiene la relacin ri = n

i =1

En donde ri es la frecuencia absoluta del valor ai. Se define la frecuencia relativa del valor ai como:

fi =
se tiene entonces la relacin :
k

ri n

fi = 1
i =1

Ejemplo: Sea la muestra M = { 0, 3, 1, 1, 2, 1, 2, 2 } , n=8 a1 = 0 , a2 = 1 , a3 = 2 , a4 = 3 , k = 4 r1 = 1 , r2 = 3 , r3 = 3 , r4 = 1 f1 = 1/8 , f2 = 3/8 , f3 = 3/8 , f4 = 1/8 En el caso general se puede construir la siguiente tabla: X ri fi a1 r1 f1 a2 r2 f2 ........... ........... ........... ak rk fk

y dibujar un diagrama de frecuencias:


f2 f1 fk a1 a2 ak

I.4.

CASO DE UNA VARIABLE CONTINUA.

Una variable estadstica es continua si toma sus valores en un conjunto continuo, es decir, un intervalo del eje real. Para reducir una muestra M = { x1, x2, ... , xn } de una variable continua, se definen clases, que son intervalos disjuntos que cubren el dominio de definicin de la variable, Ejemplo : Leyes de Cu de un conjunto de testigos, eligiendo clases iguales de magnitud 0.1 X ri fi ci 0 x < 0.1 r1 f1 c1 0.1 x < 0.2 r2 f2 c2 0.2 x < 0.3 r3 f3 c3 ............... ............... ............... ...............

Se define, anlogamente : ri = numero de datos de la muestra que caen en la clase ci fi = frecuencia relativa de la clase ci ( ci = ri / n) ci = magnitud de la clase ci La representacin grfica de la tabla anterior se llama histograma ( k = nmero de clases )

fi

Histograma

f2 f1 fk 0 0.1 0.2 0.3 0.4 0.5 0.6 c1 c2 ci 0.7 0.8 0.9 ck

Fig.1

Para construir un histograma, se recomienda, en Estadstica, un mnimo de 8 clases, para lo cual se requiere un mnimo tambin de 30 datos. En el caso continuo tambin son vlidas las relaciones:

ri = n
i =1

f
i =1

=1

I.5.

EL DIAGRAMA ACUMULADO

Para caracterizar una variable estadstica se utiliza tambin el diagrama acumulado F(x) que representa la frecuencia relativa acumulada en el histograma hasta el punto x. La figura 2 nos muestra como se construye el diagrama acumulado a partir del histograma.
0.30 0.20 0.10 0.05 0.20 0.10 0.05

0
F(x)

1.0 0.8 0.6


0.65

0.85

Fig.2 0.4 0.2


0.05 0.15 0.35

En trminos intuitivos F(x) representa el porcentaje de valores de la muestra que la muestra que son inferiores a x. I.6. PARMETROS DE UNA DISTRIBUCIN ESTADSTICA.

Adems del histograma y del diagrama acumulado, existen varios parmetros que caracterizan el comportamiento de una muestra. a) Parmetros de Tendencia Central : Los parmetros de tendencia ms importantes son la media y la mediana. i) La Media Aritmtica : Sea la muestra M = { x1, x2, ..., xn } la medida tpica ms comnmente utilizada es la media, definida simplemente por:

x=

x1 + x 2 + .... + x n 1 n = xi n n i=1

En el caso en que los datos se han agrupado en un diagrama de frecuencias o un histograma, se tendr lo siguiente: Si la variable es discreta, se calcula por :

x = a i fi
i =1 k

Si la variable es continua, se calcula, aproximadamente por :

x = x i fi
i =1

en que xi es el punto medio de la clase ci. ii) La Mediana : Supongamos que la muestra M = { x1, x2, ..., xn } ha sido ordenada de menor a mayor obtenindose la muestra ordenada M = { y1, y2, ..., yn } con y1 y2 ...... yn , se define la mediana por : Si n es impar : M = y n +1
2

Si n es par :

y n + y n+2 2 M= 2 2

Ejemplo : Se dispone de la muestra, con datos de leyes de Cu siguientes : M = { 0.95 , 1.02 , 0.90 , 4.03 , 1.10 } M = {0.90 , 0.95 , 1.02 , 1.10 , 4.03} = {y1, y2, y3, y4, y5} luego la mediana es M = y3 = 1.02. La mediana tiene la propiedad siguiente : el 50 % de los datos es menor que M y el 50% de los datos es mayor que M, es decir M divide la muestra en dos partes iguales. La mediana esta menos afectada por valores extremadamente altos ( o extremadamente pequeos ) que la media, en el ejemplo anterior la media es : x = 1.60 valor muy afectado por el dato 4.03 La mediana se puede determinar grficamente utilizando el diagrama acumulado F(x). Segn lo anterior la mediana es el valor xM para el cual se cumple la relacin F(xM) = 0.5

F(x) 1.0 0.8 0.6


0.50

Fig.3

0.4 0.2
XM X

b) Parmetros de dispersin : Adems de poder encontrar la media de una muestra, resulta importante medir la variacin de los datos con respecto a este valor central. La variacin de los datos con respecto a la media esta caracterizada por las diferencias : (x1 x), (x 2 x),....., (x n x). Para encontrar un indicador de la variacin, se pueden promediar estas diferencias :

x1 x + x 2 x + .... + x n x , pero n x + x + .... + x n = 1 2 x = 0 n

Luego la desviacin promedio es siempre nula. Esto proviene del hecho que las desviaciones positivas se cancelan con las desviaciones negativas. Para definir una medida de la variacin se toman entonces las diferencias elevadas al cuadrado : ( x1 x ) 2 Tenemos entonces la definicin siguiente : Se llama Varianza de la muestra M = { x1, x2, ..., xn} a :
,

( x2 x) 2

,.......,

(xn x) 2 .

2 =
o bien :

( x1 x )2 +( x2 x )2 +
n

+ ( xn x )2

2 =

1 (x i x)2 n i =1

La varianza constituye una medida de dispersin con respecto a la media y es un nmero 0, en el nico caso en que 2 = 0 , es aquel de una muestra del tipo M = { a , a ,..., a } con a = cte., es decir una muestra sin variacin. Debido a que la varianza es una suma de cuadrados, la unidad de 2 es igual a la unidad de la muestra elevada al cuadrado, es decir si X se mide en % de Cu, 2 se mide en (% de Cu)2. Por esta razn se define la desviacin tpica como :

= 2

La desviacin tpica est expresada en las mismas unidades de la variable estadstica, tambin constituye una medida de dispersin. c) Otras Medidas de Dispersin. Existen otras medidas de dispersin basadas en los cuartiles o percentiles de orden . Se llama percentil de orden ( 0 < < 1 ), al valor x tal que f(x) = . Este valor se puede obtener grficamente utilizando la funcin F(x).
F(x) 1.0

0.8

Fig.4

0
Percentil de orden 0.8

x0.8

El percentil x divide la muestra de datos en dos partes : el % de los valores es menor que x y el ( 1 - )% de los valores es mayor que x. Existen tres percentiles importantes llamados cuartiles : X0.25 se llama primer cuartil. X0.50 se llama segundo cuartil ( y es la mediana ). X0.75 se llama tercer cuartil. Como medida de dispersin de la muestra se utiliza el recorrido intercuartlico, definido por : R = x0.75 x0.25 La magnitud de R nos da una medida de la dispersin de la muestra ( ver figura 5 )

Histograma con poca dispersin

Histograma con mayor dispersin

x F(x) 1 0.75 F(x) 1 0.75

0.25 0 R Recorrido pequeo x

0.25 0 x R Recorrido mayor

Fig.5

Observacin : otros autores utilizan como medida de dispersin el recorrido siguiente : R = x0.90 x0.10 Otras medidas que se utilizan para caracterizar el comportamiento de una muestra son el Coeficiente de Simetra y el Coeficiente de Kurtosis. d) El Coeficiente de Simetra .

El coeficiente de simetra , sirve para caracterizar comportamientos tales como :


>0

<0

=0

a) Asimetra Negativa

b) Asimetra Positiva

c) Simetra

Fig.6

El Coeficiente de Simetra se define por :

=
En que :

3 3

3 =

1 n

(x
i =1

x )3

Se puede demostrar que : < 0 asimetra negativa. > 0 asimetra positiva. = 0 asimetra nula (simetra). e) El Coeficiente de Exceso o de Kurtosis E. El coeficiente de Kurtosis E es una medida del grado de achatamiento de un histograma con respecto al modelo terico de Gauss, el cual tiene por ecuacin : Donde :

f ( x) =
= varianza de la muestra. m = media de la muestra = x .
2

1 xm e 2

E>0 Gauss

E<0 Gauss

E=0 Gauss

a) Histograma ms puntiagudo que la ley de Gauss

b) Histograma ms achatado que la ley de Gauss

c) Histograma sin achatamiento

Fig.7

Al comparar un cierto histograma con la funcin f(x), se pueden presentar los casos siguientes : El Coeficiente de Kurtosis se define se por:

E=

4 1 n 3 en que 4 = (x i x)4 4 n i =1

Se puede demostrar que : - E > 0 Histograma mas puntiagudo que la ley de Gauss. E = 0 Histograma sin achatamiento E < 0 Histograma mas achatado que la ley de Gauss.

II.

VARIABLES ESTADISTICAS BIDIMENSIONALES.

A menudo se realizan experimentos cuyos resultados dan lugar a un par de nmeros o a una serie de nmeros. Ejemplo : ( X , Y ) , en que X = ley de Cu , Y = ley de S. O bien : ( X , Y , Z ) , en que X = ley de Pb , Y = ley de Zn , y Z = ley de Au En el caso bidimensional, una muestra de n observaciones es de la forma : M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } La agrupacin de la muestra se hace mediante una tabla del tipo tabla de contingencia : Y a0 y < a1 a1 y < a2 ap-1 y < ap X b0 x < b1 r11 r21 rp1 b1 x < b2 r12 r22 rp2 .......... .......... .......... .......... bk-1 x < bk r1k r2k rpk

y un histograma en el espacio seria de la forma :

Fig.8

Un mtodo ms simple para ilustrar los datos bidimencionales es el Diagrama de Dispersin o Nube de Puntos. Las dos medidas ( xi , yi ) se consideran como un par ordenado, que puede representarse como un punto en el sistema de coordenadas rectangulares; la muestra : M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } Constituye entonces una nube de puntos.

10

Fig.9 La figura 9 muestra la nube de correlacin ley de U3O8 radiactividad para 74 muestras, del yacimiento Saelices (Espaa). La figura 10 resume los casos que se podran encontrar al estudiar dos variables estadsticas X e Y:

Fig.10 Existen herramientas para cuantificar los comportamientos anteriores y son la Covarianza y el Coeficiente de Correlacin. II.1 LA COVARIANZA.

Supongamos que nuestra muestra. M = { (x1 , y1), (x2 , y2), ..., (xn , yn) } la escribimos en columnas, agregando una columna de productos xi*yi :

11

X x1 x2 xn Promedio X Se define la Covarianza entre x e y por :

Y y1 y2 yn Promedio Y

X*Y x1*y1 x2*y2 xn*yn Promedio X*Y

c xy = xy x y
Lo cual se puede escribir tambin como :

n n n = 1 x y 1 x 1 y xy n i i n i n i i =1 i = 1 i = 1

Se puede demostrar que : i) Si la correlacin es positiva : Cxy > 0 ii) Si la correlacin es negativa : Cxy < 0 iii) Si la correlacin es nula : Cxy = 0 Ejemplo : calcular Cxy en el caso de la muestra M = { (1,1) , (2,2) , (2,3) , (3,4) } X 1 2 2 3 x=2 Y 1 2 3 4 y = 2 .5 X*Y 1 4 6 12 x y = 5.75

Cxy = 5.75 2*2.5 = 0.75 > 0 La unidad de la covarianza es (unidad de x)*(unidad de y), debido a lo anterior se prefiere usar una cantidad adimencional, que es el Coeficiente de Correlacin, definido por : C = xy

x y

en que : x =
2

1 1 (x i x)2 , y 2 = n (y i y)2 n i =1 i =1

es un nmero sin dimensin que verifica las propiedades siguientes : i) 1 1 ii) Si la correlacin es positiva : 0 < 1

12

iii) iv) v) vi)

Si la correlacin es negativa : -1 < 0 Si la correlacin es nula : =0 Si = 1, entonces y = x + , con > 0 Si = -1, entonces y = - x + , con > 0

Cuando cae en el intervalo achurado, se puede considerar que la correlacin (positiva o negativa) es significativa :
Correlacin significativa

- 1.0

- 0.5

0.5 Correlacin debil

1.0

II.1

LA CURVA DE REGRESIN.

La curva de regresin y = m(x) representan el promedio de la variable y para un valor dado de x. El valor numrico de m(x0) se puede hallar grficamente al promediar todos los valores que caen en una franja cercana a x0 (fig. 11) :

Fig.11

En general m(x) es una funcin de x. Si esta funcin es una recta se dice que la regresin es lineal (ver fig.12a ). Cuando no existe correlacin entre x e y, la curva de regresin es una constante. (ver fig. 12b )

(a) Fig.12

(b)

13

III.

CALCULO DE PROBABILIDADES.

En los prrafos anteriores hemos estudiado las situaciones aleatorias desde un punto de vista descriptivo. Se hace necesario introducir un modelo matemtico. La exposicin axiomtica moderna es el nico mtodo riguroso para construir la teora del clculo de probabilidades. Antes de enunciar los axiomas de las probabilidades necesitamos introducir el concepto de sucesos o eventos aleatorios : Sucesos : Sea un experimento aleatorio. Se llama espacio muestral al conjunto de todos los resultados posibles. Se designa por la letra . Ejemplos : (i) al tirar un dado = { 1, 2, 3, 4, 5, 6 } (ii) al tirar una moneda ={ cara, sello } Se llama suceso a cualquier subconjunto del espacio muestral Ejemplo : A = tirar un dado y sacar un nmero impar = { 1, 3, 5 }, es un suceso ya que es subconjunto de = { 1, 2, 3, 4, 5, 6 } Sea un experimento aleatorio y sea A un suceso, entonces al hacer un experimento solo caben dos alternativas : Ocurre el suceso A. No ocurre el suceso A. De acuerdo a lo anterior se definen otros tipos de sucesos : a) Suceso Seguro : Es aquel que siempre ocurre. Es fcil ver que suceso seguro y espacio muestral son lo mismo. Lo designaremos con la letra . b) Suceso Imposible : Es aquel que nunca ocurre. Lo representaremos por la letra . Por ejemplo al tirar un dado = sacar el nmero 7 c) Suceso Contrario : A es el suceso contrario de A, si ocurre cuando no ocurre A. Ejemplo: Si al tirar un dado A = { 2, 4, 6 }, entonces A = { 1, 3, 5 }. Se tiene las siguientes relaciones lgicas :
A= A ; = ;

d) Suceso Interseccin : Sean A y B sucesos, se define la interseccin de A y B como el suceso C que ocurre cuando A y B ocurren simultneamente. Escribamos C = A B. Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 }, entonces A B = { 2 }. e) Sucesos iIncompatible : Dos sucesos A y B se dicen incompatibles si no pueden ocurrir simultneamente. En este caso, segn la definicin : A B = .

14

f) Suceso Unin : Sean A y B sucesos, se define la unin de A y B como el suceso D que ocurre cuando A B ambos a la vez. Se escribe D = A B. Ejemplo: Si A = { 1, 2 } , B = { 2, 4, 6 } entonces A B = { 1, 2, 4, 6 }.

A A = Se tiene la relacione lgica : Los conceptos anteriores pueden visualizarse mediante los diagramas de Venn de la teora de conjuntos :
A
A

A
A

AB Fig.13

AB

AB=

III.1

DEFINICION AXIOMATICA DE LA PROBABILIDAD

Se llama probabilidad de un suceso A a un numero real P(A) que satisface los axiomas siguientes: Axioma 1 : P(A) 0 Axioma 2 : Axioma 3 : entonces : P(A B) = P(A) + P(B)
A B

P() = 1 Si A y B son sucesos incompatibles, es decir A B = ,

Observacin : El sistema de axiomas anteriores es incompleto; no nos dice como se calcula una probabilidad, de modo que se puede adoptar la definicin de probabilidad al fenmeno que se quiere estudiar. Dependiendo de las condiciones del problema, se calculara la probabilidad de un suceso A por : i)

P ( A) =

k = N de casos favorables a A / N de casos totales n

ii)

nA P ( A) = lim n n

En que nA es el numero de veces que ocurre A en una serie de n repeticiones del experimento.

15

iii) En los casos de probabilidades geomtricas, se calcula P(A) como una razn de longitudes, de reas o de volmenes. Ejemplo: Si se tira en S un s punto al azar ( es decir sin apuntar ), la probabilidad S de que impacte en s es : P(A) = s / S Las tres maneras de calcular una probabilidad que hemos visto satisface los axiomas. III.2 CONSECUENCIAS DE LOS AXIOMAS

Las propiedades siguientes resultan como consecuencia inmediata de los axiomas : - Propiedad 1 : P( ) = 0 - Propiedad 2 : P ( A ) = 1 P( A ) - Propiedad 3 : P( A B ) = P( A ) + P( B ) P( A B ) ; III.3 PROBABILIDAD CONDICIONAL (AB)

Sea B un suceso del cual sabemos que ha ocurrido. La probabilidad condicional de un suceso A dado que ha ocurrido B, escrita P( A B ), se define por :

P( A B ) =

P( A B ) P( B )

(1)
A B

Y se llama probabilidad condicional de A dado B. La probabilidad condicional De B dado A se define por :

P ( B A) =

P( A B) P ( A)

(2)

Regla de la multiplicacin : De (1) y (2) se deduce que :

P ( A B ) = P ( A) P ( B A) = P ( B ) P ( A B)

(3)

Ejemplo : Se sacan 2 cartas consecutivamente ( sin devolucin ) de una baraja. Sean : A = La primera carta es un as B = La segunda carta es un as P( A B ) = P( A )*P( B A ) = (4 / 52)*(3 / 51) = 0,0045 La formula (3) se puede generalizar para ms sucesos, por ejemplo, con tres sucesos A, B, C : P( A B C ) = P( A )*P( B A )*P( C A B ) (4)

16

Y para n sucesos A1, A2,....., An : P(A1A2....An) = P(A1)*P(A2 A1)*P(A3 A1 A2)*.....*P(An A1 A2.... An-1) Ejemplo : Se sacan 4 cartas consecutivamente ( sin devolucin ) de una baraja. Sean : A1 = La primera es un as ; A2 = La segunda es un as A3 = La tercera es un as ; A4 = La cuarta es un as : P(A1A2A3A4) = (4 / 52)*(3 / 51)*(2 / 50)*(1 / 49) = 0,0000037 III.4 SUCESOS INDEPENDIENTES (5)

En trminos intuitivos dos sucesos A y B son independientes si la ocurrencia de B no afecta la ocurrencia de A. En trminos formales tendremos la definicin siguiente : Definicin :Dos sucesos A y B son independientes si : P( A B ) = P( A ) (6)

Al introducir la ecuacin (6) en la ecuacin (3), se tiene que si A y B son independientes, entonces: P( A B ) = P( A )*P( B ) (7) Al introducir (7) en (2), se tiene : P( B A ) = P( B ) Ejemplo : Se ponen al azar en una fila 3 personas A, B y C. Sean los sucesos : S = A esta a la izquierda de B T = C esta a la izquierda de B Encontrar P( S ), P( T ), P(S T ), P( S T ), Son independientes S y T ? Solucin : = { ABC, ACB, BAC, BCA, CAB, CBA } S = { ABC, ACB, CAB } T = { ACB, CAB, CBA } S T = { ACB, CAB } Luego : P( S ) = 3/6 = 1/2 = P( T ) P(S T ) = 2/6 = 1/3 P( S T ) = P(S T ) / P( T ) = (1/3) / (1/2) = 2 / 3 Luego S y T no son independientes porque P( S T ) P( S ).

17

IV.

VARIABLES ALEATORIAS

Se llama variable aleatoria al resultado de un experimento aleatorio cuando este resultado se puede expresar por un numero. Se utilizan letras maysculas para describir las variables aleatorias. Ejemplos: a) X = resultado de tirar un dado b) Y = estatura de un individuo elegido al azar c) Z = resultado de tirar una moneda. Z no es una variable aleatoria porque su resultado (C S) no es un numero. Se puede observar que una variable aleatoria es la transposicin terica de una variable estadstica. Rango de una Variable Aleatoria : Se llama rango R de una variable aleatoria X al conjunto de todos los valores que puede tomar X. Ejemplo: a) X = resultado de tirar un dado R = { 1, 2, 3, 4, 5, 6 } b) X = terminacin de la lotera R = { 0, 1, 2, 3, 4, 5, 6, 7, 8, 9 } c) X = duracin de una ampolleta R = { t : t 0 } Tipos de Variables Aleatorias : Existen dos tipos de variables aleatorias : a) Variable Aleatoria Discreta : es aquella en la cual el rango R es de la forma : R = { x1, x2, x3,......, xn } b)
x x1 x2 xi

Variable Aleatoria Continua : es aquella en la cual el rango R es de la forma : R = {x:a x b}


x a b

( a y b pueden ser eventualmente - y + ). IV.1 DESCRIPCION PROBABILISTICA DE UNA VARIABLE ALEATORIA

Definicin 1 : Sea X una variable aleatoria discreta, a cada valor posible xi le asociamos un valor p(xi) = P( X = xi ), llamado probabilidad de xi el cual satisface : a) p ( xi ) 0 b) p(x 1 ) + p(x 2 ) + .... + p(x i ) + .... = 1 (p(xi) se llama funcin de probabilidad ) Ejemplo :Se tiran 3 monedas diferentes al aire. Sea X = numero de caras . Encontrar R y p(xi).

p(x ) = 1
i i

18

Solucin : Los casos posibles del experimento son : = { SSS, SSC, SCS, CSS, CCS, CSC, SCC, CCC } X=0 Luego
X=1 X=2 X=3

R = { 0, 1, 2, 3 } p( 0 ) = P( X = 0 ) = 1 / 8 p( 1 ) = P (X = 1 ) = 3 / 8 p( 2 ) = P (X = 2 ) = 3 / 8 p( 3 ) = P (X = 3 ) = 1 / 8

( Observamos que p(x1) + p(x2) + p(x3) + p(x4) = 1 ) Definicin 2 : Sea X una variable continua, entonces existe una funcin f( x ) llamada densidad de probabilidad, la cual satisface : a)

f( x )

f(x) 0

b)

f(x)dx = 1

x P( a X b )

c)

f(x)dx = P(a X b)
a

Observacin :en el caso de una variable Aleatoria X continua, se tiene : a

P( X = a) =

a es decir la probabilidad del suceso X = a es nula sin embargo esto no significa que el suceso X = a es imposible.

f (x)dx = 0

Ejemplo : Sea X el ngulo que forma un lpiz con una recta fija. X es una variable aleatoria continua con funcin de densidad f(x) como muestra la figura :

19

calculamos P( /4 X /2 ) : 1/2

f(x)

P(

X ) = 4 2

/2

1 1 dx = 2 8 /4

La funcin de Distribucin de Probabilidades. Otra herramienta que sirve para caracterizar probabilisticamente a una variable aleatoria X es la funcin de distribucin de probabilidades, definida por F( x ) = P( X x ) Observacin : F( x ) es la transposicin terica del diagrama acumulado ( ver pagina 4 ). Si X es continua, segn la formula ( c ) de la pagina 22, se tiene :

F(x) = f(x)dx ,

lo que implica :

f(x) =

dF(x) dx

Propiedades de F( x ) : F( x ) satisface las propiedades siguientes : a) b) c) F( - ) = P( X - ) = P( ) = 0 F( + ) = P( X + ) = P( ) = 1 F( x ) es una funcin que no decrece, es decir : si a b, entonces F( a ) F( b )
F(x)

Fig.14

IV.2

EL VALOR ESPERADO O ESPERANZA MATEMATICA DE UNA VARIABLE ALEATORIA.

La significacin intuitiva de la esperanza matemtica de una variable aleatoria X es la siguiente : es un valor medio de la variable X, en que todos los valores que X puede tomar estn ponderados por su probabilidad respectiva. Se utiliza la notacin E(X) para representar la esperanza matemtica.

20

Ejemplo : Sea X = resultado de tirar un dado. E(X) = 1*1/6 + 2*1/6 + 3*1/6 + 4*1/6 + 5*1/6 + 6*1/6 E(X) = 3.5
1/6 1 2 3

Fig.15

4 E(X)

La significacin de este resultado es la siguiente : si se repite un numero n grande de veces el experimento de tirar un dado y se registran las observaciones de X en una muestra, se obtendr, por ejemplo : M = { 6, 3, 5, 5, ....., 2 }, y en condiciones ideales debera tenerse : x = 6 + 3 + 5 + 5 + ......+ 2 = 3.5 n O sea que la esperanza matemtica es un promedio terico de la variable X. La definicin formal de esperanza matemtica de una variable aleatoria es la siguiente : Definicin : a) Sea X una variable aleatoria discreta, en la cual p( xi ) = P( X = xi ), se define la esperanza matemtica de X como : p(xi) Fig.16

E(X ) = x i p( x i)
i

x1

x2

xi

b) Sea X una variable aleatoria continua, con funcin de densidad f(x), se define la esperanza matemtica de X como : f(x) Fig.17

E(X) = x f(x)dx

Observacin : si la variable aleatoria X es continua, E( X ) representa la abscisa del centro de gravedad de la masa ubicada bajo la curva f( x ) :

xG =
Centro de Gravedad f(x)

x f(x)dx

= E(X)

f(x)dx
es igual a 1

Fig.18 E(x) = xG Ejemplo : sea f( x ) como en la figura 19,


21

Entonces :

1 1 E(X) = x dx = xd x ba ba a a

Fig.19
f(x) 1/(b-a) a E(x) b

E(X) =

1 x b a b+a = = b a 2 a 2(b a) 2
2 2 2

Esperanza Matemtica de una Funcin de X Sea H( X ) una funcin de X, se define la esperanza de H( X ) por : a) b) Si X es discreta Si X es continua : :

E[H(X)] = H(x i ) p(x i )


i

E[H(X)] =

H(x) f(x)dx

Ejemplo : En el caso anterior encontrar E( X2 ), ( H( X ) = X2 )

E(X 2 ) = x 2
a

1 1 dx = x 2dx ba ba a

E( X 2) =

b 3 3 (b a) ( b2 + ab + a 2) ( b2 + ab + a 2) 1 x3 = b a = = b a 3 a 3 (b a) 3 (b a) 3

Propiedades de la Esperanza Matemtica. Las siguientes son las propiedades de la esperanza matemtica, las cuales se pueden probar apartir de la definicin : Propiedad 1 : E( C ) = C Propiedad 2 : Propiedad 3 : E( X + C ) = E( X ) + C E( X * C ) = C * E( X )

Las propiedades 2 y 3 se generalizan de la siguiente forma :

E( X + ) = E(X ) + ( y = cte. )
La Esperanza matemtica constituye una medida de tendencia central de una distribucin terica de probabilidades. Por analoga de lo que vimos en Estadstica Descriptiva, definiremos una medida de dispersin terica : La Varianza. IV.3 LA VARIANZA DE UNA VARIABLE ALEATORIA.

Definicin : Se llama varianza de una variable aleatoria X a la cantidad :

22

V(X) = E(X m ) 2 V(X) = E(X 2 ) m 2

(1) (2)

Donde m = E( X ). Se puede demostrar, al desarrollar (X m) 2 = X 2 2mX + m 2 que :

Ejemplo : en el ejemplo de la pagina 22, encontrar V( X ). Solucin : utilizando la ecuacin ( 2 ) y las expresiones de m y E( X2 ), se tiene :

b 2 + ab + a 2 b + a (b a) 2 V(X) = = 3 12 2
2

( ver figura 20 )

f1(x)
X X

f2(x)
b V( X ) = (b a)2 / 12 a a b V( X' ) = (b' a')2 / 12

V( X ) < V( X' )

Menor dispersin

Mayor dispersin

Fig.20 : Comparacin de varianzas para 2 variables X y X'


La varianza es una medida de la dispersin de los valores que toma la variable aleatoria, con respecto a la esperanza matemtica. Observacin : a) El numero positivo V(X) se expresa en unidades cuadradas de X. Por esta razn se define la desviacin tpica de X como :

x = V(X)
x constituye tambin una medida de dispersin. b) Se utilizan otros smbolos para designar la varianza, tales como x2, D2(X), Var(X), 2,...

Propiedades de la Varianza. Las siguientes son las propiedades de la varianza, las cuales se pueden probar apartir de la definicin :

23

Propiedad 1 : V( C ) = 0 ,en que C es una constante ( en otras palabras, una constante no tiene dispersin ) Propiedad 2 : V( X + C ) = V( X ) ( al sumar una constante la varianza no

Densidad de X

Densidad de Y = X + 2

E(X)

E(X+2)

Fig.21

varia , ver figura 21 ) Propiedad 3 : V( C*X ) = C2 * V( X )


Ley de X

( ver figura 22 )
Ley de Y = 4*X

1 0.25 0 V( X ) = 1/12 Fig.22 1 0 4

V( Y ) = 16*V( X ) = 16/12 = 4/3

Las propiedades 2 y 3 se generalizan en la siguiente forma :

V( X + ) = 2 V(X)

( y = ctes. )

24

IV.4

VARIABLES ALEATORIAS MULTIDIMENSIONALES

Estudiaremos principalmente el caso bidimensional; la generalizacin a n dimensiones es inmediata. Para describir probabilisticamente una variable aleatoria bidimencional ( X , Y ) tendremos la definicin siguiente :
Definicin : a) Sea ( X , Y ) una variable bidimensional discreta ( es decir ambas son discretas ), a cada resultado posible ( xi , yj ) le asociamos un valor : p( xi , yj ) = P( X = xi , Y = yj ) el cual satisface : Fig.23
i j

p(x , y ) = 1
i j

p( xi , yj ) yj y xi x

a)

Sea ( X , Y ) una variable aleatoria bidimensional continua (es decir ambas son continuas), entonces existe una funcin f(x , y) llamada densidad de probabilidad conjunta que satisface las condiciones : i) ii)

f(x, y) 0

f(x, y )dxdy = 1
D

iii) P((X, Y ) D) =

f(x, y)dxdy

25

f ( x,y)

f ( x,y )

Volumen

0
D

Volumen bajo la funcin f(x,y) es igual a 1.


(b)

D probabilidad de que el resultado caiga en una zona D del plano. (c)

f (x, y)dxdy

representa la

Fig.24

Ejemplo 1: Se tiran 3 monedas. Sea X = numero de caras , Y = N cara N sellos. Encontrar p( xi , yj ). Solucin : los casos totales y su par ( xi , yj ) asociado son : = { SSS, SSC, SCS, CSS, CCS, CSC, SCC, CCC } (0,3) Luego : (1,1) ; ; (2,1) p(1,1) = 3/8 p(3,3) = 1/8 (3,3)

p(0,3) = 1/8 p(2,1) = 3/8

x1
X 3/8 3/8 0 1 2 3 1/8 x 1 Y 0 0 1/8

x2
1 3/8 0

x3
2 3/8 0

x4
3 0 1/8

1/8 3 y

y1 y2

1 3

Fig.25

Ejemplo 2 : Dos personas deciden juntarse entre las 0 hrs y 1 hrs. Cada una decide no esperar ms de 10 minutos a la otra. Si estas personas llegan al azar entre las 0 h y 1 h cual es la probabilidad de que se encuentren ?

26

Solucin : Sea X = instante en que llega la 1 persona Y = instante en que llega la 2 persona Variacin de X : Variacin de Y : 0 x 60 0 y 60

La densidad de la variable ( X , Y ) es f (x,y) = cte. Porque la personas llegan al azar :

f (x , y) = 1 / 360

Fig.26 La altura h vale 1/3600 porque el volumen bajo f ( x , y ) es 1.


h 60 60 x Conjunto de resultados posibles y

Los casos favorables son aquellos definidos por la desigualdades : x y 10 y y x 10

y = x + 10 60 f(x,y) D y = x - 10 60 1/3600 10 0 10 60 60 x volumen D y

Fig.27
estas desigualdades determinan la zona D en la cual se encuentran las personas ( figura 27 ) : 3600 2500 11 = Probabilidad = Area de D * 1/3600 = 3600 36

27

IV.1. a)

LEYES MARGINALES DE PROBABILIDAD Sea ( X ,Y ) una variable aleatoria bidimensional discreta. Supongamos que conocemos p(xi , yi ) y deseamos conocer p(xi) = P( X = xi ). Se tiene : ( X = xi ) = ( X = xi , Y = y1) ( X = xi , Y = y2) .........

tomando probabilidades :

p( xi ) = p( xi , y1) + p( xi , y 2 ) + ...... = p(x i , y j ) p( x i ) = p(x i , y j )


j j

se llama funcin de probabilidad marginal de X. Anlogamente :

q( y j) = P(Y = y j) = p(x i , y j )
i

se llama funcin de probabilidad marginal de Y. b) Sea ( X ,Y ) continua, en este caso se definen las densidades marginales por :

f(x) = f(x, y )dy

densidad marginal de X.

g(y ) = f(x, y )dx

densidad marginal de Y.

IV.2.

VARIABLES ALEATORIAS INDEPENDIENTES

En trminos intuitivos, dos variables aleatorias son independientes si el resultado de una no influye sobre el resultado de la otra. En trminos formales, tendremos la definicin siguiente ( ver pagina 17 formula 7 ) : a) Se dice que las variables aleatorias discretas X e Y son independientes si se tiene (para todo xi , yi) : P( X = xi , Y = yj) = P( X = xi )*P( Y = yj ) p(xi , yj) = p(xi)*q(yj) b) Se dice que las variables aleatorias continuas X e Y son independientes si se tiene (para todo x , y)

f(x, y) = f(x) g(y)


Ejemplo : estudiar si las variables X e Y del ejemplo 1 de la pagina 26 son independientes : Solucin : Veamos el cuadro :

28

x y y1 1 y2 3 p(xi)

x1 0 0 1 8 1 8

x2 1 3 8 0 3 8

x3 2 3 8 0 3 8

x4 3 0 1 8 1 8

q(yj) 6 8 2 8

Se tiene :

P( X = 1 , Y = 1 ) = 3/8 P( X = 1 ) = 1/8 ,

P( Y = 1 ) = 6/8 = 3/4

Como P( X = 1 , Y = 1 )

P( X = 1 ) * P( Y = 1 ), entonces X e Y no son independientes.

IV.3.

ESPERANZA MATEMATICA DE UNA FUNCION DE DOS VARIABLES X e Y.

Sea H( X,Y ) una funcin de X y de Y. Se define la esperanza matemtica de H( X ,Y ) por :

E[H(X, Y)] = H( x i , y j) p(x i , y j )


i j

si ( X , Y ) es discreta si ( X , Y ) es continua

E[H(X, Y)] =

H(x , y ) f(x , y )dxdy


i j i j

Utilizando esta definicin se pueden establecer los dos teoremas siguientes :

Teorema 1 : Teorema 2 :

E(X + Y) = E(X) + E(Y)


Si las variables aleatorias X e Y son independientes, entonces :

E(X Y) = E(X) E(Y)


Como un ejemplo veamos la demostracin del teorema 2 en el caso que ( X ,Y ) es continua :

E(X Y) =

x y f(x, y)dxdy = x y f(x) g(y )dxdy


E(X Y ) =
IV.4.

x f(x)dx y g(y)dy = E(X) E(Y)

LA COVARIANZA DE DOS VARIABLES ALEATORIAS x e y

Definiremos a continuacin una nueva cantidad que nos dar, en cierto sentido, una medida de la dependencia entre dos variables aleatorias X e Y. Definicin : se llama covarianza de X e Y a la cantidad :

29

C xy = E(XY) E(X) E(Y)


( a veces se utilizan otras notaciones para la covarianza, tales como : cov(x,y), xy, xy, kxy ) Propiedades de la Covarianza. a) Como consecuencia inmediata del teorema 2, pagina 29, se tiene que : Si X e Y son independientes, entonces : Cxy = 0 b) Se tiene la relacin siguiente, cuando X = Y

C xx = E(X 2 ) [E(X)] = V(X)


2

( ver formula 2, pag. 23 )

c)

Se puede demostrar que si ( en promedio ) X crece, Y tambin crece, entonces Cxy > 0 y que si ( en promedio ) al crecer X, Y decrece, entonces Cxy < 0.

Fig.28

Varianza de una suma de variables aleatorias Deseamos encontrar una expresin para la varianza de la suma de variables aleatorias : Z = X+Y:

V(Z) = V(X + Y) = E(X + Y) 2 [E(X + Y)]


2 2

= E(X 2 ) [E(X)] + E(Y 2 ) [E(Y)] + 2 [E(XY) E(X) E(Y)]

lo que implica que :

V(X + Y) = V(X) + V(Y) + 2 C xy


Si X e Y son independientes, entonces Cxy = 0, luego : V( X + Y ) = V( X ) + V( Y ) (2)

(1)

La propiedad (2) se puede generalizar para n variables X1, X2, ......., Xn independientes entre ellas: V( X1 + X2 +.......+ Xn ) = V( X1 ) + V( X2 ) +.......+ V( Xn ) (3)

30

El coeficiente de correlacin entre dos variables aleatorias X e Y. El coeficiente de correlacin constituye otra medida de la dependencia entre dos variables aleatorias X e Y. Definicin : Se llama coeficiente de correlacin lineal al cuociente :

xy =

Cxy V(X) V(Y)

Se puede observar que xy esta ntimamente relacionado con la covarianza, sin embargo xy es un numero sin dimensin. Propiedades de xy :

Propiedad 1 : Si X e Y son independientes, entonces :

xy = 0
Propiedad 2 : Se tiene la desigualdad siguiente : -1 xy 1

Propiedad 3 :

Si xy = 1, entonces Y = *X + con > 0 Si xy = -1, entonces Y = - *X + con > 0

xy = 1

xy = -1 Fig.29

En la figura 30 se pueden observar distintas situaciones y el xy asociado :

31

Fig.30

32

V.

MODELOS PROBABILISTICOS.

Estudiaremos a continuacin una serie de modelos de variables aleatorias unidimensionales : binomiales, Poisson, exponencial, Gauss, etc.,.... Comenzaremos por el estudio de los modelos de variables aleatorias discretas : A. A.1. Modelos de variables aleatorias discretas. Variable aleatoria de Bernulli.

La variable aleatoria de Bernulli es una de las mas simples. Por definicin X es una variable de Bernulli ( X sigue la ley de Bernulli ) si X toma solamente dos valores a y b, con probabilidades

p 1-p

Fig.31
a b x

respectivamente 1 p y p ( 0 p 1 ) : Se puede probar que :

E(X) = a (1 p) + b p V(X) = (b a) 2 p (1 p)

Ejemplo : se tira una moneda y sea X = 0 si sale cara, X = 1 si sale sello :


1/2 1/2 x

Fig.32
0 1

A.2.

Variable aleatoria geomtrica.

El experimento que conduce a una variable aleatoria geomtrica es el siguiente : Supongamos un experimento que se repite de manera independiente un numero indefinido de veces. En cada repeticin solo caben dos alternativas : i) ii) Ocurre un suceso A con probabilidad p. Ocurre un suceso con probabilidad 1 p.

El experimento se detiene cuando ocurre por primera vez el suceso A. Sea X = numero de repeticiones necesarias . El conjunto de resultados posibles es : = { A , BA , BBA , BBBA ,...... }

X=1

X=2

X=3

X = 4 ,....

33

Las probabilidades asociadas son : P( X = 1 ) = P( A ) = p P( X = 2 ) = P( BA ) = P( B ) * P( A ) = (1 p)*p ( por la independencia ) P( X = 3 ) = P( BBA ) = P( B ) * P( B ) * P( A ) = (1 p)2*p.

P(X = k) = (1 p) k 1 p
p(1 p) p(1 p)
2

Fig.33

Se puede demostrar que :


E(X) = 1 p

V(X) =

1 p 2 p

Ejemplo : se tira una moneda hasta que aparezca por primera vez cara. Entonces X = numero de lanzamientos necesarios sigue una ley geomtrica con parmetros p = . En particular E( X ) = 2.
1/2

1/4 1/8 1/16 1/32 1 2 3 4 5 x

Fig.34
A.3 La variable aleatoria Binomial.

El experimento que conduce a una variable binomial es el siguiente : Supongamos un experimento que se repite de manera independiente n veces. En cada repeticin solo caben dos alternativas : i) ii) Ocurre un suceso A con probabilidad p Ocurre un suceso B con probabilidad 1- p

34

El espacio muestral asociado al experimento es :

= { BB...B, ABB...B, BAB...B,....,....,....,AAA...A }


n n n n

X=0 X=1 X=1

X=n

Sea X = numero de veces que aparece A en las n repeticiones . Para deducir una formula general estudiemos los casos n = 1, 2, 3 : i) n = 1

= { B, A }
X=0 X=1

P( X = 0 ) = 1 p Los trminos corresponden al desarrollo de [ (1 p) + p ]1 P( X = 1) = p ii) n = 2

= { BB, AB, BA, AA }

X=0

X=1

X=2 Los trminos corresponden al desarrollo de [(1 p) + p]2

P( X = 0 ) = P( BB ) = P(B)*P(B) = (1 - p)2 P( X = 1 ) = P( AB, BA ) = P(AB)*P(BA) = 2p*(1 - p) P( X = 2 ) = P( AA ) = p2 iii) n = 3

= { BBB, ABB, BAB, BBA, AAB, ABA, BAA, AAA }


X=0 X=1 X=2

X=3

P( X P( X P( X P( X iii)

= = = =

0) 1) 2) 3)

= = = =

(1 p)3 3p(1 p)2 3p2(1 p) p3

Los trminos corresponden al desarrollo de [(1 p) + p]3

Para un valor de n ms general, se tiene la formula siguiente, deducida del teorema del binomio :

n nk k P k = P(X = k) = p (1 p) k

k = 0, 1, ...., n

en particular : P0 = P( X = 0 ) = (1 p)n Pn = P( X = n ) = pn Se puede probar que si X sigue una ley binomial con parmetros n y p, entonces :

35

E(X) = n p V(X) = n p (1 p)
Ejemplo : Sea una familia de n = 4 hijos, entonces X = numero de hijos varones es una variable binomial de parmetros n = 4 , p = 0.5. Adems : P( X = 4) = (0.5)4 = 1 / 16 La esperanza matemtica de X es : E(X) = n*p = 4*1/2 = 2, resultado que corresponde a la intuicin.

n En la formula P k = P(X = k) = p k (1 p) n k , el valor de se calcula por : n k

n! n = k k!(n k)!
con :

k! = 1 2 3 ..... k

0! = 1 ( por definicin )

Ejemplo : Se sabe que la probabilidad de que un camin este averiado a la entrada de un turno es p = 0.1. Si la empresa dispone de 30 camiones cual es la probabilidad de que haya exactamente 5 camiones averiados ? Sea X = numero de camiones averiados
30 P( X = 5) = (0.1)5 (0.9) 25 = 0.102 5

( Observar que E(X) = n*p = 3 )

A.4.

La variable aleatoria de Poisson.

Es frecuente encontrar en la practica situaciones en que se aplica la Ley Binomial con p muy pequeo y n muy grande. Por ejemplo, se ha determinado que la probabilidad de que aparezca una pieza defectuosa es p = 0.01 y se renen las piezas en cajas de 200 piezas, la probabilidad de que en la caja existan r piezas defectuosas es :
200 P(X = r) = (0.01) r (0.99) 200 r r

Este valor se puede calcular de manera exacta o bien se puede calcular de manera aproximada utilizando el siguiente teorema :

k e n lim p k (1 p) n k = n k! k np=

36

El limite anterior significa que n tiende a infinito manteniendo constante e igual a el producto n*p ( esto implica que p debe ser pequeo ). Se tiene entonces :

Pk = P(X = k ) =

k e
k!

k = 0, 1, 2,.....

Estas probabilidades Pk, limites de las probabilidades binomiales cuando n y n*p = = constante, constituyen la llamada Ley de Poisson.
P2 P1 P0

Fig.35

Lo anterior significa que la Ley de Poisson aproxima bien a la binomial cuando n es grande y p pequeo; se considera que la aproximacin es buena si p < 0.1 y si n*p < 5. Ejemplo : en el caso anterior de las piezas defectuosas :
200 P(X = 3) = (0.01) 3 (0.99)197 = 0.1813 3

utilizando Poisson, con = n p = 200 0.01 = 2 :

P(X = 3)

2 3 e 2 = 0.1805 3!

Esperanza matemtica y varianza : Se puede demostrar que la esperanza matemtica y la varianza de la Ley de Poisson estn dadas por : E( X ) = V( X ) = A.5. La Ley Hipergeometrica.

El experimento que conduce a la ley hipergeometrica es el siguiente : Sea un lote de N piezas, de las cuales D = p*N son defectuosas (luego N D = N p*N =N(1- p) son aceptables) Se sacan al azar, una a una y sin devolver al lote, n piezas :

37

p*N defectuosas N p*N no defectuosas

Muestreo sin reemplazamiento

(nN) Fig.36

N piezas

n piezas

Sea X = numero de piezas defectuosas en la muestra de n piezas . Los valores que toma X son los que define la desigualdad : Mximo entre 0 y D N + n x Mnimo entre n y D Se puede demostrar que :

a)

D N D P(X = k) = k n k N n

b) c)

E(X) = n p

V(X) =

n p(1 p) (N n) N 1

Ejemplo : en un estanque hay 20 peces de los cuales 8 son coloreados. Se pescan 10 peces, calcular la probabilidad de que existan 5 peces coloreados. Solucin : N = 20 ; n = 10 ; D = 8 ; p = 0.8 ; X = numero de peces coloreados

8 20 8 8 12 5 10 5 = 5 5 = 0.24 P(X = 5) = 20 20 10 10
( En este caso E(X) = n*p = 10 * 0.4 = 4 )

B. B.1.

Modelos de variables aleatorias continuas. La variable Aleatoria Uniforme.

Sea X una variable aleatoria continua. Se dice que X sigue una ley uniforme si su densidad f(x) esta dada por :

38

1 ba
f(x) =

si x [a , b] si x [a , b]

1 ba
a E(x) b

f(x)

Fig.37

Ejemplo : Sea X el ngulo que forma un lpiz arrojado al azar con una recta fija ( ver pagina 19 ) entonces X sigue una ley uniforme en el intervalo [0 , 2]. Se puede demostrar que si X sigue una ley uniforme :

b+a 2 (b a )2 V(X) = 12 E(X) =

B.2.

La Ley Exponencial con parmetros ( > 0 ).

Se dice que X sigue una ley exponencial con parmetros si su densidad esta dada por :

e x
f(x) = 0

si x > 0 si x 0

f(x)

Fig.38

Se puede demostrar que :

E(X) = V(X ) =

39

B.3.

La variable aleatoria Gamma.

Se define en Matemticas la funcin gamma ( p ) como la integral :

( p) = e x x p 1dx
0

la cual presenta la propiedad, siendo p un entero > 0 :

( p ) = ( p 1 )!
Se dice que una variable aleatoria X sigue una ley Gamma con parmetros a y p si su densidad es :

a p e ax y p 1 ( p )
f(x) = 0 ( p > 0 , a > 0 ).

si x > 0

si x 0

Grfico de f(x) para p > 2

Fig.39

Se puede demostrar que :

p a p V(X) = 2 a E(X) =
B.4. La variable aleatoria Beta.

Se define en Matemticas la funcin Beta B(p,q) como :

B(p, q) =

( p) ( q ) = x p1 (1 x) q 1 dx (p + q ) 0
1

Se dice que una variable aleatoria X sigue una ley Beta con parmetros p y q si su densidad es :

40

f(x) =

x p1 (1 x) q 1 B(p, q)
0

si 0 < x < 1 si x 0 x 1

(p>0 , q>0) Se puede demostrar que :

E(X) =

p p+q

V(X) =
B.5.

p (p + q) (p + q + 1)
2

La variable aleatoria normal o gaussiana.

Definicin: se da el nombre de variable aleatoria normal ( o gaussiana ) a toda variable definida en el eje ( - , + ) y que tiene la densidad :

f(x ) =
Se puede demostrar que :

1 x m 2

E(X) = m V(X) = 2 El parmetro m no influye en la forma de la curva f(x), su variacin conduce a un desplazamiento de la curva a lo largo del eje x. En cambio, al variar se altera la forma de la curva ; en efecto, es fcil de ver que el mximo de f(x) es igual a :

, en el punto x = m

o sea que si disminuye , aumenta el mximo de f(x) :

41

= 0.5 Fig.40 = 1.0

x m

Conviene recordar las siguientes reas bajo la curva de la ley de Gauss ( Fig.41 ) :
68 % 95 %

m-

m+

m - 2

m + 2

99.7 %

m -3
Fig.41

m + 3

En smbolos, si X sigue una ley de Gauss, con parmetros m y : P( m- X m+ ) = 0,68 P( m-2 X m+2 ) = 0,95 P( m-3 X m+3 ) = 0,997 Las variables aleatorias normales aparecen con gran frecuencia en Estadstica. Por ejemplo los errores de mediciones siguen como regla una variable aleatoria normal. Un mtodo mecnico para generar una variable aleatoria gaussiana consiste en la maquina de Galton, compuesta por un conjunto de bolillas que son desviadas en su trayectoria por una serie de clavos, depositndose en los recipientes inferiores ( Fig.42 )

42

Fig.42 B.6. La variable aleatoria Lognormal.

Definicin : Se dice que una variable aleatoria X sigue una Ley Lognormal si su logaritmo (neperiano, en base e) sigue una ley normal. A partir de esta definicin se puede demostrar que la funcin de densidad tiene por expresin :
1 e 2 f(x ) = x 2 1 lnx m 2

si x > 0 si x 0

f(x ) = 0

43

Fig.43

f(x)

x 0

La ley lognormal se presenta con frecuencia en el estudio de histogramas asociados con leyes de muestras provenientes de yacimientos mineros. Se puede demostrar que :

M = E ( X ) = e m +

2 2 = V ( X ) = M 2 e 1

44

VI.

LA LEY DE LOS GRANDES NUMEROS Y EL TEOREMA DEL LIMITE CENTRAL

La ley de Los grandes nmeros y el teorema del limite central constituyen uno de los resultados ms importantes del calculo de probabilidades. A) La ley de Los grandes nmeros. Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que E(X1) = E(X2) = .....=E(Xn) = m, entonces cuando n tiende a infinito, se tiene : X + X 2 + ..... + X n P 1 = m 1,0 n o sea que si n es grande, la probabilidad de que el promedio de las variables sea igual a la esperanza matemtica m es muy prxima a 1,0. B) El teorema del limite central. Este teorema pone de manifiesto la importancia que la ley de Gauss : Teorema : Sea X1, X2,......, Xn una sucesin de variables aleatorias independientes tales que : , V(Xi) = 2i E(Xi) = mi Entonces, si n es grande, la variable aleatoria : Z = X1 + X2 +.....+ Xn sigue aproximadamente una ley de Gauss con esperanza matemtica E( Z ) = m1 + m2 +.....+ mn y con varianza V( Z ) = 21 + 22 +.....+ 2n El grado de aproximacin entre la variable Z y la ley de Gauss depende evidentemente de n y de la ley de probabilidad de Los Xi. En la figura 43 hemos representado el caso en que todos Los Xi siguen una ley uniforme en el intervalo [ 0 , 1 ], tambin hemos dibujado la densidad de la ley normal de igual esperanza y varianza.
n=1 n=1 n=2 n=2 n=3 n=3

Fig.44: Densidades de X1 , X1+X2 y X1+X2+X3

Ejemplo : Supongamos que se tiene una sucesin X1, X2,......, Xn de variables aleatorias independientes tales que cada Xi sigue la ley de probabilidad siguiente :

45

Es fcil de ver que la variable aleatoria Z = X1 + X2 +.....+ Xn toma los valores 0, 1, 2,....., n con probabilidades :

n 1 n p k = P( X = k ) = 2 k
El grfico de pk para n = 10 es :

k = 0, 1, 2,..., n

Fig.45

200 10 2

100 10 2

10

Como puede observarse el Teorema del Limite Central explica porqu en tantas aplicaciones aparecen distribuciones normales, ya que expresa que la suma de variables aleatorias, en condiciones muy generales, tienden hacia la ley de Gauss. El ejemplo ms clsico e importante es el de Los errores de medida, en que, al suponerse que el error total resulta de la suma de un gran numero de errores, explica que la ley de Gauss aparezca naturalmente para la representacin de tales errores. El Teorema del Limite Central explica tambin porqu en la mquina de Galton las bolillas se depositan segn una ley de Gauss.

46

VII.

LA INFERENCIA ESTADSTICA.

Teora de Muestras Para utilizar Los modelos probabilstico que hemos presentado en Los captulos anteriores es necesario entrar en el mundo emprico y hacer algunas mediciones. Por ejemplo, en muchos casos es apropiado hacer hiptesis acerca de una variable aleatoria X, lo que conduce a un tipo determinado de distribucin : normal, lognormal, gamma,...Sabemos que cada una de estas leyes de probabilidad depende de uno o ms parmetros desconocidos, luego debemos obtener algunos valores experimentales de X y despus utilizar estos valores de alguna manera apropiada para estimar estos parmetros. Formalicemos ahora la nocin importante de muestra aleatoria : Definicin : Sea X una variable aleatoria con una ley de probabilidad. Sean X1, X2,......, Xn , n variables aleatorias independientes en que cada una de ellas tiene la misma ley de probabilidad que X. Llamaremos a ( X1, X2,......, Xn ) una muestra aleatoria de tamao n de la variable aleatoria X. Observaciones : en trminos intuitivos una muestra aleatoria de tamao n de una variable X corresponde a n mediciones repetidas de X, hechas bsicamente bajo las mismas condiciones (para garantizar la independencia). Las variables X1, X2,......, Xn son independientes de manera que el resultado Xi no influya sobre el resultado Xj ( en caso contrario el muestreo de la variable estara dirigido ). La muestra aleatoria es un conjunto de variables aleatorias ( X1, X2,......, Xn ) y no es un conjunto de nmeros o datos. En otras palabras la muestra aleatoria es un ente terico que se considera antes de hacer las mediciones para obtener Los datos. Por ejemplo sea Xi = resultado de un dado

( X1, X2,......, Xn ) Experimento : Tirar n veces el dado


Muestra aleatoria de tamao n

( 6, 2,...., 5 )

Muestra numrica de tamao n o realizacin de la muestra aleatoria

TEORIA Antes de realizar las mediciones

PRACTICA Despus de realizar las mediciones

47

En general, Los valores numricos tomados por la muestra ( X1, X2,......, Xn ) se denotarn por (x1, x2,......, xn). Estadsticos : una vez definidos Los valores x1, x2,......, xn de la muestra, los utilizaremos de alguna manera para hacer alguna inferencia acerca de la variable aleatoria X. En la prctica se trata de resumir este conjunto de valores por caractersticas ms simples ( por ejemplo su promedio aritmtico, valor ms grande, valor ms pequeo, etc...). Se llama estadstico a una funcin H( X1, X2,......, Xn ) de la muestra aleatoria X1, X2,......, Xn Observacin : Un estadstico es una funcin de X1, X2,......, Xn , por consiguiente : Z = H( X1, X2,......, Xn ) es una variable aleatoria que toma el valor z = H(x1, x2,......, xn) una vez realizado el experimento. En general conviene estudiar Z y no z dado que este ltimo es un nmero, mientras que Z es una variable aleatoria que puede tomar muchos valores y tiene en particular una esperanza matemtica E(Z) y una varianza V(Z). Como ejemplo de estadsticos tenemos los siguientes :

Experimento mediciones a)

X=

X 1 + X 2 + ... + X n n

x + x 2 + ... + x n x= 1 n

b)

S2 = 1 n

i =1

(X i X )2

s2 = 1 n

( x x)
i i =1

c)

K = Mn( X1, X2,......, Xn )

k = Mn( x1, x2,......, xn )

d)

M = Mx( X1, X2,......, Xn )

m = Mx( x1, x2,......, xn )

TEORIA : VARIABLES ALEATORIAS

PRACTICA : NUMEROS

48

X se llama promedio muestral, S2 varianza muestral, K valor ms pequeo observado o mnimo, M valor ms grande o mximo.

49

VIII.

ESTUDIO DE ALGUNOS ESTADISTICOS.

a)

El estadstico X

Se define la media muestral por :

1 X= n

X
i =1

Las propiedades ms importantes de X son las siguientes, en este caso de una muestra aleatoria (X1, X2,...., Xn) tal que E(X1) = E(X2) =....= E(Xn) = m , V(X1) = V(X2) =....= V(Xn) = 2 : i)

E( X ) = m V (X ) =

ii)

2
n

iv)

Para n grande, la variable Z = 1.

X m

sigue una ley de Gauss de esperanza 0 y varianza

Las relaciones ( i ) y ( ii ) resultan de las propiedades de la esperanza matemtica y de la varianza. La relacin ( iii ) se deduce por aplicacin directa del teorema del limite central. El estadstico S2n

b)

Se define la varianza muestral S2n por :

1 S 2n = n
Las propiedades ms importantes de S2n son : i)
E (S 2 n ) = n 1 2 n

(X
i =1

2 i X)

ii)

1 S 2n = n

(X
i =1

2 2 i m) ( X m)

Observacin : La propiedad ( i ) se obtiene al tomar esperanza matemtica en ( ii ). Esta propiedad expresa que la esperanza matemtica de S2n no es igual a 2 sino que es igual a
n 1 n 2

. Por esta razn se prefiere utilizar el estadstico S2n-1, definido por :

50

S2

1 n S 2n = n 1 = n 1 n 1

(X
i =1

2 i X)

este estadstico presenta la propiedad : E ( S 2 n 1 ) = 2 . Sin embargo cuando n es grande n 1 y da lo mismo utilizar S2n S2n-1 . (n100): n 1

51

IX.

LA ESTIMACION PUNTUAL.

En este prrafo consideraremos el problema de estimar uno o ms parmetros desconocidos asociados con una ley de probabilidad de una variable aleatoria X, a partir de una muestra aleatoria de X. Supongamos que la ley de probabilidad de X depende del parmetro desconocido . Queremos utilizar de alguna manera la muestra ( X1, X2,....., Xn ) con el objeto de estimar el valor de . Por ejemplo, supongamos que queremos estimar la esperanza matemtica m de una variable X. Se pueden definir muchos estimadores del valor de m desconocido :

i)

1 m= n

X
i =1

ii)

m= m=

1 ( X1 + X n ) 2 1 (M + K ) 2
( M y K son el valor mximo y el mnimo de la muestra )

iii) iv)

m = X 1 + X 2 + ..... + X n

Observaciones : a) Es evidente que al proponer m como estimador del valor verdadero m, no esperamos que m sea exactamente igual a m. Recordemos que m es una variable aleatoria y por lo tanto puede tomar muchos valores, luego m tendr una cierta distribucin de probabilidades y en particular una esperanza y una varianza. Parece evidente que el estimador ( iv ) es un mal estimador, en el sentido de que siempre proporciona un valor numrico alejado del valor verdadero m. Por otra parte parece intuitivo que el estimador ( i ) es mejor que el estimador ( ii ) porque el segundo no utiliza toda la informacin. Veamos los valores numricos que toman estos cuatro estimadores en una muestra de tamao 12 obtenida al tirar un dado no cargado : ( X1, X2,....., X12 ) i).ii).30 = 2,5 12 1 mo = (1 + 2) = 1,5 2 mo = (1, 3, 1, 1, 2, 1, 2, 5, 4, 2, 6, 2)

b)

c)

52

iii).iv).-

1 (6 + 1) = 3,5 2 mo = 30 mo =

En este ejemplo particular, debido a que el valor terico es m = 3,5, el mejor estimador de la esperanza resulta ser (M + K)/2, pero este resultado podra deberse al azar; sin embargo el lector puede repetir muchas veces el experimento ( tirar 12 veces un dado ) y comprobar que en promedio, el estimador que ms se acerca al valor verdadero es mo = (M + K )/2. d) El ejemplo anterior de origen a las siguientes e importantes preguntas : Qu caractersticas queremos que posea un buen estimador ? Cmo decidimos que un estimador es mejor que otro ? Dado un parmetro desconocido Cul es el estimador ptimo?

En adelante trataremos de precisar los conceptos que hemos discutido y resolver estas interrogantes. IX.1. CRITERIOS PARA LOS ESTIMADORES

Definicin: Sea X una variable aleatoria con una distribucin de probabilidades la cual depende de un parmetro desconocido . Sea (X1, X2,..., Xn) una muestra aleatoria de X y sean (x1, x2,..., xn) los valores muestrales correspondientes. Llamaremos estimador de a una funcin de la muestra : = H(X1, X2,..., Xn) y llamaremos estimacin de al valor numrico de esta funcin para los valores x1, x2,..., xn , es decir : o = H(x1, x2,..., xn)
Segn esta definicin, vemos que un estimador es un estadstico, luego es una variable aleatoria. Definicin: Sea un estimador de un parmetro desconocido . Entonces diremos que es insesgado ( o centrado, o sin desviacin sistemtica ) si : E( ) = Ejemplo: en el ejemplo de la pagina 55, el estimador de la esperanza matemtica m, definido por :

m = X1 + X2 +....+ Xn
no es insesgado ( se dice que es sesgado ). En efecto : E( m ) = E(X1) + E(X2) +.....+ E(Xn) = n*m m En trminos intuitivos, un estimador es insesgado si al repetir un numero N grande de veces el experimento de obtener los valores ( x1, x2, ...., xn ), el promedio de las estimaciones obtenidas es muy prximo al valor desconocido .

53

Ley de probabilidad de un estimador insesgado.

Ley de probabilidad de un estimador sesgado.

E( 1 ) =

E( 2 ) =
Fig.46

Tenemos entonces un primer criterio para los estimadores : restringirse a estimadores insesgados. Definicin : Sea * un estimador insesgado del parmetro . Diremos que * es un estimador insesgado de varianza mnima si para cualquier otro estimador insesgado , se tiene :

V( * ) V( )
es decir, entre todos los estimadores insesgados, * es aquel que tiene varianza mnima.

*
E( * ) = E( ) =
V( * ) < V( )

valores de * valores que toma


Fig.47
Observacin : Sabemos que la varianza de una variable aleatoria mide su variabilidad respecto a su valor esperado. Por lo tanto es intuitivamente atractivo exigir que un estimador insesgado tenga varianza pequea porque de esta manera la variable aleatoria tiende a aproximarse a su valor esperado . Luego si * y son dos estimadores insesgados con funciones de densidad como la figura 47, preferimos * a porque V( * ) < V( ).

54

V( 1 ) < V( 2 )

Fig.48

La decisin no seria tan evidente en el caso de la figura 48 en que 2 es insesgado mientras que 1 no lo es. En este caso se preferira 1 porque a pesar de ser sesgado, sus valores seran ms prximos a que los valores que proporciona 2 .
Estimadores Convergentes Otro criterio para definir estimadores se basa en la siguiente definicin : Definicin : Un estimador insesgado es convergente si se cumple, cuando n : P( = ) 1

esta definicin establece que un estimador es convergente si al aumentar el tamao n de la muestra, converge en sentido probabilstico hacia . Se puede demostrar que un estimador es convergente si :

LimV ( ) = 0 n
Ejemplo : a)

1 La media muestral m1 = n

i =1 2 matemtica m, porque V(m1 ) = , valor que tiende hacia 0 cuando n . n

i es un estimador convergente de la esperanza

b)

b)

El estimador m 2 =

( X1 + X n ) no es un estimador convergente de m, porque 2

V(m2 ) =

2
2

, valor que no tiende hacia 0 cuando n .

55

IX.2

METODOS PARA CONSTRUIR ESTIMADORES

Hasta ahora solo hemos considerado criterios con los cuales podemos juzgar un estimador; es decir dado un estimador podemos verificar si es insesgado, convergente, calcular su varianza y comparar con otros estimadores. Sin embargo no disponemos de un mtodo que proporcione estimadores. Existen varios procedimientos para obtener estimadores, uno de ellos es el mtodo de los momentos que consiste en estimar el parmetro desconocido por el momento muestral asociado. Ejemplo: i) Esperanza matemtica : m = E(X) ii) Varianza : = V(X)
2

1 m= n

X
i =1 n i =1 n

1 2 = n

(X X
i =1 i

2 i X)

iii)

Momento de orden k : k = E(X )


k

1 k = n

Se puede demostrar que el mtodo de los momentos proporciona estimadores convergentes que no siempre son insesgado y que no siempre son ptimos. Uno de los mtodos ms utilizados en Estadstica es el mtodo de la mxima verosimilitud el cual proporciona, bajo condiciones generales, estimadores ptimos. El mtodo de la mxima verosimilitud. Antes de explicar este mtodo estudiaremos un ejemplo introductorio : Ejemplo : En una urna hay 4 fichas que pueden ser blancas o negras pero se desconoce la proporcin : no se conoce el parmetro p = ( nmero de fichas blancas )/4. Supongamos que hacemos dos extracciones con devolucin y que obtenemos la primera blanca y la segunda negra. Con estos datos estimar el valor de p. Sea A el suceso que ocurri : A = La primera es blanca y la segunda es negra . La probabilidad de A vara con p. El cuadro siguiente resume las diferentes alternativas : p = 0 0 B 4 N 0 p = 1 B 3 N *= 3/16 p = 2 B 2 N 2/4 * 2/4 = 4/16 p = 3 B 1 N *= 3/16 p = 1 4 B 0 N 0

Proporcin p Probabilidad del suceso que ocurri : P(A)

56

1 porque este valor maximiza la probabilidad del suceso que 2 ocurri, esto equivale a admitir que lo que ocurri era lo ms probable. En el caso general supongamos una muestra aleatoria ( X1, X2,..., Xn ) la cual una vez realizado el experimento toma el valor ( x1, x2,..., xn ). La probabilidad del suceso que ocurri es ( suponiendo que la variable es discreta ) : = P( X1 = x1, X2 = x2,...., Xn = xn ) = p(x1) * p(x2) *....*p(xn)
Estimaremos el valor de p por p o = en que p(xi) = P( Xi = xi ). Tendremos as la definicin siguiente :

Definicin : Se llama estimador de mxima verosimilitud a aquel valor que mximiza la funcin siguiente, llamada funcin de verosimilitud.

p(x1) * p(x2) *....*p(xn) si Xi es discreta = f(x1) * f(x2) *....*f(xn) si Xi es continua en trminos matemticos, se toma como estimacin de la solucin de la ecuacin embargo resulta ms simple ( lo cual es equivalente ) de resolver la ecuacin :

= 0 , sin

Ln(
Ejemplo 1 : En la ley de Poisson : p ( x) =

)=0
estimar el parmetro :

x e
x!

=
Ln

x1 e x 2 e

x1! x2 ! xn ! = n + ( xi )Ln Ln( x1!x 2 !.... x n !)

.....

x n e

e n xi x1! x 2 !.... x n !

i =1 x estimar el parmetro : Ejemplo 2 : En la ley exponencial : f ( x) = e

Ln(

) = n + xi

=0

1 o = n

=X

= e x1 e x 2 .... e x n = n e

xi

Ln

= n Ln xi

Ln

xi = 0

57

o =

n n xi i =1

1 X

Propiedades de los estimadores de mxima verosimilitud. Propiedad 1 : Los estimadores de mxima verosimilitud son convergentes. Propiedad 2 : Los estimadores de mxima verosimilitud en el caso de ser insesgado son los mejores estimadores posibles del parmetro .

Propiedad 3 : Si es un estimador de mxima verosimilitud de , entonces si n es grande, la ley de probabilidad de es aproximadamente gaussiana con esperanza y varianza V( ). Propiedad 4 : Si es un estimador de mxima verosimilitud de , entonces g( ) es el estimador de mxima verosimilitud de g().

Ejemplos de estimadores mximo verosmiles Los ejemplos que se dan a continuacin corresponden a los modelos de variables aleatorias estudiados anteriormente ( ver pginas 38 51 ) a.Variable aleatoria de Bernulli : p=x Variable aleatoria geomtrica : p= 1 x Variable aleatoria binomial con parmetros N y p : N p k = p k (1 p) N k p=x N k Variable aleatoria de Poisson : =x Variable aleatoria uniforme en [a , b] :

b.-

c.-

d.-

e.-

a = Mn( X 1 , X 2 ,...., X n )

b = Mx( X 1 , X 2 ,...., X n )

sin embargo estos estimadores son sesgados. Conviene utilizar los estimadores insesgados siguientes :

a`=

n a n +1

n +1 b b`= n

58

f.-

Ley exponencial con parmetro : = 1x

Ley de Gauss con parmetros m y : n 2=1 , m=x ( xi x ) 2 n i =1 2 es sesgado; si n es pequeo conviene utilizar : sin embargo g.-

12 =

1 n 1

(x x)
i i =1

2 , que es insesgado.

Ley lognormal con parmetros m y : n n 1 2=1 ln X i , m= (ln X i m) 2 n n i =1 i =1 n 2 2= 1 y un estimador insesgado para es . 1 (ln X i m) 2 n 1 i =1 h.-

59

X.

ESTIMACIN POR INTERVALOS DE CONFIANZA.

Hasta ahora nos hemos ocupado de la estimacin puntual de un parmetro desconocido , es decir la obtencin de un valor o que estime de manera razonable el valor desconocido a partir de un conjunto de valores ( x1, x2,....,xn ). Somos conscientes de que en realidad o es una aproximacin y aparece la pregunta siguiente : en qu medida el valor aproximado puede desviarse del valor verdadero ?. En particular nos preguntamos si es posible encontrar una magnitud d tal que se pueda afirmar con certeza ( es decir con una probabilidad cercana a la unidad ) que se verifica la desigualdad :

o - d o + d

o - d
Fig.49

o + d

Es decir la estimacin se acompaa de un intervalo [ o - d , o + d ] junto a una medida de la probabilidad de que el parmetro verdadero sea interior a dicho intervalo. Precisemos estas ideas con un ejemplo intuitivo : Ejemplo :Supongamos que nos preguntan la edad E de una persona. Primero hacemos una estimacin puntual, por ejemplo E o = 32 aos y luego hacemos afirmaciones del tipo : a) b) c) Creo que E verifica : Estoy seguro que : Estoy casi seguro que : 31 E 33 27 E 37 22 E 42 d=1 d=5 d = 10

Confianza o Seguridad

Intervalo

Error

Cada afirmacin tiene una medida de la seguridad de que E est comprendido en el intervalo. Al escribir 27 E 37 ( E = 32 5 ) con seguridad 1- diremos que E o = 32 es el valor estimado de E y que d = 5 es el error asociado al nivel de seguridad 1-. Para que nuestra afirmacin sea buena, 1- debe ser grande ( prximo a 1 ), sin embargo, a medida que 1- crece, la magnitud del error ( d ) crece. Los estadsticos han convenido en aceptar una probabilidad de confianza de 1- = 0.95. A. Intervalo de confianza para la esperanza matemtica m de una ley de Gauss con conocido

Sea X1, X2,...., Xn una muestra aleatoria de una variable X que sigue una ley normal de esperanza m desconocida y varianza 2 conocida.

60

Se puede probar que la variable aleatoria :

Z=

Xm

0.95

Ley de Z

Fig.50

n
sigue una ley de Gauss con esperanza 0 y varianza 1. Por propiedad de la ley de Gauss ( ver pgina 46 ) se tiene : -2 0 2 z

P( 2 Z 2) = 0.95* P ( 2 Xm

2) = 0.95

n
mediante una transformacin algebraica, llegamos a :

P(X

2 2 mX+ ) = 0.95 n n n , X + 2 n

La ultima relacin nos dice que la probabilidad de que el intervalo X 2

contenga el valor desconocido m es 0.95. A tal probabilidad la llamaremos probabilidad de confianza del intervalo. Otros intervalos de confianza, para otros niveles son :

X n , X + n X 1.64 n , X + 1.64 X 3 n , X + 3 n

Intervalo del 68 % de confianza

Intervalo del 90 % de confianza Intervalo del 99.7 % de confianza

Ejemplo : Se tiene una muestra aleatoria ( X1, X2, X3, X4 ) proveniente de una ley de Gauss con m=0 ( que se supone desconocido ) y 2=1 ( que se supone conocido ). Los valores numricos resultantes fueron : ( 0.9, -0.6, -0.4, 0.9 ). Encontrar el intervalo del 68 % de confianza y el del 95 % de confianza.

n , X +

0.2 1 4 , 0.2 + 1 4 = 0.3 , 0.7 = Intervalo del 68 % de confianza.

* Observacin : En forma ms exacta, esta ecuacin se escribe :P( -1.96 Z 1.96 ) = 0.95

61

X 2

n , X + 2

0.2 2 4 , 0.2 + 2 4 = 0.8 , 1.2 = Intervalo del 95 % de confianza.

Repitamos unas veces ms el experimento ( generacin numrica de X1, X2, X3, X4 ) y obtengamos los intervalos asociados :
MUESTRA INTERVALO 1- = 0.68 INTERVALO 1- = 0.95

( -1.0, -0.4, -0.8, 0.1 ) ( 0.3, 0.9, -1.0, 1.4 ) ( 0.6, 0.8, 0.8, 1.7 ) ( -0.1, 0.0, 2.5, -0.9 )

[ -1.02 , -0.02 ] [ -0.10 , 0.90 ] [ 0.47 , 1.47 ] [ -0.12 , 0.87 ]

[ -1.52 , 0.47 ] [ -0.60 , 1.40 ] [ -0.02 , 1.97 ] [ -0.62 , 1.37 ]

I1 I2 I3 I4

Representemos en un grfico los intervalos obtenidos en las cuatro repeticiones del experimento : Valor desconocido

-2

-1

68 %

I1
95 %

I2 I3 I4 Fig.51
En trminos frecuenciales, si se repite el experimento 100 veces, se debera obtener que 95 intervalos ( del 95 % de confianza ) contienen el valor desconocido, mientras que 5 intervalos no lo contendran. El intervalo de confianza que acabamos de estudiar est restringido al conocimiento de la varianza 2. Sin embargo, en la prctica, este valor tambin es desconocido. Para encontrar el intervalo de confianza para m en una ley de Gauss con m y ( 2 ) desconocidos, ser necesario estudiar una nueva ley de probabilidad : La Ley de Student. B. La Ley de Student.

Sean X0, X1,...., Xn , n +1 variables aleatorias gaussianas e independientes tales que E(Xi) = 0 , V(Xi) = 2 . Se dice que la variable aleatoria :

62

T=

Xo 1 n 2 Xi n i =1

sigue una Ley de Student con parmetros n ( o con n grados de libertad ). Se demuestra que la densidad de T es :

n +1 n +1 2 2 1 + t 2 , - < t < f(t ) = n n n 2


Se obtiene, a partir de esta densidad, que si n > 2 : E(T) = 0 , V(T) = n/n-2

Gauss

Fig.52
Student

El grfico de f(t) es cercano a la ley de Gauss con parmetros m = 0 , = 1. Si n 120 la ley de Student coincide con la ley de Gauss. La ley de Student se encuentra tabulada; en tablas figura el valor t tal que : P( - t T t ) = 1- n la pgina siguiente se tiene un extracto de una tabla de la ley de Student para 1- = 0.95.

63

Tabla de la Ley de Student


0.95

P( -t T t ) = 0.95 -t 0 t

1- = 0.95 n 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 40 60 120 n > 120 t 12.706 4.303 3.182 2.776 2.571 2.447 2.365 2.306 2.262 2.228 2.201 2.179 2.160 2.145 2.131 2.120 2.110 2.101 2.093 2.086 2.080 2.074 2.069 2.064 2.060 2.056 2.052 2.048 2.045 2.042 2.021 2.000 1.980 1.960

64

C.

Intervalo de confianza para la esperanza matemtica de una ley de Gauss en que es desconocido.

En este caso m y son desconocidos. Se demuestra que la variable aleatoria :

T=

Xm

(X
i =1

X)2

Xm n

n (n 1)

( en que es el estimador : =

(X
i =1

X) 2
, ver pgina 59 )

n 1

sigue una ley de Student con n -1 grados de libertad. En las tablas de la ley de Student con n -1 grados de libertad encontramos el valor t tal que ( ver pgina 64 ) : P( - t T t ) = 0.95 P( - t

Xm t ) = 0.95 n

despus de una transformacin en las desigualdades, se tiene :

P X - t m X + t = 0.95 n n
X t n , X + t n
es el intervalo del 95 % de confianza para m.

Ejemplo 1 : La resistencia a la rotura, expresada en kilos, de 5 ejemplares de cuerda son : 280, 240, 270, 285, 270. Estimar la resistencia media m utilizando un intervalo confidencial del 95 % ( suponiendo ley de Gauss ). Solucin : n = 5 de las tablas de la ley de Student con 4 grados de libertad encontramos t = 2.776 ( pgina 64 ). x= 280 + 240 + 270 + 285 + 270 = 269 5

(280 269) 2 + (240 269) 2 + (270 269) 2 + (285 269) 2 + (270 269) 2 = 17.64 4

65

2.776 17.64 2.776 17.64 El intervalo es 269 , 269 + 5 5


es decir [ 247.1 , 290.9 ]

21.9

21.9

290.9 247.1 269 A veces se escribe lo anterior como : m = 269 21.9 ( con 95 % de confianza ), con un error relativo : = 100*21.9/269 = 8.1 %
Ejemplo 2 : Dos examinadores A y B efectuaron una correccin doble sobre 30 pruebas. Las notas figuran en la tabla siguiente : A 13 15 12 16 18 15 14 18 17 20 B 14 16 13 16 17 15 15 17 16 17 A 15 16 15 17 16 13 15 11 14 15 B 17 17 15 18 16 14 16 12 14 18 A 17 15 16 18 14 16 15 17 14 15 B 16 15 18 20 15 15 15 19 16 16

Encontrar el intervalo de confianza para la esperanza matemtica de la variable Z = Nota de A Nota de B, usando 1 - = 0.95. Solucin : A partir de los datos encontramos los valores numricos de Z : (-1, -1, -1, 0, 1, ....., -1) = ( z1, z2,....., z30 ).

z = 0.53 ; 2 =

1 30 ( z i z ) 2 = 1.57 : = 1.253 29 i =1

De las tablas de la ley de Student con n - 1 = 29 grados de libertad encontramos t = 2.045, luego el intervalo de confianza para m = E(Z) es :

1.25 1.25 0.53 2.045 = 1.00 , 0.06 , 0.53 + 2.045 30 30 0.47 -1.0 -0.53 0.47 -0.06

Debido a que el valor 0 no pertenece al intervalo de confianza, podemos afirmar que el examinador A es ms severo que el examinador B. Ejemplo 3 : La tabla siguiente muestra los resultados de anlisis de oro ( en gr/ton ) para 10 muestras enviadas a dos laboratorios qumicos diferentes :

66

Laboratorio CIMM Laboratorio Bondar Diferencia Z

6.5 5.4 1.1

5.6 5.8 -0.2

6.6 5.4 1.2

6.1 5.8 0.3

5.8 5.7 0.1

6.0 5.4 0.6

6.1 5.7 0.4

6.3 6.0 0.3

6.1 5.3 0.8

6.6 6.0 0.6

Encontrar si estas diferencias son significativas. Solucin : Se tiene : es :

z = 0.52 , 2 = 0.188 , = 0.434

, t = 2.262 y el intervalo

0.434 0.434 0.52 2.262 = 0.21 , 0.83 , 0.52 + 2.262 10 10


0.31 0.21 0.52 0.31 0.83

Debido a que el valor 0 no pertenece al intervalo, podemos concluir que el laboratorio CIMM proporciona leyes significativamente ms altas que las que proporciona el laboratorio Bondar. Para encontrar el intervalo de confianza para la varianza 2 de una ley de Gauss, es necesario introducir otra ley de probabilidad. D. La ley de Chi-cuadrado.

Sea X1, X2,....,Xn una sucesin de variables aleatorias independientes tales que cada Xi sigue una ley de Gauss con esperanza E(Xi) = 0 y varianza V(Xi) = 1. Se dice que una variable aleatoria : Z = X12 + X22 +.....+ Xn2 sigue una ley de chi-cuadrado con parmetro n ( o con n grados de libertad ). Los mtodos de calculo de probabilidad permiten demostrar que Z tiene la densidad siguiente :

z 2 e z 2 n 2 n 2 2
(1) f(z) = 0

si z > 0

si z 0

67

n=1
n=2 n=3 n=4 Grfico de f(z) n=5

Fig.53

Utilizando (1) se obtiene :

E(Z) = n

, V(Z) = 2n

Las reas bajo la curva f(z) se encuentran tabuladas. A veces se utiliza la notacin 2n para indicar la ley de chi-cuadrado con parmetro n. D. Intervalo de confianza para la varianza 2 de una ley de Gauss

Para encontrar el intervalo de confianza para 2 se utiliza el resultado siguiente :

n 2 ( X X) i La variable aleatoria T = i = 1 sigue una ley de Chi-cuadrado con parmetro n 1 ( 2


o con n 1 grados de libertad ). Para encontrar el intervalo del 95 % de confianza para 2 determinamos dos nmeros a y b en la ley 2n-1 tales que :
0.025
0.95

0.025

P( a T b ) = 0.95

(fig.54)
0 a b

P(a

2 (X i X)

b) = 0.95

Fig.54

despus de una transformacin simple se llega al intervalo del 95 % de confianza para 2 :


2 (X i X) 2 (X i X) = 0.95 P 2 b a

y el intervalo del 95 % de confianza para es :

(X i X) 2 P b

2 (X i X) a

= 0.95

68

Ley de 2n Valores de a y b para el intervalo de confianza para 2

0.025

0 95

0.025

a
n 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 a 0.0506 0.216 0.484 0.831 1.237 1.690 2.180 2.700 3.247 3.816 4.404 5.009 5.629 6.262 6.908

b
b 7.3778 9.348 11.143 12.832 14.449 16.013 17.535 19.023 20.483 21.920 23.337 24.736 26.119 27.488 28.845

La tabla adjunta proporciona los valores de a y b. Ejemplo :Los valores siguientes provienen de una ley de Gauss. Encontrar el intervalo del 95 % de confianza para 2 : M = ( 0.25, -0.74, 0.05, 1.13, 1.06, -0.86, -0.22, -1.12, 0.72, 0.95 )

x = 0.122 ,

(x
i =1

10

x ) 2 = 6.327 , n = 10 , =

6.327 = 0.703 9

En la tabla anterior, con n 1 = 9 encontramos : a = 2.70 , b = 19.02, el intervalo es : [ 6.327/19.02 , 6.327/2.70 ] = [ 0.33 , 2.34 ]
0.33 2.34

Hasta ahora todos los intervalo de confianza que hemos estudiado corresponden a parmetros de una ley de Gauss. En el caso de una variable no gaussiana, la solucin es aproximada tal como veremos a continuacin.

69

E.

Intervalo de confianza para la esperanza matemtica de una variable aleatoria no necesariamente gaussiana.

Segn el teorema del lmite central, deducimos que la variable aleatoria Z :

Z=

Xm n

Sigue una ley de Gauss con esperanza 0 y varianza 1 cuando n . Entonces cuando n es grande, podemos afirmar que ( ver pgina 61 )

P X - 2 m X + 2 0.95 n n

(1)

La diferencia con los casos anteriores es que los intervalos de confianza eran exactos mientras que en (1) se tiene una igualdad aproximada. a) Si es conocido y si la ley de X no es demasiado asimtrica, se puede aplicar (1) cuando n 30. Si es desconocido, se estima su valor por = puede aplicar (1) cuando n 100. F. Intervalo de confianza para parmetros estimados por el mtodo de mxima verosimilitud.

b)

n ( X X ) 2 ( n 1) y se i i = 1

Sea el estimador de mxima verosimilitud de entonces cuando n es grande, la variable aleatoria :

Z=

V()

Sigue una ley de Gauss con esperanza 0 y varianza 1, luego : P( 2 V( ) + 2 V ( ) ) 0.95 Aproximacin vlida cuando n 100. Cuando V( ) depende de parmetros desconocidos se utiliza V( ) . Ejemplo : En la variable aleatoria de Bernulli, estimar el parmetro p mediante un intervalo del 95% de confianza.
p

Sea X una variable de Bernulli, Entonces E(X) = p , V(X) = p(1 p) El estimador mximo verosmil de p es : p = X ( ver pgina 62 ) el cual verifica : E( p) = p ,

1-p 0 1

V(p) =

p(1 p) p(1 p) x(1 x) V(p) = = n n n


70

, luego el intervalo es :

x(1 - x) x(1 - x) 0.95 p x + 2 P x - 2 n n


Ejemplo numrico : en la propaganda televisiva se entrevistaron n = 1000 personas y 501 personas prefirieron Pepsi. Entonces

p=x=

501 = 0.501 ; el intervalo es : 1000

0.501 0.499 0.501 0.499 0.501 2 = [0.469,0.533] , 0.501 + 2 1000 1000

0.469

0.533

O sea que la probabilidad p = probabilidad de que una persona prefiera Pepsi bien podra ser inferior a 0.5 !

71

XI.

TEST DE HIPTESIS ESTADSTICAS.

Ejemplos introductorios de hiptesis estadsticas a) b) Una fbrica de ampolletas elctricas debe decidir cul de dos mtodos A B da una vida mayor a las lmparas. Las estadsticas de la Polla chilena desde 1934 a la fecha dan los resultados siguientes para las terminaciones ( n = 820 sorteos ) :

97 Fig.55 87 71 83 84 78 80 80 88 72 0 sali 71 veces 1 sali 87 veces 9 sali 88 veces 9

Se puede afirmar que estos nmeros son equiprobables ? El estadstico aborda este tipo de problemas de la manera siguiente : Considera una hiptesis Ho ( en el ltimo ejemplo : H0 = los nmeros son a) equiprobables ) y una hiptesis alternativa H1 ( en el ejemplo : H1 = los nmeros no son equiprobables ). b) Se aplica un cierto nmero de experimentos ( en el ejemplo : obtencin de 819 datos ) y se define un cierto suceso S1 del cual sabemos que si H0 es cierta, S1 tiene una probabilidad muy pequea ( por ejemplo 0.05 ).
S1

P(S1) = = nivel de significacin

Entonces si al aplicar el conjunto de experimentos se produce el suceso S1 rechazamos H0 y en consecuencia aceptamos H1. En caso contrario aceptamos H0.
Justificacin de la regla Debemos conclur una de las dos alternativas siguientes : i) O bien la hiptesis H0 es cierta y se ha producido un suceso S1 de probabilidad muy pequea ( 0.05 ). ii) O bien la hiptesis es falsa y debemos rechazarla.

Parece natural no admitir lo primero, luego se admite lo segundo y se rechaza la hiptesis. Ejemplo : Un fabricante asegura que sus ampolletas tienen una vida media mo = 2400 horas. Se supone que es conocido y vale = 300 horas y que la duracin de una ampolleta es gaussiana. Se toma una muestra de n = 200 ampolletas y esta muestra ha dado x = 2320 horas. Se puede considerar este resultado compatible con la hiptesis que la vida de las lmparas tenga un valor medio mo = 2400 horas ? i) Se fija un nivel de significacin = 0.05.

72

ii) pgina 61 ) :

Se supone que H0 : m = mo = 2400 es verdadera, luego se cumple la relacin (ver

P X 2 mo X + 2 = 0.95 n n

la cual es equivalente a :

P m o 2 X mo + 2 = 0.95 n n

Utilizando los datos mo = 2400 , = 300 , n = 100, se tiene :

P( 2340 X 2460) = 095


Pero result x = 2320 , por consiguiente se rechaza la hiptesis.
Ley de X cuando H0 es verdadera
0.95

2340 Zona de rechazo

2400 Zona de aceptacin Fig.56

2460 Zona de rechazo

Estudiemos el problema desde el punto de vista de los intervalos de confianza : el intervalo del 95 % para el valor m desconocido es :

2 2 , X+ X [2320 60,2320 + 60] = [2260,2380] n n

2260

2320

2380

y debemos rechazar la hiptesis porque el valor mo = 2400 no pertenece al intervalo. El test de hiptesis que acabamos de estudiar se puede resumir en la receta siguiente : Test de hiptesis sobre la esperanza m de una ley de gauss con conocido. Se desea comprobar la hiptesis H0 : m = mo siendo H1 : m mo. (I) Elegir el nivel de significacin pequeo ( 0.05 ) (II) Si H0 es cierta, se elige un intervalo de

P m o 2

n X m o + 2

n = 0.95
I

aceptacin

tal

que

73

m o 2
(III) (IV) Se procede a realizacin de Conclusin : a) b)

mo + 2 n

la extraccin de la muestra ( X1, X2,....., Xn ) anotando el valor de x , X. Si x I se acepta la hiptesis H0 Si x I se rechaza la hiptesis H0

Observacin : i) No se deben invertir los pasos II y III, es decir el intervalo de aceptacin debe ser fijado antes de hacer el experimento. ii) A menudo se elige un riesgo = 0.05. iii) La decisin de un test de hiptesis no es nunca definitiva y puede ser puesta en tela de juicio luego de otra experiencia. iv) Al hacer un test de hiptesis se pueden cometer dos tipos de errores, tal como muestra la tabla siguiente : Decisin Hiptesis Verdadera Hiptesis Falsa Aceptar Decisin Correcta Error Tipo II Rechazar Error Tipo I Decisin Correcta

Observacin : En general, para un valor dado de n, disminuir la probabilidad de un tipo de error implica necesariamente un aumento en la probabilidad del otro tipo de error. El nico medio para reducir ambos es aumentando n. En la prctica un tipo de error puede ser ms serio que el otro : el problema especfico dispondr cul necesita un control ms estricto. v) La hiptesis H0 se llama hiptesis nula y H1 se llama hiptesis alternativa.

Potencia de un test de hiptesis. Supongamos el caso del test anterior : comprobar la hiptesis H0 : m = mo. Se llama potencia del test a la probabilidad de rechazar la hiptesis H0 cuando el valor del parmetro es m.

( m) = P( X I m)

74

Ley de X cuando m = mo /2 1- /2

mo

Ley de X cuando m = m

I Fig.57

(m)
Se llama curva de potencial al grfico sera :

(m) versus m. En el caso anterior la curva de potencial (m)

1.0

Fig.58

mo

Observar que si m es muy diferente de mo la probabilidad de rechazar H0 es 1.0. Observaciones : a) La curva de potencia indica, para cada valor de m, la probabilidad para que la receta anterior conduzca al rechazo de la hiptesis H0 : m = mo cuando el verdadero valor del parmetro es m. Si I es el intervalo de aceptacin de la receta y si m I,

b)

(m) es la probabilidad de

rechazar la hiptesis H0 acertadamente. En este caso

(m)

indica de una cierta manera la

75

potencia que tiene el test para descubrir la falsedad de la hiptesis H0. Luego la curva de potencia ideal sera:

1.0 mo I
c)

Fig.59

Existen otros intervalos de aceptacin ( dependiendo del problema ) :


caso (a) caso (b)

0.05

0.05 mo mo

m o 1.64

n
Fig.60

m o + 1.64

El caso (a) se utiliza en los siguientes test : i) H0 : m = mo versus H1 : m < mo ii) H0 : m mo versus H1 : m < mo El caso (b) se utiliza en los siguientes test : i) H0 : m = mo versus H1 : m > mo ii) H0 : m mo versus H1 : m > mo Relacin entre los intervalos de confianza y los test de hiptesis El ejemplo anterior nos muestra que existe una ntima relacin entre el intervalo de confianza para un parmetro y el test de una hiptesis relativa al mismo. En general, dada una variable aleatoria X cuya ley de probabilidad depende de un parmetro , encontramos dos funciones T1 y T2 ( las cuales dependen de X1, X2,....., Xn ; ver pginas 61 70 ) tales que : P( T1 T2 ) = 1 - Entonces si al hacer la hiptesis H0 : = , una vez obtenida la muestra ( x1, x2,....., xn ), el intervalo : [ t1 , t2 ] no cubre el valor del parmetro o, debemos rechazar la hiptesis al nivel de significacin . Esto ltimo permite obtener test de hiptesis a partir de los intervalos de confianza ya estudiados, lo cual proponemos como ejercicio al lector.

76

La informacin que proporciona un intervalo de confianza tiene una analoga perfecta con la que da un test, como se ve en el siguiente cuadro :
INTERVALO DE CONFIANZA

a) No cubre al parmetro b) Cubre valores errneos c) Extensin de la muestra para reducir la longitud del intervalo

TEST DE HIPOTESIS a) Error tipo I b) Error tipo II c) Extensin de la muestra para aumentar la potencia del test

Existen otros test de hiptesis que no se refieren a parmetros de una ley de probabilidad, que son los test de bondad del ajuste, los cuales estudiaremos a continuacin XI.1. TEST DE BONDAD DEL AJUSTE

Los test de bondad del ajuste se refieren a la comparacin de una observacin de datos con una ley de probabilidad terica. El ejemplo (b) de la pgina 61 referente a 820 terminaciones de la Polla nos proporciona un caso: supongamos que queremos comparar las frecuencias observadas con las frecuencias tericas correspondientes al modelo siguiente :

P0

P1

P9

n = 829 P0 = P1 =.....= 0.1

Fig.61
np0 = np1 =.....= np9 = 82 es la frecuencia terica de cada valor Se tiene as el cuadro siguiente : Valor 0 1 2 3 4 5 6 7 8 9 Total Frecuencia observada 71 87 83 84 78 80 97 80 72 88 820 Frecuencia terica 82 82 82 82 82 82 82 82 82 82 820

La hiptesis a comprobar sera : H0 . Los valores son equiprobables . Existen dos test para comprobar este tipo de hiptesis que son el test de chi-cuadrado y el test de Kolmogorov-Smirnov.
77

El test de Chi - cuadrado : 2 Sean x1, x2,...., xn los resultados de n observaciones de una variable aleatoria X. Los datos se han agrupado de la manera siguiente :

Valor a1 a2 ak Total

Frecuencia observada o1 o2 ok n

Clase c1 c2 ck Total

Frecuencia observada o1 o2 ok n

Variable discreta

Variable continua

de la observacin de esta agrupacin y considerando otra informacin disponible sobre la variable en estudio, se infiere una ley de probabilidad para la variable aleatoria X ( si X es discreta se utiliza p(xi) = P(X = xi ) y si X es continua se utiliza su densidad f(x) ). Esta ley de probabilidad depende de parmetros desconocidos 1, 2,....., los cuales se estiman por el mtodo de la mxima verosimilitud. Una vez calculados los parmetros, se calculan las frecuencias tericas asociadas : Ei = n p(a i ) Ei = n f(x)dx
ci

i = 1, 2,...., k i = 1, 2,...., k

caso discreto caso continuo

El test de 2 se basa en la comparacin entre los valores observados oi y los valores tericos Ei, utilizando el resultado siguiente : Teorema : La variable aleatoria k (Oi Ei) 2 (1) D= Ei i =1 sigue una ley de Chi - cuadrado con k - - 1 grados de libertad : 2 k - - 1 *

Fig.62
0 95

k-l1

= Ley de D

DMx

D vara entre 0 y DMximo con un 1 - = 0.95 de probabilidad. Esto nos induce la siguiente regla de decisin :

* Este teorema es valido si X sigue la ley inferida, es decir si la hiptesis a comprobar es verdadera; es el
nmero de parmetros desconocidos. 78

Sea Do el valor numrico calculado segn la formula (1), entonces : i) ii) Si 0 Do Dmx , entonces se acepta la hiptesis que la variable aleatoria X sigue la ley de probabilidad p(xi) f(x). Si Do DMx , entonces se rechaza la hiptesis.
k - - 1.

El valor de DMximo se calcula segn las tablas de la ley 2 este valor para 1 - = 0.95. Ley 2n

La tabla siguiente proporciona

Fig.63

0
1 - = 0.95 n 1 2 3 4 5 6 7 8 9 10 Dmx

DMx

3.841 5.991 7.815 9.488 11.070 12.592 14.067 15.507 16.919 18.307

Ejemplo 1 : Comprobar si las terminaciones de la Polla son equiprobables : Solucin : El nmero de parmetros desconocidos es = 0, porque la hiptesis H0 nos proporciona el valor del parmetro p = 0.1. Adems k = 10. En la tabla de 2 10 - 0 - 1 = 29 encontramos DMx = 16.919. Ahora calculamos Do ( ver pgina 77 )

D0 =

(71 82) 2 (87 82) 2 (88 82) 2 + + ....... + = 6.537 82 82 82

Conclusin : como D0 DMx , se acepta la hiptesis que las terminaciones de la Polla son equiprobables, al nivel de significacin = 0.05.

79

En algunos casos en que el dominio de la variable aleatoria X es infinito, se debe tomar un intervalo de agrupacin extremo tambin infinito, tal como muestra el ejemplo siguiente. Ejemplo : Un barrio de Londres sufri durante los bombardeos de la segunda guerra mundial 537 impactos. La zona ha sido dividida en 576 cuadrados de 500m x 500m. Se estudi la variable aleatoria X = nmero de impactos por cuadrado, obtenindose el cuadro : N Impactos 0 1 2 3 4 5 Total Frec. Observada 229 211 93 35 7 7 576

Lo anterior significa que de los n = 576 cuadrados : 229 recibieron 0 impactos, 211 recibieron exactamente 1 impacto,...., y 1 cuadrado recibi exactamente 5 impactos. Se pide comprobar si X sigue una ley de Poisson. Solucin : La ley de Poisson toma los valores 0, 1, 2,....con probabilidades : k e p(k) = P(X = k) = , k = 0, 1, 2,.... k! Existe un parmetro desconocido que es , el cual se estima por el promedio de los datos : = x ( ver pgina 58 ) : o = (0 229 + 1 211 + 2 93 + 3 35 + 4 7 + 5 1) 576 = 0.929 Calculamos ahora las probabilidades y las frecuencias tericas :

e-0.929 = 0.395 p(0) = P( X = 0 ) = -0.929 = 0.367 p(1) = P( X = 1 ) = 0.929e 2 -0.929 p(2) = P( X = 2 ) = (0.929) e /2 = 0.170 3 -0.929 /6 = 0.053 p(3) = P( X = 3 ) = (0.929) e 4 -0.929 /24 = 0.012 p(4) = P( X = 4 ) = (0.929) e p = P( X 5 ) = 1 - P( X < 5 ) = 0.003

np(0) = 227 np(1) = 211 np(2) = 98 np(3) = 31 np(4) = 7 np = 2

Como la ley de Poisson puede tomar, en teora, valores mayores que 5 hemos tomado un intervalo infinito al final ( de no ser as, la suma 227 + 211 + 98 +.... sera inferior a n = 576 ). Se tiene as el cuadro :

80

N Impactos 0 1 2 3 4 5 ms Total

Frec. Observada 229 211 93 35 7 1 576

Frec. Terica 227 211 98 31 7 2 576

Por otra parte k = 6 , = 1. En la tabla 26-1-1 = 24 encontramos DMx = 9.488. Ahora calculamos D0 : k (Oi Ei) 2 (229 227) 2 (211 211) 2 (1 2) 2 D0 = = + + ...... + = 1.289 Ei 227 211 2 i =1

Conclusin : Se acepta la hiptesis que los datos provienen de una ley de Poisson, al nivel = 0.05 porque D0 DMx . Se puede demostrar la propiedad siguiente de la ley de Poisson : si los impactos son al azar ( es decir sin apuntar ), entonces la variable X = nmero de impactos por cuadrado , sigue una ley de Poisson. Al aceptar nuestra hiptesis concluimos que los bombardeos no apuntaban a zonas especficas dentro del barrio. El test de Kolmogorov - Smirnov. El test de Kolmogorov - Smirnov sirve para comprobar la hiptesis de que una variable aleatoria X sigue una ley de probabilidad especificada. El test se basa en la comparacin de las funciones de distribucin terica y emprica ( ver pginas 3 - 4 y 15 - 16 ) : F*(x) = porcentaje de valores de la muestra que son x F (x) = P( X x ) F*(x) = funcin de distribucin emprica F (x) = funcin de distribucin terica El test toma como medida de disconformidad de las distribuciones empricas F*(x) al mdulo de la mayor diferencia observada entre F*(x) y F(x) ( ver figura 64 ), es decir a : D = Mx F*(x) - F(x)

81

Fig.64

Se demuestra que si los datos observados corresponden a una variable aleatoria con funcin de distribucin F(x), entonces D sigue una ley de Kolmogorov Kn :

Ley de D
Fig.65
0.95

DMx

Lo anterior nos induce la siguiente regla de decisin : i).- Aceptar la hiptesis si D0 DMx ii).- Rechazar la hiptesis si D0 > DMx La tabla siguiente nos proporciona el valor de DMx para el nivel de confianza 1 - = 0.95 :

82

Valor crtico para el test de Kolmogorov - Smirnov 1 - = 0.95 Numero de datos n 5 10 15 20 25 30 40 n > 40 DMx 0.56 0.41 0.34 0.29 0.26 0.24 0.21 1.36 n

Ejemplo : Aplicar el test de Kolmogorov - Smirnov a las terminaciones de la Polla. Solucin : Se tiene el cuadro siguiente : F*(x) 0.087 0.193 0.293 0.396 0.491 0.589 0.707 0.805 0.893 1.000 F*(x) - F(x) 0.013 0.007 0.007 0.004 0.009 0.011 0.007 0.005 0.007 0.000 D0

Valor 0 1 2 3 4 5 6 7 8 9 Total

Frec. Observada 71 87 83 84 78 80 97 80 72 88 820

Frec. Terica 82 82 82 82 82 82 82 82 82 82 820

F(x) 0.100 0.200 0.300 0.400 0.500 0.600 0.700 0.800 0.900 1.000

Se tiene entonces que D0 = 0.013. En la tabla anterior encontramos D Mx = 1.36

820 = 0.0475

Conclusin : como D0 Dmx, aceptamos la hiptesis que los nmeros son equiprobables. Aplicacin del test de Chi - cuadrado a las tablas de contingencia. A veces un conjunto de datos se clasifica de acuerdo a caractersticas en un cuadro llamado tabla de contingencia. Ejemplo : En el ao 1897 se produce una peste. De 127 personas no vacunadas, 10 contrajeron la peste. Sobre 147 personas vacunadas, 3 contrajeron la peste. Estos datos se pueden clasificar en la tabla siguiente :

83

C No Vacunad. D Vacunadas Total

A Contaminad. 10 3 13

B No Contam. 117 144 261

Total 127 147 274 n = 274

que es una tabla de contingencia de 2 x 2. Cuando se consideran estas caractersticas es interesante comprobar si son o no independientes. La hiptesis a comprobar sera : H0 : A y B son independientes de C y D versus H1 : A y B no son independientes de C y D Estas hiptesis se pueden escribir como : H0 : P( A C ) = P(A)*P(C) , P( A D ) = P(A)*P(D) P( B C ) = P(B)*P(C) , P( B D ) = P(B)*P(D) versus H1 : Las relaciones anteriores no son verdaderas El nmero esperado de observaciones en las celdas es : n*P(A

n*P(B D) y segn la hiptesis ser : n*P(A)*P(C), n*P(A)*P(D), n*P(B)*P(C), n*P(B)*P(D). Como ninguna de estas probabilidades es conocida, deben ser estimadas a partir de los datos :

C), n*P(A D), n*P(B C),

P(A) = 13/274 , P(B) = 1 P(A) = 261/274

*
P(C) = 127/274 , P(D) = 1 P(C) = 147/274
la estimacin de los nmeros esperados en las celdas es

n P(A) P(C) = 6.03

n P(A) P(D) = 6.97

n P(B) P(C) = 120.97

n P(B) P(D) = 140.03

Tenemos entonces las tablas siguientes :

* Observacin : Solo se han estimado dos parmetros desconocidos : P(A) y P(C). Las otras : P(B) y P(D) fueron calculadas a partir de P(A) y P(C).

84

C No Vac. D Vac. Total

A Cont. 10 3 13

B No Cont. 117 144 261

Total 127 147 274 C No Vac. D Vac. Total

A Cont. 6.03 6.97 13

B No Cont. 120.97 140.03 261

Total 127 147 274

Tabla Observada

Tabla Terica

Para comprobar la hiptesis H0, se utiliza la variable aleatoria :

D=

(O AC E AC ) 2 (O AD E AD ) 2 (O BC E BC ) 2 (O BD E BD ) 2 + + + E AC E AD E BC E BD

la cual sigue una ley de chi-cuadrado con k - - 1 = 1, grado de libertad ( porque : k = 4 , = nmero de parmetros desconocidos = 2 ).

Ley Fig.66
0 95

2 1

1 - = 0.95

DMx = 3.841

Se tiene entonces ( ver pgina 79 ) : P( D 3.841 ) = 0.95 ; lo que nos induce la regla de decisin siguiente : i).- Aceptar H0 ( A y B son independientes de C y D ) si : D0 DMx = 3.841 ii).- Rechazar H0 si : D0 > DMx = 3.841 En el ejemplo anterior, se tiene :

Do =

(10 6.03) 2 (117 120.97) 2 (3 6.97) 2 (144 140.03) 2 + + + = 5.12 6.03 120.97 6.97 140.03

Conclusin : Como D0 > DMx se rechaza la hiptesis H0, lo que equivale a aceptar que A y B dependen de C y D, es decir la vacuna produce resultados significativos. Generalizacin : El esquema anterior se generaliza al caso de una tabla de contingencia q x r :

85

B1 B2

A1 O11 O21

A2 O12 O22

.... .... ....

Aq O1q O2q

Br Total

Or1
n 1

Or2
n q

.... ....

Orq
n q

Total n1 n2 n r n

B1 B2

A1 E11 E21

A2 E12 E22

.... .... ....

Aq E1q E2q

Br Total

Er1
n 1

Er2
n q

.... ....

Erq
n q

Total n1 n2 n r n

Tabla Observada

Tabla Terica

En este caso k = q x r = q - 1 + r - 1 = q + r - 2 = nmero de parmetros desconocidos ( los parmetros desconocidos son : P(A1), P(A2),..., P(Aq-1) y P(B1), P(B2),..., P(Br-1) porque P(Aq) y P(Bq) se calculan mediante 1 - suma de probabilidades ).

D=

i =1 j =1

(Oij Eij) 2 Eij

sigue una ley 2k- - = 2qr-q-r+1 = 2(q-1)(r-1)

En las tablas de la ley de chi-cuadrado con (q-1)(r-1) grados de libertad ( pgina 80 ) encontramos el valor DMx. Se tiene la regla de decisin siguiente : i).- Aceptar H0 ( A1, A2,...., Aq son independientes de B1, B2,...., Br ) si D0 DMx ii).- Rechazar H0 si D0 > Dmx.

86

XII.

ANALISIS DE LA VARIANZA.

El anlisis de la varianza se ocupa de las tcnicas estadsticas para estudiar inferencias respecto de medias de dos o ms muestras. Supongamos que tenemos r muestras aleatorias y queremos comprobar la hiptesis : H0 : m1 = m2 =....= mr versus H1 : no todas las esperanzas son iguales Notaciones . Sea xij el dato I de la muestra Mj. Las r muestras aleatorias se pueden ordenar en la tabla siguiente: Muestras M1 x11 x21 xn11 Promedios M2 x12 x22 x n 22
x 2

..... ..... ..... ..... .....

Mr x1r x2r xnrr

x 1

xr

N = n1 + n2 +.....+ nr

x=

n1 x 1 + ..... + n r x 2 n1 + ..... + n r

Ejemplo : En una parte de un yacimiento con tres tipos de rocas R1, R2, R3 se han tomado 3, 4, 5 muestras respectivamente.

Fig.67

las leyes se dan en el cuadro siguiente :

87

Leyes de Cobre

R1 0.56 0.53 0.68

Tipo de Roca R2 0.70 0.61 0.67 0.62

R3 0.77 0.73 0.63 0.74 0.68

r=3

x 1 = 0.59
n1 = 3

x2 = 0.71
n2 = 4

x 3 = 0.71
n3 = 5

x = 0.66
N = 12 Se tiene adems : numero total de datos : N = 12 Promedio de todas las observaciones : x = 0.66 En este ejemplo estaramos interesados en comprobar : versus H1 : no todas las esperanzas son iguales H0 : m1 = m2 = m3 Para comprobar este tipo de hiptesis se utiliza el resultado siguiente : si las r muestras son muestras aleatorias de una misma variable X gaussiana, entonces la variable aleatoria :

(x
D=

nj

2 j - x) (r - 1)

(x
j =1 i =1

j =1 i =1 r nj

(1)
2 ij - x j ) (N - r)

sigue una ley F(r-1 , N-r) llamada ley de F de Snedecor con (r-1 , N-r) grados de libertad.

Ley de D = F(r-1 , N-r) 1 - = 0.95


0.95

0
Fig.68
Tenemos entonces la siguiente regla de decisin :

DMx

88

i).- Aceptar H0 ( m1 = m2 =.....= mr ) si D0 DMx. ii).- Rechazar H0 si D0 > DMx. Esta regla se justifica porque si la Hiptesis es verdadera, entonces debera tenerse que x1 x 2 ..... x r x luego el numerador de la expresin (1) sera pequeo. En el caso de ser falsa la hiptesis, el numerador sera grande. La tabla siguiente proporciona los valores de DMximo en funcin de n1 y n2 correspondientes a la ley F(n1 , n2) para 1 - =0.95.

F(n1 , n2)

0.95

0
Fig.69

DMx

Valores de DMximo ( 1 - =0.95 ) Ley de F de Snedecor n2 1 2 3 4 5 6 7 8 9 10 n1 1 161 18.51 10.13 7.71 6.61 5.99 5.59 5.32 5.12 4.96 2 200 19.00 9.55 6.94 5.79 5.14 4.74 4.46 4.26 4.10 3 216 19.16 9.28 6.59 5.41 4.76 4.35 4.07 3.86 3.71 4 225 19.25 9.12 6.39 5.19 4.53 4.12 3.84 3.63 3.48 5 230 19.30 9.01 6.26 5.05 4.39 3.97 3.69 3.48 3.33

Ejemplo : En el caso anterior, comprobar la hiptesis : H0 : m1 = m2 = m3 Calculemos primero DMx. Debemos utilizar la tabla anterior : F(r1 , Nr) = F(2 , 9) = F(n1 , n2) DMx = 4.26. Calculemos D0 segn la frmula (1). Encontremos el denominador : r nj (x ij x j ) 2 (N r) Denominador = j =1 i =1 = [ (0.56 0.59) + (0.53 0.59) + (0.68 0.59) + (0.70 0.65) + (0.61 0.65) + (0.67 0.65) + (0.62 0.65) + (0.77 0.71) + (0.73 0.71) + (0.63 0.71) + (0.74 0.71) + (0.68 0.71) ]/9 = 0.00336

89

Numerador =

j =1 i =1 = [ (0.59 0.66) + (0.59 0.66) + (0.59 0.66) + (0.65 - 0.66) + (0.65 0.66) + (0.65 0.66) + (0.65 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) + (0.71 0.66) ]/2 = 0.01380

(x

nj

2 j - x) (r - 1)

D0 = 4.11

Conclusin : Debemos aceptar H0 porque result D0 DMx sin embargo el valor de D0 es muy prximo a DMx. Consideremos ahora la cantidad : = =

(x
j =1 i =1
2

nj

ij

x)2

[( x
r nj j =1 i =1 r nj

ij

x j ) + (x j x ) ]
r nj 2

(x
j =1 i =1

ij

x j ) + ( x j x ) + 2 ( xi j x j ) (x j x )
2 j =1 i =1 j =1 i =1

nj

es fcil de ver que : 2 El trmino

( xi
j =1 i =1

nj

x j ) ( x j x) = 0

( x
j =1 i =1

nj

ij

x) 2 se llama suma total de cuadrados ( abreviado : SST ). El termino

( x
j =1 i =1 r nj

nj

ij

x j ) 2 se llama suma de cuadrados entre grupos ( abreviado : SSW ). El trmino x ) 2 se llama suma de cuadrados entre grupos. Luego tenemos que :
SST = SSA + SSW

(x
j =1 i =1

Luego la ecuacin (1) se puede escribir como :

D=

SSA (r 1) SSW (N r)

90

XIII.

LA REGRESIN.

A menudo estamos interesados en una posible relacin entre dos o ms variables. Podemos sospechar que cuando una de las variables cambia, la otra tambin cambia de manera previsible. Es importante expresar tal relacin mediante una ecuacin matemtica que relacione las variables. Esta ecuacin nos servir para predecir el valor de una variable partiendo del valor de la(s) otra(s) variable(s). Regresin Lineal Simple. Si la relacin que existe entre la variable x y la variable y es una lnea recta, las variables estn relacionadas por : y = x + En una situacin no determinstica es razonable postular que esta relacin est afectada por errores experimentales o perturbaciones aleatorias. De acuerdo a lo anterior podemos formular el siguiente modelo estadstico : Modelo estadstico : Se asume que Yi est relacionado con Xi por : Yi = + Xi + ei en que : (a).- x1, x2,....,xn son los valores de la variable x que han sido tomados para el estudio. (b).- e1, e2,...., e3 son los errores aleatorios de la relacin lineal. Estos errores son desconocidos y se asume que son variables aleatorias independientes, gaussianas, con esperanza nula y varianza desconocida 2. (c).- Los parmetros y son desconocidos. El Mtodo de los Mnimos Cuadrados : Si asumimos en forma tentativa que la formulacin del modelo es correcta, se puede proceder a la estimacin de los parmetros y . El mtodo de los mnimos cuadrados constituye un mtodo eficiente para estimar los parmetros de la regresin. Supongamos que se ha graficado la recta y = a + bx. En el punto xi, el valor que predice la recta para y es a + bxi, mientras que el valor observado es yi. La discrepancia es di = yi a bxi. Al considerar todas las discrepancias, se toma : n n 2= D= di (y i a bx i ) 2 (1) i =1 i =1 , i = 1, 2,....,n

91

como medida de la discrepancia global. Si el ajuste es bueno, D debera ser pequeo. El principio del mtodo de los mnimos cuadrados es entonces : determinar los parmetros desconocidos de manera de minimizar D. Los valores encontrados se denotan y .

Fig.70

Antes de encontrar las expresiones para y veamos las notaciones que utilizaremos :

x=

1 n
2 i

, y=

1 n

y
i

S2 = x

(x

x) 2 = S xy =

x
i

nx 2 , S 2 = y

(y
i

y) 2 =

2 i

ny 2

(x

x)(y i y ) =

yi x y n

Escribiendo D en la forma :

D=

(y a bx ) = ((y y) b(x x) + (y a bx))


i i 2 i i
2 2 2

despus de una transformacin algebraica se llega a :

S xy 2 S 2 + S y xy D = n (y a b x ) + b S x Sx S2 x S xy =0 Lo cual es mnimo si : y a bx = 0 , bS x Sx
Luego :

(1)

S xy S2 x

, = y x

(2)

Ejemplo : en una empresa minera se dispone de los datos siguientes : x = Produccin en toneladas , y = Costo de produccin. Hallar la recta de regresin :

92

Produccin x 1.5 2.0 3.0 1.5 3.5 3.0 4.5 4.0 4.0 2.5

Costo y 2.5 3.1 3.8 2.1 4.3 3.2 4.8 3.9 4.4 3.0

Nota : Tanto la produccin como el costo han sido multiplicados por constantes. La primera etapa lgica es dibujar los datos. Este grfico nos indicara si el modelo lineal es adecuado.

Fig.71

Al hacer los clculos, se tiene :


x = 2.95 , y = 3.51

S 2 = 10.23 , S 2 = 6.85 x y
S xy = 7.91

7.91 = 0.77 10.23 = 3.51 0.77 2.9501.24 =

y = 1.24 + 0.77 x

Volvamos a las ecuaciones de la pgina anterior. El valor mnimo de D es : D Min =

S2 y

S2 xy S2 x

y utilizando la expresin (2) para :


D Min = S 2 2 S 2 y x

93

se llama suma de cuadrados debida al error a :

SSE = S y 2 S 2 = x
2

( y
i =1

x i ) 2

En el ejemplo anterior :

SSE = 6.85 (0.77) 2 10.23 = 0.785


Propiedades de los estimadores de mnimos cuadrados A) los estimadores y son ptimos, es decir son insesgados : E( ) = , E( ) = y tienen varianza mnima. SSE B) es un estimador insesgado de 2. S2 = n2 S ( ) sigue una ley de Student con n 2 grados de libertad. C) Z= x S sigue una ley de Student con n 2 grados de libertad. T= D) 1 x2 S + 2 n S x x - ( + x) + W= sigue una ley de Student con n 2 grados de libertad. E) 1 (x x) 2 S + n S2 x Estas propiedades nos sirven para establecer algunas inferencias respecto del modelo lineal. Inferencia respecto de la pendiente i) ii) El intervalo del 95 % de confianza para , deducido de la propiedad (C) es : S t Sx en que t se obtiene de las tablas de la ley de Student con parmetro n 2 ( ver pgina 64 ). Ejemplo : En el ejemplo anterior, comprobar la hiptesis H0 : = 0. Solucin : Encontremos el intervalo de confianza para :

= 0.77

S x = 10.23 = 3.20

S2 = 0.785/8 = 0.098 ; S = 0.313 En la tabla de la ley de Student con n 2 = 8 grados de libertad encontramos t = 2.306 (pgina 64); luego el intervalo es : 0.77 0.23 0.54 0.77 1.00 Conclusin : se rechaza H0. ii) Inferencias respecto de . El intervalo del 95 % de confianza para , deducido de la propiedad (D) es :
94

t S +
n

x2 S2 x

en que t se obtiene de las tablas de la ley de Student con parmetro n 2. Ejemplo : En el caso anterior encontrar el intervalo del 95 % de confianza para . Solucin : S 2 = 10.23 ; S = 0.313 ; n = 10 ; x = 2.95 ; = 1.24 ; t = 2.306 ; luego el x intervalo es : 1.24 0.70 0.54 1.24 1.94

iii) Prediccin de la respuesta media para x = x* El objetivo ms importante en un estudio de regresin es el de estimar el valor esperado de Y para un valor especfico x = x* : para estimar E(Y x*) = + x* se utiliza el estimador + x * con el siguiente intervalo de confianza, deducido de la propiedad (E) :

+ x * t S +
n

(x * x) 2 S2 x

en que t se obtiene de las tablas de la ley de Student con parmetros n 2. Ejemplo : En el caso anterior y = 1.24 + 0.77 x ; la estimacin para x* = 3.5 es y = 3.94 y el intervalo del 95 % de confianza es :

1 (3.5 2.95) 2 394 2.306 0.313 + 10 10.23

3.94 0.26
3.68 3.94 4.20

Observacin Importante : Se debe tener mucho cuidado al utilizar el modelo lineal para valores x* que estn fuera del rango de valores x observados. La figura 72 ilustra esta situacin :

95

y = + x

Fig.72 Relacin verdadera

1
Dominio de validez del modelo

XIII.1 VALIDACION DEL MODELO LINEAL Recordemos las hiptesis del modelo lineal : a) La relacin subyacente es lineal. b) Independencia de los errores. c) Varianza constante. d) Distribucin normal. Estudio de Residuos. Una de las tcnicas ms importantes para criticar el modelo es el estudio de los residuos, definidos por : ei = yi yi i = 1, 2,...,n. Ejemplo : En el caso anterior, se tiene el cuadro siguiente. Para validar el modelo sera necesario hacer un test sobre la normalidad de los e i . Sin embargo resulta ms simple estudiar el grfico residuo valor de prediccin, es decir e i versus y i , el cual, en el ejemplo, es el que aparece en la figura 73. xi 1.5 2.0 3.0 1.5 3.5 3.0 4.5 4.0 4.0 2.5 yi 2.5 3.1 3.8 2.1 4.3 3.2 4.8 3.9 4.4 3.0

yi
2.40 2.78 3.55 2.40 3.94 3.55 4.71 4.32 4.32 3.17

ei
-0.10 -0.32 -0.25 0.30 -0.36 0.35 -0.09 0.42 -0.08 0.17

96

Fig.73

Si los puntos forman una franja horizontal con respecto a cero, como la figura 73, entonces el modelo es aceptable.

Fig.74

Si el ancho de la franja crece (o decrece) con y , como en la figura 74, entonces la varianza 2 no es constante.

Fig.75

Si se observa un comportamiento sistemtico, como en la figura 75, entonces hay que considerar un modelo cuadrtico u otro de tipo no lineal. En algunos casos, en los cuales se conoce el orden de medicin, es interesante estudiar el grfico residuos versus orden en el tiempo.

97

Fig.76

El grfico de la figura 76 indica que los residuos consecutivos estn correlacionedos. Otras Comprobaciones en el Modelo Lineal Se puede considerar que el valor observado yi es la suma de dos componentes :

y i = ( + x i ) + ( y i x i )
Residuo o desviacin respecto de la relacin lineal

Valor observado de y

Valor explicado por la relacin lineal

En una situacin ideal en la cual los puntos estn exactamente en una recta, los residuos son nulos y la ecuacin + x i toma totalmente en cuenta los valores de y : se dice que la relacin lineal explica los valores de y. Como medida global de la discrepancia respecto de la linealidad se utiliza la suma de cuadrados debida al error (ver pgina 94) :

SSE =
en que : S2 = y

(y
i =1

x x i ) 2 = S2 2S2 y

(y
i =1

y) 2 es una suma de cuadrados que representa la variacin total de los

valores y. Se puede escribir entonces :

x S2 = 2S2 + SSE y
Suma total de cuadrados de y Suma de cuadrados Explicados por la relacin lineal

(1)
Suma de cuadrados De los residuos (no explicada)

x El termino 2S2 se llama suma de cuadrados debida a la regresin lineal. Si la recta proporciona un buen ajuste. entonces este trmino comprende la mayor parte de S2y y deja solo una pequea parte para SSE. En la situacin ideal en que los puntos estn en una recta, SSE es cero. Como ndice del ajuste lineal se utiliza la cantidad :

98

r2 =

x 2S 2 S2 y

S2 xy S 2 S2 x y

(se utiliz frmula (2) pgina 92)

llamada Coeficiente de Determinacin. Esta cantidad est relacionada con el coeficiente de correlacin muestral entre x e y (ver pgina 12). En efecto : r = . El coeficiente de determinacin r2 sirve como medida de la linealidad de la regresin. Al introducir r2 la relacin (1) queda :

S2 = r2 S2 + SSE y y
Ejemplo : Encontrar r2 en el ejemplo anterior. S2 Solucin : r 2 = 2 xy 2 Sx S y

SSE = S2 (1 r2) y

S2 = (7.91)2 = 62.57 , S2 = 10.23 , S2 = 6.85 xy y x r2 = 62.57 = 0.89 10.23 6.85

Esto significa que el 89 % de la variacin de y es explicada por la relacin lineal, lo cual hace satisfactorio al modelo en este aspecto. Cuando el valor de r2 es pequeo, se debe concluir que la relacin lineal no constituye un buen ajuste para los datos. Esto puede deberse a dos causas : i) Hay muy poca relacin entre las variables (Fig.77a) ii) La relacin subyacente no es lineal (Fig.77b)

Fig.77

99

El Test F. Para comprobar la falta de ajuste (por ejemplo la situacin (b) de la figura 77), se utiliza el test F el cual requiere disponer de varios valores de y para un mismo valor de x (ver figura 78).

Fig.78

En este caso los datos se ordenan segn la tabla siguiente, similar a la tabla del anlisis de la varianza : Valores Valores Promedios diferentes de x repetidos de y x1 y11 y12 ...... y1n1 y1 x2 ...... y2n2 y2 xk yk1 yk2
......

yknk

yk

Se define la suma de cuadrados de errores SSP por :

SSP =

( y
i =1 j = 1

ni

ij

yi )2

Se demuestra entonces que la variable aleatoria D= (SSE SSP) (k 2) SSP (n k) (*)

sigue una ley F de Snedecor con (k 2 , n k) grados de libertad.

Ley de D Fig.79
0.95

DMx

* Observacin : si el ajuste es razonable, D debe ser pequeo.

100

Regla de decisin : i) Se acepta el ajuste si D0 DMx. ii) Se rechaza el ajuste si D0 > DMx. Ejemplo : En el conjunto de datos siguientes, efectuar el test F. x y 2 4 2 3 2 8 3 18 3 22 4 24 5 24 5 18 6 13 6 10 6 16

Reordenando los datos tenemos : x 2 3 4 5 6 y 4, 3,8 18, 22 24 24, 18 13, 10, 16

k=5

y 5 20 24 21 13

SS 14 8 0 18 18

SSP = 14 + 8 + 0 + 18 + 18 = 58 Por otra parte : x = 4 , y = 14.55 , S 2 = 28 , S 2 = 571 , S xy = 50 x y

x = 1.786 , = 7.406 , SSE = S 2 2S 2 = 482 , n = 11 , k = 5 y


D0 = (SSE SSP) (k 2) ( 482 58) 3 = = 14.62 SSP (n k) 58 6

En las tablas de la ley F(k 2 , n k) = F(3 , 6) encontramos (ver pgina 89) : DMx = 4.76 Conclusin : se rechaza el ajuste lineal. Hay que considerar adems que r 2 = S2 S2 S2 = 0.156 , xy x y que es un valor muy pequeo. En este ejemplo una relacin cuadrtica resulta mejor que una relacin lineal (Fig.80.).

Fig.80

101

XIII.2. RELACIONES NO LINEALES En la prctica existen muchos casos en los cuales no es posible ajustar una recta, esto puede detectarse por el grfico de los valores observados y por el clculo de un r2 pequeo. En el caso no lineal, los mtodos estadsticos de ajuste son ms complicados. Sin embargo, en algunos casos es posible transformar las variables de manera de obtener una relacin aproximadamente lineal; el modelo lineal debe aplicarse entonces sobre las variables transformadas. Ejemplo : En 10 autos se midieron las variables siguientes : x : velocidad , y : distancia necesaria para detenerse al frenar. Se obtuvo : Velocidad x Distancia y 40 16.3 40 26.7 60 39.2 60 63.5 60 51.3 80 98.4 80 65.7 100 104.1 100 155.6 120 217.2

Lo cual proporciona el grfico siguiente :

Fig.81

La observacin de la figura 81 nos sugiere utilizar las variables x = x , y = x = x y = y 40 4.04 40 5.17 60 6.26 60 7.97 60 7.16 80 9.92 80 8.11

y :
100 12.47 120 14.74

100 10.20

Fig.82

Por otra parte :

102

x = 74 , y' = 8.60 , S 2 = 6440 , S 2 ' = 98.41 , S xy' = 766 , = 0.119 , = 0.206 , r 2 = 0.926 x y y' = 0.206 + 0.119 x y = ( 0.206 + 0.119 x) 2

La tabla siguiente nos muestra algunos modelos no lineales y las transformaciones para obtener una relacin lineal : Modelo no Lineal Transformacin y' = lny , x' = x

y = a e bx y = a xb 1 a + bx 1 y= (a + bx) 2 y=

y' = lny , x' = lnx

y' = 1

, x' = x

y' = 1
y' = 1

, x' = x

1 b =a+ y 1+ x
y =a + b x
La Regresin Multivariable.

, x' = 1 1+ x

y' = y , x' = x

Los conceptos estudiados es este captulo pueden ser extendidos a situaciones en las cuales existe ms de una variable independiente. Supongamos, que la variable y depende de las variables x, x, x ( la generalizacin a p variables es inmediata). Por analoga con el modelo lineal simple, se puede formular el modelo siguiente : i = 1, 2,...,n Yi = + 1xi + 2xi + 3xi + ei En que xi, xi, xi son los valores de las variables independientes en el experimento i, siendo yi la respuesta correspondiente. Se asume que los errores ei son variables aleatorias gaussianas independientes, de esperanza nula y varianza 2 desconocida. Las constantes , 1, 2, 3 son desconocidas. Debido a la presencia de ms de dos variables, este modelo se llama regresin lineal mltiple. Para estimar los parmetros , 1, 2, 3 se utiliza el mtodo de los mnimos cuadrados, minimizando la cantidad :

D=

(y
i =1

1 x i ' 2 x i " 3 x i ' ' ' ) 2

Al derivar parcialmente D con respecto a , 1, 2, 3 se llega al sistema de ecuaciones siguiente, llamado sistema normal :

103

1S 2 + 2S x'x" + 3S x'x''' = S x'y


x'

1S x'x" + 2S 2 + 3S x"x''' = S x"y


x"

1S x'x''' + 2S x"x''' + 3S 2 = S x'''y


x'''

= y 1 x' 2 x" 3 x' ' '


en que :

S2 =
x'

i =1 n

( x i ' x' ) 2 =

(x ' )
i

nx ' 2
n

i =1

S x'x" =
etc.

( x 'x' )(x "x" ) = x 'x " nx' x"


i i i i

i =1

i =1

Ejemplo : En la Oficina Salitrera de Pedro de Valdivia se observan durante 10 meses las variables siguientes, en la planta de concentracin : y = Recuperacin de la planta en %. x = Temperatura del proceso. x = Porcentaje de caliche vaciado. x= Porcentaje de material con granulometra > 0.5 pulgadas. Los datos figuran en la tabla siguiente : Recuperacin y 60.2 55.0 56.2 60.9 64.6 64.1 62.2 63.1 59.1 59.4 Temperatura x 35.33 34.37 35.10 39.53 40.03 40.03 39.77 40.70 40.17 39.87 % Caliche x 76.22 77.41 77.04 77.98 77.99 77.51 77.84 77.44 77.32 76.40 Granulometra x 3.7 3.9 4.1 3.7 3.7 3.6 4.0 3.6 4.1 4.1

En este caso, el sistema normal de ecuaciones proporciona la solucin :

= 70.23 , 1 = 0.867 , 2 = 0.172 , 3 = 7.742


y la ecuacin :

y = 70.23 + 0.867 x'0.172 x"7.742 x' ' '

La ecuacin de regresin nos indica que la nica variable (de las consideradas) que hace subir la recuperacin de la planta es la temperatura. Se pusieron calderas y se comprob que la recuperacin subi significativamente. Los residuos y i y i = y i 1 x i ' 2 x i " 3 x i ' ' ' son los que figuran en la tabla siguiente :

104

yi 60.2 55.0 56.2 60.9 64.6 64.1 62.2 63.1 59.1 59.4

yi 59.10 56.52 55.66 62.44 62.87 63.73 60.35 64.32 60.01 59.91

ei 1.10 -1.52 0.54 -1.54 1.73 0.37 1.85 -1.22 -0.91 -0.51

De manera anloga a la regresin simple, el estudio de los residuos sirve para validar el modelo. Ver pginas 99 101. En el caso multivariable, como ndice del ajuste lineal, se utiliza el coeficiente de determinacin r2, definido por : S2 yy 2 r = 2 2 Sy S
y

y se llama coeficiente de correlacin mltiple a = r. Si llamamos :

SSE =

i =1

( y i 1x i ' 2 x i " 3 x i ' ' '.... p x i ) 2 =


(p)

(y
i =1

yi )2

entonces se puede demostrar que : SSE = S 2 (1 r 2 ) y

SSE es un estimador insesgado de 2. (p = nmero de variables independientes) n p 1 S se llama desviacin standard de estimacin y representa, en cierto sentido, la magnitud de los errores ei.
y que : S 2 = Ejemplo : Calcular r2, , SSE, S2 y S en el caso de los datos de salitre. Solucin : S 2 = 91.58 , S 2 = 77.45 , S yy = y
y

y y
i

n y i y i = 76.86

i =1

Utilizando la tabla anterior :

r2 = 0.833 , = 0.913

SSE = (1.10)2 + (-1.52)2 +....+(-0.51)2 = 15.313 S2 = SSE/(10-4) = 2.552 , S = 1.598 Del anlisis de los residuos ei y del valor de r2, concluimos en este caso que el modelo lineal mltiple es satisfactorio.

105

La Regresin Polinmica. En el caso en el cual se dispone de una variable independiente se puede suponer un modelo polinmico del tipo : Yi = + 1xi + 2xi2 +....+pxip + ei que es un caso particular del modelo lineal mltiple, con : x = x , x = x2 ,......, x(p) = xp. Por ejemplo, si se desea ajustar la parbola + 1x + 2x2,

D=

(y
i =1

1x i 2 x i ) 2
2

lo cual es mnimo si se cumple el sistema :

x i + 1 x i + 2 x i 3 = x i y i
2

x i + 1 x i + 2 x i 4 = x i y i
2 3 2

n + 1 x i + 2 x i 2 = y i

106

XIV.

ESTADISTICA NO PARAMETRICA.

Casi todos los mtodos estadsticos que hemos estudiado suponen que las variables que interesan son gaussianas. Estos mtodos requieren, en general, el conocimiento de dos parmetros : la esperanza matemtica y la varianza. Ahora consideremos situaciones en las cuales no podemos hacer suposiciones referentes a los parmetros de las variables, de aqu el trmino Estadstica no Parmetrica. Aplicaremos los mtodos no parmetricos en las ocasiones en las cuales no tenemos motivos para suponer que las variables son normales. Sin embargo como regla, los mtodos no parmetricos tienen menor eficacia que los correspondientes mtodos paramtricos. A. Criterio de Wilcoxon de verificacin de la Homogeneidad de Dos Muestras.

El criterio de Wilcoxon trata de responder la siguiente pregunta : se puede unir dos o ms porciones de datos estadsticos para formar una muestra comn, considerndola como una muestra homognea ?. Si la respuesta es positiva, el investigador podr realizar clculos posteriores con una muestra ms grande. El criterio de Wilcoxon solo se aplica a variables continuas. Existen una versin equivalente de este criterio, desarrollada por Mann y Whitney (1947). Sean : M1 = ( x1(1), x2(1),....., xn1(1) ) M2 = ( x1(2), x2(2),....., xn2(2) ) dos muestras, suponiendo que n1 n2 a) Se construye la muestra M = M1 M2 compuesta de n1 + n2 valores, ordenados en orden creciente. En esta muestra solo nos interesa el orden (rango) de los elementos de cada serie. b) Se calcula la suma de los rangos ri de los elementos de la muestra m1 : W = r1 + r2 +....+rn1 Ejemplo : Dos formaciones geolgicas se comparan segn la ley de oro en gr/ton. Se obtuvieron los datos siguientes : Datos Formacin 1 : M1 = ( 4.7, 6.4, 4.1, 3.7, 3.9 ) Datos Formacin 2 : M2 = ( 7.6, 11.1, 6.8, 9.8, 4.9, 6.1, 15.1 ) Se construye ahora la muestra ordenada M1 M2, identificando los valores que pertenecen a M1 y M2 :
Datos de M1

M1 M2 Rango

3.7 1

3.9 2

4.1 3

4.7 4

4.9 5

6.1 6

6.4 7

6.8 8

7.6 9

9.8 10

11.1 11

15.1 12

Luego se tiene : Wo = 1+2+3+4+7 = 17 c) Regla de decisin : Si la primera muestra presenta una desviacin sistemtica hacia los grandes valores, entonces los valores xi(1) de la muestra M1 estarn al final de la serie M1 M2 y el valor de W ser anormalmente grande. Si la muestra M1 presenta una desviacin sistemtica hacia los pequeos

107

valores, entonces los valores de la muestra M1 estarn al comienzo de la serie M1 M2 y el valor de W ser anormalmente pequeo. En estos dos casos la hiptesis de homogeneidad de las muestras debe ser rechazada. En resumen la regla de decisin al nivel 1 - es : i) Aceptar la hiptesis de homogeneidad si : WMn < Wo < WMx ii) Rechazar la hiptesis en caso contrario La tabla siguiente proporciona los valores de WMn y WMx para el nivel 1 - = 0.95. n1 3 3 3 3 3 3 3 3 3 3 3 4 4 4 4 4 4 4 4 4 4 4 5 5 5 5 5 5 5 5 5 5 5 n2 5 6 7 8 9 10 11 12 13 14 15 5 6 7 8 9 10 11 12 13 14 15 5 6 7 8 9 10 11 12 13 14 15 WMn 6 7 7 8 8 9 9 10 10 11 11 11 12 13 14 14 15 16 17 18 19 20 17 18 20 21 22 23 24 26 27 28 29 WMx 21 23 26 28 31 33 36 38 38 43 46 29 32 35 38 42 45 48 51 54 57 60 38 42 45 49 53 57 61 64 68 72 76

Ejemplo : Comprobar si los datos de las formaciones geolgicas evidencian que la formacin 2 es ms rica que la formacin 1.
108

Solucin : n1 = 5 , n2 = 7 WMn = 20 , WMx = 45 (segn tabla adjunta) y como Wo = 17, entonces se debe rechazar la hiptesis de que las muestras son homogneas, luego la formacin geolgica 2 es ms rica que la formacin 1. B. El Test de los Signos.

Un test no parmetrico excepcionalmente simple e intuitivo es el test de los signos. Este test requiere disponer de dos muestras M1 y M2 de igual extensin y tomadas de a pares. La hiptesis a comprobar es H0 : Las dos muestras corresponden a la misma variable aleatoria. Se comprueba que no existe diferencia entre ambas muestras al examinar los signos de las diferencias entre las parejas, los cuales deberan estar distribuidos uniformemente : P( + ) = P( - ) = Como regla de decisin se puede utilizar el test de 2; por lo menos se necesitan 10 parejas de nmeros para que la comprobacin sea razonablemente sensitiva. Ejemplo : La tabla siguiente muestra al nmero de obreros ausentes en dos turnos de una empresa durante 16 das. Tenemos 15 parejas de datos : no consideramos el da 7 porque los dos valores coinciden. Da 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 Turno A 8 6 5 0 5 2 4 3 9 6 11 8 5 8 10 3 Turno B 7 7 7 2 3 3 4 5 8 8 12 7 6 9 7 5 Diferencia AB + + + + + -

Se tiene entonces que de las 15 diferencias, en teora 7.5 seran ( + ) y 7.5 seran ( - ) : Diferencias Observado Oi + 5 10 Terico Ei 7.5 7.5

D=

i =1

(Oi Ei ) 2 sigue una ley 21 : k = 2 , l = 0 Ei

109

de la tabla de la pgina 84 deducimos al nivel 0.95 que DMx = 3.841. Por otra parte : (5 7.5) 2 (10 7.5) 2 D0 = + = 1.67 7.5 7.5 Conclusin : Los datos no justifican la inferencia de que existe una diferencia en el ausentismo de los dos turnos. C. El Coeficiente de Correlacin de Rangos de Spearman.

Supongamos n individuos ordenados con respecto a dos caracteres A y B. Sea di = diferencia de rangos del individuo i en ambas clasificaciones. Se define el coeficiente de correlacin de rangos de Spearman por : n 6 di 2 =1 i =1 n(n 2 1) Ejemplo : Supongamos que tenemos 10 alumnos A, B, C,....,J clasificados por 2 profesores por orden de capacidad. Los resultados de la clasificacin se presentan como sigue : Alumno Profesor 1 Profesor 2 di A 2 3 1 B 1 2 1 C 3 1 -2 D 4 4 0 E 6 6 0 F 5 7 2 G 8 5 -3 H 7 9 2 I 10 10 0 J 9 8 -1

(lo anterior significa por ejemplo : para el profesor 1 el alumno A es el segundo en capacidad, mientras que para el profesor 2 es el tercero en capacidad). 10 Se tiene que d i 2 = 12 + 12 + (2) 2 + ..... + (1) 2 = 24 , n = 10 i =1 6.24 = 0.85 =1 10.99

El coeficiente de correlacin de rangos ha sido elaborado de manera que, en el caso de clasificaciones idnticas (di = 0), vale 1.0 y, en el caso de la clasificacin ms discordante posible (las clasificaciones son inversas), vale -1.0 (comprobarlo numricamente en el ejemplo). Test de Hiptesis Respecto del Coeficiente de Correlacin. En este prrafo nos hacemos la pregunta siguiente : cmo verificar la significancia del coeficiente de correlacin ? Para responder esta pregunta se puede encontrar el intervalo del 95 % de confianza para el cual se determina segn el baco del anexo.

110

Ejemplo : En el ejemplo anterior, con n = 10 encontrar 0 = 0.855. Encontrar el intervalo de confianza.

Fig.83

En el baco del anexo, se entra con el valor 0.855 y en las curvas para n = 10 se determinan los puntos A y A los cuales proporcionan el intervalo del 95 % de confianza para : 0.45 0.95. Podemos conclur que el grado de acuerdo entre los dos profesores es significativo. Observacin : El baco del anexo tambin es aplicable al coeficiente de correlacin .

111

Anexo : Abaco para determinar el intervalo de confianza para el coeficiente de correlacin

112

Bibliografa

1.2.3.4.5.-

Sixto Ros G. Bhattacharyya A. Rickmers S. Avazian J. Davis

: Mtodos Estadsticos. Mc. Graw Hill,1967. : Statistical Concepts and Methods. Wiley, 1977. : Introduccin a la Estadstica. CECSA, 1971. : tude Statistique des Dpendances. MIR, 1970. : Statistics and data Analysis in Geology. Wiley, 1972.

113