Anda di halaman 1dari 55

6. Principales leyes de distribucin de variables aleatorias 6.

2 Introduccin
Como complemento al captulo anterior en el que definimos todos los conceptos relativos a variables aleatorias, describimos en ste las principales leyes de probabilidad que encontramos en las aplicaciones del clculo de probabilidades. Atendiendo a la clasificacin de las v.a. en discretas y continuas describiremos las principales leyes de probabilidad de cada una de ellas, las cuales constituirn el soporte subyacente de la inferencia estadstica y a las que ser necesario hacer referencia en el estudio de dicho bloque. Iniciamos este captulo con el estudio de las distribuciones para v.a. discretas.

6.4 Distribuciones discretas


6.4.2 Distribucin de Bernoulli
Consiste en realizar un experimento aleatorio una sla vez y observar si cierto suceso ocurre o no, siendo p la probabilidad de que esto sea as (xito) y q=1-p el que no lo sea (fracaso). En realidad no se trata ms que de una variable dicotmica, es decir que nicamente puede tomar dos modalidades, es por ello que el hecho de llamar xito o fracaso a los posibles resultados de las pruebas obedece ms una tradicin literaria o histrica, en el estudio de las v.a., que a la situacin real que pueda derivarse del resultado. Podramos por tanto definir este experimento mediante una v.a. discreta Xque toma los valores X=0 si el suceso no ocurre, y X=1 en caso contrario, y que se denota

Un ejemplo tpico de este tipo de variables aleatorias consiste en lanzar una moneda al aire y considerar la v.a.

Para una v.a. de Bernouilli, tenemos que su funcin de probabilidad es:

y su funcin de distribucin:

Su funcin caracterstica es:

Los principales momentos de la X los podemos calcular directamente

o bien usando la funcin caracterstica y la proposicin de la pgina

6.4.2.1 Observacin
En este caso tan simple no se aprecia la ventaja de usar la funcin caracterstica en el clculo de momentos, pero en las prximas leyes de probabilidad que son ms complicadas, esta ventaja se har manifiesta.

6.4.4 Distribucin binomial


Se dice que una v.a. X sigue una ley binomial de parmetros n y p, suma de n v.a. independientes de Bernouilli con el mismo parmetro, p: , si es la

Esta definicin puede interpretarse en el siguiente sentido: Supongamos que realizamos n pruebas de Bernouilli, Xi, donde en todas ellas, la probabilidad de xito es la misma (p), y queremos calcular el nmero de xitos, X, obtenidos el el total de las n pruebas. Su ley de probabilidad es6.1 En la Figura 6.1 se representa la funcin de probabilidad de una variable binomial.

Figura: Funcin de probabilidad de una variable binomial cunado


n es pequeo.

Figura: Funcin de probabilidad de una variable binomial cuando


n es grande.

Por tanto, su funcin de distribucin es

El modo ms simple de calcular la funcin caracterstica nos lo da el teorema de la pgina , que afirma que la funcin caracterstica de la suma de variables independientes es el producto de las funciones caractersticas de estas:

Los principales momentos de X los calculamos ms fcilmente a partir de pgina 5) que de su propia definicin:

(prop.

6.4.4.1 Ejemplo

Un mdico aplica un test a 10 alumnos de un colegio para detectar una enfermedad cuya incidencia sobre una poblacin de nios es del . La sensibilidad del test es del y

la especificidad del . Cual es la probabilidad de que exactamente a cuatro personas le de un resultado positivo? Si en la muestra hay cuatro personas a las que el test le da positivo, cul es la probabilidad de que entre estas, exactamente dos estn sanas? Calcular la probabilidad de que el test suministre un resultado incorrecto para dos personas. Calcular la probabilidad de que el resultado sea correcto para ms de 7 personas. Solucin: Los datos de que disponemos son:

donde E, T+, y T- tienen el sentido que es obvio. Si queremos saber a cuantas personas el test le dar un resultado positivo, tendremos que calcular , para lo que podemos usar el teorema de la probabilidad total (estar enfermo y no estarlo forman una coleccin exhaustiva y excluyente de sucesos):

Sea X1 la v.a. que contabiliza el nmero de resultados positivos. Es claro que llamando , se tiene que X sigue una distribucin binomial

Por ello la probabilidad de que a cuatro personas le de el resultado del test positivo es:

Si queremos calcular a cuantas personas les dar el test un resultado positivo aunque en realidad estn sanas, hemos de calcular previamente de falsos positivos: , o sea, el ndice predictivo

Es importante observar este resultado. Antes de hacer los clculos no era previsible que si a una persona el test le da positivo, en realidad tiene una probabilidad aproximadamente del de estar sana. Sea X2 la variable aleatoria que contabiliza al nmero de personas al que el test le da positivo, pero que estn sanas en realidad. Entonces

Por ltimo vamos a calcular la probabilidad p3 de que el test de un resultado errneo, que es:

La variable aleatoria que contabiliza el nmero de resultados errneos del test es

Como la probabilidad de que el test sea correcto para ms de siete personas, es la de que sea incorrecto para menos de 3, se tiene

6.4.6 Distribucin geomtrica ( o de fracasos)


Consideramos una sucesin de v.a. independientes de Bernouilli,

Una v.a. X sigue posee una distribucin geomtrica, , si esta es la suma del nmero de fracasos obtenidos hasta la aparicin del primer xito en la sucesin . Por ejemplo

De este modo tenemos que la ley de probabilidad de X es

6.4.6.1 Observacin
Es sencillo comprobar que realmente f es una ley de probabilidad, es decir, . Para ello basta observar que la sucesin es una progresin geomtrica de razn q, a la que podemos aplicar su frmula de sumacin:

6.4.6.2 Observacin
En la distribucin geomtrica el conjunto de posibles valores que puede tomar la variable ( ) es infinito numerable, mientras que en la de Bernouilli y en la binomial, estos eran en nmero finito.

La funcin caracterstica se calcula teniendo en cuenta que de nuevo aparece la sumacin de los trminos de una progresin geomtrica, pero esta vez de razn eit q:

La media y varianza de esta variable aleatoria son:

6.4.6.3 Ejemplo
Un matrimonio quiere tener una hija, y por ello deciden tener hijos hasta el nacimiento de una hija. Calcular el nmero esperado de hijos (entre varones y hembras) que tendr el matrimonio. Calcular la probabilidad de que la pareja acabe teniendo tres hijos o ms. Solucin: Este es un ejemplo de variable geomtrica. Vamos a suponer que la probabilidad de tener un hijo varn es la misma que la de tener una hija hembra. Sea X la v.a.

Es claro que

Sabemos que el nmero esperado de hijos varones es nmero esperado en total entre hijos varones y la nia es 2.

, por tanto el

La probabilidad de que la pareja acabe teniendo tres o ms hijos, es la de que tenga 2 o ms hijos varones (la nia est del tercer lugar en adelante), es decir,

Hemos preferido calcular la probabilidad pedida mediante el suceso complementario, ya que sera ms complicado hacerlo mediante la suma infinita

6.4.6.4 Observacin
La distribucin exponencial tambin puede ser definida como el nmero de pruebas realizadas hasta la obtencin del primer xito (como hubiese sido ms adecuado en el ejemplo anterior). En este caso es un ejercicio sencillo comprobar que X slo puede tomar valores naturales mayores o iguales a 1, y que:

6.4.8 Distribucin binomial negativa

Sobre una sucesin de v.a. de Bernouilli independientes,

se define la v.a. X como el nmero de fracasos obtenidos hasta la aparicin de r xitos en la sucesin . En este caso se dice que X sigue una ley de distribucin binomial . Su ley de

negativa de parmetros r y p y se denota del modo: probabilidad se deduce siguiendo el esquema: =1mm

Es decir,

De nuevo, el conjunto de posibles valores de esta v.a. discreta es . Su funcin caracterstica es

y sus momentos ms importantes los obtenemos derivando esta ltima:

6.4.8.1 Ejemplo
Para tratar a un paciente de una afeccin de pulmn han de ser operados en operaciones independientes sus 5 lbulos pulmonares. La tcnica a utilizar es tal que si todo va bien, lo que ocurre con probabilidad de 7/11, el lbulo queda definitivamente sano, pero si no es as se deber esperar el tiempo suficiente para intentarlo posteriormente de nuevo. Se practicar la ciruga hasta que 4 de sus 5lbulos funcionen correctamente. Cul es el valor esperado de intervenciones que se espera que deba padecer el paciente? Cul es la probabilidad de que se necesiten 10 intervenciones? Solucin: Este es un ejemplo claro de experimento aleatorio regido por una ley binomial negativa, ya que se realizan intervenciones hasta que se obtengan 4 lbulos sanos, y ste es el criterio que se utiliza para detener el proceso. Identificando los parmetros se tiene:

Lo que nos interesa es medir el nmero de intervenciones, Y, ms que el nmero de xitos hasta el r-simo fracaso. La relacin entre ambas v.a. es muy simple: Y=X+r Luego

Luego el nmero esperado de intervenciones que deber sufrir el paciente es de 11. La probabilidad de que el nmero de intervenciones sea Y=10, es la de que X=10-4=6. Por tanto:

6.4.8.2 Observacin
La distribucin binomial negativa tambin se puede definir como el nmero de pruebas hasta la aparicin de r xitos. Como el nmero de pruebas contabiliza tanto los xitos como los fracasos se tendra segn sta definicin que

6.4.10 Distribucin hipergeomtrica


Por claridad, consideremos el siguiente ejemplo: Tenemos una baraja de cartas espaolas (N=40 naipes), de las cuales nos vamos a interesar en el palo de oros (D=10 naipes de un mismo tipo). Supongamos que de esa baraja extraemos n=8 cartas de una vez (sin reemplazamiento) y se nos plantea el problema de calcular la probabilidad de que hayan k=2 oros (exactamente) en esa extraccin. La respuesta a este problema es

En lugar de usar como dato D es posible que tengamos la proporcin existente, p, entre el nmero total de oros y el nmero de cartas de la baraja

de modo que podemos decir que

Este ejemplo sirve para representar el tipo de fenmenos que siguen una ley de distribucin hipergeomtrica. Diremos en general que una v.a. X sigue una distribucin hipergeomtrica de parmetros, N, n y p, lo que representamos del modo , si su funcin de probabilidad es

6.4.10.1 Observacin
Cuando el tamao de la poblacin (N) es muy grande, la ley hipergeomtrica tiende a aproximarse a la binomial:

El valor esperado de la hipergeomtrica es el mismo que el de la binomial,

sin embargo su varianza

no es exactamente la de la binomial, pues est corregida por un factor, , que tiende a 1 cuando . A este factor se le denomina factor de correccin para poblacin finita.

6.4.12 Distribucin de Poisson (o de los sucesos raros)


Una v.a. X posee una ley de distribucin de probabilidades del tipo Poisson cuando

Este tipo de leyes se aplican a sucesos con probabilidad muy baja de ocurrir, obtenindose como la distribucin lmite de una sucesin de variable binomiales, ,y (por tanto ). , donde

La demostracin de esto consiste en

En general utilizaremos la distribucin de Poisson como aproximacin de experimentos binomiales donde el nmero de pruebas es muy alto, pero la probabilidad de xito muy baja. A veces se suele utilizar como criterio de aproximacin:

La ley de Poisson la podemos encontrar tabulada en la tabla nmero 2, para ciertos valores usuales de . La funcin caracterstica de es

de lo que se deduce que valor esperado y varianza coinciden

6.4.12.1 Ejemplo
Cierta enfermedad tiene una probabilidad muy baja de ocurrir, p=1/100.000. Calcular la probabilidad de que en una ciudad con 500.000 habitantes haya ms de 3 personas con dicha enfermedad. Calcular el nmero esperado de habitantes que la padecen. Solucin: Si consideramos la v.a. X que contabiliza el nmero de personas que padecen la enfermedad, es claro que sigue un modelo binomial, pero que puede ser muy bien aproximado por un modelo de Poisson, de modo que

As el nmero esperado de personas que padecen la enfermedad es

. Como

, existe una gran dispersin, y no sera extrao encontrar que en realidad hay muchas ms personas o menos que estn enfermas. La probabilidad de que haya ms de tres personas enfermas es:

6.6 Reproductividad de familias de v.a.


Las variables aleatorias relacionadas entre si por uno o ms parmetros mediante f, o lo que es equivalente segn el teorema de Fourier (pgina ), mediante su funcin caracterstica, las hemos agrupado en familias de v.a. que hemos denotado de modo genrico . Para cualquier tipo de familia de v.a. , diremos que esta independientes, donde

reproductiva respecto al parmetro p, si al considerar

se tiene que la suma de todas ellas es una v.a. de la misma familia, pero con parmetro

Por ejemplo

no es reproductiva con respecto a p, ya que la suma de dos v.a. de lo es

esa familia no sigue una distribucin de Bernouilli. Sin embargo la familia con respecto al parmetro , ya que

Un modo sencillo de ver si una familia de distribuciones es reproductiva con respecto a algn parmetro es analizar su funcin caracterstica utilizando el teorema de la pgina . Por ejemplo el mismo resultado se puede obtener para la distribucin binomial teniendo en cuenta que

Utilizando el mismo argumento, tenemos que otra distribuciones reproductiva es .

6.8 Distribuciones continuas


En esta seccin estudiaremos las distribuciones ms importantes de v.a. continuas unidimensionales. El soporte de una v.a. continua se define como aquella regin de donde su densidad es no nula, ser bien todo , . Para las distribuciones que enunciaremos, podr o bien un segmento de la forma .

6.8.2 Distribucin uniforme o rectangular


Se dice que una v.a. X posee una distribucin uniforme en el intervalo [a,b],

si su funcin de densidad es la siguiente:

Con esta ley de probabilidad, la probabilidad de que al hacer un experimento aleatorio, el valor de X este comprendido en cierto subintervalo de [a,b] depende nicamente de la longitud del mismo, no de su posicin. Cometiendo un pequeo abuso en el lenguaje, podemos decir que en una distribucin uniforme la probabilidad de todos los puntos del soporte es la misma 6.2. Teniendo en cuenta que si ,

la funcin de distribucin de

es:

Figura: Funcin de densidad y de distribucin de

La funcin caracterstica es

Como esta distribucin es muy simple, vamos a calcular sus momentos ms usuales directamente a partir de la definicin, en lugar de usar la funcin caracterstica:

6.8.4 Distribucin exponencial


La distribucin exponencial es el equivalente continuo de la distribucin geomtrica discreta. Esta ley de distribucin describe procesos en los que:

Nos interesa saber el tiempo hasta que ocurre determinado evento, sabiendo que, el tiempo que pueda ocurrir desde cualquier instante dado t, hasta que ello ocurra en un instante tf, no depende del tiempo transcurrido anteriormente en el que no ha pasado nada.

Ejemplos de este tipo de distribuciones son:

El tiempo que tarda una partcula radiactiva en desintegrarse. El conocimiento de la ley que sigue este evento se utiliza en Ciencia para, por ejemplo, la datacin de fsiles o cualquier materia orgnica mediante la tcnica del carbono 14, C14; El tiempo que puede transcurrir en un servicio de urgencias, para la llegada de un paciente; En un proceso de Poisson donde se repite sucesivamente un experimento a intervalos de tiempo iguales, el tiempo que transcurre entre la ocurrencia de dos sucesos consecutivos sigue un modelo probabilstico exponencial. Por ejemplo, el tiempo que transcurre entre que sufrimos dos veces una herida importante. , es tal que su funcin de

Concretando, si una v.a. continua X distribuida a lo largo de densidad es

se dice que sigue una distribucin exponencial de parmetro

Figura: Funcin de densidad, f, de una

Un clculo inmediato nos dice que si x>0,

luego la funcin de distribucin es:

Figura: Funcin de distribucin, F, de

, calculada como el rea que deja por debajo de s la funcin de densidad.

Para calcular el valor esperado y la varianza de la distribucin exponencial, obtenemos en primer lugar la funcin caracterstica

para despus, derivando por primera vez

y derivando por segunda vez,

Entonces la varianza vale

6.8.4.1 Ejemplo
En un experimento de laboratorio se utilizan 10 gramos de . Sabiendo que la duracin media de un tomo de esta materia es de 140 das, cuantos idas transcurrirn hasta que haya desaparecido el de este material? es una v.a. de distribucin

Solucin: El tiempo T de desintegracin de un tomo de exponencial:

Como el nmero de tomos de existentes en una muestra de 10 gramos es enorme, el histograma de frecuencias relativas formado por los tiempos de desintegracin de cada uno de estos tomos debe ser extremadamente aproximado a la curva de densidad, f. Del mismo modo, el polgono de frecuencias relativas acumuladas debe ser muy aproximado a la curva de su funcin de distribucin F. Entonces el tiempo que transcurre hasta que el del material radiactivo se desintegra es el percentil 90, t90, de la distribucin exponencial, es decir

Figura: Como el nmero de tomos (observaciones) es extremadamente alto en 10 gramos de materia, el histograma puede ser aproximado de modo excelente por la funcin de densidad exponencial, y el polgono de frecuencias acumuladas por la funcin de distribucin.

6.8.4.2 Ejemplo
Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue una distribucin exponencial con media de 16 aos. Cul es la probabilidad de que a una persona a la que se le ha implantado este marcapasos se le deba reimplantar otro antes de 20 aos? Si el marcapasos lleva funcionando correctamente 5 aos en un paciente, cul es la probabilidad de que haya que cambiarlo antes de aos?

Solucin: Sea T la variable aleatoria que mide la duracin de un marcapasos en una persona. Tenemos que

Entonces

En segundo lugar

Luego como era de esperar, por ser propio a un mecanismo exponencial,

o sea, en la duracin que se espera que tenga el objeto, no influye en nada el tiempo que en la actualidad lleva funcionando. Es por ello que se dice que ``la distribucin exponencial no tiene memoria".

6.8.6 Distribucin normal o gaussiana


La distribucin gaussiana, recibe tambin el nombre de distribucin normal, ya que una gran mayora de las v.a continuas6.3 de la naturaleza siguen esta distribucin. Se dice que una v.a. X sigue una distribucin normal de parmetros del modo
6.4

, lo que representamos

si su funcin de densidad es:

6.8.6.1 Observacin

Estos dos parmetros y coinciden adems con la media (esperanza) y la varianza respectivamente de la distribucin como se demostrar ms adelante6.5:

La forma de la funcin de densidad es la llamada campana de Gauss.

Figura: Campana de Gauss o funcin de densidad de una v.a. de distribucin normal. El rea contenida
entre la grfica y el eje de abcisas vale 1.

Para el lector es un ejercicio interesante comprobar que sta alcanza un nico mximo (moda) en , que es simtrica con respecto al mismo, y por tanto

, con lo cual en coinciden la media, la mediana y la moda, y por ltimo,calcular sus puntos de inflexin. El soporte de la distribucin es todo , de modo que la mayor parte de la masa de probabilidad (rea comprendida entre la curva y el eje de abcisas) se encuentra concentrado alrededor de la media, y las ramas de la curva se extienden asintticamente a los ejes, de modo que cualquier valor ``muy alejado" de la media es posible (aunque poco probable). La forma de la campana de Gauss depende de los parmetros y :

indica la posicin de la campana (parmetro de centralizacin);

Figura: Distribuciones gaussianas con diferentes medias e igual dispersin.

(o equivalentemente, ) ser el parmetro de dispersin. Cuanto menor sea, mayor cantidad de masa de probabilidad habr concentrada alrededor de la media (grafo de f muy apuntado cerca de ) y cuanto mayor sea ``ms aplastado" ser.

Figura: Distribuciones gaussianas con igual media pero varianza diferente.

La funcin caracterstica de la distribucin normal, se comprueba ms adelante que es

Como consecuencia, la distribucin normal es reproductiva con respecto a los parmetros ,y , ya que

6.8.6.2 Observacin
Como se ha mencionado anteriormente, la ley de probabilidad gaussiana la encontramos en la mayora de los fenmenos que observamos en la naturaleza, por ello gran parte de lo que resta del curso lo vamos a dedicar a su estudio y a el de las distribuciones asociadas a ella. Sin embargo, a pesar de su utilidad, hay que apuntar un hecho negativo para esta ley de probabilidad: La funcin no posee primitiva6.6 conocida6.7.

Las consecuencias desde el punto de vista prctico son importantes, ya que eso impide el que podamos escribir de modo sencillo la funcin de distribucin de la normal, y nos tenemos que limitar a decir que:

sin poder hacer uso de ninguna expresin que la simplifique. Afortunadamente esto no impide que para un valor de xfijo, F(x) pueda ser calculado. De hecho puede ser calculado con tanta precisin (decimales) como se quiera, pero para esto se necesita usar tcnicas de clculo numrico y ordenadores. Para la utilizacin en problemas prcticos de la funcin de distribucin F, existen ciertas tablas donde se ofrecen (con varios decimales de precisin) los valores F(x) para una serie limitada de valores xi dados. Normalmente F se encuentra tabulada para una distribucin Z, normal de media 0 y varianza 1 que se denomina distribucin normal tipificada:

En el caso de que tengamos una distribucin diferente haciendo el siguiente cambio:

, se obtiene Z

De manera general se tiene6.8:

6.8.6.3 Proposicin (Cambio de origen y escala)


Sean . Entonces

Este resultado puede ser utilizado del siguiente modo: Si calcular 1. Hacemos el cambio 2. Usamos la tabla 3, relativa a la distribucin aproximado) 3. Como ; y calculamos ,

, y nos interesa

para obtener (de modo

tenemos que el valor obtenido en la tabla, FZ(z) es la probabilidad buscada.

6.8.6.4 Ejemplo
Supongamos que cierto fenmeno pueda ser representado mediante una v.a. , y queremos calcular la probabilidad de que Xtome un valor entre 39 y 48, es decir,

Comenzamos haciendo el cambio de variable

de modo que

Vamos ahora a demostrar algunas de las propiedades de la ley gaussiana que hemos mencionado anteriormente.

6.8.6.5 Proposicin
Sea . Entonces

Demostracin Por ser la normal una ley de probabilidad se tiene que

es decir, esa integral es constante. Con lo cual, derivando la expresin anterior con respecto a se obtiene el valor 0:

luego

. y : , basta con aplicar la misma tcnica,

Para demostrar la igualdad entre la pero esta vez derivando con respecto a

Luego

Para demostrar el resultado relativo a la funcin caracterstica, consideramos en primer lugar la v.a. tipificada de X,

y calculamos

Como

, por la proposicin 5 deducimos que

6.8.6.6 Aproximacin a la normal de la ley binomial


Se puede demostrar (teorema central del lmite) que una v.a. discreta con distribucin binomial, se puede aproximar mediante una distribucin normal si n es suficientemente grande y p no est ni muy prximo a 0 ni a 1. Como el valor esperado y la varianza de X son respectivamente y , la aproximacin consiste en decir que

. El convenio que se suele utilizar para poder realizar esta aproximacin es:

aunque en realidad esta no da resultados muy precisos a menos que realmente nsea un valor muy grande o . Como ilustracin obsrvense las figuras 6.10 y 6.11.

Figura: Comparacin entre la funcin de densidad de una v.a. continua con


distribucin distribucin y el diagrama de barras de una v.a. discreta de para casos en que la aproximacin normal de la

binomial es vlida. Es peor esta aproximacin cuando p est prximo a los bordes del intervalo [0,1].

Figura: La misma comparacin que en la figura anterior, pero realizada con


parmetros con los que damos la aproximacin normal de la binomial es mejor.

6.8.6.7 Ejemplo

Durante cierta epidemia de gripe, enferma el de la poblacin. En un aula con 200 estudiantes de Medicina, cul es la probabilidad de que al menos 40 padezcan la enfermedad? Calcular la probabilidad de que haya 60 estudiantes con gripe. Solucin: La v.a. que contabiliza el nmero de alumnos que padece la gripe es

cuya media es y su varianza es . Realizar los clculos con la ley binomial es muy engorroso, ya que intervienen nmeros combinatorios de gran tamao, y potencias muy elevadas. Por ello utilizamos la aproximacin normal de X, teniendo en cuenta que se verifican las condiciones necesarias para que el error sea aceptable:

As aproximando la v.a. discreta binomial X, mediante la v.a. continua normal XN tenemos:

Tambin es necesario calcular como:

. Esta probabilidad se calcula exactamente

Dada la dificultad numrica para calcular esa cantidad, y como la distribucin binomial no est habitualmente tabulada hasta valores tan altos, vamos a utilizar su aproximacin normal, XN. Pero hay que prestar atencin al hecho de que XN es una v.a. continua, y por tanto la probabilidad de cualquier punto es cero. En particular,

lo que ha de ser interpretado como un error de aproximacin. Hay mtodos ms aproximados para calcular la probabilidad buscada. Por ejemplo, podemos aproximar por el valor de la funcin de densidad de XN en ese punto (es en el nico sentido en que se puede entender la funcin de densidad de la normal como una aproximacin de una probabilidad). As:

Por ltimo, otra posibilidad es considerar un intervalo de longitud 1centrado en el valor 60 del que deseamos hallar su probabilidad y hacer:

6.8.6.8 Ejemplo

Segn un estudio, la altura de los varones de cierta ciudad es una v.a. X, que podemos considerar que se distribuye segn una ley gaussiana de valor esperado y desviacin tpica . Dar un intervalo para el que tengamos asegurado que el de los habitantes de la ciudad estn comprendidos en l. Solucin: Tenemos que . Si buscamos un intervalo donde

estar seguros de que el de los habitantes tengan sus alturas comprendidas en l hay varias estrategias posibles: 1. Podemos tomar el percentil 50, ya que este valor deja por debajo suya a la mitad, 0,5, de la masa de probabilidad. Este valor, x0,5, se definira como:

donde

El valor z0,5 lo podemos buscar en la tabla 3 (distribucin

) y se obtiene

Por tanto podemos decir que la mitad de la poblacin tiene una altura inferior a . Este resultado era de esperar, ya que en la distribucin es simtrica y habr una mitad de individuos con un peso inferior a la media y otro con un peso superior (figura 6.12). Esto puede escribirse como:

El

de la poblacin tiene un peso comprendido en el intervalo .

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un peso comprendido en l.
Como se observa, no es un tamao ptimo, en el sentido de que el intervalo es demasiado grande (longitud infinita a la izquierda).

2. Anlogamente podemos considerar el percentil 50, y tomar como intervalo aquellos pesos que lo superan. Por las mismas razones que en el problema anterior, podremos decir: El de la poblacin tiene un peso comprendido en el intervalo . 3. Los anteriores intervalos, an dando un resultado correcto, no son satisfactorios en el sentido de que son muy grandes, y no tienen en cuenta la simetra de la distribucin normal para tomar un intervalo cuyo centro sea . Vamos a utilizar entonces otra tcnica que nos permita calcular el intervalo centrado en la media, y que adems ser el ms pequeo posible que contenga al de la poblacin.

Para ello observamos que la mayor parte de probabilidad est concentrada siempre alrededor de la media en las leyes gaussianas. Entonces podemos tomar un intervalo que contenga un la media, y un de probabilidad del lado izquierdo ms prximo a

del derecho (figura 6.13).

Figura: Intervalo donde tenemos asegurado que el 50% de la poblacin tiene un peso comprendido en l.
En este caso el intervalo es ms pequeo que el anterior y est centrado en .

Esto se puede describir como el intervalo

donde x0,25 es el valor que deja por debajo de s al de la masa de probabilidad y x0,75 el que lo deja por encima (o lo que es lo mismo, el que deja por debajo al de las observaciones). Del mismo modo que antes estos valores pueden ser buscados en una tabla de la distribucin normal, tipificando en primera instancia para destipificar despus:

donde

En una tabla encontramos el valor z0,75, y se destipifica:

Anlogamente se calculara

donde

Por la simetra de la distribucin normal con respecto al origen, tenemos que z0,25= - z0,75.Luego

En conclusin:

El de la poblacin tiene un peso comprendido en el intervalo [168,25,181,75]. De entre los tres intervalos que se han calculado el que tiene ms inters es el ltimo, ya que es simtrico con respecto a la media, y es el ms pequeo de todos los posibles (ms preciso). Este ejemplo es en realidad una introduccin a unas tcnicas de inferencia estadstica que trataremos posteriormente, conocidas con el nombre de ``estimacin confidencial'' o ``clculo de intervalos de confianza''.

6.8.8 Distribucin
Si consideramos una v.a. probabilidad distribucin , la v.a. X=Z2 se distribuye segn una ley de con un grado de libertad, lo que se representa como

Si tenemos n v.a. independientes

, la suma de sus cuadrados respectivos es con n grados de libertad,

una distribucin que denominaremos ley de distribucin .

La media y varianza de esta variable son respectivamente:

y su funcin de densidad es:

Los percentiles de esta distribucin que aparecen con ms frecuencia en la prctica los podemos encontrar en la tabla 5.

Figura: Funcin de densidad de

para valores pequeos de n.

Figura: Funcin de densidad de

para valores grandes de n.

En consecuencia, si tenemos , se tiene

, v.a. independientes, donde cada

6.8.8.1 Observacin
La ley de distribucin muestra su importancia cuando queremos determinar la variabilidad (sin signo) de cantidades que se distribuyen en torno a un valor central siguiendo un mecanismo normal. Como ilustracin tenemos el siguiente ejemplo:

6.8.8.2 Ejemplo
Un instrumento para medir el nivel de glucemia en sangre, ofrece resultados bastantes aproximados con la realidad, aunque existe cierta cantidad de error que se distribuye de modo normal con media 0 y desviacin tpica .

Se realizan mediciones de los niveles de glucemia dados por el instrumento en un grupo de n=100 pacientes. Nos interesa medir la cantidad de error que se acumula en las mediciones de todos los pacientes. Podemos plantear varias estrategias para medir los errores acumulados. Entre ellas destacamos las siguientes: 1. Definimos el error acumulado en las mediciones de todos los pacientes como

Cul es el valor esperado para E1? 2. Definimos el error acumulado como la suma de los cuadrados de todos los errores (cantidades positivas):

Cul es el valor esperado para E2? A la vista de los resultados, cul de las dos cantidades, E1 y E2, le parece ms conveniente utilizar en una estimacin del error cometido por un instrumento. Solucin: Suponiendo que todas las mediciones son independientes, se tiene que

De este modo, el valor esperado para E1 es 0, es decir, que los errores ei van a tender a compensarse entre unos pacientes y otros. Obsrvese que si podramos utilizar E1, para obtener una aproximacin de no fuese conocido a priori,

Sin embargo, el resultado E1 no nos indica en qu medida hay mayor o menor dispersin en los errores con respecto al 0. En cuanto a E2 podemos afirmar lo siguiente:

En este caso los errores no se compensan entre s, y si ``estimado" de modo aproximado mediante

no fuese conocido, podra ser

Sin embargo, no obtenemos ninguna informacin con respecto a

En conclusin, E1 podra ser utilizado para calcular de modo aproximado , y E2 para calcular de modo aproximado . Las dos cantidades tienen inters, y ninguna lo tiene ms que la otra, pues ambas formas de medir el error nos aportan informacin. El siguiente resultado ser de importancia ms adelante. Nos afirma que la media de distribuciones normales independientes es normal pero con menor varianza y relaciona los grados de libertad de una v.a. con distribucin varianza (pgina ): , con los de un estadstico como la

6.8.8.3 Teorema (Cochran)


Sean v.a. independientes. Entonces

6.8.10 Distribucin de Student


La distribucin -Student se construye como un cociente entre una normal y la raz de una independientes. De modo preciso, llamamos distribucin t-Student con n grados a la de una v.a. T,

de libertad,

donde , v.a. independientes

. Este tipo de distribuciones aparece cuando tenemos n+1

y nos interesa la distribucin de

La funcin de densidad de

es

Figura: Funcin de densidad de una de Student

La distribucin de Student tiene propiedades parecidas a


Es de media cero, y simtrica con respecto a la misma; Es algo ms dispersa que la normal, pero la varianza decrece hasta 1 cuando el nmero de grados de libertad aumenta;

Figura: Comparacin entre las funciones de densidad de

Para un nmero alto de grados de libertad se puede aproximar la distribucin de Student por la normal, es decir,

Figura: Cuando aumentan los grados de libertad, la distribucin de Student se aproxima a la


distribucin normal tipificada.

Para calcular

en lugar de considerar una primitiva de esa funcin y determinar la integral definida, buscaremos el resultado aproximado en una tabla de la distribucin Vase la tabla 4, al final del libro. .

6.8.12 La distribucin de Snedecor


Otra de la distribuciones importantes asociadas a la normal es la que se define como cociente de distribuciones independientes. Sean independientes. Decimos entonces que la variable e v.a.

sigue una distribucin de probabilidad de Snedecor, con (n,m) grados de libertad. Obsrvese que .

La forma ms habitual en que nos encontraremos esta distribucin ser en el caso en que tengamos n+m v.a. independientes

y as

De esta ley de probabilidad lo que ms nos interesa es su funcin de distribucin:

y para ello, como en todas las distribuciones asociadas a la normal, disponemos de una tabla (la nmero 6) donde encontrar aproximaciones a esas cantidades

Figura: Funcin de densidad de

Es claro que la distribucin de Snedecor no es simtrica, pues slo tienen densidad de probabilidad distinta de cero, los punto de . Otra propiedad interesante de la distribucin de Snedecor es:

6.10 Problemas
Ejercicio 6..1. Para estudiar la regulacin hormonal de una lnea metablica se inyectan ratas albinas con un frmaco que inhibe la sntesis de protenas del organismo. En general, 4 de cada 20 ratas mueren a causa del frmaco antes de que el experimento haya concluido. Si se trata a 10 animales con el frmaco, cul es la probabilidad de que al menos 8 lleguen vivas al final del experimento? Ejercicio 6..2. En una cierta poblacin se ha observado un nmero medio anual de muertes por cncer de pulmn de 12. Si el nmero de muertes causadas por la enfermedad sigue una distribucin de Poisson, cul es la probabilidad de que durante el ao en curso: 1. Haya exactamente 10 muertes por cncer de pulmn? 2. 15 o ms personas mueran a causa de la enfermedad? 3. 10 o menos personas mueran a causa de la enfermedad? Ejercicio 6..3. Daando los cromosomas del vulo o del espermatozoide, pueden causarse mutaciones que conducen a abortos, defectos de nacimiento, u otras deficiencias genticas. La probabilidad de que tal mutacin se produzca por radiacin es del 10%. De

las siguientes 150 mutaciones causadas por cromosomas daados, cuntas se esperara que se debiesen a radiaciones? Cul es la probabilidad de que solamente 10 se debiesen a radiaciones? Ejercicio 6..4. Entre los diabticos, el nivel de glucosa en sangre X, en ayunas, puede suponerse de distribucin aproximadamente normal, con media 106 mg/100 ml y desviacin tpica 8 mg/100 ml, es decir

1. Hallar 2. Qu porcentaje de diabticos tienen niveles comprendidos entre 90 y 120 ? 3. Hallar 4. Hallar 5. Hallar el punto x caracterizado por la propiedad de que el 25% de todos los diabticos tiene un nivel de glucosa en ayunas inferior o igual a x. Ejercicio 6..5. Una prueba de laboratorio para detectar herona en sangre tiene un 92% de precisin. Si se analizan 72 muestras en un mes, cul es la probabilidad de que: 1. 60 o menos estn correctamente evaluadas? 2. menos de 60 estn correctamente evaluadas? 3. exactamente 60 estn correctamente evaluadas? Ejercicio 6..6. El 10% de las personas tiene algn tipo de alergia. Se seleccionan aleatoriamente 100 individuos y se les entrevista. Hallar la probabilidad de que, al menos, 12 tengan algn tipo de alergia. Hallar la probabilidad de que, como mximo, 8 sean alrgicos a algo. Ejercicio 6..7. La probabilidad de muerte resultante del uso de pldoras anticonceptivas es de 3/100.000. De 1.000.000 de mujeres que utilizan este medio de control de natalidad: 1. Cuntas muertes debidas a esta causa se esperan? 2. Cul es la probabilidad de que haya, como mximo, 25 de estas muertes? 3. . .

Cul es la probabilidad de que el nmero de muertes debidas a esta causa est entre 25 y 35, inclusive? Ejercicio 6..8. La probabilidad de presentar una caracterstica gentica es de 1/20. 1. Tomando una muestra de 8 individuos, calcular la probabilidad de que 3 individuos presenten la caracterstica. 2. Tomando una muestra de 80 personas, cul ser la probabilidad de que aparezcan ms de 5 individuos con la caracterstica? Ejercicio 6..9. Se supone que en una cierta poblacin humana el ndice ceflico i, (cociente entre el dimetro transversal y el longitudinal expresado en tanto por ciento), se distribuye segn una Normal. El 58% de los habitantes son dolicocfalos (i 75), el 38%

son mesocfalos (75 < i 80) y el 4% son braquicfalos (i > 80). Hllese la media y la desviacin tpica del ndice ceflico en esa poblacin. Ejercicio 6..10. Se supone que la glucemia basal en individuos sanos, Xs sigue una distribucin

mientras que en los diabticos Xd, sigue una distribucin

Si se conviene en clasificar como sanos al 2% de los diabticos: 1. Por debajo de qu valor se considera sano a un individuo? Cuntos sanos sern clasificados como diabticos? 2. Se sabe que en la poblacin en general el 10% de los individuos son diabticos cul es la probabilidad de que un individuo elegido al azar y diagnosticado como diabtico, realmente lo sea? Ejercicio 6..11. Supngase que se van a utilizar 20 ratas en un estudio de agentes coagulantes de la sangre. Como primera experiencia, se dio un anticoagulante a 10 de ellos, pero por inadvertencia se pusieron todas sin marcas en el mismo recinto. Se necesitaron 12 ratas para la segunda fase del estudio y se les tom al azar sin reemplazamiento. Cul es la probabilidad de que de las 12 elegidas 6 tengan la droga y 6 no la tengan?