Anda di halaman 1dari 152

Direccin General de Institutos Tecnolgicos del Estado de Veracruz. Instituto Tecnolgico Superior de Las Choapas.

Investigacin

CARRERA:
Ing. Civil.

MATERIA:
PROBABILIDAD Y ESTADISTICA

DOCENTE:
ING. JOSE LUIS PEREZ RESENDIZ

Alumno:
Estela Ballinas Herrera

SEMESTRE:
2

Las Choapas, ver.

A 13 de junio del 2012.

UNIDAD 1.-TEORIA DE LA PROBABILIDAD La teora de la probabilidad es la parte de las matemticas que estudia los fenmenos aleatorios estocsticos. Estos deben contraponerse a los fenmenos determinsticos, los cuales son resultados nicos y/o previsibles de experimentos realizados bajo las mismas condiciones determinadas, por ejemplo, si se calienta agua a 100 grados Celsius a nivel del mar se obtendr vapor. Los fenmenos aleatorios, por el contrario, son aquellos que se obtienen como resultado de experimentos realizados, otra vez, bajo las mismas condiciones determinadas pero como resultado posible poseen un conjunto de alternativas, por ejemplo, el lanzamiento de un dado o de una moneda. La teora de probabilidades se ocupa de asignar un cierto nmero a cada posible resultado que pueda ocurrir en un experimento aleatorio, con el fin de cuantificar dichos resultados y saber si un suceso es ms probable que otro. Muchos fenmenos naturales son aleatorios, pero existen algunos como el lanzamiento de un dado, donde el fenmeno no se repite en las mismas condiciones, debido a que la caractersticas del material hace que no exista una simetra del mismo, as las repeticiones no garantizan una probabilidad definida. En los procesos reales que se modelizan mediante distribuciones de probabilidad corresponden a modelos complejos donde no se conocen a priori todos los parmetros que intervienen; sta es una de las razones por las cuales la estadstica, que busca determinar estos parmetros, no se reduce inmediatamente a la teora de la probabilidad en s. En 1933, el matemtico sovitico AndriKolmogrov propuso un sistema de axiomas para la teora de la probabilidad, basado en la teora de conjuntos y en la teora de la medida,

desarrollada pocos aos por Lebesgue, Borel y Frechet entre otros.

antes

Esta aproximacin axiomtica que generaliza el marco clsico de la probabilidad, la cual obedece a la regla de clculo de casos favorables sobre casos posibles, permiti la rigorizacin de muchos argumentos ya utilizados, as como el estudio de problemas fuera de los marcos clsicos. Actualmente, la teora de la probabilidad encuentra aplicacin en las ms variadas ramas del conocimiento, como puede ser la fsica (donde corresponde mencionar el desarrollo de las difusiones y el movimiento Browniano), o las finanzas (donde destaca el modelo de Black y Scholes para la valuacin de acciones). 1.1.CONJUNTOS REPRESENTACION. SUS OPERACIONES Y SU

AZAR y DESCONOCIMIENTO. El azar est relacionado con el desconocimiento. Un ejemplo nos puede ayudar; piense en un proceso industrial que produce grandes cantidades de un artculo determinado. No todos los artculos producidos son idnticos, cada artculo puede calificarse como "bueno'' o "defectuoso''. Si de toda la produccin se escoge un artculo "a ciegas'', ese artculo puede resultar bueno o defectuoso. Esta es una situacin azarosa (o aleatoria) y la parte esencial de este azar es que no sabemos si el artculo seleccionado es defectuoso. Claro que con experiencia en el proceso es posible cuantificar de una manera numrica qu tan probable es que el artculo sea defectuoso o no.

AZAR e INCERTIDUMBRE. Hay otro concepto asociado al azar y es el de incertidumbre. Veamos un ejemplo. Respecto a una inversin, podemos estar contemplando invertir una cantidad de dinero. El retorno sobre la inversin puede ser fijo, como en el caso de una cuenta en un banco con inters fijo; pero pensemos en una empresa. El negocio puede resultar desde un gran xito hasta un fracaso, es decir, la ganancia no es fija, sino que depende del xito a obtener. Si no podemos evaluar qu tan factible es cada monto posible de la ganancia, tenemos una situacin de incertidumbre. Por el contrario, si podemos tener una idea de qu tan probables son los diferentes resultados y entonces tendremos una situacin de riesgo. Esta ltima es la que llamamos aleatoria o azarosa.

ESPACIO MUESTRAL Y PROBABILIDAD. El prrafo anterior se resume diciendo que en las situaciones o experimentos aleatorios tenemos dos elementos esenciales: Una lista de posibilidades a futuro: espacio muestral Una cuantificacin de la incertidumbre sobre esa lista de posibilidades: asignacin de probabilidades. Cualquier problema o situacin en la probabilidad, parte de esos dos elementos: Espacio Muestral y Probabilidades.

ESPACIO MUESTRAL. El espacio muestral es el conjunto de todos los posibles resultados de un experimento o situacin aleatoria. Si en una caja hay 10 manzanas y 2 estn echadas a perder (al menos en este momento!), al extraer tres manzanas y ver cuantas son buenas podemos obtener 1, 2 o 3 buenas (0 buenas es imposible!). De modo que en este ejemplo el espacio muestral es: { 1, 2, 3 }. Si un juego consiste en tirar todas las aves que hagan falta hasta obtener tres perdoces seguidas o hasta que sean 15 aves, si nos fijamos en el nmero de aves requeridas, el espacio muestral es: { 3, 4, 5, . . . , 15 }. Pero si nos fijramos en el nmero de disparos que resultan, entonces el espacio muestral es: { 0, 1, 2, . . . , 15 }. Es claro que para determinar el espacio muestral en un experimento aleatorio es necesario entender perfectamente: Qu se va a hacer. Qu se va a observar o contar. EVENTOS o SUCESOS. Cuando se tiene un espacio muestral llamamos, formalmente evento o suceso a cualquier subconjunto del espacio muestral. Decimos que un suceso se realiza, cuando el resultado del experimento aleatorio es uno de los sucesos posibles.

Las dos definiciones anteriores son muy abstractas. Veamos un par de ejemplos. En el caso de contar cuantas aves hacen falta para conseguir tres perdoces seguidas o tirar 15 aves; el espacio muestral son los nmeros: 3, 4, 5, . . . , 15. Un evento podra ser { 3, 5, 7, . . . , 15}. Este evento corresponde a que el nmero de tiros necesario sea nn. Si al hacer los disparos los resultados fueran: PPSPPSSSPPP (aqu nos detenemos porque han cado ya, tres perdices seguidas), el evento si se realiz porque el nmero necesario fue 11 y es nn. SSSPPP (aqu paramos porque ya hay tres perdices), el evento no se realiz. Podemos pensar que cada experimento al azar es un juego y que un evento es una lista de los resultados que hacen que YO gane. Otro ejemplo ms. Al comprar llantas para mi coche, puede ser que manifiesten un defecto de fabricacin dentro del perodo de garanta total y que el fabricante deba reponerlas. Tambin puede pasar que el defecto se manifieste en el perodo de garanta parcial y que el fabricante bonifique slo un porcentaje o que el defecto se manifieste despus de vencido el perodo de garanta en cuyo caso el fabricante no paga nada. Tambin puede pasar que las llantas no tengan defecto de fabricacin aparente y que no haya garanta que reclamar. Como se puede considerar que las llantas que me vendieron se escogieron al azar de entre toda la produccin, tenemos un experimento aleatorio. El espacio muestral en este experimento es: S = { T, P1, P2, P3, N, OK }. Con la siguiente notacin

T: pago total, P1 pago del 50%, P2: pago del 30%, P3: pago del 10%, N: nada de pago, OK: llantas sin defecto. El suceso { OK } slo se realiza cuando las llantas no tienen defecto. En este ltimo ejemplo se tiene un suceso simple porque consta de un solo punto del espacio muestral. Ser compuesto cuando tenga varios puntos del espacio muestral. Se llama suceso imposible al que no puede ocurrir; ste evento corresponde al conjunto vaco. Otro suceso extremo es el espacio muestral mismo que, puesto que siempre ocurre, se llama suceso o evento seguro. La probabilidad mide la frecuencia con la que aparece un resultado determinado cuando se realiza un experimento. Ejemplo : tiramos un dado al aire y queremos saber cual es la probabilidad de que salga un 2, o que salga un nmero par, o que salga un nmero menor que 4. El experimento tiene que ser aleatorio, es decir, que pueden presentarse diversos resultados, dentro de un conjunto posible de soluciones, y esto an realizando el experimento en las mismas condiciones. Por lo tanto, a priori no se conoce cual de los resultados se va a presentar: Ejemplo : lanzamos una moneda al aire: el resultado puede ser cara o cruz, pero no sabemos de antemano cual de ellos va a salir. En la Lotera de Navidad, el "Gordo" (en Espaa se llama "Gordo" al primer premio) puede ser cualquier nmero entre el 1 y el 100.000, pero no sabemos a priori cual va a ser (si lo supiramos no estaramos aqu escribiendo esta leccin).

Hay experimentos que no son aleatorios y por lo tanto no se les puede aplicar las reglas de la probabilidad. Ejemplo : en lugar de tirar la moneda al aire, directamente seleccionamos la cara. Aqu no podemos hablar de probabilidades, sino que ha sido un resultado determinado por uno mismo. Antes de calcular las probabilidades de un experimento aleatorio hay que definir una serie de conceptos: Suceso elemental: hace referencia a cada una de las posibles soluciones que se pueden presentar. Ejemplo : al lanzar una moneda al aire, los sucesos elementales son la cara y la cruz. Al lanzar un dado, los sucesos elementales son el 1, el 2, .., hasta el 6. Suceso compuesto: es un subconjunto de sucesos elementales. Ejemplo : lanzamos un dado y queremos que salga un nmero par. El suceso "numero par" es un suceso compuesto, integrado por 3 sucesos elementales: el 2, el 4 y el 6 O, por ejemplo, jugamos a la ruleta y queremos que salga "menor o igual que 18". Este es un suceso compuesto formado por 18 sucesos elementales (todos los nmeros que van del 1 al 18). Espacio muestral: se denomina al conjunto de todos los posibles sucesos elementales. Cada experimento aleatorio tiene definido su espacio muestral (es decir, un conjunto con todas las soluciones posibles). Ejemplo : si tiramos una moneda al are una sola vez, el espacio muestral ser cara o cruz.

Si el experimento consiste en lanzar una moneda al aire dos veces, entonces el espacio muestral estara formado por (cara-cara), (cara-cruz), (cruz-cara) y (cruz-cruz). Entre los sucesos compuestos se pueden establecer distintas relaciones: a) Un suceso puede estar contenido en otro: las posibles soluciones del primer suceso tambin lo son del segundo, pero este segundo suceso tiene adems otras soluciones suyas propias. Ejemplo: lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un nmero par. Vemos que el suceso a) est contenido en el suceso b) Siempre que se da el suceso a) se da el suceso b), pero no al contrario. Por ejemplo, si el resultado fuera el 2, se cumplira el suceso b), pero no el a). b) Dos sucesos pueden ser iguales: esto ocurre cuando siempre que se cumple uno de ellos se cumple obligatoriamente el otro y viceversa. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que salga mltiplo de 2. Vemos que las soluciones coinciden en ambos casos. c) Unin de dos o ms sucesos: la unin ser otro suceso formado por todos los elementos de los sucesos que se unen. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos:

b) que el resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4, el 5 y el 6 d) Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de dos o ms sucesos que se intersectan. Ejemplo : lanzamos un dado al aire, y analizamos dos sucesos: a) que salga nmero par, y b) que sea mayor que 4. La interseccin de estos dos sucesos tiene un slo elemento, el nmero 6 (es el nico resultado comn a ambos sucesos: es mayor que 4 y es nmero par). e) Sucesos incompatibles: son aquellos que no se pueden dar al mismo tiempo ya que no tienen elementos comunes (su interseccin es el conjunto vacio). Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3, y b) que salga el nmero 6. Es evidente que ambos no se pueden dar al mismo tiempo. f) Sucesos complementarios: son aquellos que si no se da uno, obligatoriamente se tiene que dar el otro. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero par, y b) que salga un nmero impar. Vemos que si no se da el primero se tiene que dar el segundo (y viceversa). Probabilidad de sucesos Al definir los sucesos hablamos de las diferentes relaciones que pueden guardar dos sucesos entre s, as como de las posibles relaciones que se pueden establecer entre los

mismos. Vamos a ver ahora cmo se refleja esto en el clculo de probabilidades. a) Un suceso puede estar contenido en otro: entonces, la probabilidad del primer suceso ser menor que la del suceso que lo contiene. Ejemplo : lanzamos un dado y analizamos dos sucesos: a) que salga el nmero 6, y b) que salga un nmero par. Dijimos que el suceso a) est contenido en el suceso b). P(A) = 1/6 = 0,166 P(B) = 3 / 6 = 0,50 Por lo tanto, podemos ver que la probabilidad del suceso contenido, suceso a), es menor que la probabilidad del suceso que lo contiene, suceso b). b) Dos sucesos pueden ser iguales : en este caso, las probabilidades de ambos sucesos son las mismas. Ejemplo : lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que salga mltiplo de 2. Las soluciones coinciden en ambos casos. P(A) = 3 / 6 = 0,50 P(B) = 3 / 6 = 0,50 c) Interseccin de sucesos: es aquel suceso compuesto por los elementos comunes de los dos o ms sucesos que se intersectan. La probabilidad ser igual a la probabilidad de los elementos comunes. Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que sea mayor que 3.

La interseccin de estos dos sucesos tiene dos elementos: el 4 y el 6. Su probabilidad ser por tanto: P(A B) = 2 / 6 = 0,33 d) Unin de dos o ms sucesos: la probabilidad de la unin de dos sucesos es igual a la suma de las probabilidades individuales de los dos sucesos que se unen, menos la probabilidad del suceso interseccin Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga nmero par, y b) que el resultado sea mayor que 3. El suceso unin estara formado por los siguientes resultados: el 2, el 4, el 5 y el 6. P(A) = 3 / 6 = 0,50 P(B) = 3 / 6 = 0,50 P (A B) = 2 / 6 = 0,33

Por lo tanto, P (A u B) = (0,50 + 0,50) - 0,33 = 0,666 e) Sucesos incompatibles: la probabilidad de la unin de dos sucesos incompatibles ser igual a la suma de las probabilidades de cada uno de los sucesos (ya que su interseccin es el conjunto vacio y por lo tanto no hay que restarle nada). Ejemplo: lanzamos un dado al aire y analizamos dos sucesos: a) que salga un nmero menor que 3, y b) que salga el nmero 6. La probabilidad del suceso unin de estos dos sucesos ser igual a: P(A) = 2 / 6 = 0,333

P(B) = 1 / 6 = 0,166 Por lo tanto, P(A u B) = 0,33 + 0,166 = 0,50 f) Sucesos complementarios: la probabilidad de un suceso complementario a un suceso (A) es igual a 1 - P(A) Ejemplo: lanzamos un dado al aire. El suceso (A) es que salga un nmero par, luego su complementario, suceso (B), es que salga un nmero impar. La probabilidad del suceso (A) es igual a : P(A) = 3 / 6 = 0,50 Luego, la probabilidad del suceso (B) es igual a: P(B) = 1 - P(A) = 1 - 0,50 = 0,50 Se puede comprobar aplicando la regla de "casos favorables / casos posibles": P(B) = 3 / 6 = 0,50 g) Unin de sucesos complementarios: la probabilidad de la unin de dos sucesos complementarios es igual a 1. Ejemplo: seguimos con el ejemplo anterior: a) que salga un nmero par, y b) que salga un nmero impar. La probabilidad del suceso unin de estos dos sucesos ser igual a: P(A) = 3 / 6 = 0,50 P(B) = 3 / 6 = 0,50 Por lo tanto, P(A U B) = 0,50 + 0,50 = 1 .

1.2.2.- DIAGRAMAS DE RBOL

Para la construccin de un diagrama en rbol se partir poniendo una rama para cada una de las posibilidades, acompaada de su probabilidad. En el final de cada rama parcial se constituye a su vez, un nudo del cual parten nuevas ramas, segn las posibilidades del siguiente paso, salvo si el nudo representa un posible final del experimento (nudo final). Hay que tener en cuenta: que la suma de probabilidades de las ramas de cada nudo ha de dar 1. Ejemplos Una clase consta de seis nias y 10 nios. Si se escoge un comit de tres al azar, hallar la probabilidad de: 1 Seleccionar tres nios.

2.-Seleccionar exactamente dos nios y una nia.

3.-Seleccionar exactamente dos nias y un nio.

1 Seleccionar tres nias.

Calcular la probabilidad de que al arrojar al aire tres monedas, salgan: Tres caras.

Experimentos compuestos Un experimento compuesto es aquel que consta de dos o ms experimentos aleatorios simples.

Es decir, si tiramos un dado, o una moneda, son experimentos aleatorios simples, pero si realizamos el experimento de tirar un dado y posteriormente una moneda, estamos realizando un experimento compuesto. En los experimentos compuestos es conveniente usar el llamado diagrama en rbol para hacerse una idea global de todos ellos.

1.2.3.-PERMUTACIONES Y COMBINACIONES

Normalmente usamos la palabra "combinacin" descuidadamente, sin pensar en si el orden de las cosas es importante. En otras palabras: "Mi ensalada de frutas es una combinacin de manzanas, uvas y bananas": no importa en qu orden pusimos las frutas, podra ser "bananas, uvas y manzanas" o "uvas, manzanas y bananas", es la misma ensalada.

"La combinacin de la cerradura es 472": ahora s importa el orden. "724" no funcionara, ni "247". Tiene que ser exactamente 4-7-2. As que en matemticas usamos un lenguaje ms preciso: Si el orden no importa, es una combinacin.

Si el orden s importa es una permutacin.

As que lo de arriba se podra llamar "cerradura de permutacin"!

Con otras palabras: Una permutacin es una combinacin ordenada.

Para ayudarte a recordar, "Permutacin... Posicin"

piensa en

Permutaciones Hay dos tipos de permutaciones:


Se permite repetir: como la cerradura de arriba, podra ser "333". Sin repeticin: por ejemplo los tres primeros en una carrera. No puedes quedar primero y segundo a la vez.

1. Permutaciones con repeticin Son las ms fciles de calcular. Si tienes n cosas para elegir y eliges r de ellas, las permutaciones posibles son: n n ... (r veces) = nr

(Porque hay n posibilidades para la primera eleccin, DESPUS hay n posibilidades para la segunda eleccin, y as.) Por ejemplo en la cerradura de arriba, hay 10 nmeros para elegir (0,1,...,9) y eliges 3 de ellos: 10 10 ... (3 veces) = 103 = 1000 permutaciones As que la frmula es simplemente: nr donde n es el nmero de cosas que puedes elegir, y eliges r de ellas (Se puede repetir, el orden importa)

2. Permutaciones sin repeticin En este caso, se reduce el nmero de opciones en cada paso. Por ejemplo, cmo podras ordenar 16 bolas de billar? Despus de elegir por ejemplo la "14" no puedes elegirla otra vez.

As que tu primera eleccin tiene 16 posibilidades, y tu siguiente eleccin tiene 15 posibilidades, despus 14, 13, etc. Y el total de permutaciones sera: 16 15 14 13 ... = 20,922,789,888,000 Pero a lo mejor no quieres elegirlas todas, slo 3 de ellas, as que sera solamente: 16 15 14 = 3360 Es decir, hay 3,360 maneras diferentes de elegir 3 bolas de billar de entre 16. Pero cmo lo escribimos matemticamente? Respuesta: usamos la "funcin factorial" La funcin factorial (smbolo: !) significa que se multiplican nmeros descendentes. Ejemplos:

4! = 4 3 2 1 = 24 7! = 7 6 5 4 3 2 1 = 5040 1! = 1

Nota: en general se est de acuerdo en que 0! = 1. Puede que parezca curioso que no multiplicar ningn nmero d 1, pero ayuda a simplificar muchas ecuaciones. As que si quieres elegir todas las bolas de billar las permutaciones seran: 16! = 20,922,789,888,000

Pero si slo quieres elegir 3, tienes que dejar de multiplicar despus de 14. Cmo lo escribimos? Hay un buen truco... dividimos entre 13!... 16 15 14 13 12 ... = 16 15 14 = 3360 13 12 ... Lo ves? 16! / 13! = 16 15 14 La frmula se escribe:

donde n es el nmero de cosas que puedes elegir, y eliges r de ellas (No se puede repetir, el orden importa) Ejemplos: Nuestro "ejemplo de elegir en orden 3 bolas de 16" sera: 16! = (16-3)! 13! 16! = 6,227,020,800 20,922,789,888,000 = 3360

De cuntas maneras se pueden dar primer y segundo premio entre 10 personas? 10! = (10-2)! 8! 10! = 40,320 3,628,800 = 90

(que es lo mismo que: 10 9 = 90) Notacin En lugar de escribir toda la frmula, la gente usa otras notaciones como:

Combinaciones Tambin hay dos tipos de combinaciones (recuerda que ahora el orden no importa):

Se puede repetir: como monedas en tu bolsillo (5,5,5,10,10) Sin repeticin: como nmeros de lotera (2,14,15,27,30,33)

1. Combinaciones con repeticin En realidad son las ms difciles de explicar, as que las dejamos para luego. 2. Combinaciones sin repeticin As funciona la lotera. Los nmeros se eligen de uno en uno, y si tienes los nmeros de la suerte (da igual el orden) entonces has ganado! La manera ms fcil de explicarlo es:

imaginemos que el orden s importa (permutaciones), despus lo cambiamos para que el orden no importe.

Volviendo a las bolas de billar, digamos que queremos saber qu 3 bolas se eligieron, no el orden.

Ya sabemos que 3 de 16 dan 3360 permutaciones. Pero muchas de ellas son iguales para nosotros, porque no nos importa el orden. Por ejemplo, digamos que se tomaron las bolas 1, 2 y 3. Las posibilidades son: El orden El orden importa importa 1 1 2 2 3 321 2 3 1 3 1 3 2 3 123 1 2 no

As que las permutaciones son 6 veces ms posibilidades. De hecho hay una manera fcil de saber de cuntas maneras "1 2 3" se pueden ordenar, y ya la sabemos. La respuesta es: 3! = 3 2 1 = 6 (Otro ejemplo: 4 cosas se pueden ordenar de 4! = 4 3 2 1 = 24 maneras distintas, prueba t mismo!) As que slo tenemos que ajustar nuestra frmula de permutaciones para reducir por las maneras de ordenar los objetos elegidos (porque no nos interesa ordenarlos):

Esta frmula es tan importante que normalmente se la escribe con grandes parntesis, as:

donde n es el nmero de cosas que puedes elegir, y eliges r de ellas (No se puede repetir, el orden no importa) Y se la llama "coeficiente binomial". Notacin Adems de los "grandes parntesis", la gente tambin usa estas notaciones:

Ejemplo Entonces, nuestro ejemplo de bolas de billar (ahora sin orden) es: 16! = 3!(16-3)! 3!13! 16! = 66,227,020,800 20,922,789,888,000 = 560

O lo puedes hacer as: 161514 = 321 6 3360 = 560

As que recuerda, haz las permutaciones, despus reduce entre "r!" ... o mejor todava... Recuerda la frmula! Es interesante darse cuenta de que la frmula es bonita y simtrica:

Con otras palabras, elegir 3 bolas de 16 da las mismas combinaciones que elegir 13 bolas de 16. 16! = 3!(16-3)! Tringulo de Pascal Puedes usar el tringulo de Pascal para calcular valores. Baja a la fila "n" (la de arriba es n=0), y ve a la derecha "r" posiciones, ese valor es la respuesta. Aqu tienes un trozo de la fila 16: 1 1 1 14 91 364 ... 15 105 455 1365 ... 16 120 560 1820 4368 ... 13!(16-13)! 16! = 3!13! 16! = 560

1. Combinaciones con repeticin OK, ahora vamos con este...

Digamos que tenemos cinco sabores de helado: banana, chocolate, limn, fresa y vainilla. Puedes tomar 3 paladas. Cuntas variaciones hay? Vamos a usar letras para los sabores: {b, c, l, f, v}. Algunos ejemplos son

{c, c, c} (3 de chocolate) {b, l, v} (uno de banana, uno de limn y uno de vainilla) {b, v, v} (uno de banana, dos de vainilla) para elegir, y ellas.

(Y para dejarlo claro: hay n=5 cosas eliges r=3 de El orden no importa, y s puedes repetir!)

Bien, no puedo decirte directamente cmo se calcula, pero te voy a ensear una tcnica especial para que lo averiges t mismo. Imagina que el helado est en contenedores, podras decir "sltate el primero, despus 3 paladas, despus sltate los 3 contenedores siguientes" y acabars con 3 paladas de chocolate! Entonces es como si ordenaras a un robot que te trajera helado, pero no cambia nada, tendrs lo que quieres. Ahora puedes escribirlo como saltar, el crculo es tomar) (la flecha es

Entonces los tres ejemplos de arriba se pueden escribir as: {c, c, c} (3 de chocolate): {b, l, v} (uno de banana, uno de limn y uno de vainilla): {b, v, v} (uno de banana, dos de vainilla): OK, entonces ya no nos tenemos que preocupar por diferentes sabores, ahora tenemos un problema ms simple para resolver: "de cuntas maneras puedes ordenar flechas y crculos" Fjate en que siempre hay 3 crculos (3 paladas de helado) y 4 flechas (tenemos que movernos 4 veces para ir del contenedor 1 al 5). As que (en general) hay r + (n-1) posiciones, y queremos que r de ellas tengan crculos. Esto es como decir "tenemos r + (n-1) bolas de billar y queremos elegir r de ellas". Es decir, es como el problema de elegir bolas de billar, pero con nmeros un poco distintos. Lo podras escribir as:

donde n es el nmero de cosas que puedes elegir, y eliges r de ellas (Se puede repetir, el orden no importa)

Es interesante pensar que podramos habernos fijado en flechas en vez de crculos, y entonces habramos dicho "tenemos r + (n-1) posiciones y queremos que (n-1) tengan flechas", y la respuesta sera la misma...

Qu pasa con nuestro ejemplo, cul es la respuesta? (5+3-1)! = 3!(5-1)! 3!4! 7! = 624 5040 = 35

En conclusin Uau, es un montn de cosas que absorber, quizs tendras que leerlo otra vez para entenderlo todo bien! Pero saber cmo funcionan estas frmulas es slo la mitad del trabajo. Averiguar cmo se interpreta una situacin real puede ser bastante complicado. Por lo menos ahora sabes cmo se calculan las 4 variantes de "el orden s/no importa" y "s/no se puede repetir". 1.2.4.- ESPACIO MUESTRAL Y EVENTOS

El uso de conjuntos representados por diagramas de Ven, facilita la compresin de espacio muestral y evento, ya que el espacio muestral S, se puede equiparar con el conjunto universo, debido a que S contiene la totalidad de los

resultados posibles de un experimento, mientras que los eventos E contienen solo un conjunto de resultados posibles del experimento, mientras que los puntos mustrales se equiparan con los elementos. Vamos a suponer que el experimento que se realiza es el lanzamiento de un dado y queremos conocer cul es la probabilidad de que caiga un 3 o un 5? Si S contiene la totalidad de los resultados posibles, entonces S = {1, 2, 3, 4, 5, 6} puesto que el dado tiene 6 caras y si buscamos la probabilidad P de que caiga 3 o 5, esto constituye un evento entonces, E = {3, 5}. El espacio muestral S, est representado por un rectngulo, este contiene eventos E representados a travs de crculos y puntos mustrales. Dado que en E existen dos elementos y en S seis, la probabilidad P de que ocurra E es 2 de 6 y se obtiene al dividir el nmero de elementos en E sobre el nmero de elementos en S. Espacio Muestral.- Se llama espacio muestral (E) asociado a un experimento aleatorio, el conjunto de todos los resultados posibles de dicho experimento. Al lanzar una moneda, el espacio muestral es E = {sale cara, sale sello} E = {c, s}. Al lanzar un dado de seis caras, el espacio muestral es E = {sale 1, sale 2, sale 3, sale 4, sale 5, sale 6} E = {1, 2, 3, 4, 5, 6} Al lanzar dos monedas, el espacio muestral es E = (c,c), (c,s), (s,c), (s,s). Al lanzar tres monedas, el espacio muestral es E = (c,c,c), (c,c,s), (c,s,c), (c,s,s), (s,c,c), (s,c,s), (s,s,c), (s,s,s) Evento o Suceso: Se llama evento o suceso a todo subconjunto de un espacio muestral. Por ejemplo en el espacio muestral E = {1,

2, 3, 4, 5, 6} del lanzamiento de un dado, los siguientes son eventos: 1. Obtener un nmero primo A = {2, 3, 5} 2. Obtener un nmero primo y par B = {2} 3. Obtener un nmero mayor o igual a 5 C = {5, 6} 1.3.-DEFINICIONES DE PROBABILIDAD Antes de profundizar en la forma como se utilizan las probabilidades, es necesario conocer de cierta manera de donde provienen. Hay tres formas de calcular o estimar la probabilidad. El enfoque clsico o "a priori"proveniente de los juegos de azar o definicin clsica de Laplace que se emplea cuando los espacios mustrales son finitos y tienen resultados igualmente probables; la definicin emprica, "a posteriori" o frecuencia que se basa en la frecuencia relativa de ocurrencia de un evento con respecto a un gran nmero de ensayos repetidos y por ltimo la definicin de Kolmogorov o definici6n axiomtica de probabilidad. Seleccionar uno de los tres enfoques depender de la naturaleza del problema.

1.3.1.-DEFINICION CLSICA DEFINICIN CLSICA DE LAPLACE O "A PRIORI" Esta definicin es de uso limitado puesto que descansa sobre la base de las siguientes dos condiciones:

1. El espacio muestra de todos los resultados posibles S es finito. 2. Los resultados del espacio muestra deben ser igualmente probables. Bajo estas condiciones y si A es el evento formado por n(A) resultados del espacio muestra y, el nmero total de resultados posibles es n(S), entonces

Ejemplo 24: Si se extrae una carta de un paquete de 52 cartas de las cuales 26 son negras (13 espadas A, 2, 3, , 10, J, Q, K; 13 son trboles); y 26 son rojas (13 corazones y 13 diamantes), la probabilidad de que la carta sea un as es porque el evento de "extraer un as" consta de 4 de los 52 resultados igualmente probables. La probabilidad de que la carta sea negra es un diamante es . y la probabilidad de que sea

Ejemplo 25: Al lanzar un dado, cul es la probabilidad de obtener un nmero par? Solucin: S ={1, 2, 3, 4, 5, 6}, y hay tres pares, luego,

Ejemplo 26: Cul es la probabilidad de que una familia que tiene tres hijos, hayan dos nias y un nio, si se considera igualmente probable el nacimiento de un nio o nia?

Solucin: Usando "a" para nia y "o" para nio, el espacio muestra es: S = {aaa, aao, aoa, aoo, oaa, oao, ooa, ooo} n(S) = 8 El evento A en que hayan dos nias y un nio es A = {aao, aoa, oaa, } n(A) = 3

Obsrvese que siempre 0 < P(A) < 1, puesto que 0 < n(A) < n(S). DEFINICIN EMPRICA "A POSTERIORI" 0 FRECUENCIAL La definicin clsica se ve limitada a situaciones en las que hay un nmero finito de resultados igualmente probables. Por desgracia, hay situaciones prcticas que no son de este tipo y la definicin de Laplace no se puede aplicar. Por ejemplo, si se pregunta por la probabilidad de que un paciente se cure mediante cierto tratamiento mdico, o la probabilidad de que una determinada mquina produzca artculos defectuosos, entonces no hay forma de introducir resultados igualmente probables. Por ello se necesita un concepto ms general de probabilidad. Una forma de dar respuesta a estas preguntas es obtener algunos datos empricos en un intento por estimar las probabilidades. Supongamos que efectuamos un experimento n veces y que en esta serie de n ensayos el evento A ocurre exactamente r veces, entonces la frecuencia relativa del evento es ,o sea,

Si continuamos calculando esta frecuencia relativa cada cierto nmero de ensayos, a medida que aumentamos n, las frecuencias relativas correspondientes sern ms estables; es decir; tienden a ser casi las mismas; en este caso decimos que el experimento muestra regularidad estadstica o estabilidad de las frecuencias relativas. Esto se ilustra en la siguiente tabla, de una moneda lanzada al aire 1000 veces.

# de # de Frecuencia Frecuencia Frecuencia lanzamientos relativa acumulada acumulada caras relativa 1 100 100 200 200 300 300 400 400 500 500 600 600 700 700 800 800 900 900 -1000 Total: 1000 52 53 52 47 51 53 48 46 52 54 508 0.52 0.53 0.52 0.47 0.51 0.53 0.48 0.46 0.52 0.54 0.508 52 105 157 204 255 308 356 402 454 508 0.520 0.525 0.523 0.510 0.510 0.513 0.509 0.503 0.504 0.508

En un total de 1000 lanzamientos ocurrieron 508 caras, es decir la frecuencia relativa es aproximadamente 0.50. Tres investigadores realizaron experimentos y obtuvieron los siguientes resultados Investigador Nmero de Nmero Frecuencia lanzamientos de relativa caras Buffon K. Pearson K. Pearson 4040 12000 24000 2048 6019 12012 0.5069 0.5016 0.5005

La mayora de experimentos aleatorios de importancia prctica tienen estabilidad, por esto podemos sospechar que prcticamente ser cierto que la frecuencia relativa de un evento E en un gran nmero de ensayos es aproximadamente igual a un determinado nmero P(E), o sea, la probabilidad del evento E es

Obsrvese que este nmero es una propiedad que no depende solamente de E, sino que se refiere a un cierto espacio muestra S y a un experimento aleatorio. Entonces, decir que el evento E tiene probabilidad P(E) significa que si efectuamos el experimento muchas veces, es prcticamente cierto que la frecuencia relativa de E, fr(E) es aproximadamente igual a P(E). Cuando se usa la definicin frecuencial, es importante tomar en cuenta los siguientes aspectos:

i. ii.

La probabilidad obtenida de esta manera es nicamente una estimacin del valor real. Cuanto mayor sea el nmero de ensayos, tanto mejor ser la estimacin de la probabilidad; es decir, a mayor nmero de ensayos mejor ser la estimacin. La probabilidad es propia de slo un conjunto de condiciones idnticas a aqullas en las que se obtuvieron los datos, o sea, la validez de emplear esta definicin depende de que las condiciones en que se realiz el experimento sean repetidas idnticamente.

iii.

DEFINICIN AXIMATICA DE KOLMOGOROV Las definiciones anteriores son netamente empricas o experimentales, sin embargo despus de establecer una forma de determinar la probabilidad experimentalmente, se pueden deducir leyes o propiedades de la probabilidad en forma lgica o computacional bajo ciertas suposiciones llamados axiomas de la probabilidad. La probabilidad de un evento A se define como el nmero P(A), tal que cumple con los siguientes axiomas: AXIOMA 1: La probabilidad P(A) de cualquier evento no debe ser menor que cero ni mayor que uno: 0 < P(A) < 1 AXIOMA 2: P(S) = 1 AXIOMA 3: Si A y B son dos eventos mutuamente exclusivos (A B = ), entonces: P (A B) = P(A) + P(B)

Toda la teora elemental de la probabilidad est construida sobre las bases de estos tres simples axiomas. Si el espacio muestral es infinito, debemos reemplazar el axioma 3 por el AXIOMA 4: Si A1, A2, son eventos mutuamente exclusivos, entonces tenemos que P(A1 A2 ) = P(Al) + P(A2) ++

1.3.1.-Definicin clsica Definicin Clsica de la Probabilidad

Esta definicin clsica de probabilidad fue una de las primeras que se dieron (1900) y se atribuye a Laplace; tambin se conoce con el nombre de probabilidad a priori pues, para calcularla, es necesario conocer, antes de realizar el experimento aleatorio, el espacio muestral y el nmero de resultados o sucesos elementales que entran a formar parte del suceso. La aplicacin de la definicion clsica de probabilidad puede presentar dificultades de aplicacin cuando el espacio muestral es infinito o cuando los posibles resultados de un experimento no son equiprobables. Ej: En un proceso de fabricacin de piezas puede haber algunas defectuosas y si queremos determinar la probabilidad de que una pieza sea defectuosa no podemos utilizar la definicin clsica pues necesitaramos conocer previamente el resultado del proceso de fabricacin.

Para resolver estos casos, se hace una extensin de la definicin de probabilidad, de manera que se pueda aplicar con menos restricciones, llegando as a la definicin frecuentista de probabilidad.

1.3.3.- AXIOMTICA os axiomas de probabilidad son las condiciones mnimas que deben verificarse para que una funcin definida sobre un conjunto de sucesos determine consistentemente sus probabilidades. Fueron formulados por Kolmogrov en 1933.

Dado un conjunto de sucesos elementales, , sobre el que se ha definida una -lgebra (lase sigma-lgebra) de subconjuntos de y una funcin P que asigna valores reales a los miembros de , a los que denominamos "sucesos", se dice que P es una probabilidad sobre (,) si se cumplen los siguientes tres axiomas. [editar]Primer axioma La probabilidad de un suceso igual que 0. es un nmero real mayor o

[editar]Segundo axioma La probabilidad del total, , es igual a 1, es decir, [editar]Tercer axioma Si son sucesos mutuamente excluyentes (incompatibles dos a dos, disjuntos o de interseccin vaca dos a dos), entonces:

. Segn este axioma se puede calcular la probabilidad de un suceso compuesto de varias alternativas mutuamente excluyentes sumando las probabilidades de sus componentes. En trminos ms formales, una probabilidad es una medida sobre una -lgebra de subconjuntos del espacio muestral, siendo los subconjuntos miembros de la -lgebra los sucesos y definida de tal manera que la medida del total sea 1. Tal medida, gracias a su definicin matemtica, verifica igualmente los tres axiomas de Kolmogrov. A la terna formada por el espacio muestral, la -lgebra y la funcin de probabilidad se la denomina Espacio probabilstico, esto es, un "espacio de sucesos" (el espacio muestral) en el que se han definido los posibles sucesos a considerar (la -lgebra) y la probabilidad de cada suceso (la funcin de probabilidad). Propiedades que se deducen de los axiomas De los axiomas anteriores se propiedades de la probabilidad: 1. deducen otras

donde el conjunto vaco representa en probabilidad el suceso imposible 2. Para cualquier suceso 3. 4. Si entonces 5.

Ejemplos Como ejemplo se puede tomar como espacio muestral a los posibles resultados al arrojar un dado corriente , tomaremos como -lgebra todos los subconjuntos posibles de (que en matemticas se denota por ) y como funcin de probabilidad

donde representa el nmero de elementos del conjunto . Es fcil comprobar que esta funcin verifica los tres axiomas de Kolmogrov y, por tanto, consituye una probabilidad sobre este conjunto. 1. , puesto que es el cociente de dos nmeros positivos de tal entonces manera

2. 3. Si que con lo que

1.4.- PROBABILIDAD CONDICIONAL E INDEPENDIENTE

Eventos independientes: dos eventos A y B son independientes sis la ocurrencia o no ocurrencia afecta la probabilidad asignada a la ocurrencia del otro.

Algunas veces es sencillo determinar la independencia por ejemplo los dos eventos considerados se refieren a ensayos no relacionados tales como el lanzamiento de dos monedas de diferente denominacin en consecuencia los resultados con ambas monedas son independientes. La falta de independencia o sea la dependencia es demostrada por la siguiente ilustracin considrese el experimento donde se lanzan dos dados y se observa los dos eventos la suma es igual a 10 y nmero doble que se establece P(10)=3/36=1/12, P(doble)=6/36=1/6 la ocurrencia de 10 afecta la probabilidad de doble? Considrese esta pregunta de la manera siguiente: a ocurrido una suma igual a 10 debe de ser uno de los resultados siguientes [(4,6),(5,5),(6,4)] una de estas tres posibilidades es nmero doble. En consecuencia debe concluirse que P (doble sabiendo que ha ocurrido un diez), escrita P(doble/10), es igual a 1/3 ya que un tercio es distinta a la probabilidad de un doble puede concluirse que el evento 10 afecta la probabilidad de un nmero doble as un doble y 10 son eventos dependientes. El smbolo P(A/B)=P(B/A)=PB. Considrese la probabilidad condicional. Tmese, por ejemplo, el experimento donde se lanza un dado: S=[1,2,3,4,5,6] en este experimento pueden definirse dos eventos como A =ocurre un 4, y B=ocurre un nmero par. Entonces P(A)=1/6, el evento A se satisface exactamente por uno de los seis mustrales igualmente probables en S. La probabilidad condicional de A dado B, P(A/B), se encuentra de manera similar, pero S ya no es este caso el espacio muestral. Esto puede verse de la manera siguiente: se lanza un dado sin que se pueda ver, aunque recibe la informacin de que el nmero obtenido sea par, es

decir que ha ocurrido el evento B. Esta es la condicin dada, conocindola a uno se la pide asignar la probabilidad del evento ocurre un 4. Slo haqy tres posibilidades en el nuevo espacio muestral (reducido), [2,4,6]. Cada uno de los tres resultados es igualmente probable: en consecuencia P(A B)=1/3. Esto puede escribirse como: P(A/B) = P(A y B) / P(B) REGLA DE LA MULTIPLICACIN .- Regla de la multiplicacin CASO GENERAL Sean A y B dos eventos definidos en el espacio muestral S. Entonces : P(A y B)=P(A).P(B/A) o bien P(A y B)=P(B).P(A/B) Si los eventos A y B son independientes, el caso general de la regla de la multiplicacin (la frmula anterior). .- Regla de la multiplicacin CASO ESPECIAL Sean A y B dos eventos definidos en el espacio muestral S. Si A y B son eventos independientes entonces: P(A y B)=P(A).P(B) Esta frmula puede ser generalizada. Si A,B,C;;g son eventos independientes, entonces:

P(A y B y C y y G)=P(A).P(B).PP(G= TRATAMIENTO DE LA PROBABILIDAD CONDICONAL E INDEPENDENCIA DE EVENTOS EJEMPLO: En un grupo de 200 estudiantes se selecciona uno de ellos en forma aleatoria. Se sabe que en el grupo hay 140 estudiantes de tiempo completo (80 mujeres y 60 hombres), y 60 de tiempo parcial (40 mujeres y 20 hombres) el evento A es la persona seleccionada es estudiante de tiempo completo y el evento C es el estudiante seleccionado es mujer. EL USO DE DIAGRAMAS DE ARBOL PARA EL CLCULO DE LA PROBABILIDAD Muchos problemas sobre probabilidades se pueden representar con diagramas de rbol. En tales casos se pueden utilizar con facilidad las reglas de la multiplicacin y la adicin para ilustrar la solucin de problemas sobre probabilidades. Se ha extrado dos fichas de pker de una caja que contiene una ficha roja, otra blanca y otra verde. El diagrama de rbol que representa este experimento en la primera figura muestra la segundad y la primera seleccin. En cada extraccin se selecciona una ficha y no se reemplaza. Despus de que se ha dibujado e identificado el rbol, es necesario que se asigne probabilidades a cada rama. Si se supone que es igualmente probable que se extraiga cualquier ficha en cualquier seleccin, es posible asignar una probabilidad a cada segmento de cada rama de rbol como se muestra en la segunda figura. Ntese que un conjunto de ramas que nacen de un punto comn tiene una probabilidad

total igual a uno. En este diagrama en particular hay cuatro de tales conjuntos de segmentos de famas. El diagrama de rbol muestra seis resultados distintos. Leyendo hacia abajo la rama indica el resultado (R,B);la dos (2), (R,V); etc. Cada resultado el esta representado por una rama que nace en un punto inicial comn y termina en los puntos extremos de la derecha. La probabilidad asociada con el resultado (R,B) P(ficha roja en la primera extraccin y blanca en la segunda), se encuentra multiplicando P(R en la primera seleccin)*P(B en la segunda seleccin R en la primera). Estas son las dos probabilidades 1/3 y indicadas en los dos segmentos de la rama uno en la figura dos. El es la probabilidad condicional requerida por la regla de la multiplicacin. En consecuencia debe n}multiplicarse a loa largo de las ramas. Algunos eventos estn constituidos por ms de un resultado del experimento. Por ejemplo supngase que se ha pedido la probabilidad de que sean seleccionadas una ficha roja y otra blanca. Se observa que hay dos resultados que satisfacen dos eventos, la rama uno y la tres con o se utiliza la regla de la adicin .puesto que las ramas de un diagrama representan eventos mutuamente excluyentes, se tiene que : P(R y una B)= SRC=Image1.gif WIDTH=221 HEIGHT=45> EVENTOS INDEPENDIENTES Suponemos que se sabe que la probabilidad de A dada la de B es igual a la probabilidad de A. Qu se podra concluir respecto a los eventos de A y B? El hecho de saber que el evento b a ocurrido, afecta de algn modo la probabilidad de A?. La situacin anterior conduce a la necesidad de definir otro tipo de eventos: Si A y B son eventos independientes, entonces P (A B)= P(A).

Definicin: A y B son eventos independientes si y solo s Teorema 1: si A y B son eventos SRC=Image2.gif WIDTH=60 SRC=Image3.gif WIDTH=60 HEIGHT=21> , entonces Ntese que la definicin de eventos independientes se aplica a todos los eventos sean o no sus probabilidades iguales a cero. No sera as si hubiramos ocupado el teorema 1 para la definicin de eventos independientes. Si escoge una familia del conjunto de todas las que tiene 2 nios Cul es la probabilidad de que ambos sean varones si se sabe que por lo menos que hay un varn en esa familia. Sea S=(m,m),-(m,f).(f,m),(f,f) el espacio muestra, donde la primera letra de cualquier pareja ordenada indica el sexo del primognito y la segunda el sexo del segundo. Supondremos que los cuatro puntos son igualmente probables (esta suposicin no es correcta para determinadas razones pero es aceptable). Ahora bien, si se sabe que por lo menos uno de los hijos es varn Cul es el nuevo espacio muestral? De los tres punto de ese espacio Cuntos representan familias en las que ambos hijos son varones?. Entonces la probabilidad requerida es 1/3. Demostracin: de la teora de conjuntos sabemos que SRC=Image4.gif WIDTH=97 HEIGHT=21>(verifique esto con un diagrama de Venn). Del teorema anterior, tenemos SRC=Image5.gif WIDTH=105 HEIGHT=25>. independientes HEIGHT=21>y

1.5.-TEOREMA DE BAYES

Teorema de Bayes Sea A1, A2, ...,An un sistema completo de sucesos, tales que la probabilidad de cada uno de ellos es distinta de cero, y sea B un suceso cualquier del que se conocen las probabilidades condicionales P(B/Ai). entonces la probabilidad P(Ai/B) viene dada por la expresin:

Ejercicio 8-1: Tres mquinas, A, B y C, producen el 45%, 30% y 25%, respectivamente, del total de las piezas producidas en una fbrica. Los porcentajes de produccin defectuosa de estas mquinas son del 3%, 4% y 5%. a. Seleccionamos una pieza al azar; calcula la probabilidad de que sea defectuosa. b. Tomamos, al azar, una pieza y resulta ser defectuosa; calcula la probabilidad de haber sido producida por la mquina B. c. Qu mquina tiene la mayor probabilidad de haber producido la citada pieza defectuosa? Solucin:

Sea D= "la pieza es defectuosa" y N= "la pieza no es defectuosa". La informacin del problema puede expresarse en el diagrama de rbol adjunto. a. Para calcular la probabilidad de que la pieza elegida sea defectuosa, P(D), por la propiedad de la probabilidad total, P(D) = P(A) P(D/A) + P(B) P(D/B) + P(C) P(D/C) = = 0.45 0.03 + 0.30 0.04 + 0.25 0.05 = 0.038 b. Debemos calcular P(B/D). Por el teorema de Bayes,

c. Calculamos P(A/D) y P(C/D), comparndolas con el valor de P(B/D) ya calculado. Aplicando el teorema de Bayes, obtenemos:

Unidad 2.- variables aleatorias y distribuciones

2.1.-variable aleatoria y funciones de probabilidad y de distribucin acumulatoria

densidad

de

Toda distribucin de probabilidad es generada por una variable aleatoria x, la que puede ser de dos tipos: 1. Variable aleatoria discreta (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque el valor tomado es totalmente al azar y discreta porque solo puede tomar valores enteros y un nmero finito de ellos. Ejemplos: Variable que nos define el nmero de burbujas por envase de vidrio que son generadas en un proceso dado.

defectuosos en un lote de 25 productos. defectuosos en el lote

aprobados en la materia de probabilidad en un grupo de 40 alumnos. probabilidad Con los ejemplos anteriores nos damos cuenta claramente que los valores de la variable x siempre sern enteros, nunca fraccionarios. 2. Variable aleatoria continua (x). Se le denomina variable porque puede tomar diferentes valores, aleatoria, porque los valores que toma son totalmente al azar y

continua porque puede tomar tanto valores enteros como fraccionarios y un nmero infinito de ellos. Ejemplos:

pulgadas

n cable o circuito utilizado en un arns de auto

plata de algunas muestras de mineral

Como se observa en los ejemplos anteriores, una variable continua puede tomar cualquier valor, entero o fraccionario, una forma de distinguir cuando se trata de una variable continua es que esta variable nos permite medirla o evaluarla, mientras que una variable discreta no es medible, es una variable de tipo atributo, cuando se inspecciona un producto este puede ser defectuoso o no, blanco o negro, cumple con las especificaciones o no cumple, etc, etc. Las variables descritas anteriormente nos generan una distribucin de probabilidad, las que pueden ser. 1) 2) Distribucin de probabilidad discreta. Distribucin de probabilidad contina.

Las caractersticas de cada una de las distribuciones anteriores se mencionarn a continuacin:

DISTRIBUCIN DE PROBABILIDAD DISCRETA. Caractersticas: 1. Es generada por una variable discreta (x).

,...etc, etc. Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores o iguales a cero.

asociadas a cada uno de los valores que toma x debe ser igual a 1.

DISTRIBUCIN DE PROBABILIDAD CONTINUA. Caractersticas: 1. Es generada por una variable continua (x). Es una variable que puede tomar tanto valores enteros como fraccionarios.

2.

Las probabilidades asociadas a cada uno de los valores que toma x deben ser mayores o iguales a cero. Dicho de otra forma, la funcin de densidad de probabilidad deber tomar solo valores mayores o iguales a cero. La funcin de densidad de

probabilidad slo puede estar definida en los cuadrantes I y II.

3. La sumatoria de las probabilidades asociadas a cada uno de los valores que toma x debe ser igual a 1. El rea definida bajo la funcin de densidad de probabilidad deber ser de 1.

CALCULO DE MEDIA Y DESVIACIN ESTANDAR PARA UNA DISTRIBUCIN DISCRETA 1. Media o valor esperado de x.- Para determinar la media de la distribucin discreta se utiliza la siguiente frmula:

Donde: = media de la distribucin E(x) = valor esperado de x xi = valores que toma la variable p(xi) = probabilidad asociada a cada uno de los valores de la variable x 2. Desviacin estndar. Para determinar la desviacin estndar de la distribucin discreta se utiliza la siguiente frmula:

Donde: = desviacin estndar = media o valor esperado de x

xi = valores que toma la variable x p(xi) = probabilidad asociada a cada uno de los valores que toma x Ejemplos: Segn estadsticas la probabilidad de que el motor de un auto nuevo, de cierto modelo, y marca sufra de algn desperfecto en los primeros 12 meses de uso es de 0.02, si se prueban tres automviles de esta marca y modelo, encuentre el nmero esperado de autos que no sufren de algn desperfecto en los primeros doce meses de uso y su desviacin estndar. Solucin: Haciendo uso de un diagrama de rbol, usando las literales siguientes, se obtiene el espacio muestral como se muestra a continuacin; N = no sufre de algn desperfecto en el motor los primeros 12 meses de uso S = sufre de algn desperfecto en el motor los primeros 12 meses de uso

N S

N N S

S N 1er auto S N 2o auto S N S

3o S NNN, NNS, NSN, NSS, SNN, SNS, SSN, SSS

x = variable que nos define el nmero de autos que no sufre de algn desperfecto en el motor durante los primeros 12 meses de uso x = 0, 1, 2 o 3 autos que no sufren algn desperfecto en el motor en los primeros 12 meses de uso

p(x=0)=p(SSS)=(0.02)(0.02)(0.02)=0.000008 p(x=1)=p(NSS, SNS, SSN)=(0.98)(0.02)(0.02)+(0.02)(0.98)(0.02)+(0.02)(0.02)(0. 98)= =0.001176 p(x=2)=p(NNS,NSN,SNN)=(0.98)(0.98)(0.02)+(0.98)(0.02)( 0.98)+(0.02)(0.98)(0.98)==0.057624 p(NNN) = (0.98)(0.98)(0.98) =0.941192 Por tanto la media o valor esperado se determina de la siguiente manera:

=E(x) = (0)(0.000008)+(1)(0.001176)+(2)(0.057624)+(3)(0.941192)= 3 autos que no sufren algn desperfecto en el motor en los primeros 12 meses de uso La interpretacin de la media o valor esperado es; se espera que los 3 autos probados no sufran de algn desperfecto en el motor en los primeros 12 meses de uso. = = = 0.2497 0.0 autos que no sufren algn desperfecto en su motor en los primeros 12 meses de uso.

Interpretacin: En este experimento se espera que los 3 autos probados no sufran de algn desperfecto en su motor en los primeros 12 meses de uso y la variabilidad de este experimento es de cero. Nota: La media y la desviacin estndar se redondean a un valor entero ya que son la media y desviacin de una distribucin de probabilidad discreta.

2. Se ha detectado en una lnea de produccin que 1 de cada 10 artculos fabricados es defectuoso; se toman de esa lnea tres artculos uno tras otro, a) obtenga la distribucin de probabilidad del experimento, b) encuentre el nmero esperado de artculos defectuosos en esa muestra y su desviacin estndar. Solucin: Tambin haciendo uso de in diagrama de rbol, se obtiene el espacio muestral a) D = objeto defectuoso N = objeto no defectuoso = DDD, DDN, DND, DNN, NDD, NDN, NND, NNN Este espacio muestral ha sido obtenido haciendo uso de un diagrama de rbol, x = Variable que nos define el nmero de objetos defectuosos encontrados

x = 0, 1, 2 o 3 objetos defectuosos p(x=0)=p(NNN)=(0.9)(0.9(0.9)=0.729 p(x=1)=p(DNN, NDN, NND)=(0.1)(0.9)(0.9)+(0.9)(0.1)(0.9)+(0.9)(0.9)(0.1)=0.243 p(x=2)=p(DDN, DND, NDD)=(0.1)(0.1)(0.9)+(0.1)(0.9)(0.1)+(0.9)(0.1)(0.1)=0.027 p(x=3)=p(DDD)=(0.1)(0.1)(0.1)=0.001 Distribucin de probabilidad x 0 1 P(x) 0.729 0.243 2 3 0.027 0.001

b) (0)(0.729)+(1)(0.243)+(2)(0.027)+(3)(0.001)= = 0.0 + 0.243 + 0.054 + 0.003 = 0.3 0 productos defectuosos Interpretacin: Se espera que ninguno de inspeccionados sea defectuoso.

los

productos

1 producto defectuoso

Interpretacin:

En este experimento se espera que ninguno de los productos inspeccionados sea defectuoso, pero los resultados de este experimento pueden variar en 1 producto defectuoso, por lo que al inspeccionar los 3 productos el numero de productos defectuosos puede variar desde 1 producto defectuoso, hasta 1 producto defectuoso, pero, es posible obtener 1 producto defectuoso?, claro que esto no puede ocurrir, luego el nmero de productos defectuosos en el experimento variar de 0 a 1 producto defectuoso solamente.

3. Segn estadsticas, la probabilidad de que un pozo petrolero que se perfore en cierta regin pueda ser beneficiado es de 0.30. Se perforan tres pozos en esa regin, encuentre el nmero esperado de pozos que pueden ser beneficiados y su desviacin estndar. Solucin: Se obtiene el espacio muestral que se ha hecho en los ejemplos anteriores; B = se puede el pozo que se perfora N = no se puede beneficiar el pozo que se perfora

x = variable que nos define el nmero de pozos que se pueden beneficiar x = 0, 1, 2 o 3 pozos que se pueden beneficiar p(x = 0) = p(NNN) = (0.7)(0.7)(0.7)= 0.343 p(x = 1) = p(BNN, NBN, NNB) = (0.3)(0.7)(0.7)(3)=0.441 p(x = 2) = p(BBN, BNB, NBB) = (0.3)(0.3)(0.7)(3)=0.189

p(x = 3) = p(BBB) =(0.3)(0.3)(0.3)= 0.027

1 pozo beneficiado Interpretacin: Se espera que solo 1 de los tres pozos perforados sea el que pueda ser beneficiado.

Interpretacin: La cantidad esperada de pozos que se pueden beneficiar puede variar en 1 1 pozo, esto es la cantidad de pozos que se pueden beneficiar puede variar de 0 a 2 pozos. 4. La distribucin de probabilidad de x , el nmero de defectos por cada 10 metros de una tela sinttica en rollos continuos de ancho uniforme , es

x 0 1 2 3 4 p(x) 0.41 0.37 0.16 0.05 0.01 a) Determine la distribucin de probabilidad acumulada de x; P(x). b) Determine el nmero esperado de defectos por cada 10 metros de tela sinttica en rollos continuos

de ancho uniforme y la desviacin estndar del nmero de defectos por cada 10 metros de tela ..... c) Determine la probabilidad de que en 10 metros de tela sinttica se encuentren como mximo 2 defectos. d) Determine la probabilidad de que en 10 metros de tela sinttica se encuentren por lo menos 2 defectos.

Solucin: a) X 0 1 2 3 4 p(x) 0.41 0.37 0.16 0.05 0.01 P(x) 0.41 0.78 0.94 0.99 1.0

b) 1 defecto Interpretacin:0.16, 0.05 ,0.01 Se espera que por cada 10 metros de tela se encuentre un defecto.

Interpretacin: El nmero de defectos esperado puede variar en 1 defecto, es decir que el nmero de defectos esperado por cada 10 metros de tela puede variar de 0 a 2.

c) p(x = 0.94 d) p(x 0.01= 0.22

2)= p(x=0) + p(x=1) + p(x=2) = 0.41+0.37+0.16

2) = p(x=2) + p(x=3) + p(x=4) = 0.16 + 0.05 +

CALCULO DE MEDIA Y DESVIACIN ESTNDAR PARA UNA DISTRIBUCIN CONTINUA 1.Media o valor esperado de x.- Para calcular la media de una distribucin de probabilidad continua se utiliza la siguiente frmula:

Donde: = E(x) = media o valor esperado de la distribucin x = variable aleatoria continua f(x) = funcin de densidad de la distribucin de probabilidad

2.Desviacin estndar.- La frmula para determinar la desviacin estndar de una distribucin continua es;

luego:

Ejemplos: 1. Para la siguiente funcin,

x cualquier otro valor

3 ,

f(x) = 0 para

a) Diga si esta funcin nos define una distribucin de probabilidad. b) Si la funcin define una distribucin de probabilidad, entonces, determine su media y desviacin estndar. c) x 2. Solucin: a) Para verificar que la funcin nos define una distribucin de probabilidad, es necesario que cumpla con las caractersticas que se haban mencionado. 1. x s es una variable continua porque puede tomar cualquier valor entre 0 y 3 2. 0, lo que se comprueba si damos diferentes valores a x para ver que valores toma f(x), dndonos cuenta de que efectivamente f(x) solo toma valores mayores o iguales a cero.

x 0 0.5 1.0 1.4 2.1 2.7

f(x) 0.0 0.02778 0.11111 0.21778 0.49 0.81

3.0 1.0 3. Para comprobar que la sumatoria de las probabilidades que toma cada valor de x es de 1, se integra la funcin de 0 a 3 como se muestra a continuacin:

A= rea bajo la funcin Con las operaciones

anteriores

comprobamos que la funcin s nos define una distribucin de probabilidad continua. b) Clculo de media y desviacin estndar.

Las barras 0 y 3. c)

nos indican la evaluacin de la integral entre

La barra nos indica la evaluacin de la integral de 1 a 2. Con las operaciones anteriores nos damos cuenta que para evaluar probabilidades para variables de tipo continuo, es necesario evaluar la funcin de densidad de probabilidad en el rango de valores que se desea; que vendra siendo el rea que se encuentra entre f(x) y el eje de las x y entre el rango de valores definidos por la variable x.

2. Suponga que el error en la temperatura de reaccin, en oC, para un experimento controlado de laboratorio es una variable aleatoria continua x, que tiene la funcin de densidad de probabilidad:

, para cualquier otro caso a)

f(x)

en

Verifique la tercera condicin de la definicin de una distribucin de probabilidad continua. b) Determine la media o valor esperado de la distribucin de probabilidad. c) x 1.

2.2.- VALOR ESPERADO Y MOMENTOS

Supongamos que hemos realizado n veces un experimento aleatorio que genera una variable X. El valor medio del experimento en estas n repeticiones es la suma de los productos de los valores de la variable por su frecuencia relativa. Cuando n sea igual a infinito, el valor medio del experimento se llama valor esperado o esperanza matemtica, E[X]. Si X es una variable discreta con funcin d probabilidad f(x), el valor esperado de X se calcula segn decamos anteriormente sumando los productos de los valores de la variable por sus respectivas probabilidades.

En el caso de una variable continua

Propiedades del valor esperado Al multiplicar todos los valores de una variable por una misma constante, el valor esperado de sta queda multiplicado por el valor de la constante.

Al sumar a todos los valores de una variable una misma constante, el valor esperado de sta queda incrementado por el valor de la constante.

Si tenemos dos variables X e Y, discretas o continuas, el valor esperado de su suma o diferencia es la suma o diferencia de sus valores esperados

E[X Y] = E[X] E[Y]

Si las variables anteriores, X e Y son variables aleatorias independientes ocurre que el valor esperado de su producto es igual al producto de sus valores esperados.

E[X Y] = E[X] E[Y]

Es importante indicar que la independencia de las variables es condicin suficiente pero no necesaria para que el valor esperado del producto de dos variables sea igual al

producto de sus valores esperados, es decir, sta es una propiedad de las variables independientes pero se cumple en variables que no son independientes.

Momentos de una variable

Momentos respecto del origen Dada una variable aleatoria X con funcin de probabilidad o densidad f(x) podemos definir una funcin de X que sea igual a la variable elevada a un exponente entero no negativo.

El valor esperado de z(x) es el k-simo momento de la variable X respecto a su origen y se llama

k=0 k=1

a este primer momento respecto al origen que es igual al valor esperado se le llama tambin media aritmtica de la variable y se le denomina X, simplemente . En la mayora de los casos, la media expresa la tendencia central de la variable o el orden de magnitud de sus valores. El resto de los momentos respecto al origen tienen escaso inters en la mayora de los casos.

Momentos respecto a la media Dada una variable aleatoria X con funcin de probabilidad o densidad f(x) podemos definir una funcin de X que sea igual a la diferencia entre la variable y su media aritmtica elevada a un exponente entero no negativo.

El valor esperado de z(x) es el k-simo momento de la variable X respecto a la media y se llama k.

k=0 k=1

es decir, en cualquier variable aleatoria su primer momento respecto de la media es igual a 0. Esta propiedad se utilizar reiteradamente en las demostraciones estadsticas. k=2 este segundo momento respecto de la media se le llama tambin varianza.

La varianza de una variable mide la dispersin de sus valores respecto al valor central . Para calcular la varianza por un mtodo ms sencillo se utiliza la expresin:

Es decir, la varianza de una variable es igual a la media de los cuadrados menos el cuadrado de la media.

El principal problema de la varianza es que se expresa en unidades cuadrticas que no siempre tienen una interpretacin clara. Para obviar este problema se define otra medida de la dispersin que es la desviacin tpica, X, o simplemente , que se calcula como la raz cuadrada positiva de la varianza; evidentemente, la desviacin tpica se mide en las mismas unidades que la variable

No obstante, la desviacin tpica no resuelve todos los problemas que se pueden plantear, como por ejemplo la comparacin de situaciones en las que la unidad de medida o el orden de magnitud de esta sea diferente. Para resolver esta cuestin se define una medida adimensional de la variabilidad que es el coeficiente de variacin, C V, que se calcula como el cociente entre la desviacin tpica y la media (a veces este cociente se expresa en tanto por ciento multiplicndolo por 100).

En este contexto de la medida de la variacin se plantea el problema de medir la variacin conjunta de variables de variables asociadas. Supongamos que tenemos dos variables aleatorias X e Y, discretas o continuas, con funcin de probabilidad o densidad conjunta f(x,y) y definimos una funcin z(x,y) igual al producto de las desviaciones de cada valor a su media respectiva (es decir, z(x,y) tiene la misma estructura que (X - )2 = (X - ) (X - ) si sustituimos una vez a X por Y).

Al valor esperado de z(x,y) se le llama covarianza de las variables X e Y y se representa como xy o cov(x,y).

La covarianza es una medida de la variacin comn a dos variables y, por tanto, una medida del grado y tipo de su relacin. xy es positiva si los valores altos de X estn asociados a los valores altos de Y y viceversa. xy es negativa si los valores altos de X estn asociados a los valores bajos de Y y viceversa.

Si X e Y son variables independientes cov(x,y) = 0 .

aleatorias

La independencia es condicin suficiente pero no necesaria para que la cov(x,y) sea nula.

cov(x,y) = 0

cov(x,y) > 0

cov(x,y) < 0

Se puede deducir, algebraicamente, un medio ms sencillo para calcular la covarianza de dos variables.

En el caso de la covarianza tenemos el mismo problema que se nos present con la varianza, es decir, la covarianza se expresa en trminos del producto de las unidades de medida de ambas variables, lo cual no siempre es fcilmente interpretable. Por otra parte tambin es difcil comparar situaciones diferentes entre s. En este caso, ambos problemas se solucionan de una vez mediante la definicin del coeficiente de correlacin, , que se define como el cociente entre la covarianza y el producto de las desviaciones tpicas de las dos variables.

La correlacin toma valores entre -1 y 1, siendo su signo igual al de la covarianza. Correlaciones con valor absoluto 1 implican que existe una asociacin matemtica lineal perfecta, positiva o negativa, entre las dos variables y correlaciones iguales a 0 implican ausencia de asociacin. Obviamente, las variables independientes tienen correlacin 0, pero nuevamente, la independencia es condicin suficiente pero no necesaria. Correlaciones con valores absolutos intermedios indican cierto grado de asociacin entre los valores de las variables. 2.3.- DISTRIBUCIONES DISCRETAS Las distribuciones discretas son aquellas en las que la variable puede pude tomar un nmero determinado de valores: Ejemplo: si se lanza una moneda al aire puede salir cara o cruz; si se tira un dado puede salir un nmero de 1 al 6; en una ruleta el nmero puede tomar un valor del 1 al 32. Las distribuciones continuas son aquellas que presentan un nmero infinito de posibles soluciones: Ejemplo: El peso medio de los alumnos de una clase puede tomar infinitos valores dentro de cierto intervalo (42,37 kg, 42,3764 kg, 42, 376541kg, etc); la esperanza media de vida de una poblacin (72,5 aos, 7,513 aos, 72, 51234 aos). En este apartado nos centraremos exclusivamente en

estudiar las principales distribuciones discretas, que adems se basan cada una de ellas en la anterior.

2.3.1.-DISTRIBUCIONES DISCRETAS: BERNOUILLI. La distribucin de Bernuilli es el modelo que sigue un experimento que se realiza una sola vez y que puede tener dos soluciones: acierto o fracaso: Cuando es acierto la variable toma el valor 1 Cuando es fracaso la variable toma el valor 0 Ejemplo: Probabilidad de salir cara al lanzar una moneda al aire (sale cara o no sale); p probabilidad de ser admitido en una universidad (o te admiten o no te admiten); p probabilidad de acertar una quiniela (o aciertas o no aciertas) Al haber nicamente dos soluciones se trata de sucesos complementarios: A la probabilidad de xito se le denomina "p" A la probabilidad de fracaso se le denomina "q" Verificndose que: p+q=1 Veamos los ejemplos antes mencionados : Ejemplo 1: Probabilidad de salir cara al lanzar una moneda al aire: Probabilidad de que salga cara: p = 0,5 Probabilidad de que no salga cara: q = 0,5

p + q = 0,5 + 0,5 = 1 Ejemplo 2: Probabilidad de ser admitido en la universidad: Probabilidad de ser admitido: p = 0,25 Probabilidad de no ser admitido: q = 0,75 p + q = 0,25 + 0,75 = 1 Ejemplo 3: Probabilidad de acertar una quiniela: Probabilidad de acertar: p = 0,00001 Probabilidad de no acertar: q = 0,99999 p + q = 0,00001 + 0,99999 = 1

2.3.2.-DISTRIBUCIONES DISCRETAS: BINOMIAL. Las distribucin Bernouilli: binomial parte de la distribucin de

La distribucin de Bernouilli se aplica cuando se realiza una sola vez un experimento que tiene nicamente dos posibles resultados (xito o fracaso), por lo que la variable slo puede tomar dos valores: el 1 y el 0 La distribucin binomial se aplica cuando se realizan un nmero"n" de veces el experimento de Bernouilli, siendo cada ensayo independiente del anterior. La variable puede tomar valores entre: 0: si todos los experimentos han sido fracaso n: si todos los experimentos han sido xitos Ejemplo: se tira una moneda 10 veces: cuantas caras salen? Si no ha salido ninguna la variable toma el valor 0; si

han salido dos caras la variable toma el valor 2; si todas han sido cara la variable toma el valor 10 La distribucin de probabilidad de este tipo de distribucin sigue el siguiente modelo:

Ejemplo 1: Cul es la probabilidad de obtener 6 caras al lanzar una moneda 10 veces? " k " es el nmero de aciertos. En este ejemplo " k " igual a 6 (en cada acierto decamos que la variable toma el valor 1: como son 6 aciertos, entonces k = 6) " n" es el nmero de ensayos. En nuestro ejemplo son 10 " p " es la probabilidad de xito, es decir, que salga "cara" al lanzar la moneda. Por lo tanto p = 0,5 La frmula quedara:

Luego, P (x = 6) = 0,205 Es decir, se tiene una probabilidad del 20,5% de obtener 6 caras al lanzar 10 veces una moneda. Ejemplo 2:Cul es la probabilidad de obtener cuatro veces el nmero 3 al lanzar un dado 8 veces? " k " (nmero de aciertos) toma el valor 4 " n" toma el valor 8

" p " (probabilidad de que salga un 3 al tirar el dado) es 1 / 6 (= 0,1666) La frmula queda: Luego, P (x = 4) = 0,026 Es decir, se tiene una probabilidad del 2,6% de obtener cuatro veces el nmero 3 al tirar un dado 8 veces. Distribuciones discretas: Poisson. Las distribucin binomial: de Poisson parte de la distribucin

Cuando en una distribucin binomial se realiza el experimento un nmero "n" muy elevado de veces y la probabilidad de xito "p" en cada ensayo es reducida, entonces se aplica el modelo de distribucin de Poisson: Se tiene que cumplir que: " p " < 0,10 " p * n " < 10 2.3.3.-LA DISTRIBUCIN SIGUIENTE MODELO: DE POISSON SIGUE EL

Vamos a explicarla: El nmero "e" es 2,71828

" " = n * p (es decir, el nmero de veces " n " que se realiza el experimento multiplicado por la probabilidad " p " de xito en cada ensayo) " k " es el nmero de xito cuya probabilidad se est calculando Veamos un ejemplo: La probabilidad de tener un accidente de trfico es de 0,02 cada vez que se viaja, si se realizan 300 viajes, cual es la probabilidad de tener 3 accidentes? Como la probabilidad " p " es menor que 0,1, y el producto " n * p " es menor que 10, entonces aplicamos el modelo de distribucin de Poisson.

Luego, P (x = 3) = 0,0892 Por lo tanto, la probabilidad de tener 3 accidentes de trfico en 300 viajes es del 8,9% Otro ejemplo: La probabilidad de que un nio nazca pelirrojo es de 0,012. Cul es la probabilidad de que entre 800 recin nacidos haya 5 pelirrojos?

Luego, P (x = 5) = 4,602

Por lo tanto, la probabilidad de que haya 5 pelirrojos entre 800 recin nacidos es del 4,6%..

2.3.4.-DISTRIBUCIN GEOMTRICA O DE PASCAL La distribucin geomtrica es un modelo adecuado para aquellos procesos en los que se repiten pruebas hasta la consecucin del xito a resultado deseado y tiene interesantes aplicaciones en los muestreos realizados de esta manera . Tambin implica la existencia de una dicotoma de posibles resultados y la independencia de las pruebas entre s. Proceso experimental del que se puede hacer derivar Esta distribucin se puede hacer derivar de un proceso experimental puro o de Bernouilli en el que tengamos las siguientes caractersticas El proceso consta de un nmero no definido de pruebas o experimentos separados o separables. El proceso concluir cuando se obtenga por primera vez el resultado deseado (xito). Cada prueba puede dar dos resultados mutuamente excluyentes : A y no A La probabilidad de obtener un resultado A en cada prueba es p y la de obtener un resultado no A es q siendo (p + q = 1). Las probabilidades p y q son constantes en todas las pruebas ,por tanto , las pruebas ,son independientes (si se trata de un

proceso de "extraccin" ste se llevar a , cabo con devolucin del individuo extrado) . (Derivacin de la distribucin). Si en estas circunstancias aleatorizamos de forma que tomemos como variable aleatoria X = el nmero de pruebas necesarias para obtener por primera vez un xito o resultado A , esta variable se distribuir con una distribucin geomtrica de parmetro p.

Obtencin de la funcin de cuanta De lo dicho anteriormente , tendremos que la variable X es el nmero de pruebas necesarias para la consecucin del primer xito. De esta forma la variables aleatoria toma valores enteros a partir del uno ; La funcin de cuanta P(x) har corresponder a cada valor de X la probabilidad de obtener el primer xito precisamente en la X-sima prueba. Esto es , P(X) ser la probabilidad del suceso obtener X-1 resultados "no A" y un xito o resultado A en la prueba nmero X teniendo en cuenta que todas las pruebas son independientes y que conocemos sus probabilidades tendremos:

dado que se trata de sucesos independientes y conocemos las probabilidades

luego la funcin de cuanta quedara

Algunos autores consideran la aleatorizacin como "nmero de pruebas anteriores al primer xito". De esta manera el conseguir el xito a la primera sera X=0 . En la siguiente representacin grfica de la funcin de cuanta de la geomtrica puede apreciarse este tipo de aleatorizacin , sin embargo nosotros preferimos , por razones prcticas, utilizar la aleatorizacin antes comentada

Funcin de distribucin En base a la funcin de cuanta se puede expresar la

funcin

de

distribucin

de

la

siguiente

manera. la

desarrollando expresin tendramos

de donde La Funcin Generatriz de Momentos (F.G.M.) quedara:

por

lo que queda establecida que la F.G.M. tiene la

expresin En base a la FGM podemos obtener la media y varianza: As Haciendo t =0 tendramos que La varianza sera

Haciendo t =0 tendramos que De manera Luego La moda es el valor de la variable que tiene asociada mayor probabilidad el valor de su funcin de cuanta es el mayor. Es fcil comprobar (vase simplemente la representacin grfica anterior) que .Por lo tanto la media de la distribucin geomtrica es siempre 1. En cuanto a la mediana Me ser aquel valor de la variable en el cual la funcin de distribucin toma el valor 0,5. As esta

por lo que

2.4.- distribuciones continas

2.4DISTRIBUCIN DE PROBABILIDAD CONTINUA

Una distribucin de probabilidad continua, la distribucin normal. En teora de la probabilidad una distribucin de probabilidad se llama continua si su funcin de distribucin es continua. Puesto que la funcin de distribucin de una variable aleatoria X viene dada por , la definicin implica que en una distribucin de probabilidad continua X se cumple P [X = a] = 0 para todo nmero real a, esto es, la probabilidad de que X tome el valor a es cero para cualquier valor de a. Si la distribucin de X es continua, se llama a X variable aleatoria continua. En las distribuciones de probabilidad continuas, la distribucin de probabilidad es la integral de la funcin de densidad, por lo que tenemos entonces que:

Mientras que en una distribucin de probabilidad discreta un suceso con probabilidad cero es imposible, no se da el caso en una variable aleatoria continua. Por ejemplo, si se mide la anchura de una hoja de roble, el resultado 3,5 cm es posible, pero tiene probabilidad cero porque hay infinitos valores posibles entre 3 cm y 4 cm. Cada uno de esos valores individuales tiene probabilidad cero, aunque la probabilidad

de ese intervalo no lo es. Esta aparente paradoja se resuelve por el hecho de que la probabilidad de que X tome algn valor en un conjunto infinito como un intervalo, no puede calcularse mediante la adicin simple de probabilidades de valores individuales. Formalmente, cada valor tiene una probabilidad infinitesimalque estadsticamente equivale a cero. Existe una definicin alternativa ms rigurosa en la que el trmino "distribucin de probabilidad continua" se reserva a distribuciones que tienen funcin de densidad de probabilidad. Estas funciones se llaman, con ms precisin, variables aleatorias absolutamente continuas (vase el Teorema de Radon-Nikodym). Para una variable aleatoria X absolutamente continua es equivalente decir que la probabilidad P[X = a] = 0 para todo nmero real a, en virtud de que hay un incontables conjuntos de medida de Lebesgue cero (por ejemplo, el conjunto de Cantor). Una variable aleatoria con la distribucin de Cantor es continua de acuerdo con la primera definicin, pero segn la segunda, no es absolutamente continua. Tampoco es discreta, ni una media ponderada de variables discretas y absolutamente continuas. En aplicaciones prcticas, las variables aleatorias a menudo ofrece una distribucin discreta o absolutamente continua, aunque tambin aparezcan de forma natural mezclas de los dos tipos. Definicin Para una variable continua hay infinitos valores posibles de la variable y entre cada dos de ellos se pueden definir infinitos valores ms. En estas condiciones no es posible deducir la probabilidad de un valor puntual de la variable; como se puede hacer en el caso de va discretas, pero es posible calcular la probabilidad acumulada hasta un cierto

valor (funcin de distribucin de probabilidad), y se puede analizar como cambia la probabilidad acumulada en cada punto (estos cambios no son probabilidades sino otro concepto: la funcin de densidad. En el caso de variable continua la distribucin de probabilidad es la integral de la funcin de densidad, por lo que tenemos entonces que:

Sea una va continua, una distribucin de probabilidad o funcin de densidad de probabilidad (FDP) de es una funcin tal que, para cualesquiera dos nmeros y siendo .

La grfica de se conoce a veces como curva de densidad, la probabilidad de que tome un valor en el intervalo es el rea bajo la curva de la funcin de densidad; as, la funcin mide concentracin de probabilidad alrededor de los valores de una variable aleatoria continua. rea bajo la curva de entre y

Para que sea una FDP ( ) sea legtima, debe satisfacer las siguientes dos condiciones: 1. 0 para toda .

2. Ya que la probabilidad es siempre un nmero positivo, la FDP es una funcin no decreciente que cumple: 1. . Es decir, la probabilidad de todo el espacio muestral es 1. 2. . Es decir, la probabilidad del suceso nulo es cero. Algunas FDP estn declaradas en rangos de a , como la de la distribucin normal. 2.1.4.-UNIFORME

En teora de probabilidad y estadstica, la distribucin uniforme continua es una familia de distribuciones de probabilidad para variables aleatorias continuas, tales que cada miembro de la familia, todos los intervalos de igual longitud en la distribucin en su rango son igualmente probables. El dominio est definido por dos parmetros, a y b, que son sus valores mnimo y mximo. La distribucin es a menudo escrita en forma abreviada como U(a,b).

Funcin de densidad de probabilidad La funcin de densidad de probabilidad de la distribucin uniforme continua es:

Los valores en los dos extremos a y b no son por lo general importantes porque no afectan el valor de las integrales de f(x) dxsobre el intervalo, ni de x f(x) dx o expresiones similares. A veces se elige que sean cero, y a veces se los elige con el valor 1/(b a). Este ltimo resulta apropiado en el contexto de estimacin por el mtodo de mxima verosimilitud. En el contexto del anlisis de Fourier, se puede elegir que el valor de f(a) f(b) sean 1/(2(b a)), para que entonces la transformada inversa de muchas transformadas integrales de esta funcin uniforme resulten en la funcin inicial, de otra forma la funcin que se obtiene sera igual "en casi todo punto", o sea excepto en un conjunto de puntos con medida nula. Tambin, de esta forma resulta consistente con la funcin signo que no posee dicha ambigedad. Funcin de distribucin de probabilidad La funcin de distribucin de probabilidad es:

Funciones generadoras asociadas Funcin generadora de momentos La funcin generadora de momentos es

a partir de la los momentos mk

cual

se

pueden

calcular

y, en general,

Para una variable aleatoria que satisface esta distribucin, la esperanza matemtica es entonces m1 = (a + b)/2 y la varianza es m2 m12 = (b a)2/12. Propiedades Generalizacin a conjuntos de Borel Esta distribucin puede ser generalizada a conjuntos de intervalos ms complicados. Si S es un conjunto de Borel de medida finita positiva, la distribucin probabilidad uniforme en S se puede especificar definiendo que la pdf sea nula fuera de S e igual a 1/K dentro de S, donde K es la medida de Lebesgue de S. Estadsticas de orden Sea X1,..., Xn una muestra i.i.d. de U(0,1). Sea X(k) el orden estadstico k-simo de esta muestra. Entonces la distribucin de probabilidad de X(k) es una distribucin Beta con parmetros k yn k + 1. La esperanza matemtica es

Esto es til cuando se realizan Q-Q plots. Las varianzas son

'Uniformidad' La probabilidad de que una variable aleatoria uniformemente distribuida se encuentre dentro de algn intervalo de longitud finita es independiente de la ubicacin del intervalo (aunque s depende del tamao del intervalo), siempre que el intervalo est contenido en el dominio de la distribucin. Es posible verificar esto, por ejemplo si X U(0,b) y [x, x+d] es un subintervalo de [0,b] con d fijo y d > 0, entonces

lo cual es independiente de x. Este hecho es el que le da su nombre a la distribucin. Uniforme estndar Si se restringe y , a la distribucin resultante U(0,1) se la llama distribucin uniforme estndar. Una propiedad interesante de la distribucin uniforme estndar es que si u1 es una distribucin uniforme estndar, entonces 1-u1 tambin lo es. Distribuciones relacionadas Si X tiene una distribucin uniforme estndar, entonces: Y = -ln(X)/ tiene una distribucin exponencial con parmetro . Y = 1 - X1/n tiene una distribucin beta con parmetros 1 y n. (Notar que esto implica que la distribucin uniforme estndar es un caso especial de la distribucin beta, con parmetros 1 y 1).

Relaciones con otras funciones Siempre y cuando se sigan las mismas convenciones en los puntos de transicin, la funcin densidad de probabilidad puede tambin ser expresada mediante la funcin escaln de Heaviside:

en trminos de la funcin rectngulo

No existe ambigedad en el punto de transicin de la funcin signo. Utilizando la convencin de la mitad del mximo en los puntos de transicin, la distribucin uniforme se puede expresar a partir de la funcin signo como:

Aplicaciones En estadstica, cuando se utiliza un p-value a modo de prueba estadstica para una hiptesis nula simple, y la distribucin de la prueba estadstica es continua, entonces la prueba estadstica esta uniformemente distribuida entre 0 y 1 si la hiptesis nula es verdadera. Muestreo de una distribucin uniforme Existen muchos usos en que es til realizar experimentos de simulacin. Muchos lenguajes de programacin poseen la capacidad de generar nmeros pseudo-aleatorios que estn distribuidos de acuerdo a una distribucin uniforme estndar. Si u es un valor muestreado de una distribucin uniforme estndar, entonces el valor a + (b a)u posee una distribucin uniforme parametrizada por a y b, como se describi previamente.

Muestreo de una distribucin arbitraria La distribucin uniforme resulta til para muestrear distribuciones arbitrarias. Un mtodo general es el mtodo de muestreo de transformacin inversa, que utiliza la distribucin de probabilidad(CDF) de la variable aleatoria objetivo. Este mtodo es muy til en trabajos tericos. Dado que las simulaciones que utilizan este mtodo requieren invertir la CDF de la variable objetivo, se han diseado mtodos alternativos para aquellos casos donde no se conoce el CDF en una forma cerrada. Otro mtodo similar es el rejectionsampling. La distribucin normal es un ejemplo importante en el que el mtodo de la transformada inversa no es eficiente. Sin embargo, existe un mtodo exacto, la transformacin de BoxMuller, que utiliza la transformada inversa para convertir dos variables aleatorias uniformes independientes en dos variables aleatorias independientes distribuidas normalmente. Ejemplo en el intervalo [0,1]

2.4.2.- EXPONENCIAL Distribucin exponencial Distribucin exponencial

Funcin de probabilidad

densidad

de

Funcin de probabilidad Parmetros Dominio Funcin densidad (pdf) Funcin distribucin(cdf) Media Mediana Moda

distribucin

de

de

de

Varianza Coeficiente de simetra Curtosis Entropa Funcin generadora de momentos (mgf) Funcin caracterstica En estadstica la distribucin exponencial es una distribucin de probabilidad continua con un parmetro cuya funcin de densidad es:

Su funcin de distribucin es:

Donde representa el nmero e. El valor esperado y la varianza de una variable aleatoria X con distribucin exponencial son:

La distribucin exponencial es un caso particular de distribucin gamma con k = 1. Adems la suma de variables aleatorias que siguen una misma distribucin exponencial es una variable aleatoria expresable en trminos de la distribucin gamma.

Ejemplo Ejemplos para la distribucin exponencial es la distribucin de la longitud de los intervalos de variable continua que transcuren entre la ocurrencia de dos sucesos "raros", que se distribuyen segn la distribucin de Poisson. Calcular variables aleatorias Se pueden calcular una variable aleatoria de distribucin exponencial por medio de una variable aleatoria de distribucin uniforme :

o, dado que distribucin eficiente:

es tambin una variable aleatoria con , puede utilizarse la versin ms

2.4.3.-normal y normal estndar N(0, 1) La distribucin normal estndar, o tipificada o reducida, es aquella que tiene por media el valor cero, = 0, y pordesviacin tpica la unidad, =1. Su funcin de densidad es:

Su grfica es:

La probabilidad de la variable X depender del rea del recinto sombreado en la figura. Y para calcularla utilizaremos unatabla. Tipificacin de la variable Para poder utilizar la tabla tenemos que transformar la variable X que sigue una distribucin N(, ) en otra variable Z que siga una distribucin N(0, 1).

2.4.4.- APROXIMACIONES CON LA NORMAL DISTRIBUCIN BINOMIAL

UNIDAD 3.- ESTADSTICA RELATIVA Y LA TEORA DEL MUESTRO 3.1.-DISTRIBUCION DE FRECUENCIA, DE FRECUENCIA RELATIVA Y ACUMULATIVA

Una distribucin de frecuencias o tabla de frecuencias es una ordenacin en forma de tabla de los datos estadsticos, asignando a cada dato su frecuencia correspondiente. Tipos de frecuencia Frecuencia absoluta La frecuencia absoluta es el nmero de veces que aparece un determinado valor en un estudio estadstico. Se representa por f i .

La suma de las frecuencias absolutas es igual al nmero total de datos, que se representa por N.

Para indicar resumidamente estas sumas se utiliza la letra griega (sigma mayscula) que se lee suma o sumatoria.

Frecuencia relativa La frecuencia relativa es el cociente entre la frecuencia absoluta de un determinado valor y el nmero total de datos. Se puede expresar en tantos por ciento y se representa por n i .

La suma de las frecuencias relativas es igual a 1. Frecuencia acumulada La frecuencia acumulada es la suma de las frecuencias absolutas de todos los valores inferiores o iguales al valorconsiderado. Se representa por F i .

Frecuencia relativa acumulada La frecuencia relativa acumulada es el cociente entre la frecuencia acumulada de un determinado valor y el nmero total de datos. Se puede expresar en tantos por ciento. Ejemplo Durante el mes de julio, en una ciudad se han registrado las siguientes temperaturas mximas: 32, 31, 28, 29, 33, 32, 31, 30, 31, 31, 27, 28, 29, 30, 32, 31, 31, 30, 30, 29, 29, 30, 30, 31, 30, 31, 34, 33, 33, 29, 29. En la primera columna de la tabla colocamos la variable ordenada de menor a mayor, en la segunda hacemos el recuento y en la tercera anotamos la frecuencia absoluta. xi Recuento f i 1 2 6 7 8 Fi 1 3 9 ni Ni

27 I 28 II 29 30 31

0.032 0.032 0.065 0.097 0.194 0.290

16 0.226 0.516 24 0.258 0.774

32 III 33 III 34 I

3 3 1 31

27 0.097 0.871 30 0.097 0.968 31 0.032 1 1

Este tipo de tablas de frecuencias se utiliza con variables discretas.

Distribucin de frecuencias agrupadas La distribucin de frecuencias agrupadas o tabla con datos agrupados se emplea si las variables toman un nmero grande de valores o la variable es continua. Se agrupan los valores en intervalos que tengan la misma amplitud denominados clases. A cada clase se le asigna su frecuencia correspondiente. Lmites de la clase Cada clase est delimitada por el lmite inferior de la clase y el lmite superior de la clase. Amplitud de la clase

La amplitud de la clase es la diferencia entre el lmite superior e inferior de la clase. Marca de clase La marca de clase es el punto medio de cada intervalo y es el valor que representa a todo el intervalo para el clculo de algunos parmetros. Construccin de una tabla de datos agrupados 3, 15, 24, 28, 33, 35, 38, 42, 43, 38, 36, 34, 29, 25, 17, 7, 34, 36, 39, 44, 31, 26, 20, 11, 13, 22, 27, 47, 39, 37, 34, 32, 35, 28, 38, 41, 48, 15, 32, 13. 1 se localizan los valores menor y mayor de la distribucin. En este caso son 3 y 48. 2 Se restan y se busca un nmero entero un poco mayor que la diferencia y que sea divisible por el nmero de intervalos de queramos poner. Es conveniente que el nmero de intervalos oscile entre 6 y 15. En este caso, 48 - 3 = 45, incrementamos el nmero hasta 50 : 5 = 10 intervalos. Se forman los intervalos teniendo presente que el lmite inferior de una clase pertenece al intervalo, pero el lmite superior no pertenece intervalo, se cuenta en el siguiente intervalo.

ci [0, 5) [5, 10) [10, 15) [15, 20) [20, 25) [25, 30) [30, 35) [35, 40) [40, 45) [45, 50) 2.5

fi 1

Fi 1

ni

Ni

0.025 0.025

7.5

0.025 0.050

12.5 3

0.075 0.125

17.5 3

0.075 0.200

22.5 3

11 0.075 0.2775

27.5 6

17 0.150 0.425

32.5 7

24 0.175 0.600

37.5 10 34 0.250 0.850

42.5 4

38 0.100 0.950

47.5 2

40 0.050 1

40

3.2.-MEDIDAS DE TENDENCIA CENTRAL MEDIDAS DE TENDENCIA CENTRAL Al describir grupos de observaciones, con frecuencia es conveniente resumir la informacin con un solo nmero. Este nmero que, para tal fin, suele situarse hacia el centro de la distribucin de datos se denomina medida o parmetro de tendencia central o de centralizacin. Cuando se hace referencia nicamente a la posicin de estos parmetros dentro de la distribucin, independientemente de que sta est ms o menos centrada, se habla de estas medidas como medidas de posicin.1 En este caso se incluyen tambin los cuantiles entre estas medidas. Se debe tener en cuenta que existen variables cualitativas y variables cuantitativas, por lo que las medidas de posicin o medidas de tendencia se usan de acuerdo al tipo de variable que se esta observando, en este caso se observan variables cuantitativas La media aritmtica (o simplemente media) Artculo principal: Media aritmtica. La media aritmtica es el valor obtenido por la suma de todos sus valores dividida entre el nmero de sumandos. Por ejemplo, las notas de 5 alumnos en una prueba: nio nota

1 6,0 Primero, se suman las notas: 2 5,4 6,0+5,4+3,1+7,0+6,1 = 27,6 3 3,1 Luego el total se divide entre la cantidad de alumnos: 4 7,0 27,6/5=5,52 5 6,1 La media aritmtica en este ejemplo es 5,52 La media aritmtica es, probablemente, uno de los parmetros estadsticos ms extendidos.2 Se le llama tambin promedio o, simplemente, media. [editar]Definicin formal Dado un conjunto numrico de datos, x1, x2, ..., xn, se define su media aritmtica como

Esta definicin vara, aunque no sustancialmente, cuando se trata de variables continuas, esto es, tambin puede calcularse para variables agrupadas en intervalos. [editar]PROPIEDADES Las principales propiedades de la media aritmtica son:3

Su clculo es muy sencillo y en l intervienen todos los datos. Su valor es nico para una serie de datos dada. Se usa con frecuencia para comparar poblaciones, aunque es ms apropiado acompaarla de una medida de dispersin. Se interpreta como "punto de equilibrio" o "centro de masas" del conjunto de datos, ya que tiene la propiedad

de equilibrar las desviaciones de los datos respecto de su propio valor:

Minimiza las desviaciones cuadrticas de los datos respecto de cualquier valor prefijado, esto es, el valor de es mnimo cuando . Este resultado se conoce comoTeorema de Knig. Esta propiedad permite interpretar uno de los parmetros de dispersin ms importantes: la varianza.

Se ve afectada por transformaciones afines (cambios de origen y escala), esto es, si entonces , donde es la media aritmtica de los , para i = 1, ..., n y a y b nmeros reales.

Es poco sensible a fluctuaciones muestrales, por lo que es un parmetro muy til en inferencia estadstica. [editar]Inconvenientes de su uso Este parmetro, an teniendo mltiples propiedades que aconsejan su uso en situaciones muy diversas, tiene tambin algunos inconvenientes, como son:

Para datos agrupados en intervalos (variables continuas) su valor oscila en funcin de la cantidad y amplitud de los intervalos que se consideren.

La estatura media como resumen de una poblacin homognea (abajo) o heterognea (arriba).

Es una medida a cuyo significado afecta sobremanera la dispersin, de modo que cuanto menos homogneos sean los datos, menos informacin proporciona. Dicho de otro modo, poblaciones muy distintas en su composicin pueden tener la misma media.4 Por ejemplo, un equipo de baloncesto con cinco jugadores de igual estatura, 1,95 m, evidentemente, tendra una estatura media de 1,95 m, valor que representa fielmente a esta poblacin homognea. Sin embargo, un equipo de jugadores de estaturas ms heterogneas, 2,20 m, 2,15 m, 1,95 m, 1,75 m y 1,70 m, por ejemplo, tendra tambin, como puede comprobarse, una estatura media de 1,95 m, valor que no representa a casi ninguno de sus componentes. En el clculo de la media no todos los valores contribuyen de la misma manera. Los valores altos

tienen ms peso que los valores cercanos a cero. Por ejemplo, en el clculo del salario medio de un empresa, el salario de un alto directivo que gane 1.000.000 de tiene tanto peso como el de diez empleados "normales" que ganen 1.000 . En otras palabras, se ve muy afectada por valores extremos. No se puede determinar si en una distribucin de frecuencias hay intervalos de clase abiertos. [editar]Media aritmtica ponderada A veces puede ser til otorgar pesos o valores a los datos dependiendo de su relevancia para determinado estudio. En esos casos se puede utilizar una media ponderada.

Si son nuestros datos y son sus "pesos" respectivos, la media ponderada se define de la siguiente forma:

[editar]Media muestral Esencialmente, la media muestral es el mismo parmetro que el anterior, aunque el adjetivo "muestral" se aplica a aquellas situaciones en las que la media aritmtica se calcula para un subconjunto de la poblacin objeto de estudio. La media muestral es un parmetro de extrema importancia en la inferencia estadstica, siendo de gran utilidad para la estimacin de la media poblacional, entre otros usos. [editar]Moda Artculo principal: Moda (estadstica).

La moda es el dato ms repetido, el valor de la variable con mayor frecuencia absoluta.5 En cierto sentido la definicin matemtica corresponde con la locucin "estar de moda", esto es, ser lo que ms se lleva. Su clculo es extremadamente sencillo, pues slo necesita un recuento. En variables continuas, expresadas en intervalos, existe el denominado intervalo modal o, en su defecto, si es necesario obtener un valor concreto de la variable, se recurre a la interpolacin. Por ejemplo, el nmero de personas en distintos vehculos en una carretera: 5-7-4-6-9-5-6-1-5-3-7. El nmero que ms se repite es 5, entonces la moda es 5. Hablaremos de una distribucin bimodal de los datos, cuando encontremos dos modas, es decir, dos datos que tengan la misma frecuencia absoluta mxima. Cuando en una distribucin de datos se encuentran tres o ms modas, entonces es multimodal. Por ltimo, si todas las variables tienen la misma frecuencia diremos que no hay moda. Cuando tratamos con datos agrupados en intervalos, antes de calcular la moda, se ha de definir el intervalo modal. El intervalo modal es el de mayor frecuencia absoluta. La moda, cuando los datos estn agrupados, es un punto que divide el intervalo modal en dos partes de la forma p y c-p, siendo c la amplitud del intervalo, que verifiquen que:

Siendo la frecuencia absoluta del intervalo modal y y las frecuencias absolutas de los intervalos anterior y posterior, respectivamente, al Las calificaciones en la asignatura de Matemticas de 39 alumnos de una clase vienen dada por la siguiente tabla (debajo): Calificaciones 123456789

Nmero de alumnos 2 2 4 5 8 9 3 4 2 [editar]Propiedades Sus principales propiedades son:

Clculo sencillo.

Interpretacin muy clara. Al depender slo de las frecuencias, puede calcularse para variables cualitativas. Es por ello el parmetro ms utilizado cuando al resumir una poblacin no es posible realizar otros clculos, por ejemplo, cuando se enumeran en medios periodsticos las caractersticas ms frecuentes de determinado sector social. Esto se conoce informalmente como "retrato robot".6 Inconvenientes Su valor es independiente de la mayor parte de los datos, lo que la hace muy sensible a variaciones muestrales. Por otra parte, en variables agrupadas en intervalos, su valor depende excesivamente del nmero de intervalos y de su amplitud.

Usa muy pocas observaciones, de tal modo que grandes variaciones en los datos fuera de la moda, no afectan en modo alguno a su valor. No siempre se sita hacia el centro de la distribucin.

Puede haber ms de una moda en el caso en que dos o ms valores de la variable presenten la misma frecuencia (distribuciones bimodales o multimodales).

LA MEDIANA La mediana es un valor de la variable que deja por debajo de s a la mitad de los datos, una vez que stos estn ordenados de menor a mayor.7 Por ejemplo, la mediana del nmero de hijos de un conjunto de trece familias, cuyos respectivos hijos son: 3, 4, 2, 3, 2, 1, 1, 2, 1, 1, 2, 1 y 1, es 2, puesto que, una vez ordenados los datos: 1, 1, 1, 1, 1, 1, 2, 2, 2, 2, 3, 3, 4, el que ocupa la posicin central es 2:

En caso de un nmero par de datos, la mediana no correspondera a ningn valor de la variable, por lo que se conviene en tomar como mediana el valor intermedio entre los dos valores centrales. Por ejemplo, en el caso de doce datos como los anteriores:

Se toma como mediana

Existen mtodos de clculo ms rpidos para datos ms nmerosos (vase el artculo principal dedicado a este parmetro). Del mismo modo, para valores agrupados en intervalos, se halla el "intervalo mediano" y, dentro de ste, se obtiene un valor concreto por interpolacin.

Clculo de la mediana para datos agrupados Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla del margen derecho). As, aplicando la formula asociada a la mediana para n impar, obtenemos X(39+1)/2 = X20 y basndonos en la frmula que hace referencia a las frecuencias absolutas: Ni-1< n/2 < Ni = N19 < 19.5 < N20 Por tanto la mediana ser el valor de la variable que ocupe el vigsimo lugar. En nuestro ejemplo, 21 (frecuencia absoluta acumulada para Xi = 5) > 19.5 con lo que Me = 5 puntos (es aconsejable no olvidar las unidades; en este caso como estamos hablando de calificaciones, sern puntos) La mitad de la clase ha obtenido un 5 o menos, y la otra mitad un 5 o ms. Ejemplo (N par) Las calificaciones en la asignatura de Matemticas de 38 alumnos de una clase viene dada por la siguiente tabla (debajo): Calificaciones 123456789

Nmero de alumnos 2 2 4 5 6 9 4 4 2

Calculemos Mediana:

la

xi fi Fi 1 2 2 2 2 4 3 4 8 4 5 13 5 6 19 = 19 6 9 28 7 4 32 8 4 36 9 2 38

Primero hallamos las frecuencias absolutas acumuladas Fi (ver tabla margen derecho). Si volvemos a utilizar la frmula asociada a la mediana para n par, obtenemos X(38/2) = X19 y basndonos en la frmula que hace referencia a las frecuencias absolutas --> Ni-1< n/2 < Ni = N18 < 19 < N19

Con lo cual la mediana ser la media aritmtica de los valores de la variable que ocupen el decimonoveno y el vigsimo lugar. En nuestro ejemplo, el lugar decimonoveno lo ocupa el 5 y el vigsimo el 6, (desde el vigsimo hasta el vigsimo octavo) con lo que Me = (5+6)/2 = 5,5 puntos. Propiedades e inconvenientes Las principales propiedades de la mediana son:8 Es menos sensible que la media a oscilaciones de los valores de la variable. Un error de transcripcin en la serie del

ejemplo anterior en, pongamos por caso, el ltimo nmero, deja a la mediana inalterada. Como se ha comentado, puede calcularse para datos agrupados en intervalos, incluso cuando alguno de ellos no est acotado. No se ve afectada por la dispersin. De hecho, es ms representativa que la media aritmtica cuando la poblacin es bastante heterognea. Suele darse esta circunstancia cuando se resume la informacin sobre los salarios de un pas o una empresa. Hay unos pocos salarios muy altos que elevan la media aritmtica haciendo que pierda representatividad respecto al grueso de la poblacin. Sin embargo, alguien con el salario "mediano" sabra que hay tanta gente que gana ms dinero que l, como que gana menos. Sus principales inconvenientes son que en el caso de datos agrupados en intervalos, su valor vara en funcin de la amplitud de estos. Por otra parte, no se presta a clculos algebraicos tan bien como la media aritmtica. concentran en un reducido intervalo de valoresMesocrticas: estas presentan una concentracin de valores alrededor de la media, y una reduccin de estos hacia los extremos. A estas se les Conoce como distribuciones normales o de campana ITSAL 25

Probabilidad y estadstica Platicrticas: En ellas los datos se redistribuyen de manera relativa uniform entodo el rango de valores El momento de c ourtosis puede cal cul ars e por medi o de l os momentos de l a distribucin de frecuencias,

3.5.MUESTREO ALE ATORIO SIMPLE, MUESTREO ALE AT ORIO S I S T E M T I C O , M U E S T R E O A L E A T O R I O E S T R A T I F I C A D O , MUESTREO ALEATORIO POR CONGLOMERADOS Muestreo : Proceso por el cual se seleccionan los individuos que formarn una muestra. El tamao de la muestra depende de la precisi n q u e s e q u i e r a c o n s e g u i r e n l a estimacin que se realice a partir de ella. Para su determinacin se requieren tcnicas estadsticas superiores, pero resulta sorprendente cmo, con muestr as notablemente pequeas, se pueden conseguir resultados suficientemente precisos. Muestreo Aleatorio Una muestra se dice que es extrada al azar cuando la manera de seleccin es tal, que cada elemento de la poblacin tiene igual oportunidad de ser seleccionado. Una muestra aleatoria es tambin llamada una muestra probabilstica son generalmente preferidas por los estadsticos porque la seleccin de las muestras es objetiva y el error muestral puede ser medido en trminos de probabilidad bajo la curva normal. Los tipos comunes de muestreo aleatorio son el muestreo aleatorio simple, muestreo sistemtico, muestreo estratificado y muestreo de conglomerados. Muestreo aleatorio simple Una mues tra aleatori a si mple es s el ecci onada de tal manera que cada mues tra p o s i b l e d e l m i s m o t a m a o t i e n e i g u a l p r

o b a b i l i d a d d e s e r s e l e c c i o n a d a d e l a poblacin. Para obtener una muestra aleatoria simple, cada elemento en la poblacin tenga la mis ma probabili dad de ser s el ecci onado, el plan de muestreo puede no ITSAL 26

Probabilidad y estadstica conducir a una muestra aleatoria simple. Por conveniencia, este mtodo pude ser reemplazado por una tabla de nmeros aleatorios. Cuando una poblacin es infinita, es obvio que la tarea de numerar cada elemento de la poblacin es infinita, es obvio que la tarea de numerar cada elemento de la poblacin es imposible. Por lo tanto, ciertas modificaciones del muestreo aleatorio simple son necesarias. Los tipos ms c omunes de mues treo al eatori o modi fic ado s on sistemtic os, estratific ados y deconglomerados. El muestreo aleatorio simple puede ser de dos tipos: Sin reposici n de los elementos : cada elemento extrado se descarta para la siguiente extraccin. Por ejemplo, si se extrae una muestra de una "poblacin" de bombillas para estimar la vida media de las bombillas que la integran, no ser posible medir ms que una vez la bombilla seleccionada. Con reposicin de los elementos: las observaciones se realizan con reemplaza miento de los individuos, de forma que la poblacin es idntica en todasl a s e x t r a c c i o n e s . E n p o b l a c i o n e s m u y g r a n d e s , l a p r o b a b i l i d a d d e r e p e t i r u n a extracci n es tan pequea que el muestreo puede c onsi derars e sin reposici n aunque, realmente, no lo sea .Para realizar este tipo de

muestreo, y en determinadas situaciones, es muy til laextrac cin de nmeros al eatori os medi ante orden adores, c alc uladoras o tabl as construidas al efecto. Muestreo sistemtico. Una muestra sistemtica es obtenida cuando los elementos son seleccionados en una manera ordenada. La manera de la seleccin depende del nmero de elementos incluidos en la poblacin y el tamao de la muestra. El nmero de elementos en la ITSAL 27

Probabilidad y estadstica poblacin es, primero, dividido por el nmero deseado en la muestra. El cociente indicar si cada dcimo, cada onceavo, o cada centsimo elemento en la poblacin va a ser seleccionado .El primer elemento de la muestra es seleccionado al azar. Por lo tanto, una muestra sistemtica puede dar la misma precisin de estimacin acerca de la poblacin, que una muestra aleatoria simple cuando los elementos en la poblacin estn ordenado sal azar.E l r i e s g o d e l o s m u e s t r e o s s i s t e m t i c o s e s e l d e l a s p e r i o d i c i d a d e s o c u l t a s . Supongamos que queremos testear el funcionamiento de una mquina, para lo cul vamos a seleccionar una de cada 15 piezas producidas. Si ocurriera la desgracia de que justamente 1 de cada 15 piezas fuese defectuosa y el error de la mquina fuera defectuoso peridicamente, tendramos dos posibles resultados mustrales:- Q u e f a l l a siempre-Que no falla nunca. Muestreo Estratificado

Para obtener una muestra aleatoria estratificada, primero se divide la poblacin en grupos, llamados estratos, que son ms homogneos que la poblacin como un todo .Los elementos de la muestra son entonces seleccionados al azar o por un mtodos i s t e m t i c o d e c a d a e s t r a t o . L a s e s t i m a c i o n e s d e l a p o b l a c i n , b a s a d a s e n l a muestra estratificada, usualmente tienen mayor precisin (o menor error muestral)que si la pobl aci n entera muestreada med i ante mues treo al eatorio simpl e. El n m e r o d e e l e mentos seleccionado de cada estrato puede se r p r o p o r c i o n a l o desproporcional al tamao del estrato en relacin con la poblacin. Segn la cantidad de elementos de la muestra que se han de elegir de cada uno delos estratos, existen dos tcnicas de muestreo estratificado: ITSAL 28

Probabilidad y estadstica Asignacin proporcional: el tamao de cada estrato en la muestra e s proporcional a su tamao en la poblacin. Asignacin ptima: la muestra recoger ms individuos de aquellos estratos que tengan ms variabilidad. Para ello es necesario un conocimiento previo de la poblacin. Por ej emplo, para un estudio de opi ni n, puede res ultar interesante

estudiar por separado las opiniones de hombres y mujeres pues se estima que, dentro de cada uno de estos grupos, puede haber cierta homogeneidad. As, si la poblacin est compuesta de un 55% de mujeres y un 45% de hombres, se tomara una muestra que contenga tambin esa misma proporcin. Muestreo de conglomerados. Para obtener una muestra de conglomerados, primero dividir la poblacin en grupos que son convenientes para el muestreo. En seguida, seleccionar una porcin de los grupos al azar o por un mtodo sistemtico. Finalmente, tomar todos los elementos o parte de ellos al azar o por un mtodo sistemtico de los grupos seleccionados parao b t e n e r u n a m u e s t r a . B a j o e s t e m t o d o , a u n q u e n o t o d o s l o s g r u p o s s o n muestreados, cada grupo tiene una igual probabilidad de ser seleccionado. Por lo tanto la muestra es aleatoria. Una muestra de conglomerados, usualmente produce un mayor error muestral (por lo tanto, da menor precisin de las estimaci ones ac erc a de l a pobl aci n) que una muestra aleatoria simple del mismo tamao. Los elementos individuales dentro dcada "conglomerado" tienden usualmente a ser iguales. Por ejemplo la gente rica puede vivir en el mismo barrio, mientras que la gente pobre puede vivir en otra rea. No todas las reas son muestreadas en un muestreo de reas. La variacin entre los elementos obtenidos de las reas seleccionadas es, por lo tanto, frecuentemente ma yor que la obteni d a si la pobl aci n entera es mues treada mediante mues treo. UNID AD 4.- INTERFERENCI A EST ATIC A.

4.1. -ESTIM AC ION PUNTU AL Y POR INTERV AL OS DE CDONFI ANZ A. En inferencia estadstica se llama estimacin al conjunto de tcnicas que permiten dar un valor aproximado de un parmetro de una poblacin a partir de los datos proporcionados por una muestra. Por ejemplo, una estimacin de la media de una determinada caracterstica de una poblacin de tamao N podra ser la media de esa misma caracterstica para una muestra de tamao n.1 La estimacin se divide en tres grandes bloques, cada uno de los cuales tiene distintos mtodos que se usan en funcin de las caractersticas y propsitos del estudio:

Estimacin puntual:2 o Mtodo de los momentos; o Mtodo de la mxima verosimilitud; o Mtodo de los mnimos cuadrados; Estimacin por intervalos. Estimacin bayesiana.

Estimador Un estimador de un parmetro poblacional es una funcin de los datos muestrales, tambin llamado estadstico. En pocas palabras, es una frmula que depende de los valores obtenidos de una muestra, para realizar estimaciones.3 Formalmente, si es un parmetro poblacional, se dice que es un estimador puntual de si , donde son las variables aleatorias que integran una muestra aleatoria de tamao n de la poblacin en cuestin.

Por ejemplo, un estimador de la media poblacional, , puede ser la media muestral, , segn la siguiente frmula:

donde (x1, x2, ..., xn) sera el conjunto de de datos de la muestra. -- xXx --El estimador es una variable aleatoria que asigna a cada posible valor de la muestra un valor numrico. Como tal, tiene sentido calcular su esperanza, su varianza y otras caractersticas propias de las variables aleatorias. Estimador insesgado Por supuesto, cualquier funcin de la muestra, con la definicin anterior, podra ser un estimador, pero es deseable que las estimaciones que surjan a partir de un estimador "se parezcan", en cierto modo, al parmetro que se desea estimar. Con este propsito, se dice que un estimador de un parmetro es insesgado si su esperanza es el propio . Estimador eficiente Un estimador de un parmetro es eficiente si su varianza es mnima. Esto hace que haya menos variabilidad entre las distintas estimaciones que podemos obtener (cada muestra dar una estimacin diferente). De esta forma, la estimacin ser ms fiable. Hay una cota mnima dentro de las varianzas que se puede obtener para cualquier estimador con un sesgo determinado. Esta cota se llama cota de Cramr-Rao. Si la varianza de un estimador es igual a esta cota, sabremos que su varianza es mnima, y por tanto, estaremos seguros de que es eficiente. Sin embargo, no siempre esta cota es

alcanzable, por lo que no siempre podremos saber si el estimador que hemos utilizado es el ms eficiente de todos. Para ello, cuando dudamos entre dos estimadores diferentes, y ninguno de ellos tiene una varianza igual a la cota de Cramr-Rao se utiliza el coeficiente de eficiencia relativa. Estimacin puntual Consiste en la estimacin del valor del parmetro mediante un slo valor, obtenido de una frmula determinada. Por ejemplo, si se pretende estimar la talla media de un determinado grupo de individuos, puede extraerse una muestra y ofrecer como estimacin puntual la talla media de los individuos. Lo ms importante de un estimador, es que sea un estimador eficiente. Es decir, que sea insesgado(ausencia de sesgos) y estable en el muestreo o eficiente (varianza mnima) Estimacin por intervalos Consiste en la obtencin de un intervalo dentro del cual estar el valor del parmetro estimado con una cierta probabilidad. En la estimacin por intervalos se usan los siguientes conceptos: Intervalo de confianza El intervalo de confianza se le llama una expresin del tipo [1, 2] 1 2, donde es el parmetro a estimar. Este intervalo contiene al parmetro estimado con una determinada certeza o nivel de confianza. Pero a veces puede cambiar este intervalo cuando la muestra no garantiza un axioma o un equivalente circustancial. Variabilidad del Parmetro

Si no se conoce, puede obtenerse una aproximacin en los datos aportados por la literatura cientfica o en un estudio piloto. Tambin hay mtodos para calcular el tamao de la muestra que prescinden de este aspecto. Habitualmente se usa como medida de esta variabilidad la desviacin tpica poblacional y se denota . Error de la estimacin Es una medida de su precisin que se corresponde con la amplitud del intervalo de confianza. Cuanta ms precisin se desee en la estimacin de un parmetro, ms estrecho deber ser el intervalo de confianza y, si se quiere mantener o disminuir el error, ms ocurrencias debern incluirse en la muestra estudiada. En caso de no incluir nuevas observaciones para la muestra, ms error se comete al aumentar la precisin. Se suele llamar E, segn la frmula E = 2 - 1. Lmite de Confianza Es la probabilidad de que el verdadero valor del parmetro estimado en la poblacin se site en el intervalo de confianza obtenido. El nivel de confianza se denota por (1-), aunque habitualmente suele expresarse con un porcentaje ((1)100%). Es habitual tomar como nivel de confianza un 95% o un 99%, que se corresponden con valores de 0,05 y 0,01 respectivamente. Valor Tambin llamado nivel de significacin. Es la probabilidad (en tanto por uno) de fallar en nuestra estimacin, esto es, la diferencia entre la certeza (1) y el nivel de confianza (1-). Por ejemplo, en una estimacin con un nivel de confianza del 95%, el valor es (100-95)/100 = 0,05

Valor crtico Se representa por Z/2. Es el valor de la abscisa en una determinada distribucin que deja a su derecha un rea igual a /2, siendo 1- el nivel de confianza. Normalmente los valores crticos estn tabulados o pueden calcularse en funcin de la distribucin de la poblacin. Por ejemplo, para una distribucin normal, de media 0 y desviacin tpica 1, el valor crtico para = 0,1 se calculara del siguiente modo: se busca en la tabla de la distribucin ese valor (o el ms aproximado), bajo la columna "rea"; se observa que se corresponde con -1,28. Entonces Z/2 = 1,64. Si la media o desviacin tpica de la distribucin normal no coinciden con las de la tabla, se puede realizar el cambio de variable t =(X)/ para su clculo. Con estas definiciones, si tras la extraccin de una muestra se dice que "3 es una estimacin de la media con un margen de error de 0,6 y un nivel de confianza del 99%", podemos interpretar que el verdadero valor de la media se encuentra entre 2,7 y 3,3, con una probabilidad del 99%. Los valores 2,7 y 3,3 se obtienen restando y sumando, respectivamente, la mitad del error, para obtener el intervalo de confianza segn las definiciones dadas. Para un tamao fijo de la muestra, los conceptos de error y nivel de confianza van relacionados. Si admitimos un error mayor, esto es, aumentamos el tamao del intervalo de confianza, tenemos tambin una mayor probabilidad de xito en nuestra estimacin, es decir, un mayor nivel de confianza.

4.2.- ESTIMACION DE LA MEDIA DE LA DIFERENCIA DE LA MEDIA DE LA PROPORCION Y DE LA DIFERENCIA DE LAS PROPORCIONES. Intervalo de confianza para la media Ya vimos que la distribucin muestral de las medias corresponde a:

Queremos estimar la media poblacional a partir de la media muestral , obteniendo para ello un intervalo de forma que tengamos una probabilidad alta (1 ).100% de que la media poblacional est en dicho intervalo. Tipificando la expresin anterior:

Si fijamos una probabilidad , podemos obtener -z y z que limitan un rea de valor 1 - . Deshaciendo la tipificacin obtenemos el intervalo de confianza para la media:

En Resumen: Intervalo de confianza para la media poblacional con un nivel de confianza de 1 es: a) Varianza poblacional conocida:

b) Varianza poblacional desconocida y muestras grandes ( ):

Donde z, llamado valor crtico, es el valor que en la distribucin N(0,1) deja a su derecha un rea de ), s la desviacin tpica muestral y n el tamao de la muestra.

Clculo del valor crtico Ser necesario la Tabla N(0,1) En la tabla N(0,1) aparece directamente la para valores de z entre 0 y 4. Observa que para valores mayores que 4 la probabilidad ya es prcticamente 1.

4.3.-DETERMINACION DEL TAMAO DE LA MUESTRA.

La eleccin del tamao de una muestra apropiada es una pregunta frecuente al disear un estudio estadstico Cuntos objetos deben tomarse en la muestra? Si la muestra es demasiado grande, se desperdicia dinero al obtener los datos. Si la muestra es demasiado pequea, la conclusin obtenida ser insegura. El tamao necesario de la muestra depende de tres factores: 1. El nivel de confianza deseado Los niveles de confianza ms comnmente usados son 95% y 99%, pero se puede usar cualquier nivel entre 0 y 100%. El de 95% corresponde al valor z = 1.96 y el 99% al valor z = 2.58. Entre mayor sea el nivel de confianza elegido, mayor ser el tamao de la muestra correspondiente (Otros valores para 90% z = 1.645 y 70% z = 1.036). 2. El margen de error que el investigador est dispuesto a tolerar ste error corresponde a la mitad de la amplitud del intervalo de confianza. Si el error permitido es pequeo, se necesitar una muestra grande. Si el error permitido es grande, esto permitir una muestra ms pequea.

3. La variabilidad de la poblacin que se estudia. Si la poblacin est muy dispersa, se requerir una muestra grande. Por otro lado, si la poblacin est concentrada (es homognea) el tamao de muestra requerido ser ms pequeo. Ser necesario usar una estimacin de la desviacin estndar poblacional. 4.4.-PRUEBA DE HIPOTESIS Tenemos que empezar por definir que es una hiptesis y que es prueba de hiptesis. Hiptesis es una aseveracin de una poblacin elaborado con el propsito de poner aprueba, para verificar si la afirmacin es razonable se usan datos. En el anlisis estadstico se hace una aseveracin, es decir, se plantea una hiptesis, despus se hacen las pruebas para verificar la aseveracin o para determinar que no es verdadera. Por tanto, la prueba de hiptesis es un procedimiento basado en la evidencia muestral y la teora de probabilidad; se emplea para determinar si la hiptesis es una afirmacin razonable. Prueba de una hiptesis: se realiza procedimiento sistemtico de cinco paso: mediante un

Siguiendo este procedimiento sistemtico, al llegar al paso cinco se puede o no rechazar la hiptesis, pero debemos de tener cuidado con esta determinacin ya que en la consideracin de estadstica no proporciona evidencia de que algo sea verdadero. Esta prueba aporta una clase de prueba ms all de una duda razonable. Analizaremos cada paso en detalle Objetivo de la prueba de hiptesis. El propsito de la prueba de hiptesis no es cuestionar el valor calculado del estadstico (muestral), sino hacer un juicio con respecto a la diferencia entre estadstico de muestra y un valor planteado del parmetro. 3.- Procedimiento sistemtico para una prueba de hiptesis de una muestra .Paso 1: Plantear la hiptesis nula Ho y la hiptesis alternativa H1. Cualquier investigacin estadstica implica la existencia de hiptesis o afirmaciones acerca de las poblaciones que se estudian. La hiptesis nula (Ho) se refiere siempre a un valor especificado del parmetro de poblacin, no a una estadstica de muestra. La letra H significa hiptesis y el subndice cero no hay diferencia. Por lo general hay un "no" en la hiptesis nula que indica que "no hay cambio" Podemos rechazar o aceptar Ho. La hiptesis nula es una afirmacin que no se rechaza a menos que los datos maestrales proporcionen evidencia convincente de que es falsa. El planteamiento de la hiptesis

nula siempre contiene un signo de igualdad con respecto al valor especificado del parmetro. La hiptesis alternativa (H1) es cualquier hiptesis que difiera de la hiptesis nula. Es una afirmacin que se acepta si los datos maestrales proporcionan evidencia suficiente de que la hiptesis nula es falsa. Se le conoce tambin como la hiptesis de investigacin. El planteamiento de la hiptesis alternativa nunca contiene un signo de igualdad con respecto al valor especificado del parmetro. Paso 2: Seleccionar el nivel de significancia. Nivel de significacia: Probabilidad de rechazar la hiptesis nula cuando es verdadera. Se le denota mediante la letra griega , tambin es denominada como nivel de riesgo, este termino es mas adecuado ya que se corre el riesgo de rechazar la hiptesis nula, cuando en realidad es verdadera. Este nivel esta bajo el control de la persona que realiza la prueba. Si suponemos que la hiptesis planteada es verdadera, entonces, el nivel de significacin indicar la probabilidad de no aceptarla, es decir, estn fuera de rea de aceptacin. El nivel de confianza (1-), indica la probabilidad de aceptar la hiptesis planteada, cuando es verdadera en la poblacin.

La distribucin de muestreo de la estadstica de prueba se divide en dos regiones, una regin de rechazo (conocida como regin crtica) y una regin de no rechazo (aceptacin). Si la estadstica de prueba cae dentro de la regin de aceptacin, no se puede rechazar la hiptesis nula. La regin de rechazo puede considerarse como el conjunto de valores de la estadstica de prueba que no tienen posibilidad de presentarse si la hiptesis nula es verdadera. Por otro lado, estos valores no son tan improbables de presentarse si la hiptesis nula es falsa. El valor crtico separa la regin de no rechazo de la de rechazo. Tipos de errores Cualquiera sea la decisin tomada a partir de una prueba de hiptesis, ya sea de aceptacin de la Ho o de la Ha, puede incurrirse en error: Un error tipo I se presenta si la hiptesis nula Ho es rechazada cuando es verdadera y deba ser aceptada. La probabilidad de cometer un error tipo I se denomina con la letra alfa Un error tipo II, se denota con la letra griega se presenta si la hiptesis nula es aceptada cuando de hecho es falsa y deba ser rechazada. En cualquiera de los dos casos se comete un error al tomar una decisin equivocada. En la siguiente tabla se muestran las decisiones que pueden tomar el investigador y las consecuencias posibles.

Para que cualquier ensayo de hiptesis sea bueno, debe disearse de forma que minimice los errores de decisin. En la prctica un tipo de error puede tener ms importancia que el otro, y as se tiene a conseguir poner una limitacin al error de mayor importancia. La nica forma de reducir ambos tipos de errores es incrementar el tamao de la muestra, lo cual puede ser o no ser posible. La probabilidad de cometer un error de tipo II denotada con la letra griega beta , depende de la diferencia entre los valores supuesto y real del parmetro de la poblacin. Como es ms fcil encontrar diferencias grandes, si la diferencia entre la estadstica de muestra y el correspondiente parmetro de poblacin es grande, la probabilidad de cometer un error de tipo II, probablemente sea pequea. El estudio y las conclusiones que obtengamos para una poblacin cualquiera, se habrn apoyado exclusivamente en el anlisis de una parte de sta. De la probabilidad con la que estemos dispuestos a asumir estos errores, depender, por ejemplo, el tamao de la muestra requerida. Las contrastaciones se apoyan en que los datos de partida siguen una distribucin normal

Existe una relacin inversa entre la magnitud de los errores y : conforme a aumenta, disminuye. Esto obliga a establecer con cuidado el valor de a para las pruebas estadsticas. Lo ideal sera establecer y .En la prctica se establece el nivel y para disminuir el Error se incrementa el nmero de observaciones en la muestra, pues as se acortan los limites de confianza respecto a la hiptesis planteada .La meta de las pruebas estadsticas es rechazar la hiptesis planteada. En otras palabras, es deseable aumentar cuando sta es verdadera, o sea, incrementar lo que se llama poder de la prueba (1- ) La aceptacin de la hiptesis planteada debe interpretarse como que la informacin aleatoria de la muestra disponible no permite detectar la falsedad de esta hiptesis. Paso 3: Clculo del valor estadstico de prueba Valor determinado a partir de la informacin muestral, que se utiliza para determinar si se rechaza la hiptesis nula., existen muchos estadsticos de prueba para nuestro caso utilizaremos los estadsticos z y t. La eleccin de uno de estos depende de la cantidad de muestras que se toman, si las muestras son de la prueba son iguales a 30 o mas se utiliza el estadstico z, en caso contrario se utiliza el estadstico t. Tipos de prueba a) Prueba bilateral o de dos extremos: la hiptesis planteada se formula con la igualdad Ejemplo H0 : = 200 H1 : 200

b) Pruebas unilateral o de un extremo: la hiptesis planteada se formula con o H0 : 200 H0 : 200 H1 : < 200 H1 : > 200

En las pruebas de hiptesis para la media (), cuando se conoce la desviacin estndar () poblacional, o cuando el valor de la muestra es grande (30 o ms), el valor estadstico de prueba es z y se determina a partir de:

El valor estadstico z, para muestra grande y desviacin estndar poblacional desconocida se determina por la ecuacin:

En la prueba para una media poblacional con muestra pequea y desviacin estndar poblacional desconocida se utiliza el valor estadstico t.

Paso 4: Formular la regla de decisin SE establece las condiciones especficas en la que se rechaza la hiptesis nula y las condiciones en que no se rechaza la hiptesis nula. La regin de rechazo define la ubicacin de todos los valores que son tan grandes o tan pequeos, que la probabilidad de que se presenten bajo la suposicin de que la hiptesis nula es verdadera, es muy remota

Distribucin muestral del valor estadstico z, con prueba de una cola a la derecha

Valor critico: Es el punto de divisin entre la regin en la que se rechaza la hiptesis nula y la regin en la que no se rechaza la hiptesis nula. Paso 5: Tomar una decisin. En este ltimo paso de la prueba de hiptesis, se calcula el estadstico de prueba, se compara con el valor crtico y se toma la decisin de rechazar o no la hiptesis nula. Tenga presente que en una prueba de hiptesis solo se puede tomar una de dos decisiones: aceptar o rechazar la hiptesis nula. Debe subrayarse que siempre existe la posibilidad de rechazar la hiptesis nula cuando no debera haberse rechazado (error tipo I). Tambin existe la posibilidad de que la hiptesis nula se acepte cuando debera haberse rechazado (error de tipo II). 4.- Ejemplo en la cual se indica el procedimiento para la prueba de hiptesis Ejemplo El jefe de la Biblioteca Especializada de la Facultad de Ingeniera Elctrica y Electrnica de la UNAC manifiesta que el nmero promedio de lectores por da es de 350. Para confirmar o no este supuesto se controla la cantidad de lectores que utilizaron la biblioteca durante 30 das. Se considera el nivel de significancia de 0.05 Datos: Da 1 2 3 Usuarios 356 427 387 Da 11 12 13 Usuarios 305 413 391 Da 21 22 23 Usuario 429 376 328

4 5 6 7 8 9 10

510 288 290 320 350 403 329

14 15 16 17 18 19 20

380 382 389 405 293 276 417

24 25 26 27 28 29 30

411 397 365 405 369 429 364

Solucin: Se trata de un problema con una media poblacional: muestra grande y desviacin estndar poblacional desconocida. Paso 01: Seleccionamos la hiptesis nula y la hiptesis alternativa Ho: 350 Ha: 350 Paso 02: Nivel de confianza o significancia 95% 0.05 Paso 03: Calculamos o determinamos el valor estadstico de prueba De los datos determinamos: que el estadstico de prueba es t, debido a que el numero de muestras es igual a 30, conocemos la media de la poblacin, pero la desviacin estndar de la poblacin es desconocida, en este caso determinamos la desviacin estndar de la muestra y la utilizamos en la formula reemplazando a la desviacin estndar de la poblacin.

4.4.1.- PRUEBAS UNILATERALES Y BILATERALES.

Pruebas bilaterales y pruebas unilaterales

Un contraste bilateral adopta en general la forma: H0: = 0 contra H1: 0

En determinadas ocasiones el experimentador prefiere plantear directamente un contraste de la forma: H0: = 0 contra H1: > 0

conocido como contraste unilateral derecho. Obviamente, otra posibilidad es el unilateral izquierdo: H0: = 0 contra H1: < 0

En estos tres casos, el contraste de hiptesis es simple contra compuesta.

En la mayora de situaciones aplicadas, se desean realmente resolver contrastes unilaterales que comportan hiptesis compuestas. El unilateral derecho es entonces:

H0: 0 y el izquierdo es: H0: 0

contra

H1: > 0

contra

H1: < 0

Aunque esta ltima formulacin est relacionada con los contrastes unilaterales simple contra compuesta anteriores, las dos hiptesis no son tcnicamente equivalentes Para simplificar la interpretacin de los contrastes unilaterales, atendiendo a los casos de los que se ocupa Statmedia, se formulan los contrastes de esta ltima manera (compuesta contra compuesta) y se toma el nivel de significacin como si fuera el del contraste simple contra compuesta. En cualquier caso, es importante entender que slo debe resolverse uno de los tres contrastes (bilateral o unilateral) con un conjunto de datos concreto. Por ejemplo, es incorrecto desde el punto de vista metodolgico empezar contrastando bilateralmente, y hacer luego un test unilateral. El contraste que se ha de emplear debe decidirse basndose en conocimientos previos del problema, o bien guindose por la cuestin de inters aplicado a responder.

Ejemplos de pruebas unilaterales

Caso 1: clculo del nivel de significacin y de la potencia en funcin de diferentes alternativas.

Caso 2: representacin grfica del contraste unilateral y de los conceptos asociados.

4.4.2.-PRUEBAS DE PROPORCION Y DIFERENCIA DE PROPORCIONES.

Prueba De Hiptesis Para Proporciones El concepto de prueba de hiptesis se puede utilizar para probar hiptesis en relacin con datos cualitativos. Por ejemplo, en el problema anterior el gerente de la fabrica de llantas quera determinar la proporcin de llantas que se reventaban antes de 10,000 millas. Este es un ejemplo de una variable cualitativa, dado que se desea llegar a conclusiones en cuanto a la proporcin de los valores que tienen una caracterstica particular. El gerente de la fbrica de llantas quiere que la calidad de llantas producidas, sea lo bastante alta para que muy pocas se revienten antes de las 10,000 millas. Si ms de un 8% de las llantas se revientan antes de las 10,000 millas, se llegara a concluir que el proceso no funciona correctamente. La hiptesis nula y alternativa se pueden expresar como sigue: Ho: p .08 (funciona correctamente) H1: p > .08 (no funciona correctamente) La prueba estadstica se puede expresar en trminos de la proporcin de xitos como sigue: En donde p = proporcin de xitos de la hiptesis nula

Ahora se determinar si el proceso funciona correctamente para las llantas producidas para el turno de da. Los resultados del turno de da ndican que cinco llantas en una muestra de 100 se reventaron antes de 10,000 millas para este problema, si se selecciona un nivel de significanca de .05, las regiones de rechazo y no rechazo se estableceran como a continuacin se muestra: Y la regla de decisin sera: Rechazar Ho si > + 1.645; de lo contrario no rechazar Ho. Con los datos que se tienen, = = .05 Y entonces, = = = = 1.107 Z 1.107 < + 1.645; por tanto no rechazar Ho. La hiptesis nula no se rechazara por que la prueba estadstica no ha cado en la regin de rechazo. Se llegara a la conclusin de que no hay pruebas de que ms del 8% de las llantas producidas en el turno de da se revienten antes de 10,000 millas. El gerente no ha encontrado ninguna prueba de que ocurra un nmero excesivo de reventones en las llantas producidas en el turno de da. Pruebas de hiptesis a partir de proporciones. Las pruebas de hiptesis a partir de proporciones se realizan casi en la misma forma utilizada cuando nos referimos a las medias, cuando se cumplen las suposiciones necesarias para cada caso. Pueden utilizarse pruebas unilaterales o bilaterales dependiendo de la situacin particular.

La proporcin de una poblacin Las hiptesis se enuncian de manera similar al caso de la media. Ho: p = p0 H1: p p0 En caso de que la muestra sea grande n>30, el estadgrafo de prueba es: se distribuye normal estndar. Regla de decisin: se determina de acuerdo a la hiptesis alternativa (si es bilateral o unilateral ), lo cual puedes fcilmente hacerlo auxilindote de la tabla 4.4.1. En el caso de muestras pequeas se utiliza la distribucin Binomial. No lo abordaremos por ser complicado y poco frecuente su uso. Diferencia entre las proporciones de dos poblaciones La situacin ms frecuente es suponer que existen diferencias entre las proporciones de dos poblaciones, para ello suelen enunciarse las hiptesis de forma similar al caso de las medias: Ho: p1 = p2 p1 - p2 = 0 H1: p1 p2 Puede la hiptesis alternativa enunciarse unilateralmente. El estadgrafo de prueba para el caso de muestras independientes:

Siendo a1 y a2, el nmero de sujetos con la caracterstica objeto de estudio en las muestras 1 y 2 respectivamente, es decir, en vez de calcular la varianza para cada muestra, se calcula una p conjunta para ambas muestras bajo el supuesto que no hay diferencias entre ambas proporciones y as se obtiene la varianza conjunta. Recuerda que q = 1-p. Est de ms que te diga que este estadgrafo se distribuye normal estndar. La regla de decisin se determina de manera similar a los casos ya vistos anteriormente. El objetivo de la prueba es comparar estas dos proporciones, como estimadores H1: p1 p2 Recuerda que la H1 tambin puede plantearse de forma unilateral.

4.5.-MUESTRAS PEQUEAS

El estadstico de prueba para el caso de una muestra est dado por:

Ejemplo: La tasa actual para producir fusibles de 5 amp en Neary Electric Co. es 250 por hora. Se compr e instal una

mquina nueva que, segn el proveedor, aumentar la tasa de produccin. Una muestra de 10 horas seleccionadas al azar el mes pasado indica que la produccin media por hora en la nueva mquina es 256, con desviacin estndar muestral de 6 por hora. Con .05 de nivel de significancia, puede Neary concluir que la nueva mquina es ms rpida? Paso 1:

Paso 2: Paso 3:

H0

se

rechaza

si

>1.833,

gl

Paso 4: H0 se rechaza. La nueva mquina es ms rpida. Grfica que muestra la regin de rechazo, el valor crtico y el estadstico de prueba calculado

UNIDAD 5.-ANALISIS DE REGRESION Y CORRELACION. 5.1.-REGRESION MULTIPLE. LINEAL, SIMPLE, CURVILINEA Y

La regresin lineal es una tcnica estadstica para modelar e investigar la relacin entre dos o ms variables. Tiene aplicacin en la industria para investigar la relacin entre el rendimiento de la produccin y uno o ms factores del (o de los) que depende, como la temperatura, la humedad ambiental, la presin, la cantidad de insumos, etc; con base en este anlisis se puede pronosticar el comportamiento de

una variable que se desea estimar. Si el ingeniero industrial logra determinar cmo se relacionan las variables conocidas de un proceso con el comportamiento futuro de otra variable de inters, podr colaborar favorablemente y en gran medida al proceso de toma de decisiones. Los anlisis de regresin y correlacin nos permiten determinar tanto la naturaleza como la fuerza de una relacin entre dos variables; de esta forma, se puede pronosticar, con cierta precisin, el valor de una variable desconocida basndonos en observaciones anteriores de sa y otras variables. Pero este aspecto, el de la prediccin ser motivo de estudio en la seccin 1.4. El modelo de regresin lineal simple es: Yi =0 + 1X + i Donde Yi es la i-sima observacin de la variable dependiente (la que queremos estimar), X es el correspondiente valor de la variable independiente o explicatorio, 0 y 1 son los parmetros (valores desconocidos que se suponen con valores fijos) del modelo y i es la variable aleatoria de error. Otros aspectos que deben considerarse: historia de cmo surge la tcnica de la regresin, Galton y los datos de estaturas de padres e hijos, lo que al principio se denominaba regresin hoy se conoce como correlacin. El concepto de regresin ha quedado exclusivamente para el caso en que se consideran variables dependientes e independientes. Cuando la variable dependiente est en funcin de dos o ms regresores se tiene el modelo de regresin mltiple (RLM): Yi =0 + 1xi 1 + 2xi 2 + + qxi q + i .

Usando lgebra de matrices puede estimarse el vector de parmetros _ = 0 1 2 . . . q t con _ = (xx)1xty donde X es la matriz de datos. 5.2.- CORRELACION. En probabilidad y estadstica, la correlacin indica la fuerza y la direccin de una relacin lineal y proporcionalidad entre dos variables estadsticas. Se considera que dos variables cuantitativas estn correlacionadas cuando los valores de una de ellas varan sistemticamente con respecto a los valores homnimos de la otra: si tenemos dos variables (A y B) existe correlacin si al aumentar los valores de A lo hacen tambin los de B y viceversa. La correlacin entre dos variables no implica, por s misma, ninguna relacin de causalidad.

La relacin entre dos super variables cuantitativas queda representada mediante la lnea de mejor ajuste, trazada a partir de la nube de puntos. Los principales componentes elementales de una lnea de ajuste y, por lo tanto, de una correlacin, son la fuerza, el sentido y la forma:

La fuerza extrema segn el caso, mide el grado en que la lnea representa a la nube de puntos: si la nube es estrecha y alargada, se representa por una lnea recta, lo que indica que la relacin es fuerte; si la nube de puntos tiene una tendencia elptica o circular, la relacin es dbil. El sentido mide la variacin de los valores de B con respecto a A: si al crecer los valores de A lo hacen los de B, la relacin lopositiva; si al crecer los valores de A disminuyen los de B, la relacin es negativa.

La forma establece el tipo de lnea que define el mejor ajuste: la lnea recta, la curva monotnica o la curva no monotnica.

Coeficientes de correlacin Existen diversos coeficientes que miden el grado de correlacin, adaptados a la naturaleza de los datos. El ms conocido es el coeficiente de correlacin de Pearson (introducido en realidad por Francis Galton), que se obtiene dividiendo la covarianza de dos variables por el producto de sus desviaciones estndar. Otros coeficientes son:

Coeficiente de correlacin de Spearman Correlacin cannica Coeficiente de Correlacin Intraclase

Interpretacin geomtrica Dados los valores muestrales de dos variables aleatorias e , que pueden ser consideradas como vectores en un espacio a n dimensiones, puden construirse los "vectores centrados" como: e .

El coseno del ngulo alfa entre estos vectores es dada por la frmula siguiente:

Pues es el coeficiente de correlacin muestral de Pearson. El coeficiente de correlacin es el coseno entre ambos vectores centrados:

Si r = 1, el ngulo , ambos vectores son colineales (paralelos). Si r = 0, el ngulo , ambos vectores son ortogonales. Si r =-1, el ngulo , ambos vectores son colineales de direccin opuesto. .

Ms generalmente:

Por supuesto, del punto vista geomtrica, no hablamos de correlacin lineal: el coeficiente de correlacin tiene siempre un sentido, cualquiera si que sea su valor entre -1 y 1. Nos informa de modo preciso, no tanto sobre el grado de dependencia entre las variables, que sobre su distancia angular en la hiperesfera a n dimensiones. La Iconografa de las correlaciones es un mtodo de anlisis multidimensional que reposa en esta idea. La correlacion lineal se da cuando en una nube de puntos estos se encuentran o se distribuyen alrededor de una recta. Distribucin del coeficiente de correlacin El coeficiente de correlacin muestral de una muestra es de hecho una varible aleatoria, eso significa que si repetimos un experimento o consideramos diferentes muestras se obtendrn valores diferentes y por tanto el coeficiente de correlacin muestral calculado a partir de ellas tendr valores ligeramente diferentes. Para muestras grandes la variacin en dicho coeficiente ser menor que para muestras pequeas. R. A. Fisher fue el primero en determinar la distribucin de probabilidad para el coeficiente de correlacin.

Si las dos variables aleatorias que trata de relacionarse proceden de una distribucin gaussiana bivariante entonces el coeficiente de correlacin r sigue una distribucin de probabilidad dada por:1 2

donde: es la distribucin gamma es la funcin gaussiana hipergeomtrica.

Ntese que sesgado de .

, por tanto r es estimador

Puede obtenerse un estimador aproximado no sesgado resolviendo la ecuacin: for Aunque, la solucn:

es subptima. Se puede obtener un estimador sesgado con mnima varianza para grandes valores de n, con sesgo de orden buscando el mximo de la expresin:

, i.e.

En el caso especial de que puede ser reescrita como:

, la distribucin original

donde

es la funcin beta.

5.4.-CORRELACION POR RANGOS Este coeficiente es una medida de asociacin lineal que utiliza los rangos, nmeros de orden, de cada grupo de sujetos y compara dichos rangos. Existen dos mtodos para calcular el coeficiente de correlacin de los rangos uno sealado por Spearman y otro por Kendall 8. El r de Spearman llamado tambin rho de Spearman es ms fcil de calcular que el de Kendall. El coeficiente de correlacin de Spearman es exactamente el mismo que el coeficiente de correlacin de Pearson calculado sobre el rango de observaciones. En definitiva la correlacin estimada entre X e Y se halla calculado el coeficiente de correlacin de Pearson para el conjunto de rangos apareados. El coeficiente de correlacin de Spearman es recomendable utilizarlo cuando los datos presentan valores externos ya que dichos valores afectan mucho el coeficiente de correlacin de Pearson, o ante distribuciones no normales. El clculo del coeficiente viene dado por: En donde di = rxi ryi es la diferencia entre los rangos de X e Y. Los valores de los rangos se colocan segn el orden numrico de los datos de la variable.

5.5.- COEFICIENTE DE CORRELACION PARA DATOS NOMINALES. Coeficiente de Correlacin. El coeficiente de correlacin ms utilizado es el de Pearson, este es un ndice estadstico que mide la relacin lineal entre dos variables cuantitativas, es una forma de medir la intensidad de la relacin lineal entre dos variables. El valor del coeficiente de correlacin puede tomar valores desde menos uno hasta uno, 1 < r < 1, indicando que mientras ms cercano a uno sea el valor del coeficiente de correlacin, en cualquier direccin, ms fuerte ser la asociacin lineal entre las dos variables. El coeficiente de correlacin de clculo r es un estimador muestral del coeficiente poblacional Rho, . Mientras ms cercano a cero sea el coeficiente de correlacin, este indicar que ms dbil es la asociacin entre ambas variables. Si es igual a cero se concluir que no existe relacin lineal alguna entre ambas variables. Hay varias maneras de equivalentes de calcular r, a continuacin se muestran tres formas. Coeficiente Correlacin Frmula por Covarianzas y Desviaciones Tpicas Siendo: SXY la covarianza de (X,Y) y SX, SY las desviaciones tpicas de las distribuciones de las variables independiente y dependiente respectivamente. Coeficiente Correlacin Frmula Clsica. Poco usada para clculo. Coeficiente Correlacin, Frmula por suma de cuadrados. Se usa cuando se dispone de calculadoras de mano que hacen sumatorias y no correlacin.

CONCLUSION

EN ESTA MATERIA DE PROBABILIDAD Y ESTADISTICA CONOCIMOS Y APRENDIMOS LO QUE ES UNA POBLACION, UN MUESTREO, FRECUENCIAS RELATIVAS, CONTINUAS ETC.,, ADEMAS DE ADQUIRIR MUCHOS CONOCIMIENTOS ENPEZAMOS A PRACTICAR CON LOS DIFERENTES TIPOS DE EJERCICIOS QUE A LO LARGO DE LAS UNIDADES NOS EXPUSIERON.

Anda mungkin juga menyukai