Anda di halaman 1dari 48

1

PROBABILIDAD Y ESTADISTICA
TRANSCRIPCIN DE LA CURSADA COMPLETA

2012 1C
PROBABILIDADES UNIDAD 1 3
CLCULO DE PROBABILIDADES 3
TIPOS DE PROBABILIDADES 5
TEOREMA DE BAYES 7
ESQUEMA DE RBOL DE PRIORIDAD DE SECUENCIAS 8
VARIABLE ALEATORIA UNIDAD 2 9
CONCEPTO DE VARIABLE ALEATORIA 9
FUNCIN DE PROBABILIDAD 9
DISTRIBUCIN DE PROBABILIDAD 9
ESPERANZA MATEMTICA DE UNA VARIABLE ALEATORIA 10
VARIANZA 12
OPERACIONES CON VARIABLES ALEATORIAS 12
MOMENTOS DE ORDEN SUPERIOR 14
VARIABLES ALEATORIAS DEPENDIENTES 15
VARIABLES ALEATORIAS CONTINUAS: 16
ESPERANZA DE UNA VARIABLE CONTINUA 17
VARIABLES ALEATORIAS ESPECIALES (PARTE 1) UNIDAD 3 18
VARIABLES ALEATORIAS ESPECIALES 18
1) BINOMIAL 18
2) HIPER GEOMTRICA 18
3) POISSON 19
4) EXPONENCIAL NEGATIVA 20
5) GAMMA 21
6) DISTRIBUCIN UNIFORME O RECTANGULAR 23
7) DISTRIBUCIN NORMAL O GAUSS 24
APROXIMACIONES UTILIZANDO LA FUNCIN NORMAL DE GAUSS UNIDAD 3 27
APROXIMACIN DE LA DISTRIBUCIN GAMMA UTILIZANDO LA FUNCIN NORMAL DE GAUSS 27
APROXIMACIN DE LA DISTRIBUCIN POISSON UTILIZANDO LA FUNCIN NORMAL DE GAUSS 27
APROXIMACIN DE LA DISTRIBUCIN EXPONENCIAL NEGATIVA UTILIZANDO LA NORMAL DE GAUSS 28
APROXIMACIN DE LA DISTRIBUCIN BINOMIAL UTILIZANDO LA FUNCIN NORMAL DE GAUSS 28
2

ESTIMACIN UNIDAD 4 29
ESTIMACIN 29
DISTRIBUCIN DE PROBABILIDAD DEL PROMEDIO MUESTRAL. 30
EVALUACIN DE LA NORMALIDAD DE LA POBLACIN QUE PROPORCION LA MUESTRA 32
ESTIMACIN DEL PROMEDIO POBLACIONAL UTILIZANDO EL PROMEDIO MUESTRAL MEDIANTE LA TCNICA LLAMADA
ESTIMACIN MEDIANTE INTERVALOS DE CONFIANZA. 33
ESTIMACIN DEL PROMEDIO POBLACIONAL UTILIZANDO LA VARIABLE STUDENT 35
INTERVALO DE CONFIANZA PARA EL DESVO ESTNDAR POBLACIONAL 36
DISTRIBUCIN JI CUADRADA 36
INTERVALO DE CONFIANZA PARA EL DESVO ESTNDAR POBLACIONAL 36
INTERVALO DE CONFIANZA PARA UNA DIFERENCIA DE PROMEDIOS 37
CALCULO CON DATOS AGRUPADOS 38
PRUEBAS DE HIPTESIS UNIDAD 5 39
PRUEBAS DE HIPTESIS 39
VARIABLE DE PRUEBA 39
PRUEBAS DE HIPTESIS DE UN EXTREMO (UNILATERALES) 41
PRUEBAS DE HIPTESIS UTILIZANDO LA VARIABLE STUDENT (GOSSITT) 41
PRUEBAS DE HIPTESIS PARA EL DESVO ESTNDAR POBLACIONAL 41
PRUEBA DE HIPTESIS PARA DIFERENCIA DE PROMEDIOS 42
REGRESIN Y CORRELACIN UNIDAD 6 43
CALCULO DEL ERROR ESTNDAR UTILIZANDO EL PROMEDIO DE REGRESIN 44
PREDICCIN CON EL PROMEDIO DE REGRESIN 44
COEFICIENTE DE DETERMINACIN 45
COEFICIENTE DE CORRELACIN 45
SIGNIFICATIVIDAD DEL COEFICIENTE DE CORRELACIN 46








3

Probabilidad y Estadstica


Clase 1
PROBABILIDADES UNIDAD 1

CLCULO DE PROBABILIDADES
El clculo de probabilidades se aplica a sucesos de tipo contingente. No tenemos certeza acerca de que
sucedan o no. Y en realidad se aplica a sucesos que llamamos aleatorios en los cuales la contingencia est
limitada. En lo aleatorio sabemos de antemano cuales resultados pueden producir el experimento y lo nico
incierto es cual de esos resultados se va a presentar en cada caso particular y adems en lo aleatorio
tenemos la posibilidad de repetir el experimento cuantas veces se nos ocurra y siempre tener condiciones
idnticas.
Estas caractersticas se dan tpicamente en los juegos de azar, y por eso los ejemplos de clculos de
probabilidades se basan principalmente en estos juegos.
Para definir probabilidad necesitamos dos nociones previas:
- El espacio de resultados del experimento aleatorio (S): as llamamos al conjunto de todos los
posibles resultados de un experimento (E). Ejemplos:
a. E1: S1(arrojar un dado) = {1, 2, 3, 4, 5, 6}
b. E2: S2(arrojar una moneda) = {cara, cruz}
c. E3: S3(girar una ruleta) = {0..36, color, paridad}
Los resultados pueden ser nmeros, cualidades o una mezcla de ambos, pero lo que importa no son
solo los resultados en si mismos, sino la cantidad de elementos que tiene ese conjunto. Lo
llamamos cantidad de casos posibles (n)
d. n(dado) = 6
e. n(moneda) = 2
- La segunda nocin es la del suceso aleatorio. As llamamos a cualquier subconjunto que podamos
formar en algn espacio de resultados (A). Por ejemplo, el dado:
a. A1(pares-dado) = {2, 4, 6}
b. A2(primos-dado) = {1, 2, 3, 5}
c. A3(>4-dado) = {5, 6}
Y lo que nuevamente lo que importa es la cantidad de elementos de ese subconjunto y ahora la
llamamos cantidad de casos favorables (m). Siguiendo con el ejemplo anterior:
a. A1: m1 = 3
b. A2: m2 = 4
c. A3: m3 = 2


4

Por ahora nos limitamos al caso en que n y m sean nmeros finitos y es as que llamamos probabilidad de
presentacin de un suceso aleatorio (P(A)) al cociente entre la cantidad de casos favorables y la cantidad de
casos posibles. [P(A) = m
i
/ n]. (Laplace)
a. P(par-dado) P(A1) = 3/6
b. P(primo-dado) P(A2) = 4/6
c. P(>4-dado) P(A3) = 2/6
La probabilidad es una fraccin propia.
Caso de Certeza: 0 < P(A) < 1. Certeza significa que el suceso deja de ser contingente y se convierte en
necesario.
Caso de vaciedad: 0 < P(A) < 1. Es imposible que el suceso ocurra.
Caso de contingencia: 0 < P(A) < 1. La probabilidad que en forma cuantitativa de que sea ms, o menos
factible que el suceso ocurra. Siguiendo el ejemplo del dado, es ms verosmil un nmero primo que un
nmero par. Cuantitativamente esa mayor o menor verosimilitud se refleja en las probabilidades: 4/6 > 3/6.
La definicin de Laplace plantea un requisito: dice que los casos posibles deben ser todos ellos igualmente
posibles (en el dado, no debe estar cargado, por ejemplo)
Este requisito de igual posibilidad puede verificarse en cualquier experimento singular. Pero la dificultad
surge cuando queremos definirlo en lo abstracto. Porque conceptualmente igualmente posible significa
igualmente probable y probabilidad es precisamente la nocin que queremos definir y por eso Laplace a
nivel terico cae en un crculo vicioso.
Reglas Axiomticas: reglas no deben ser excedidas cuando se estudian probabilidades:
1) No pueden ser nmeros negativos. P(A) > 0.
2) P(par) + P(impar) = 1
3) P(A) + P(todo lo que no es A) = 1
Pero la limitacin que tienen estas definiciones (aunque tericamente sean ms consistentes) es que
ninguna de ellas proporciona una regla para calcular probabilidades. La debilidad de estas definiciones
axiomticas es que los resultados pueden no corresponderse con los que se verifican experimentalmente en
el mundo real, aunque formalmente sean inobjetables.
La definicin de Laplace tiene dos fortalezas fundamentales:
1) El resultado es nico y se determina mediante una regla algebraica concisa y concreta.
2) Los resultados aunque se calculan de manera ideal y abstracta convergen hacia lo que se obtiene
en la realidad cuando se implementa en forma concreta el experimento aleatorio.
Con la regla de Laplace podemos afirmar que al lanzar una moneda la probabilidad de que aparezca cara sea
0,50, y nadie duda de eso. Si lanzamos una moneda hay que tener en cuenta cuantas veces lo realizamos, y
en ese caso no hablamos de probabilidades que sean abstractas sino de frecuencias (f) que son
experimentales. f = (nro. de xitos)/(nro. de ensayos)
f(arrojar 10 veces una moneda) = (6 caras)/(10 ensayos) = 0,6, que es distinto a 0,5
f(arrojar 20 veces una moneda) = (11 caras)/(20 ensayos) = 0,55
La probabilidad de xito con la frmula de Laplace es considerada como el valor que obtendramos si el
experimento concreto se realizara en condiciones absolutamente ideales.

Ejercicios recomendados de la gua para resolver (Unidad 1): del 1 al 4
5

TIPOS DE PROBABILIDADES
Probabilidades: pueden ser simples (1 suceso) o complejas cuando consideramos dos sucesos o mas. Hay 3
esquemas bsicos para considerar: condicionales, aditivos o multiplicativos.
Planteamos un caso a utilizar como ejemplo durante los sucesos: un dado.
S= {1, 2, 3, 4, 5, 6} A=par, B=primo, C=impar, D=no primo.
AB = {2}, m(AB) = 1 = (AB), AD = {4, 6}, m(AD) = 2 = (AD), BC = {1, 3, 5} = 3 = (BC), BD = {} = 6 = n
1) Probabilidad Condicional (/): referida a dos sucesos es la probabilidad de que ocurra uno de ellos
teniendo por cierto que el otro suceso ya ocurri. [P(A/B)]. Solo un evento es contingente. Por
ejemplo, la probabilidad de que al lanzar un dado aparezca un par, pero sabiendo de antemano de
que se trata de un numero primo.
P(par sabiendo que es primo) = P(A contingente/B conocido) = 1/4.
P(primo sabiendo que es par) = P(A/B) = 1/3 un solo primo entre los 3 nmeros pares
Se verifica que, salvo caso especial, P(A/B) =/= P(B/A)
P(A/B) = (primospar(AB)/[primospar(AB)+ipr(CB)]) = 1/[1+3] = 1/4. xitos sobre el total
P(B/A) = (primospar(AB)/[primospar(AB)+pnp(AD)]) = 1/[1+2] = 1/3.
Con esta nomenclatura, las probabilidades simples pueden expresarse as:
P(A) = [(AB)+(AD)]/n = [1+2]/6 = 3
P(B) = [(A/B)+(CB)]/n = [1+3]/6 = 4/6
2) Sucesos Multiplicativos (): Tenemos dos sucesos y pedimos que ambos ocurran de manera
simultnea o sucesiva. Los dos son aleatorios. No se conoce de antemano el resultado de ninguno
de ellos. [P(AB)]. Por ejemplo, la posibilidad de que al lanzar un dado aparezca un nmero que al
mismo tiempo rena las cualidades de ser par y de ser primo. Se puede resolver con Laplace:
P(AB) = (AB)/n = 1/6
Pero conviene aplicar otra frmula llamada multiplicativa, que incorpora las probabilidades
condicionales.
P(A)*P(B/A) = 3/6 * 1/3 = 1/6
P(B)*P(A/B) = 4/6 * 1/4 = 1/6
El Teorema De La Probabilidad de ocurrencia en conjunto de dos eventos se resuelve multiplicando
la probabilidad simple de un evento por la del otro condicionando al primero y es indistinto cual
elemento se considere simple y cual condicional.
[P(AB) = P(A)*P(B/A)] = (AB)/n =
P(AB) = {(AB)/[(AB)*(AD)]} * {[(AB)*(AD)]/n} = P(B/A)*P(A)
P(AB) = {(AB)/[(AB)*(CB)]} * {[(AB)*(CB)]/n} = P(A/B)*P(B)
3) Esquema Aditivo: Tenemos dos sucesos, ambos contingentes, pero basta que se presente solo uno
de ellos. Aunque tambin es vlido como caso particular que se presenten ambos. Por ejemplo, la
probabilidad de que al lanzar un dado aparezca un nmero que sea par aunque no sea primo o bien
que sea primo aunque no sea par o bien finalmente que sea simultneamente nmero par y
nmero primo.
P(AB) = P(A)+P(B)-P(AB) = 3/6 + 4/6 1/6 = 1 (pares)+(primos)-(pares primos)
Teorema De La Probabilidad Aditiva: dados dos eventos, la probabilidad de que ocurran ambos
simultneamente o cualquiera de ellos por separado se revuelve sumando la probabilidad simple
de cada elemento y restando luego la probabilidad multiplicativa de ambos.
[(AD)+(CB)+(AB)]/n
[((AD)/n)+((AB)/n)+((CB)/n)+((AB)/n)-((AB)/n)] = P(A)+P(B)-P(AB)
6

Los resultados valen para todo suceso. La frmula puede generalizarse para 3 eventos o ms:
Multiplicativa Para Tres Sucesos P(ABC): la probabilidad de que 3 eventos ocurran en forma simultnea
o consecutiva se calcula as:
P(ABC) = P(A)*P(B/A)*P[C/(AB)]
Ej.: tenemos un mazo de 40 cartas, sacamos 3 una tras otra de forma sucesiva y sin reposicin. Calcular la
probabilidad de que aparezcan en ese orden oro-espada-espada:
P(ABC) = P(oroespadaespada) = 10/40 * 10/39 * 9/38 = 0,0151
Un caso particular importante es aquel en el cual el resultado del evento precedente no influye en el evento
siguiente. Se dice que los sucesos son independientes y esto es caracterstico de lo que llamamos
experimentos con reposicin. En este caso luego de sacar cada carta la reponemos al maso, mezclamos y
recin entonces extraemos.
P(ABC) = P(oroespadaespada) = 10/40 * 10/40 * 10/40 = 0,0156
Si A y B son independientes P(A/B) = P(A)
Aditiva Para Tres Elementos P(ABC): se calcula de la siguiente manera:
P(ABC) = P(A)+P(B)+P(C)-P(AB)-P(AB)-P(BC)+P(ABC)
Ejemplo: de un maso de 40 cartas se saca una, calcular la probabilidad de que sea oro, o bien que sea par, o
bien que sea mltiplo de 5 o que rena al mismo tiempo los 3 atributos, o bien que rena dos de esos
atributos y falte un tercero.
P(ABC) = P(oro)+P(par)+P(*5)-P(oroypar)-P(oroy*5)-P(pary*5)+(oropary*5)
P(ABC) = (10/40)+(20/40)+(8/40)-(5/40)-(2/40)-(4/40)+(1/40) = 28/40
Importante: los eventos son por naturaleza mutuamente excluyentes. Ej.: si saco el uno de oros, no hay otro
uno de oros.
P(ABC) = P(copaoroespada) = (10/40)+(10/40)+(10/40)-0-0-0+0 = 30/40
Interpretacin Geomtrica De Las Probabilidades Multiplicativas Y Aditivas:
Multiplicativa, la interseccin de los conjuntos
Aditiva, entre dos conjuntos, agrega dos veces la interseccin, se debe restar una.
P(AB) = P(A) + P(B) P(AB)

Ejercicios recomendados de la gua para resolver (Unidad 1): del 10 al 16, 18 al 22,24















7

Clase 2
Probabilidad Condicional 3 Sucesos: Muchas veces se pueden resolver utilizando la frmula de Laplace para
las probabilidades simples (el cociente entre cantidad de casis favorables y la cantidad de casos posibles),
pero a veces tenemos que adaptar esa frmula y el resultado se conoce como la Frmula de Bayes
Ej: Tenemos 3 bolilleros y en cada uno de ellos bolillas azules y rojas. El experimento se realiza en dos
etapas: 1) Se vuelcan todas las bolillas en un recipiente comn. 2) Se saca una
bolilla cualquiera, se observa el color y es azul.


Cul es la probabilidad de que provenga del segundo bolillero?
P(provenga de B2 sabiendo que es azul) = P(B2/A) = 10/30 = 1/3
(Es un suceso aleatorio -> si -> conocido) Los casos posibles se han reducido de 55 a 30. Los casos favorables
son 10, porque entre los dos tena 10 bolillas.
P(B2/A) = [P(B2)*P(A/B2)] / [(1->3)(P(Bi)*P(A/Bi))] =
= [(21/55)*(10/21)] / [(21/55)*(16/21)+ (21/55)*(10/21)+ (21/55)*(9/13)] = 10/(16+10+4) = 10/30
TEOREMA DE BAYES
Se tiene un conjunto de causas {Bi} que en este caso son los 3 bolilleros vinculados con la presentacin de un
suceso aleatorio A, en este caso aparicin del color azul. Se conoce el resultado del suceso (se sabe que la
bolilla es azul). Si las causas son mutuamente excluyentes la probabilidad que tiene cada bolilla de ser causa
de haber desencadenado la presentacin del suceso aleatorio puede calcularse a travs de esta frmula:
[ P(Bi/A) = [P(Bi) * P(A/Bi)] / [ (1->n) (P(Bi) * P(A/Bi)) ] ]
Para demostrarlo partimos de la frmula de las probabilidades multiplicativas (interseccin)
[P(AB) = P(A)*(Bi/A)] <=> [P(AB) = P(B)*(A/Bi)] (el resultado es indistinto de cual es fijo y cual condicional)
P(A)*P(Bi/A) = P(Bi)*P(A/Bi) (se iguala respecto a los primeros miembros, que son iguales)
P(Bi/A) = [P(Bi)*P(A/Bi)] / P(A)
Siguiendo el ejemplo antedicho:
P(A) = 16/55 + 10/55 + 4/55 (azul de B1, B2 y B3 respectivamente: P(AB1))
En definitiva: P(A) = [ (1->n) (ABi) ] = [ (1->n) (P(Bi) * (A/Bi)) ] =
[ P(Bi/A) = [P(Bi) * P(A/Bi)] / [ (1->n) (P(Bi) * P(A/Bi)) ] ]
Ejemplo: Se tienen dos recipientes con esta composicin:
Recipiente 1) 6 Bolillas Azules y 3 Bolillas Rojas || 2) 3 Bolillas Verdes y 5 Bolillas Rojas
Se traslada una bolilla cualquiera del recipiente 1 al 2, luego se saca una bolilla del recipiente 2 que resulta
color rojo. Calcular la probabilidad de que haya sido roja la bolilla que pas del recipiente 1 al 2. Casos:
A: Sali roja (cierto)
B1: pas roja (incierto)
B2 pas azul (incierto)
P(haber pasado roja siendo que sali roja)
P(B1/A) = [P(B1)*P(A/B1)] / [P(B1)*P(A/B1)+P(B2)*P(A/B2)] = (3/9)*(6/9)/[(3/9)*(6/9)+(6/9)*(5/9)] = 0,375.
Este fue un caso donde la frmula de Bayes fue necesaria.



B1 B2 B3
A 16 10 4 30
R 5 11 9 25
21 21 13 55
8

Ejemplo 2: Con los mismos recipientes que en el ejercicio anterior, pasamos dos bolillas del recipiente 1 al 2
y en la segunda etapa sacamos una bolilla del segundo. La bolilla que aparece es de color rojo. Calcular la
probabilidad que en la primera etapa se haya pasado una bolilla azul y una bolilla roja en ese orden. Casos:
A: Sali roja
B1: pasa roja y roja (3/9)*(2/8) = (1/12)
B2: pasa azul y azul (6/9)*(5/8) = (5/12)
B3: pasa roja y azul (3/9)*(6/8) = (4/12)
B4: pasa azul y roja (6/9)*(3/8) = (4/12)
P(haber pasado azul y roja siendo que sali roja) = P(B4 si A)
P(B4) = P(B4)*P(A/B4) / [P(B1)*P(A/B1)+P(B2)*P(A/B2)+P(B3)*P(A/B3)+P(B4)*P(A/B4)] =
(6/9)*(3/8)*(6/10) / (3/9)*(2/8)*(7/10)+(6/9)*(5/8)*(5/10)+(3/9)*(6/8)*(6/10)+(6/9)*(3/8)*(6/10)
= 0,2 / 0,6 = 1/3

Ejercicios recomendados de la gua para resolver (Unidad 1): del 28 al 30, 32, 35 al 37

ESQUEMA DE RBOL DE PRIORIDAD DE SECUENCIAS
Ejercicio 31 (Gua): Dos jugadores A y B juegan 3 partidos de cartas. Empiezan con igual probabilidad de
ganar, pero el que gana un partido aumenta su probabilidad de ganar el prximo en 0.1. Halle la
probabilidad de que:
a) A gane por lo menos 2 partidos seguidos.
b) B gane el tercer partido, sabiendo que ninguno gan 2 seguidos.
P(A): Gana A || P(B): Gana B || P(A1): Prob A gane partido 1 || P(A2): Prob A gane partido 2.
/ Partido 1 / ------------ / Partido 2 / ------------- / Partido 3 /--------
P(A1) = 0,50 P(A2/A1) = 0,60 P(A3 / A1A2) = 0,7
| P(B3 / A1A2) = 0,3
P(B2/A1) = 0,40 P(A3 / A1B2) = 0,5
P(B3 / A1B2) = 0,5
P(B1) = 0,50 P(A2/B1) = 0,40 P(B3 / B1A2) = 0,5
| P(A3 / B1A2) = 0,5
P(B2/B1) = 0,60 P(B3 / B1A2) = 0,7
P(A3 / B1B2) = 0,3
Ra) Probabilidad de que A gane 2 partidos seguidos:
P(A gane al menos 2 partidos seguidos) = P(A1A2B3)+P(B1A2A3)+P(A1A2A3)
1) P(A1) * P(A2/A1) * P(B3/(A1A2)) = 0,5 * 0,6 * 0,3 = 0,09
2) P(B1) * P(A2/B1) * P(A3/(B1A2)) = 0,5 * 0,4 * 0,5 = 0,10
3) P(A1) * P(A2/A1) * P(A3/(A1A2)) = 0,5 * 0,6 * 0,7 = 0,21
0,09 + 0,10 + 0,21 0,4 (40%)
Rb) Que B gane el tercero si ninguno gan dos seguidos: P(B3/B1A2) = 0,5 = 50%
Otra forma: P( [B1A2B3] / ([A1B2A3] [B1A2B3]) ) = Favorables B / Casos Posibles =
P(B3)*P(B1B2) / [P(A3)*P(A1B2) + P(B3)*P(B1B2)] = 0,1 / 0,2 = 0,5

Ejercicios recomendados de la gua para resolver (Unidad 1): 31, 33







9

Clase 3
VARIABLE ALEATORIA UNIDAD 2

CONCEPTO DE VARIABLE ALEATORIA
Los experimentos aleatorios pueden arrojar como resultado valores numricos o atributos cualitativos. Esto
es inconveniente cuando calculamos probabilidades porque nos limitamos a contar con una cantidad de
resultados. Pero a veces es necesario pensar algebraicamente los resultados. Entonces si es necesario
otorgarles un valor numrico y para esto definimos la variable aleatoria: es aquella que otorga un nmero
real a cada elemento del experimento.
(lanzar una moneda)
S(lanzar una moneda) = { cara / cruz } X = { 1, 0 }
S(tirar un dado) = { 1, 2, 3, 4, 5, 6 } Z = { 1, 2, 3, 4, 5, 6 }
Por ejemplo puedo modificarlo diciendo que gano un peso si es par, pierdo un peso si es impar
S(tirar un dado+) = { 1, 2, 3, 4, 5, 6 } D = { -1, 1, -1, 1, -1, 1 }

FUNCIN DE PROBABILIDAD
As llamamos a la que le otorga a cada valor de la variable un nmero que llamamos probabilidad.
Ej: X = { 1, 0 } Px = { 1/2, 1/2 }

DISTRIBUCIN DE PROBABILIDAD
As llamamos al conjunto de pares ordenados { Xi, Px }. Por ejemplo, con una moneda:
En forma impropia se suele llamar variable aleatoria a lo que en rigor es la funcin de
probabilidad. Al decir Variable Aleatoria nos referimos a ambas cosas.


Ejemplo: el experimento consiste en lanzar 2 dados y sumar los puntos que aparecen en la cara superior.
Definir la variable aleatoria.
Dado 1: X = { 1, ... 6 }, Dado 2: Y = { 1, ... 6 }, Z = X + Y

Los eventos son independientes, el resultado de un dado no repercute en el resultado
del otro dado y entonces la probabilidad multiplicativa se resuelve como producto de
probabilidades simples.
P(Z=2) = [ P(X=1) P(Y=1) ] = P(X=1) * P(Y=1) = 1/6

Los eventos son mutuamente excluyentes, en consecuencia la unin o probabilidad
aditiva se resuelve directamente como suma de probabilidades y a la vez cada uno de
los trminos de la suma son una probabilidad multiplicativa de sucesos independientes.
P(Z=3) = { [ P(X=1) P(Y=2) ] [ P(X=1) P(Y=2) ] } = 1/6*1/6+1/6*1/6 = 2/36

La suma de todas las probabilidades es = 1.

X Px
1 1/2
0 1/2
Z P(Z)
2 1/36
3 2/36
4 3/36
5 4/36
6 5/36
7 6/36
8 5/36
9 4/36
10 3/36
11 2/36
12 1/36
36/36
V.A.
Distribucin
10

Suele graficarse la variable aleatoria. En el caso del ejemplo, el grfico muestra que es
simtrica, da valores equidistantes a uno y otro lado del vrtice, y adems hay un solo
vrtice o mximo.

En realidad la variable ideal es simtrica, tiene un vrtice nico pero no es un tringulo sino que es una
campana, lo que se llama Variable aleatoria de Gauss, que en la grfica se utiliza como
patrn de comparacin para cualquier otra variable. El experimento aleatorio de Gauss es
aquel con el cual se compara cualquier otro experimento y lo ideal es aproximarnos a la
campana de Gauss tanto como sea posible.

Y suele graficarse otra variable, a la que llamamos distribucin acumulada de probabilidad. En el ejemplo:
F(Z) = (2->12)F(Z)













El patrn de comparacin tambin existe y es la ojiva de Gauss. Es muy abatida
(plana) en los tramos extremos y muy empinada (vertical) en el tramo central. Esa es
la distribucin ideal de las probabilidades. Y en nuestra variable ejemplo tenemos
demasiado empinamiento en la parte extrema y cierto abatimiento en la central.

ESPERANZA MATEMTICA DE UNA VARIABLE ALEATORIA
los valores de la variable y sus probabilidades se combinan entre si. Esos algoritmos genricamente se
llaman momentos de la variable. Hay dos fundamentales. El primero es lo que llamamos Esperanza
Matemtica. Si la variable tomase un nico valor, ese valor correspondera al nmero que llamamos
promedio o esperanza matemtica. [E(Z)].
E(Z) = ((i=1)->n)Zi*Pz






Z P(Z) F(Z)
2 1/36 1/36
3 2/36 3/36
4 3/36 6/36
5 4/36 10/36
6 5/36 15/36
7 6/36 21/36
8 5/36 26/36
9 4/36 30/36
10 3/36 33/36
11 2/36 35/36
12 1/36 36/36
36/36
0,00
0,20
2 4 6 8 10 12
Campana de Gauss
0
0,2
0,4
0,6
0,8
1
1,2
2 3 4 5 6 7 8 9 10 11 12
11

Siguiendo el ejemplo:
E(Z) = ((i=1)->n)Zi*Pz
E(Z) = 252/36
E(Z) = 7










Si todas las jugadas dieran el mismo resultado, ese resultado nico sera 7 puntos, de hecho 7 no es el nico
resultado posible, y si le asignamos a todas las jugadas el resultado 7 vamos a cometer un error. Habra
muchos criterios para medir ese error pero hay uno universal que introdujo Gauss y se lo llama Error
Estndar o Coeficiente de Dispersin Sigma [] y se define as:
= ( ((Z-E)
2
)*P(Z)

De aqu podemos ver:
E = 7
= ( ((Z-E)
2
)*P(Z)
= (210/36)
= 2,4






Aparte de la magnitud del error hay que considerar la frecuencia con que se comete. Esta variable de
ejemplo se caracteriza por dos aspectos. Esperanza (E) = 7 y Desvo 2,4. Y estos valores se vinculan entre si:
Se toma el promedio como valor central. El Factor K que
multiplica al desvo estndar esta vinculado con la
probabilidad que corresponde a ese intervalo. Cuando la
variable es simtrica la probabilidad que corresponde lo hace
como mnimo.
[1 (4/9)*(1/K
2
)] Desigualdad de Gauss



Z P(Z) F(Z) Z * P(Z)
2 1/36 1/36 2/36
3 2/36 3/36 6/36
4 3/36 6/36 12/36
5 4/36 10/36 20/36
6 5/36 15/36 30/36
7 6/36 21/36 42/36
8 5/36 26/36 40/36
9 4/36 30/36 36/36
10 3/36 33/36 30/36
11 2/36 35/36 22/36
12 1/36 36/36 12/36
36/36 252/36
Z P(Z) F(Z) Z * P(Z) (Z-E) (Z-E)
2
(Z-E)
2
* P(Z)
2 1/36 1/36 2/36 -5 25 25/36
3 2/36 3/36 6/36 -4 16 32/36
4 3/36 6/36 12/36 -3 9 27/36
5 4/36 10/36 20/36 -2 4 16/36
6 5/36 15/36 30/36 -1 1 5/36
7 6/36 21/36 42/36 0 0 0
8 5/36 26/36 40/36 1 1 5/36
9 4/36 30/36 36/36 2 4 16/36
10 3/36 33/36 30/36 3 9 27/36
11 2/36 35/36 22/36 4 16 32/36
12 1/36 36/36 12/36 5 25 25/36
36/36 252/36 210/36
E K * E + K *
12

Por ejemplo, si queremos establecer el intervalo al cual le corresponde como mnimo el 90% de la
probabilidad tenemos que resolver [1 ((4/9)*(1/K
2
)] = 0,90 K = 2,11
Entonces, en el ejemplo, Z (+/-) K * = 7 (+/-) 2,1 * 2,4 = 2 y 12. Comparndolo con el dato, tenemos 100%
de probabilidad de que ocurra, que es ms que aquel 90% como mnimo y la desigualdad se sigue
cumpliendo.
Si queremos calcular el desvo en el ejemplo, usando K = 1: E (+/-) 1 * = 7 (+/-) 2,4 = 9,4 y 4,6. Como
mnimo tengo de probabilidad: 1 (4/9) * (1/ 1
2
) = 56%
Al ir variando K, varo el nivel de probabilidad. Para K = 1 56%, para K = 2,11 90%
Si tenemos una muestra que cumple nada mas que una fraccin de los datos del experimento puede
suceder que alguno de los datos de todo el universo no estn incluidos en la muestra, pero si calculamos el
promedio y el error estndar de esa muestra, y formamos un intervalo aplicando la desigualdad de Gauss,
sabemos por lo menos que grado de certeza tenemos acerca del que los valores de la poblacin no escapan
a los lmites de ese intervalo. Si restamos y sumamos 2,1 veces el error al promedio, sabemos que por lo
menos el 90% de los datos estn acotados en ese intervalo.
En definitiva, con el promedio y el error estndar podemos generalizar los resultados parciales de una
muestra a la totalidad de los resultados de una poblacin, que por supuesto no conocemos y solo
conocemos dicha muestra.

Ejercicios recomendados de la gua para resolver (Unidad 2): del 1 al 12, 14, 16,

VARIANZA
Muchas veces el lo tomamos en escala cuadrtica

2
= (Z-E)
2
* P(Z)

2
= (2,41)
2
= 5,81
E(Z) = E(X) + E(Y)

OPERACIONES CON VARIABLES ALEATORIAS
- Suma/Suma Algebraica: cuando se suman dos o ms variables aleatorias, la esperanza da como
resultado la suma de las esperanzas de cada trmino.
EX = X * P(X) = 3,5
EY = Y * P(Y) = 3,5
EZ = EX + EY = 7

2
x = (X EX)
2
* P(X) = 2,91

2
y = (Y EY)
2
* P(Y) = 2,91

2
z = 2,91 + 2,91 = 5,82


Si se suman dos variables aleatorias, la varianza de la suma se obtiene sumando la varianza en cada una de
las variables.




X P(X) X * P(X) (X 3,50)
2
* P(X)
1 1/6 1/6 1,04
2 1/6 2/6 0,75
3 1/6 3/6 0,041
4 1/6 4/6 0,041
5 1/6 5/6 0,75
6 1/6 6/6 1,04
21/6
13

i) Esperanza de la suma: E(X+Y) = EX + EY
(X)(Y)(X+Y)P(XY) = EX + EY
(X)(Y) X P(X)P(Y) + (X)(Y) Y P(X)P(Y)
(X) X P(X) * (Y) P(Y) + (X) P(X) * (Y) Y P(Y)
Sabiendo que: (X) X P(X) = E(X) // (Y) P(Y) = 1 // (X) P(X) = 1 // (Y) Y P(Y) = E(Y)
E(X) * 1 + 1 * E(Y)
[E(X+Y) = E(X) + E(Y)]
Es anlogo para la resta E(X-Y) = E(X) E(Y)
ii) Varianza de la suma:
2
(X+Y) =
2
(X) +
2
(Y)

2
(X+Y) = (X)(Y) [(X+Y) (E(X+Y))]
2
*

P(XY)
(X)(Y) [(X E(X)) + (Y E(Y))]
2
*

P(X) * P(Y)
(X) (X E(X))
2
P(X) * (Y) P(Y) + (X) P(X) * (Y) (Y E(Y))
2
P(Y) + 2 * (X E(X)) P(X) * (Y) Y P(Y)
* (Y E(Y)) P(Y) * (X) P(X)
Sabiendo que: (X) (X E(X))
2
P(X) =
2
x // (Y) (Y E(Y))
2
P(Y) =
2
y
Y que: (X) (X E(X)) P(X) = 0 // (Y) (Y E(Y)) P(Y) = 0

2
x * 1 + 1 *
2
y + 0*1*1*0
[
2
(X+Y) =
2
x +
2
y]
- Multiplicacin Por Constante: Otra operacin comn es multiplicar una variable aleatoria por una
constante. [X KX]. En ese caso los resultados son:
i) E(KX) = K * E(X)
E(KX) = (X) (KX) P(X) Como K es una constante premultiplicativa a la suma
E(KX) = K * (X) X P(X) = K * E(X)
ii)
2
(KX) = K
2
*
2
(X)

2
(KX) = (X) [KX E(KX)]
2
* P(X)

2
(KX) = (X) [KX K * E(X)] * P(X)

2
(KX) = K
2
* (X-E(X))
2
* P(X) = K
2
*
2

iii) (KX) = K * (X)

- La tercera operacin consiste en sumar una cosntante a la variable aleatoria. [X X + A]
i) Esperanza de X + h: E(X+ h) = h + E(X)
E(X+h) = h + E(X)
E(X+h) = (X+h) * P(X)
E(X+h) = (X)P(X) + (h)P(X)
E(X+h) = E(X) + h
ii) Varianza de X + h:
2
(X+h) =
2
x

2
(X+h) =
2
x

2
(X+h) = [X + h E(X+h)]
2
* P(X)

2
(X+h) = [X - E(X)]
2
* P(X)

2
(X+h) =
2
x
iii) (X+h) = x
Ejercicios recomendados de la gua para resolver (Unidad 2): del 15 al 17, 27, 28

14

Clase 4
Variable Aleatoria (Parte 2) Unidad 2

MOMENTOS DE ORDEN SUPERIOR
Los dos momentos fundamentales son el promedio (esperanza matemtica) y el error estndar. Al primero
se lo llama momento de orden 1 porque los valores estn en forma lineal, y al cuadrado del error estndar lo
llamamos varianza, y se lo denomina momento de orden 2 porque los valores aparecen en escala cuadrada.
A veces tenemos que definir momento con potencias superiores, por ejemplo la varianza de orden 3 o como
se la llama momento centrado de orden 3

2

2
= (Z E(z))
2
P(z)

2

3
= (Z E(z))
3
P(z)

2

4
= (Z E(z))
4
P(z)
Estos momentos de orden 3 se utilizan para establecer si la variable aleatoria tiene esas
dos caractersticas tan deseables que se llaman simetra (vinculada con el momento de
orden 3) y campanularidad (vinculada al momento de orden 4). La simetra tiene la
propiedad de que el promedio esta justo en la mitad.
Siguiendo con el ejemplo de arrojar dos dados y sumarlos:
E(Z) = (Z * P) = 7 // (z) = ( (Z 7)
2
P(Z)) = 2,41 //
2
(Z) = 2,41
2
= 5,8
Cuando la variable es simtrica, el tercer momento centrado es igual a
0.
Cuando falta la simetra, definimos un coeficiente llamado de
asimetra que se define [A
S
= (+/-
3
/
3
)]. Es una forma
convencional de medir la falta de simetra pero no hay un patrn de
comparacin para decir si esa falta es tenue o acentuada.
Cuando el coeficiente vale 0, sabemos que la variable tiene simetra y
la consecuencia prctica es que entonces se tiene una concentracin
tpica de resultados en las proximidades de la esperanza matemtica
o valor promedio. Cuando se tiene simetra, por lo menos el 90% de
los resultados estn acotados dentro de ese intervalo. 2,11 es el
coeficiente de la desigualdad de gauss para 90% de probabilidad [E(Z)
+/- 2,11 * (Z) = 90%]
Momento Centrado de Orden 4
Para el momento cuarto centrado se define un
coeficiente llamado Kurtosis [K= (
4
/
4
)].
En el ejemplo
K= (
4
/
4
)=2,39
Cuando la variable es campanular, ese momento vale
3 (K=3) y cuando la variable es simtrica y campanular
(A
S
=0 y K=3) el 90% de los resultados estn acotados
dentro del intervalo. E(Z) +/- 1,645* (Z)
En el ejemplo, 7 mas ese numero abarca por lo menos
el 90% de los resultados:
7 -/+ 2,11 * 2,41 = (entre 2 y 12),
y de hecho est el 100% de los valores posibles.
Cuando tenemos campanularidad (K=3) tiene que
cumplirse que por lo menos el 90% de los resultados
est comprendido dentro de este intervalo:
7 +/- 1,645 * 2,41 = (entre 3 y 11), que es el 94%.
En este ltimo caso todava se cumple, pero no necesariamente tendra que verificarse, porque la kurtosis
no es = 3 y no tenemos campanularidad y solo simetra.
Z P(Z) (Z-E)
3
* P(Z)
2 1/36 -125/36
3 2/36 -128/36
4 3/36 -81/36
5 4/36 -32/36
6 5/36 -5/36
7 6/36 0
8 5/36 5/36
9 4/36 32/36
10 3/36 81/36
11 2/36 128/36
12 1/36 125/36
36/36 0
Z P(Z) (Z-E)
3
* P(Z) (Z-7)
4
* P(Z)
2 1/36 -125/36 625/36
3 2/36 -128/36 512/36
4 3/36 -81/36 213/36
5 4/36 -32/36 64/36
6 5/36 -5/36 5/36
7 6/36 0 0
8 5/36 5/36 5/36
9 4/36 32/36 64/36
10 3/36 81/36 213/36
11 2/36 128/36 512/36
12 1/36 125/36 625/36
36/36 0 2838/36
15

En definitiva, las caractersticas de simetra y campanularidad se utilizan para vincular la esperanza o
promedio con el error estndar. Siempre tomamos un intervalo restando y sumando al promedio el error
estndar, multiplicando por ciertos factores. Es decir, un mltiplo del error estndar.
- Cuando la simetra es 0 y la Kurtosis 3, ese mltiplo vale 1,64.
- Cuando la simetra es 0 y la Kurtosis no es 3, ese mltiplo vale 2,11.
- Como caso lmite, cuando la falta de simetra sea muy grande, ese nmero vale 3,16.
E(Z) +/- 3,16 * (Z), donde 3,16 es el coeficiente de Chevichev (caso lmite)

Calculo abreviado de los momentos superiores
Varianza:
2
= (Z - E(Z))
2
* P(Z)
= Z
2
P(Z) + E
2
(Z) P(Z) 2E(Z) ZP(Z)
Donde P(Z) = 1 y ZP(Z) = E(Z) y Queda:
= Z
2
P(Z) + E
2
(Z) 2 * E(Z) * E(Z)

2
= Z
2
P(Z) E
2
(Z)
Remplazando en la frmula por el valor de la tabla:

2
= Z
2
P(Z) E
2
(Z) = 1974/36 - 7
2
= 5,83
= (5,83) = 2,4









Calculo del tercer momento centrado utilizando momentos absolutos

3
= (Z E(Z))
3
* P(Z)

3
= (Z
3
* P(Z)) 3 (Z * P(Z)) *(Z
2
* P(Z)) + 3 (Z*P(Z))
2
* (Z*P(Z)) (Z * P(Z))
3
* (P(Z))
Donde: Z
3
* P(Z) = m3 // Z * P(Z) = m2 // Z
2
* P(Z) = m1 // Z*P(Z))
2
= m

4
= (Z E(Z))
4
* P(Z) = m4 4*m3*m1 + 6*m2*(m1)
2
*3(m1)
4

Ejercicios de la gua para resolver (Unidad 2): 39 y 40.

VARIABLES ALEATORIAS DEPENDIENTES
En nuestro ejemplo en el cual arrojamos los dados y definimos la variable sumando los puntos que aparecen
en la cara superior, trabajamos con variables independientes. El resultado de un dado no influye para nada
en el resultado del otro dado porque son independientes. Calculamos la probabilidad conjunta como
producto de probabilidades simples y porque son independientes tambin se cumple que la esperanza de la
suma equivale a la suma de las esperanzas y la varianza de la suma a ala suma de las varianzas. Esto ltimo
precisamente deja de ser vlido cuando las variables ya no son independientes. Hay que introducir otro
momento de segundo orden que se denomina Covarianza. [CV(X,Y)] u [
XY
].
Ejemplo: Preguntamos a los alumnos cuanto tardan en llegar a la facultad y adems les preguntamos a que
distancia viven.



Z P(Z) Z
2
Z
2
* P(Z)
2 1/36 4 4/36
3 2/36 9 18/36
4 3/36 16 48/36
5 4/36 25 100/36
6 5/36 36 180/36
7 6/36 49 294/36
8 5/36 64 320/36
9 4/36 81 324/36
10 3/36 100 300/36
11 2/36 121 242/36
12 1/36 144 144/36
36/36 1974/36
16

Esperamos en principio al que el que vive mas lejos tarde mas en
llegar, pensamos que la distancia repercute en el tiempo de viaje.
Esa repercusin se mide en forma convencional a travs de un
coeficiente llamado covarianza.

CV(X,Y) = X*Y*PXY EX*EY. En el ejemplo:
[40*10*(15/39)+60*10*(4/39)+90*10*(1/39)+40*20*(3/39)+60*20*(10/39)+90*20*(6/39)]
[(40*(18/39)+60*(14/39)+90*(7/39))*(10*(20/39)+20*(19/39)) = 49,5

La covarianza es 49,5, eso significa que entre distancia y demora hay una repercusin de 49,5. Pero esa
repercusin tiene unidad que soin minutos y kilmetros, y no podemos establecer si es importante o si no lo
es. Lo nico que nos informa eese numero es el signo (+). A mayor distancia, mayor tardanza. Pero no
tenemos ningn criterio para decidir si la distancia influye poco o mucho en la tardanza. Para conseguir esto
ltimo transformamos la covarianza en lo que se llama coeficiente de correlacin. C
R
=
(C
V
(X,Y)) / ((X) *
(Y))
En el ejemplo:

2
(X) = (X - E(X))
2
* P(X)
= X
2
* P(X) E
2
(X)
= (40
2
*(18/39)+60
2
*(14/39)+90
2
*(7/39)) (40*(18/39)+60*(14/39)+90*(7/39))
2
= 332

2
(Y) = (Y - E(Y))
2
* P(Y)
= X
2
* P(X) E
2
(X)
= (10
2
*(20/39)+20
2
*(19/39)) (10*(28/39)+20*(19/39))
2
= 25
C
R
= 49,5 / (332 * 25) = 0,54333 y se cumple que (-1<=C
R
<=1)
Si el coeficiente da dentro de la franja (-0,8;+0,8) el resultado es no
significativo, si esta dentro de (-1;-0,8)U(+0,8;+1), si.
La distancia que se recorre tiene una incidencia significable en el
tiempo que se demora. Tendr una repercusin, pero es
insignificante. Podemos tratar a las variables como si fueran independientes.
Cuando X,Y son independientes: E(X+Y) = E(X) + E(Y) //
2
(X+Y) =
2
(X) +
2
(Y)
Cuando X,Y no son independientes: E(X+Y) = E(X) + E(Y) //
2
(X+Y) =
2
(X) +
2
(Y) + 2C
V
(X,Y)

Ejercicios de la gua para resolver (Unidad 2): 36 y 37.

VARIABLES ALEATORIAS CONTINUAS:
Hasta ahora, el espacio de resultados que consideramos tiene una cantidad finita de elementos y por esto
podemos definir la probabilidad como el cociente entre la cantidad de casos favorables y la cantidad de
casos posibles Pero si los casos posibles fueran infinitos cualquier probabilidad puntual valdra 0, y en
magnitudes continuas (tiempo, espacio, longitud) los casos posibles son infinitos. Esto nos obliga a abordar
la definicin de probabilidad con otro enfoque.
Ante todo la probabilidad no se mide para un valor puntual y especfico, sino para cierto intervalo de
valores, como mnimo para un diferencial. Y en segundo lugar, el clculo de la probabilidad tampoco es un
cociente cuando la variable es continua. Se lleva a cabo atreves de una funcin auxiliar que llamamos
funcin de densidad o de frecuencias, y esa funcin hay que definirla para cada problema.
Supongamos que la variable es el tiempo necesario para resolver un examen. Nadie lo resuelve en menos de
una hora, pero a partir de ese valor, el tiempo queda abierto X>=1 o 1<=X<=. A esa variable le asociamos
una funcin de densidad que nos va a servir para calcular probabilidades y que postulamos as:





40 60 90
Hasta 10Km 15 4 1 20
Hasta 20Km 3 10 6 19
18 14 7 39
17

F
a
= 3 * X
-4
(donde a es funcin de densidad)
Las ordenadas de esa funcin no son probabilidades. En el caso
continuo las probabilidades son las reas bajo la funcin. Por ejemplo,
la probabilidad de que la resolucin del examen necesite entre 1:30hs y
2:30hs.

P(1,5<=X<=2,5) = (1,52,5) 3 * X
-4
dx = -X
-3
|(1,52,5) = 0,23229
Eso quiere decir que el 23% de los alumnos necesita entre 1:30hs y 2:30hs para resolver el examen y eso
siempre y cuando la funcin de densidad se adece a la realidad del experimento. Como condicin, a parte
de reflejar la realidad la funcin de densidad tiene que verificar siempre
(-) F(X)

dx = 1
En el ejemplo: (1,5) 3 * X
-4
dx = -X
-3
|(1,5) = ((-1/) + (1/1
2
)) = 1

ESPERANZA DE UNA VARIABLE CONTINUA
En este caso del ejemplo, la variable indica cuanto los alumnos demoraran en promedio en resolver el
examen.
Si fuera discreta tendramos E(X) = X * P(X).
Al ser continua, integro: (-+)X * P(X) dx
Y en el caso particular del ejemplo: (1) X * 3 * X
-4
dx = (-3/2) * X
-2
|(1+) = 1,5
En promedio, el curso necesita 1:30hs de labor para resolver el examen, pero algunos tardarn mas de
1:30hs y otros menos. Hay un criterio convencional para ese + y ese al que llamamos error estndar en
escala lineal o que llamamos varianza en una escala cuadrtica.
En el caso discreto tendramos:
2
= (X-E)
2
* P(X) X
2
* P(X) E
2
(X)
En el caso continuo, integrando:
2
(X) = (-+) X
2
F(X) dx E
2
(X)
Y en nuestro caso ejemplo: (1) X
2
* 3 * X
-4
dx 1,5
2
= -3 * X
-1
|(1 ) -1,5
2+
=
-3((1/) - 1) 2,25 =
2
(X) = 0,75 (X) = 0,866 (error estndar)
Al ser fuertemente asimtrico, queda por Chevichev (90 +/- 3,16).
La funcin de densidad debe ser integrada para que proporcione probabilidades, pero an en el caso
continuo tenemos una funcin en la cual la sustitucin directa proporciona probabilidades. La llamamos
funcin de distribucin acumulativa. Y en este caso es:
F(X) = 1 X
-3
, para F(X) = 3 * X
-4
(derivada de la integral)
Entre ambas funciones debe verificarse la relacin:
[(d/dx) F(X) = f(x)] (con el primer termino como acumulativa y el segundo densidad)
En el ejemplo: (d/dx) 1 X
-3
= 0 + 3 X
-4

P(1,52,5) = F(2,5) F(1,5) = (1-(1/2,5
3
)) (1-(1/1,5
2
)) = 0,23229 = 23%

Ejercicios de la gua para resolver (Unidad 2): del 18 al 35.














F(X)
1 3
2 0,18
3 0,04
4 0,01
18

Clase 5
VARIABLES ALEATORIAS ESPECIALES (PARTE 1) UNIDAD 3

VARIABLES ALEATORIAS ESPECIALES
Identificamos algunas caractersticas del experimento aleatorio y le aplicamos algunas variables adecuadas a
esas peculiaridades.
1) Binomial
a. Los resultados son cualitativos (Ej: par/impar, varn/mujer) y dicotmicos (solo 2 resultados
posibles). Solemos llamarlos xito y fracaso.
b. Se conoce de antemano la probabilidad de xito [p].
c. El experimento se repite n veces.
d. No hay repercusin entre resultados consecutivos, hay independencia.
En estas condiciones la probabilidad de obtener cierta cantidad de xitos x la llamamos P
B
(P Binomial)
P
B
= (n! / (x! (n - x)!)) * P
x
* (1 - p)
n-x
Ejemplo: un vendedor realiza 5 visitas diarias de 5 clientes por da. La probabilidad que tiene en cada
visita de tomar un pedido es 20%. Lo peor que puede pasarle es no tomar pedidos. Lo mejor es tomar
los 5 pedidos. Calcular la probabilidad de hoy realizar 3 ventas.
Entonces, datos: n = 5 // p = 0,20 // 0<=x<=5
P
B
(x=3) = (5! / (3! * (5-3)!) * (0,20)
3
* (1 0,2)
5-3
= 0,0512 = 5%
Con estos se puede armar la variable aleatoria (Columna 2 de la tabla)
Luego la esperanza matemtica indica cuantas ventas en promedio realiza cada da. (Col 3)
E
B
= x * Px
1 = 5 * 0,2 = n * p
E
B
= n * p
Hay una cierta variabilidad respecto al promedio, y
esta variabilidad se mide en forma convencional
con el coeficiente de error estndar. (Col 4)
(x) = ((x E(X))
2
* P(x))
(x) = (0,8) = (5 * 0,2* (1 - 0,2) = 0,89
(n * p * (1-p)) Sigma Binomial

Ejercicios de la gua para resolver (Unidad 3): del 1 al 8;
y (Unidad 1): 24

2) Hiper Geomtrica
Es una variante de la distribucin binomial. En la binomial la probabilidad de xito p se mantiene
constante entre pruebas consecutivas. En la hiper geomtrica, esa probabilidad se va modificando de
una a otra prueba. Pero adems los datos de planteo son otros. Se habla de una poblacin de tamao N
que es la totalidad de datos de experimento y se habla de una muestra de tamao n que es una fraccin
de esos datos.
Para la primera prueba: P1 = k / n, donde k es la cantidad absoluta de xitos para una poblacin de n
datos. En estas condiciones, la probabilidad de obtener cierta cantidad de xitos es:
P
H
= {[k! / (x! * (k x)!)] * [(N k)! / ((n x)! * ((N k) (n x))!)]} / (N! / (n! * (N n))!)
Ejemplo: un vendedor tiene una zona con 20 clientes, pero cada da visita solo 5. Se estima que de los
20 clientes, solamente 3 hoy estn dispuestos a comprar. Pero esos 3 clientes estn repartidos entre los
x
P
B
X * Px (x 1)
2
* P(x)
0 0,3277 0 0,3277
1 0,4096 0,4096 0
2 0,2048 0,4096 0,2048
3 0,0512 0,1536 0,2048
4 0,0064 0,0256 0,0576
5 0,0003 0,0015 0,048
1,0000 1,0000 0,89

19

5 que hoy visita y los 15 que deja de visitar. En estas condiciones, calcular la probabilidad de que hoy
realice 2 ventas.
Entonces los datos son: N = 20 // n = 5 // k = 3 // x = 2
P
H
(x = 2) = [(3! / (2! * 1!)) * (17! / (3! * (17 3)!))] / (20! / (5! * 15!)) =
P
H
(x = 2) = (3 * 680) / 15504 = 0,13157 = 13%
Se define la variable (Col 2)
En este caso, la esperanza de la hiper geomtrica es la cantidad de ventas promedio que har visitando
cada da a la cuarta parte de los clientes y si efectivamente todos los das
hay solo 3 clientes entre los 20 que necesitan comprar (Col 3)
E
H
= (03) (x * P
H
) = 0,7907
E
H
= (n * k) / N = (5 * 3) / 20 = 0,75
Por supuesto da a da el resultado se va a modificar. A veces vende mas
de 3/4 , a veces menos. Tambin tenemos una frmula especfica para el
error estndar de la variable hiper geomtrica.

H
= ( [(N - n)/(N 1)] * [(n * k)/N] * [1 (k/N])

H
= ( [(20 - 5)/(20 1)] * [(5 * 3)/20] * [1 (3/20])

H
= 0,71 para E
H
= 0,75
El error estndar es casi tan grande como el promedio. Consecuencia prctica: con el promedio no
podemos hacer ninguna proyeccin ni ninguna prediccin. La variabilidad es descomunal y la realidad
concreta va a ser muy diferente del promedio.
El error estndar es muy elevado porque la funcin hiper geomtrica de
probabilidad es fuertemente asimtrica. Solo cuando trabajamos con
variables simtricas podemos usar el promedio para hacer
proyecciones, para hacer predicciones, para hacer descripciones. El
promedio es siempre un nmero ideal, pero cuando la variable es
simtrica y solo entonces, el promedio se asemeja a los resultados
concretos.
Al costado se encuentra la grfica del ejemplo, donde se ve la asimetra.
Ejercicios de la gua para resolver (Unidad 1): 10 y 11.

3) Poisson
Matemticamente deriva de la variable binomial
P
B
= [n! / (x! * (n x)!)] * [p
x
] * (1 p)
n-x
Haciendo: n 0 y p 0
P
B
= e
(-n * p)
* ((n * p)
x
/ x!)
Agrupo: = n * p
P
P

= e
-
* (
x
/ x!) Probabilidad de Poisson
Cuando el nmero de ensayos tiende a infinito y la probabilidad de xito en cada ensayo tiende a 0, la
frmula binomial equivale a la otra, a la que llamamos probabilidad de Poisson.
A veces es necesario recurrir a la frmula de Poisson porque matemticamente no se conoce por
separado cuanto valen n y p, pero en cambio si se sabe cuanto vale empricamente el promedio de
xitos y en el esquema binomial el promedio de xitos es precisamente el producto de n * p.
La frmula binomial para su aplicacin requiere conocer por separado el valor de ambos parmetros. En
la frmula de Poisson podemos introducirlos en bloque. Vale decir que podemos usar directamente el
promedio y a veces el planteo informa solamente cuanto vale ese promedio.
Ejemplo: una caldera necesita una reparacin integral cada 10 aos en promedio. El dato es un
promedio histrico. En realidad ese dato es el producto de dos factores: la
probabilidad de que la caldera se rompa (infinitesimal) y el numero de ensayos
(infinitos instantes). No conocemos por separado cuanto valen dichos factores,
pero sabemos que para un perodo de 10 aos el promedio vale 1. Calcular la
probabilidad de que la caldera no necesite mantenimiento en 10 aos.
x
P
H
X * Px
0 0,3991 0
1 0,4605 0,4605
2 0,1316 0,2632
3 0,0220 0,0660
1,0000 0,7907

0
0,2
0,4
0,6
1 2 3 4
x
P
P

0 0,36
1 0,36
2 0,18
3 0,06
4 0,01

1

20

Datos conocidos: n * p = 1 // x reparaciones
P
P
(x = 0) = e
-1
* (1
0
/0!) = 0,36787
Aproximadamente una caldera de cada 3 no necesita mantenimiento.
Probabilidad de que necesite reparacin una sola caldera
P
P
(x = 1) = e
-1
* (1
1
/1!) = 0,36787
Como esta funcin tiene doble mximo se dice que es Bimodal. (Igual probabilidad en 0 y 1)
La esperanza de Poisson es igual a
E
P
= = n * p
E
P
= = 1
El desvo estndar de Poisson, en general es ()

P
= ( (x E)
2
* P
P
)

P
= ()
En este caso (1) = 1
La esperanza matemtica o promedio de Poisson siempre esta referido a una unidad de tiempo (en el
ejemplo, 10 aos). A veces tomamos una fraccin o un mltiplo de ese lapso, por ejemplo 5 aos.
Aceptamos que la esperanza matemtica cambie en forma proporcional.
En el ejemplo:
= 1 cada 10 aos
* = 0,50 cada 5 aos
P(x = 1 pero en 5 aos)
e
-0,5
* (0,5
1
/ 1!) = 0,30 (0,36 de la P
P
(x=1 en 10 aos))
Para que sea vlido aplicar el lmite de Poisson tienen que darse 2 requisitos:
1- La esperanza matemtica o promedio no debe cambiar a lo largo del tiempo. En el caso de la
caldera no hay envejecimiento ni asentamiento. La probabilidad de falla es uniforme a lo largo de
los 10 aos.
2- Debe existir independencia entre 2 eventos consecutivos, en este caso efectuar una reparacin, no
influye para bien ni para mal en el funcionamiento posterior de la caldera.
Ejercicios de la gua para resolver (Unidad 3): 10 a 14, y 16 a 19 (15 solo mirar)

4) Exponencial Negativa
Deriva de la variable de Poisson. En realidad es el mismo problema pero la incgnita es simtrica. En
Poisson el dato cierto es una magnitud de tiempo (los 10 aos del ejemplo anterior de la caldera), lo
incierto es que en ese perodo de 10 aos, la caldera no se rompa o se rompa una vez, o dos veces, o en
teora infinitas veces. En Poisson entonces lo contingente es cuantas veces ocurre el proceso, incluido
ninguna. En la exponencial negativa, se toma como dato cierto que el suceso ocurre por dos veces
consecutivas, y lo contingente es cuanto tiempo discurre entre esas dos presentaciones. El tiempo es
una variable continua y en consecuencia ya no tenemos una funcin de probabilidad sino una funcin
de densidad que una vez integrada proporciona las probabilidades.
F
EXP-
= F
t
= (1 / ) e
(-(t / ))


Ejemplo: siguiendo con el anterior, cada 10 aos reparar la caldera, pero ahora calcular la probabilidad
de que transcurran entre 5 y 20 aos entre dos reparaciones sucesivas. Se da como hecho necesario
que va a haber 2 reparaciones consecutivas, lo incierto es que medie un perodo acotado entre 5 y 20
aos.
Datos: = 1 (cada 10 aos (esperado) = 10)
P
EXP-
(5<=t<=20) = (520) [(1 / 10) * e
(-t/10)
] dt = e
(-5/10)
e
(-20/10)
= 0,47
Resolucin de la integral: (t1 t2) [(1/k) * e
(-t/k)
] dt = e
(-t1/k)
e
(-t2/k)
21


Ejemplo 2: probabilidad de que corran 15 aos entre 2 reparaciones sucesivas.
P
EXP-
(t > 15) = (15) [(1/10) * e
(-t/10)
] dt = e
(-15/10)
e
(-)
= 0,22 0 = 0,22
La variable se ve reflejada en la tabla.
La funcin es fuertemente asimtrica, lo que
significa error estndar elevado y en concreto que
con el promedio no se pueden efectuar
preduiccones. Hablar del tiempo promedio en este
caso no nos dice nada aceraca de cueandio puede
ser necesario una reparacin. Puede estar muy
prxima o ser muy lejana.
E
EXP-
= = 10 aos
E
EXP-
= (0)[t * (1/10)e
(-t/10)
]dt = 10

EXP-
= (0) [(t 10)
2
* (1/10) * e
(-t/10)
] dt = 10
E
EXP-
=
EXP-
Ejercicios de la gua para resolver (Unidad 3): 21 a 23

5) Gamma
Es una generalizacin de la funcin exponencial negativa. En la exponencial negativa, la incgnita es el
tiempo que corre entre dos presentaciones consecutivas, en la Gamma el tiempo que corre entre varias
presentaciones consecutivas.
= nmero de presentaciones (en F
EXP-
= 2)
= tiempo medio entre dos presentaciones ( en F
EXP-
; en Poisson)
= ! (si es entero, si es racional es segunda funcin de Euler)
El tiempo que corre entre varias presentaciones de un suceso aleatorio
cuando las presentaciones son independientes unas de otras y cuando la taza de presentacin
permanece constante en el tiempo muchas veces puede describirse con esta funcin de densidad f

f

= (1/

) * (1/

) * (t
-1
) * e
-t/
Funcin Gamma de Densidad (
=
!)

Ejemplo: una caldera necesita reparacin cada 10 aos en promedio. Tomamos un lapso de 40 aos.
Queremos calcular la probabilidad de tener 3 reparaciones en ese lapso.
Datos enunciados: = 10 // 0<=t<=40 // = 3
P

(t<40) = (040) [(1 / 10


3
) * (1 / 3!) * (t
3-1
) * (e
(-t / 10)
)]
Uso Integral de Erlang 1 (0(-1)) e
-t
1
/
* [ (t
1
/ )
t
/ t! ]
Para t1 = 40 1 [ e
-40/10
* (0(3-1)) ((40 / 10)
t
/ t!) ] =
1 0,0183 (02) (4
t
/ t!) = 1 0,0183 * [(4
0
/ 0!) + (4
1
/ 1!) + (4
2
/ 2!)] = 1- 0,0183 * 13 = 76%

En este caso es un nmero entero, por su naturaleza debe serlo, pero muchas veces el tiempo
promedio se calcula sobre datos experimentales: el valor , que est vinculado a , y entonces se
convierte en un nmero racional y tenemos que calcular factoriales de un nmero racional.
Ejemplo: = 3,13 ! = 3,13! = ? 3! < 3,13! < 4! 6 < 3,13! < 24
Uso la frmula de Stirling, donde el factorial buscado es muy aproximadamente: (2n) * n
n
* e
-n

3,13! ~= (2 * * 3,13) * 3,13
3,13
* e
-3,13
~= 6,89563
La frmula exacta es la de la Segunda Integral de Euler: 3,13! = (0) [X
(-3,13-1)
* e
-x
]dx =
3,13

x
(1/10) * e
(-t/10)

0 0,1000
1 0,0368
2 0,0135
3 0,0050
4 0,0020


0
0,05
0,1
1 2 3 4 5
22

Clase 6
Variables Aleatorias Especiales (Parte 2) Unidad 3
La distribucin Gamma toma como dato cierto que se realizan varias presentaciones d un suceso
aleatorio. El parmetro es la cantidad de presentaciones. Cuando vale 2 estamos en un caso
particular que se llama exponencial negativa. Cuando es mayor que dos aplicamos la distribucin
Gamma. La incgnita es cuanto tiempo corre entre esas varias presentaciones. Tenemos un dato ms, el
parmetro que es el tiempo que transcurre entre 2 presentaciones sucesivas. Se puede calcular la
esperanza matemtica de la distribucin Gamma:
E

= (0) [x * (1/p

) * (1/

) * (X
-1
) * (e
(-/)
)] dx Todo el interior de la integral menos la x equivale a f

E

= (0) [x * f

] dx = *
El resultado intuitivo en tiempo promedio entre varias presentaciones de un suceso aleatorio es el
tiempo medio entre dos presentaciones multiplicado por la cantidad de presentaciones consideradas.
Tambin se puede calcular la variabilidad respecto de ese tiempo medio o esperanza matemtica. Se lo
mide como desvo estndar y en el caso de la distribucin Gamma toma el siguiente valor:

= ((0)[(x - ( * )
2
* f

dx] = () *
Estas frmulas son tiles porque muchas veces en el planteo del problema no se indican los parmetros
y , sino que los datos del problema son algunos datos experimentales. A partir de ellos tenemos que
calcular la esperanza y el error estndar y deducir los valores de los parmetros y si los resultados
del experimento correspondieran a una distribucin Gamma.

Ejemplo: Preguntamos a 5 alumnos cuanto gastan cada da en movilidad. La pregunta es si esos
resultados pueden ajustarse con una distribucin Gamma
X = {2,40; 3; 4,6; 6; 8}
El primer paso es buscar la esperanza matemtica y el error estndar de los datos:
E
X
= (x * P
X
) = 4,80

X
= ( (x 4,8)
2
* P
x
) = 2,04
Tambin puede afirmarse que:
* = 4,8
() * = 2,04
Despejando: = 5,52 y = 0,87
Si la variable tomara una distribucin Gamma:
P(x<=4,6) = (0 4,6) [(1 / 0,87
5,52
) * (1 / 5,52!) * x
4,52
* e
(-x / 0,87)
] dx
P(x<=4,6) = 1 - E(-4,6 / 0,87) * (05) [(4,6 / 0,87)
x
/ x!]
P(x<=4,6) = 1 0,0051 [1 + 5,29 + 13,98 + 24,64 + 32,56 + 34,43] = 0,42931
P
EXPERIMENTAL
= 3 / 5 = 0,6
Ejercicios de la gua para resolver (Unidad 3): 26 y; (UnidadA): 5 a 8 y 10(b)







23

6) Distribucin Uniforme o Rectangular
Las distribuciones exponencial negativa y Gamma son fuertemente asimtricas, de hecho esto significa
que el error estndar es una fraccin muy grande del promedio. En el ejemplo que vimos recin (E
=
4,8
;


= 2,04)
/
E

= 42%, esto significa que el error de variabilidad es un 42% del promedio, lo cual es
mucho.
Concretamente con ese promedio de 4,8 no podemos describir ni predecir ante cualquier caso
concreto. Va a haber una diferencia muy grande entre la realidad y el promedio o esperanza
matemtica, y el error es grande porque la asimetra es fuerte. Para que el promedio sea aplicable como
valor descriptivo y predictivo, la distribucin de probabilidad tiene que ser ante todo simtrica. La
distribucin base fundamental que presenta esa caracterstica de simetra es la
distribucin uniforme, cuya funcin de densidad es:
[F
X
= 1 / (x
1
x
0
)] para x
0
<= x <= x
1
Es decir que la ordenada es siempre la misma para todo valor de x.

Ejemplo: una caldera tiene una vida til estimada de 50 aos. Por experiencia
se sabe que es casi imposible que requiera mantenimiento los primeros 5 aos de vida. Pero a partir del
ao 5 y hasta el ao 50, en cualquier momento y con la misma probabilidad puede requerir un
mantenimiento de emergencia. Calcular la probabilidad de que ese mantenimiento sea necesario entre
los aos 20 y 40 de vida.
Datos: 5<=x<=50 // F
x
= 1 /(50 - 5)
P(20 < x < 40) = (20 40) F
x
= (1 / (50 5)) = ((40 20) / 45) = 44%

Podemos calcular la esperanza matemtica de la rectangular. En este caso
si tenemos varias calderas, cuanto demorar en promedio la reparacin
de emergencia:
E
RE
= (X
0
X
1
) (X * (1 / (X
1
X
0
))) dx = (X
0
+ X
1
) / 2
((50 + 5) / 2) = 27,5
Eso no significa que todas las calderas fallen a los 27,5 aos, algunas fallan antes y otras despus. Esa
variabilidad se mide como desvo estndar. Y en el caso de la distribucin uniforme es:

RE
= ((X
0
X
1
) (x ERE)
2
* (1 / (X
1
X
0
))) dx
(X1 X0) / 12 = 12,99

RE
/ E
RE
= 13/27 = 50%

Ejercicios de la gua para resolver (Unidad 2): 33 a 35










24

7) Distribucin Normal o Gauss
Un fenmeno aleatorio cuyos resultados varan por la concurrencia de muchos factores que operan de
manera independiente unos de otros que estn relativamente atomizados. No hay ningn factor que
sea preponderante ante todos los dems, tiende a distribuir sus resultados con una frecuencia
caracterstica que se ajusta a esta funcin de densidad:
FX = (1/2) * (1/) * e
-(1/2) * ((x )/ )^2
Se la llama normal porque se la considera que es el esquema ideal para reflejar un fenmeno aleatorio.
Cualquier otra distribucin se compara con ella para saber en que difiere del esquema ideal.
Por ejemplo, la exponencial negativa se distingue de la normal porque la causa de variacin, si bien
muchas reconocen una preponderante que es el tiempo. La distribucin Gamma se distingue de la
normal porque las causas de variacin son muchas, hay unas pocas que tienen mas peso que las otras.
La funcin normal es simtrica, la rectangular tambin lo es. Pero lo caracterstico de la normal es la
fuerte concentracin de los resultados cerca del promedio. Tal vez ningn resultado concreto coincida
directamente con el promedio, pero todos los resultados son similares a l.
Esa caracterstica de fuerte concentracin le da una grfica
particular a la funcin, una curva con un solo mximo, simtrica,
con una concentracin caracterstica entorno al promedio. En
definitiva hace que la grfica tome forma de campana, porque en la
concentracin existen dos puntos de inflexin de la variable.
Incluye dos parmetros que son la esperanza y el desvo estndar.
Esos parmetros se establecen por tcnicas especiales, por un
anlisis especial. Si un conjunto de datos sigue la distribucin normal por ahora aceptamos como dato
del problema en la variable normal, que la esperanza y el desvo estndar se conocen.

Ejemplo 1: el tiempo de arribo de un alumno toma la distribucin normal y aceptamos que la media son
55 minutos y la variabilidad entre los alumnos medida como desvo estndar es de 8 minutos. En esas
condiciones calcular la probabilidad que un alumno demore como mximo 65 minutos.
Datos: x es normal // = 55 // = 8 // P(x <= 65) // - <= x <= +
P(x <= 65) = (-65)[(1 / (2)) * (1/8) * (e
-(1/2) * ((x 55)/ 8)^2
)] dx
Las funciones que no tienen primitiva se desarrollan como polinomio, se integran trmino a trmino con
un grado aceptable de error y ese resultado es el que se encuentra en las tablas.
Pero para simplificar la tabulacin se efecta un cambio de variable: [ ((X ) / ) = Z ]
((65 55) / 8) = 1,25
(-1,25)[(0,40 * (e
-(1/2) * Z^2
)] dx
Y esta integral se busca en tabla
(-3,53,5) = ? = 89%
Ejemplo 2: Qu proporcin de alumnos tarda, a lo
sumo, 50 minutos?
P(x <= 50) =
P(Z <= ((50 - 55) / 8)) =
P(Z <= -0,625) =
(-3,5-0,625) [F
Z
] dz
Y esta integral se busca en tabla
(-3,5-0,625) = ? = 26%

25

Ejemplo 3: Cul es la probabilidad que un alumno demore ms que 70 minutos?
P(x >= 70) =
P(Z >= ((70 - 55) / 8)) =
P(Z >= 1,87) =
(1,873,5) [F
Z
] dz
Y esta integral se busca en tabla
(1,873,5) = ? = 0,9693
Pero en la tabla la acumulacin siempre es a la izquierda, pero buscamos
en este caso la acumulacin a la derecha, por lo tanto hay que calcular 1 el resultado.
1- 0,9693 = 0,0307 = 3%

Ejemplo 4: Qu proporcin de alumnos tarda ms que 40 minutos?
P(x > 40) =
P(Z >= ((40 - 55) / 8)) =
P(Z >= -1,87) =
(-1,873,5) [F
Z
] dz
Y esta integral se busca en tabla
(-1,873,5) = ? = 0,0307
1- 0,0307 = 0,9693 = 97%

Ejemplo 5: Qu proporcin de alumnos tarda entre 43 y 59 minutos?
P(43 <= x <= 59) =
P(((43 55) / 8) <= Z <= ((59 - 55) / ))) =
P(-1,5 <= Z <= 0,5) =
(-1,50,5) [F
Z
] dz =
(-3,50,5) - (-3,5-1,5) =
Se buscan en tabla las integrales:
0,6915 0,068 = 0,6235 = 62%



El problema ms comn de la distribucin normal es la resolucin del planteo recproco. El dato es la
probabilidad y la incgnita el valor de la variable que le corresponde. Lo que se denomina una ecuacin
en probabilidades.
Ejemplo 6: El 90% de los alumnos no superan cierto tiempo de arribo Cul es ese tiempo?
Existe un tope X
0
tal que P(x <= X
0
) = 0,90. Hallar X
0.
(-3,5 X
0
) X
0
= ?
P(Z <= ((X
0
55) / 8)) = 0,90
En tabla, el valor mas aproximado a 0,90 es 1,29
X
0
= (1,29 * 8) + 55 = 62,32
El 90% de los alumnos tarda 65,4 minutos o menos

Ejemplo 7: El 15% de los alumnos no superan cierto valor Cul es el valor?
Hallar X
0
tal que P(x <= X
0
) = 0,15
P(Z <= ((X
0
55) / 8)) = 0,15
En tabla, el valor mas aproximado a 0,15 es -1,04
26

X
0
= (-1,04 * 8) + 55 = 46,68

Ejemplo 8: El 35% de los alumnos superan cierto lapso Cul es?
Hallar X
0
tal que P(x >= X
0
) = 0,35
P(Z >= ((X
0
55) / 8)) = 0,35
Como necesito el 35% superior, busco el 65% en tabla:
El valor mas aproximado a 0,65 es 0,39
X
0
= (0,39 * 8) + 55 = 58,12

Ejemplo 9: El 99% de los alumnos demora mas que cierto rango Cul es?
P(x >= X
0
) = 0,99, Hallar X
0
P(Z >= ((X
0
55) / 8)) =
Como necesito el 99% superior, busco el 1% en tabla:
El valor mas aproximado a 0,01 es -2,33
X
0
= (-2,33 * 8) + 55 = 36,36

Ejemplo 10: El 90% de los alumnos necesita entre un mnimo y un mximo. Cuales cotas?
P(X
1
<= x <= X
0
) = 0,9
P([(X
1
55)/8] <= x <= [(X
0
55)/8]) = 0,9
Por convencin se divide el margen a buscar entre las dos
puntas, por lo tanto no busco 0,1 en tabla sino la mitad: 0,05.
El valor hallado para 0,05 es -1,64. Y para el otro extremo el
mismo mecanismo, pero para 1 - 0,05 = 0,95. Y el valor
hallado en tabla es el simtrico: 1,64.
X
0
= (-1,64 * 8) + 55 = 41,88 = 42
X
0
= (+1,64 * 8) + 55 = 68,12 = 68
Conclusin: el 90% tarda como mnimo 42 y como mximo 68 minutos.

Ejercicios de la gua para resolver (Unidad 3): 27 a 37
















27

Clase 7-a
APROXIMACIONES UTILIZANDO LA FUNCIN NORMAL DE GAUSS UNIDAD 3

APROXIMACIN DE LA DISTRIBUCIN GAMMA UTILIZANDO LA FUNCIN NORMAL DE GAUSS
En general cualquier distribucin de probabilidad se puede aproximar mediante la distribucin normal en la
medida que tenga cierta simetra. La distribucin Gamma es simtrica pero va ganando simetra a medida
que el parmetro aumenta. Precisamente cuando es grande calcular las probabilidades Gamma
utilizando la formula Erlang es sumamente laborioso y podemos evitarlo utilizando la aproximacin normal.
Adems cuando no es entero la formula Erlang tambin es aproximada, por esto muchas veces las
probabilidades Gamma se calculan utilizando la funcin normal de Gauss.
Retomando un ejemplo de Gamma de la clase anterior:
X = {2,40; 3,00; 4,60; 6,00; 8,00} = 4,8 y = 2,04
Dijimos que si x fuera una variable aleatoria Gamma, = 4,8 es el producto de dos parmetros correctos y
si y fuera el desvo = 2,04 = [() * ] es algo correcto tambin. = 5,52 y = 0,87.
P


= (x<=4,6) = (04,6) [(1/0,87
552
) * (1/
5,52
) * x
-552
* e
-x/0,87
dx]
Otra posibilidad es integrar mediante Gauss
Cuando es mayor que 10, el resultado es casi exacto.
(04,6) [(1/(2)) * (1/2,04) * e
-(1/2) * ((x 4,8)/ 2,04)^2
] Gauss
Z = ((4,6 4,8) / 2,04) = (-3,5 -0,10) [(1/(2)) * e
-(1/2) * (Z^2)
La probabilidad Gamma es 46% aproximada por Gauss. Aproximada por
Erlang era 43%
Ejercicios de la gua para resolver (Unidad 3): 26 y 27; (Unidad A): 5

APROXIMACIN DE LA DISTRIBUCIN POISSON UTILIZANDO LA FUNCIN NORMAL DE GAUSS
En ocasiones la distribucin de Poisson tambin se puede aproximar mediante la funcin normal. Poisson es
una variable discreta y la variable que interviene es la cantidad de veces que ocurre un suceso aleatorio. Si
ese nmero es muy grande, el clculo resulta engorroso y se lo sustituye por una funcin continua que es la
funcin de Gauss. Pocas veces la aproximacin es satisfactoria porque la funcin Poisson es muy asimtrica
pero puede ser aceptable cuando el nmero de repeticiones es realmente muy grande.
En la variable Poisson el resultado que aparece es el promedio o esperanza E
POISSON
= y si el fenmeno
responde estrictamente a una distribucin Poisson el desvo estndar
POISSON
= () y en ese caso el nmero
que puede permitir una normal es Z = ((x ) / ())

Ejemplo: a las 8 de la maana en promedio ingresan 65 alumnos por minuto al campus ( = 65), es una hora
pico de muy fuerte concentracin y pocos minutos antes o despus el volumen de ingreso es totalmente
diferente. Hay una fuerte asimetra o lo que es lo mismo, el desvo estndar es muy elevado. En un caso
extremo ese desvo estndar correspondera a una distribucin Poisson y sui valor sera
POISSON
= (65) =
8,06. Nos piden calcular la probabilidad que a las 8 de la maana se tengan entre 40 y 70 ingresos.
P
POISSON
(40 < x < 70)

28

Usando frmula Poisson:
(x=4070) [e
-65
* (65
x
/ x!)]. Es laborioso, pero:
Usando la Normal:
(4070) [(1/2) * 1/8,06 * e
-(1/2) * (((x-65)/8,06)^2)
dx
Z
A
= ((70 65) / 8,06) = 0,6 y Z
X
= ((40 65) / 8,06) = 3,1
Luego:
(-0,1 -0,42) [0,40 * e
-(1/2) * (Z^2)
= (-3,49 -0,62) - (-3,49 -3,1) = 73%

Ejercicios de la gua para resolver (Unidad A): 5, 6 y 7

APROXIMACIN DE LA DISTRIBUCIN EXPONENCIAL NEGATIVA UTILIZANDO LA NORMAL DE GAUSS
La exponencial negativa puede aproximarse por Normal, pero no tiene sentido hacerlo por dos motivos:
1) La Exponencial Negativa se resuelve en forma inmediata porque es una integral sencilla.
2) La Exponencial Negativa, por definicin es una distribucin fuertemente asimtrica y la
aproximacin es mala.
Ejercicios de la gua para resolver solo como curiosidad matemtica (Unidad A): 9a y 11
APROXIMACIN DE LA DISTRIBUCIN BINOMIAL UTILIZANDO LA FUNCIN NORMAL DE GAUSS
Esto si tiene aplicacin porque posibilita clculos que seran imposibles utilizando factoriales aritmticos
(Pensemos en un factorial de 20, por ejemplo, 20!) y adems la distribucin binomial tiende rpidamente a
la simetra y entonces si la distribucin de Gauss da una muy buena aproximacin.
Por ejemplo: el curso tiene 60 alumnos y la presencialidad es del 75%. Calcular la probabilidad que en un
control de asistencia la cantidad de presentes quede comprendida entre 40 y 60.
PB (40 <= x <= 60) = (x=4060) [(60! / x! * (60-x)!) * (0,75
x
) * (1 0,75)
60 x

El promedio binomial se calcula: = n * p. = 45
El error estndar binomial con la otra frmula: ( n * p * (1-p)). = 3,35
De Moivre demuestra que la probabilidad normal es aproximadamente:
P
N
[((40-45) / 3,35) <= Z <= ((60-45) / 3,35)] = (-1,49 4,97) [0,40 * e
-(1/2) * (Z^2)
]

dz
= (-3,49 3,49) - (-3,49 -1,49) = 1 0,0681 = 93%

Ejercicios de la gua para resolver (Unidad A): 9b











29

Clase 7-b
ESTIMACIN UNIDAD 4

ESTIMACIN
Todas las distribuciones de probabilidad incluyen parmetros. Bsicamente esperanza matemtica, desvo
estndar o combinaciones de esos parmetros como en el caso de la Gamma. Pocas veces esos parmetros
son conocidos. Casi siempre hay que estimarlos a partir de unos pocos valores que llamamos muestras. La
muestra es una fraccin del total de los resultados experimentales que genricamente llamamos poblacin.
El problema de la estimacin es justamente establecer cual es el error que se comete cuando se trabaja con
una muestra con una parte de los datos en lugar de hacerlo con la poblacin, con la totalidad de los datos.
Ese error tiene algunas propiedades que permiten gobernarlo, comprobarlo, y se llaman as:
1) Insesgamiento: significa en esencia que el error es aleatorio. Puede ser ms o menos en exceso o
en defecto, es decir, signo y variable. Y la magnitud tambin es variable mas grande o mas pequea
y en definitiva con esas caractersticas ese error puede ser controlado a travs de una distribucin
de probabilidades que frecuentemente (Casi siempre) es la distribucin normal.
2) Consistencia: significa en esencia que el error disminuye a medida que aumenta el tamao de la
muestra, cuanto mas datos tengamos menor ser el error de estimacin.
Ejemplo: la poblacin tiene 5 alumnos (N=5) y los resultados son las calificaciones de un examen: X = {2, 4, 6,
8, 10}. E
x
=
x
= x*P
x
= x / N (4+8+6+2+10)/6 = 30/5 = 6

x
= ((x-)
2
* P
x
) = ((x-)
2
/ N) = ([(2-6)
2
+ + (10-6)
2
] / S) = (8)

Se dice que los parmetros de esa poblacin son un promedio de 6 y un error estndar de (8). Son
parmetros porque se calculaban con la totalidad de los datos. Cuando trabajamos con una fraccin de los
datos con una muestra lo que se calcula son los estimadores de esos parmetros.
n(tamao de la muestra) = 2. Promedio de una muestra: [x = x / N ]
Formamos todas las combinaciones posibles distintas de tamao 2 y cada promedio estimado.
N! / n! (N n)! = C
(Ni ni)
= 5! / (2! * 3!) = 10 (10 cantidad de muestras distintas)
Hay valores iguales al promedio, pero hay otros que no.
Conclusin: puede coincidir o no.

Pero sumamos los 10 promedios:
(3+4+5+6+7+7+8+9+10) / 10 = 60 / 10 = 6
xj / C
(Ni ni)
= Xi / N
(xj) = (xi) /



Algebraicamente insesgamiento significa que los errores de estimacin se compensan. Las sobrestimaciones
se neutralizan con las subestimaciones, y si contramos con varios promedios muestrales podramos
aproximarnos al promedio poblacional diluyendo el error. Pero de hecho muchas veces tenemos solo una
muestra por fuerza de estimaciones. Tiene cierto error y ese error al que llamamos Error Del Promedio
2 4 x = 3 -
2 6 x = 4 -
2 8 x = 5 -
2 10 x = 6 =
4 6 x = 5 -
4 8 x = 6 =
4 10 x = 7 +
6 8 x = 7 +
6 10 x = 8 +
8 10 x = 9 +
30

Muestral tenemos que medirlo. La propiedad de consistencia asevera que ese error se reduce a medida que
aumenta el tamao de la muestra.
Para calcular el error del promedio muestral buscamos el error estndar de todas las estimaciones:
(xj) = ( [xj (xj) ]
2
* P(xj) ) Con (xj)2 = (x) y P(xj) = 1
= ( (xj )
2
/ C
N,m
)
En el ejemplo entonces ( (xj 6)
2
/ 10 ) = ( [(3 6)
2
- (4 6)
2
- - (9 6)
2
] / 10 ) =
(xj)

= (3)
Si se estima el promedio verdadero que son 6 puntos con una muestra cualquiera, el error esperado es de
1,7 puntos. Es un valor esperado, no correspondiente a ninguna muestra en particular sino que es un valor
ideal para todo el conjunto de muestras posibles cuando el tamao de la muestra es igual a 2.
Si el tamao fuera 3, el error esperado sera otro, y por la propiedad de consistencia, seria menor.
Hay una frmula que lo expresa hacindolo intervenir en el tamao de la muestra.
Del polinomio agrupado
(xj)
= ((N m) / (N 1)) * (
(x)
/ (m)) = ((5 2)/(5 1)) * (8 / 2) = (3)
Esta frmula es exacta, pero pocas veces se la aplica porque con frecuencia el tamao de la muestra es
insignificante respecto del tamao de la poblacin. En estos casos de insignificancia se da que N*n N y N-
1 N, entonces [
(xj)
=
(x)
/ (n)]. Si n aumenta,
(xj)
consistencia cae. Esa es la inconsistencia.

DISTRIBUCIN DE PROBABILIDAD DEL PROMEDIO MUESTRAL.
El promedio muestral es una variable aleatoria. Su valor cambia segn que elementos de la poblacin
utilicemos para formar la muestra y al ser una variable aleatoria le corresponde una distribucin de
probabilidad. Esa distribucin de probabilidad est condicionada por el tamao de la muestra. Se va
modificando a medida que aumenta el tamao de la muestra. Y va convergiendo progresivamente a la
funcin normal de Gauss a medida que aumenta el tamao de la muestra.
La convergencia hacia la funcin normal de Gauss depende muy poco de la distribucin de probabilidad que
tomen los datos uno a uno, es decir, en la poblacin. Esa distribucin de probabilidad condiciona en alguna
medida la velocidad de la convergencia, pero el factor esencial para que aparezca como distribucin lmite la
funcin normal de Gauss es el tamao de la muestra. Este resultado se conoce como Teorema del Lmite
Central de Liapunov.














Recorrido (10 2) = 8
Ampliamos R (11 1) = 10
Y ese recorrido en tramos iguales: R / 5 = 2. De 1 a 11
n = 1
2 x =2
4 x = 4
6 x = 6
8 x = 8
10 x = 10
n = 2
2 4 x = 3 -
2 6 x = 4 -
2 8 x = 5 -
2 10 x = 6 =
4 6 x = 5 -
4 8 x = 6 =
4 10 x = 7 +
6 8 x = 7 +
6 10 x = 8 +
8 10 x = 9 +
n = 3
2 4 6 x = 4
2 4 8 x = 4,667
2 4 10 x = 5,33
2 6 8 x = 5,33
2 6 10 x = 6
2 8 10 x = 6,667
4 6 8 x = 6
4 6 10 x = 6,667
4 8 10 x = 7,333
6 8 10 x = 8
31


n = 3, parece Campana Gauss
n = 2, parece Gamma
n = 1, parece Rectangular





Si n tiende a infinito:
x = X / n
F(x) = (1 / (2)) * (1 / ( / (n))) * e
(-1/2) * (((x ) / ( / (n)))^2

Sea cual fuere F(x): Rectangular, Gamma, Exponencial Negativa o Normal (se cumple para todo n), la
velocidad de convergencia se acelera con la simetra.

Ejercicios de la gua para resolver (Unidad 4): 1 al 16





























Intervalo
Ordenada
n = 1 n = 2 n = 3
1 2,99 1 0 0
3 4,99 1 2 2
5 6,99 1 4 6
7 8,99 1 3 2
9 11 1 1 0
32

Clase 8
Estimacin (Parte 2) Unidad 4

EVALUACIN DE LA NORMALIDAD DE LA POBLACIN QUE PROPORCION LA MUESTRA
Muchas veces trabajamos con muestras pequeas, unos pocos datos (menos de 10) y en ese caso es
importante establecer si la poblacin que gener los datos sigue la ley normal.
Cuando la muestra es grande, esto pierde relevancia porque de acuerdo con el teorema central del lmite el
promedio muestral se distribuye segn la ley normal aunque la poblacin que proporcion la muestra tome
cualquier otra distribucin.
Pero si la muestra tiene pocos datos, necesitamos que la poblacin siga la ley normal
de Gauss.
Hay una forma rpida, utilizando la Forma Normal de Tippett. Parte de una propiedad
de la distribucin de Gauss y son los lmites dentro de los cuales est comprendido el
recorrido.
Cuando los datos sieguen la ley normal, el desvo estndar puede calcularse restando del dato mas grande el
mas pequeo y dividiendo por 6 el resultado
[R = + 3 * ( - 3 * ) = 6 * = = (R / 6)]
Pero eso vale, por supuesto, cuando tenemos una cantidad muy grande de datos, es decir cuando contamos
con el tamao de la poblacin [N].
El caso ms comn es que tengamos una muestra y en particular pequea [m] y en ese caso es casi
imposible que entre los pocos datos de la muestra aparezca el valor mximo de la poblacin, y por lo mismo
es difcil que en una muestra aparezca el mnimo de una poblacin.
Conclusin: la amplitud de la muestra siempre es menor que la amplitud de la poblacin, y en consecuencia
ya no vale dividir por 6 al recorrido sino que
tenemos que utilizar un nmero ms
pequeo. Tippett estableci el valor de ese
nmero exclusivamente en funcin del
tamao de la muestra, de la cantidad de
datos.
Si la muestra tuviera 5 datos, divido por
2,33. N = 5, C
T
= 2,33.
Si la muestra tuviera 15 datos, divido por
3,47. N = 15, C
T
= 3,47.
Si la muestra tuviera 150 datos, divido por
5,29. N = 150, C
T
= 5,29.
Si la muestra tuviera 238 datos, divido por
5,60. N = 238, C
T
= 5,60.







33

Ejemplo: Supongamos que le preguntamos a 5 alumnos la calificacin que obtuvieron. X= {3, 4, 6, 8, 9}. Si las
calificaciones siguieran la ley normal, cual sera el desvo estndar de esos datos?, el Error Estndar
Poblacional [
x
].

N
= (9 3)/ 2,33 = 2,57
Ese debera ser el valor del error estndar si los datos siguieran la ley normal, el valor esperado. Y ese valor
esperado lo comparamos con el error estndar efectivamente observado.
x = (x) / n = (3+4+6+8+9) / 5 = 6
Y ahora vamos a calcular el error estndar potencialmente a la muestra. Lo que llamamos error estndar
muestral [S
x
].
S
X
= (((x-x)
2
) / (n 1))
S
X
= ((9 + 4 + 0 + 4 + 9) / (5 1)) = 2,549
En este cas los datos casi coinciden, y eso es un buen desvo y dato de que la poblacin es normal. No son
exactamente iguales ni tenemos que esperar que efectivamente lo sean. El desvo estndar terico es un
valor esperado, el ms verosmil, pero no por eso exacto. Pero en principio, si la diferencia no supera en un
10%, admitimos que la poblacin es aproximadamente normal. Si la muestra es muy chica como en este
caso, somos ms exigentes. La diferencia en el caso del ejemplo es (2,57 / 2,549) = 1%. Admitimos ahora que
esos datos provienen de una normal.
Como consecuencia prctica, tenemos que el promedio muestral toma la distribucin normal.

ESTIMACIN DEL PROMEDIO POBLACIONAL UTILIZANDO EL PROMEDIO MUESTRAL MEDIANTE LA
TCNICA LLAMADA ESTIMACIN MEDIANTE INTERVALOS DE CONFIANZA.
En el ejemplo, decimos que la nota promedio es de 6 puntos, pero eso vale para una muestra, para 5
alumnos. Es lo que llamamos Estimacin Puntual del promedio de la poblacin, que en este caso, podra
ser todo el curso. Para pasar del promedio de la muestra al promedio de la poblacin tenemos que
incorporar el Error de Estimacin. x +/- Error de Estimacin.
Ese error de estimacin no se calcula en forma cierta y definitiva, solo puede calcularse acotando la
probabilidad de que no supere ciertos limites. Esa probabilidad se llama Nivel De Confianza De La
Estimacin y el nivel casi universal es una probabilidad del 90%.
Para el 90 %: 1,64 * (
N
/ (n)) es el Error de Estimacin.
En el ejemplo: 6 +/- 1,64 * (2,57/(5)) Las notas promedio del curso estn entre 4,12 y 7.88.
Si en una muestra, 5 alumnos, la nota promedio fue 6 puntos, en todo el curso la nota promedio puede caer
a 4,12 puntos o subir a 7,88 porque el error de estimacin es de 1,88 puntos.
Estos resultados no son definitivos, temeos solamente una probabilidad de 90% de que se cumplan. P(4,12
<= <= 7,88) = 0,9.
El intervalo se calcula de esta manera:
|x -/+ Z
(1 )
* (
X
/ (n)) ] al 1 se lo llama Confianza
Si la confianza es 0,90, Z(0,90) = 1,64
Si la confianza es 0,95, Z(0,95) = 1,96
Si la confianza es 0,99, Z(0,99) = 2,33
Recalculamos el intervalo, pero ahora el nivel de confianza es 95%: 6 +/-
1,96 * (2,57/(5)), donde el segundo trmino = 2,25.
(1 ) creci en un 5%, el error aument tambin en un 20%. Para aumentar la confianza en un 5%, el error
aumento 4 veces ms, un 20%. Por ese motivo muy pocas veces se toma una confianza mayor que el 90%.
Otro aspecto a tener en cuenta es la magnitud del error de estimacin. En nuestro caso 1,88 puntos para un
promedio de 6 puntos.
34

E = 1,88, con x = 6. En trminos porcentuales es un 31%.
Como norma el error no puede ser mayor al 10% del estimador.
e* <= 0,1 * x
e* <= 0,1 * 6 = 0,6
La nica posibilidad que tenemos es aadir datos a la muestra. La pregunta es, cuantos datos? Hay una
formula para saber cuantos datos:
[ n* = 1,64
2
* (
2
N
/ e*
2
) ]
En el ejemplo:
n* = 1,64
2
* (2,57
2
/ 0,6
2
) = 49,3459. Se toma el entero mayor 50.
La muestra deber tener 50 datos, o lo que es lo mismo, habra que aadir 45 datos a la muestra.

Ejercicios de la gua para resolver (Unidad 4) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 18, 19, 20, 26 (a y b), 30.
Si es la Gua 2010: 20, 21, 22, 28 (a y b), 32

Viendo el ejemplo X = {3, 4, 6, 8, 9},x = 6, S = 2,55,
X
= 2,57, Delta = 1%.
En este caso no hay ninguna duda acerca de que la poblacin es normal, pero en ocasiones tenemos
bastante diferencia entre el desvo experimental y el terico, y en consecuencia no es legitimo utilizar la
distribucin normal como distribucin del promedio muestral. El supuesto de normalidad de la poblacin
flaquea. Dudamos si es normal.
Y entonces buscamos otras peculiaridades de la poblacin que es la simetra. Ya habamos hablado de
simetra, pero ahora la evaluamos de una forma mucho ms expeditiva, calculando un promedio que
llamamos Mediana, o simplemente Media. Aquel valor de la muestra que separa la mitad de los datos ms
pequeos de la mitad de los datos mayores si estn ordenados, el dato del medio. [Me].
En el ejemplo Me = 6, es el dato del medio.
Cuando el promedio aritmtico, que vale 6, y el promedio medido, que tambin vale 6 sean iguales,
presumiremos que la poblacin es simtrica, aunque no sea normal.
Ejemplos: Rectangular, Triangular y U.


Cuando confiamos que la poblacin es simtrica, aunque no sea normal,
descartamos el uso de la distribucin de Gauss y usamos la exponencial de
Gossitt, generalmente llamada Student.
La distribucin Student tambin es una campana, muy parecida a la de
Gauss, pero las ordenadas son algo menores y el recorrido algo mayor.
Peculiaridad: la funcin Student incluye un parmetro que no aparece en la
distribucin normal que es el parmetro de la muestra -1 (n 1). Por ejemplo, una muestra de 5 datos se
adecua a una Student con un parmetro que es 4. El nombre del parmetro es Grado De Libertad. [gl]. En
concreto esto significa que no tenemos una nica funcin sino una familia de funciones, una para cada
tamao de la muestra.





- 0,10 0,05
4 - X 2,13
35

ESTIMACIN DEL PROMEDIO POBLACIONAL UTILIZANDO LA VARIABLE STUDENT
La aplicamos cuando no estamos seguros que la poblacin que proporciono la muestra sea normal. Sobre
todo cuando es muy chica, pero si confiamos en que la poblacin es moderadamente simtrica, y en ese
caso el intervalo se construye as:
|x -/+ t
(1 )
* (S

/ (n)) ] S es el desvo experimental o muestral
Los clculos usan exclusivamente datos experimentales. Es el desvo de la muestra.
En el ejemplo de hoy: 6 +/- 2,13 * (2,55 / (5)). El segundo trmino en Student es 2,43, contra 2,25 segn la
normal.
He aqu la debilidad de la distribucin Student. El error de estimacin resulta mayor. La ventaja es que es
ms emprica.
Nos limita para calcular el tamao de la muestra, cuando el error de estimacin no es satisfactorio.
La variable de Student se asemeja progresivamente de la variable normal a medida que aumenta. Cuando la
muestra es de 30 datos, prcticamente coinciden.
Ej: n = 30, 1 = 0,9, Z = 1,64, t
29
= 1,69

Ejercicios de la gua para resolver (Unidad 4) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 20 a 24
Si es la Gua 2010: 22 a 26




























36

Clase 9
Estimacin (Parte 3) Unidad 4
INTERVALO DE CONFIANZA PARA EL DESVO ESTNDAR POBLACIONAL
DISTRIBUCIN JI CUADRADA
El desvo estndar casi siempre lo calculamos en forma puntual. Tenemos los datos de la muestra,
identificamos el ms pequeo y el ms grande, calculamos el recorrido, dividimos por el coeficiente de
Tippett, y ese es el desvo estndar poblacional. Y adems sirve para un propsito importante: establecer si
la poblacin que proporcion la muestra parece distribuirse en forma normal.
Para esto comparamos el desvo interno de la muestra y el que nos da el coeficiente de Tipett:
(((x-x)
2
) / (n 1)) =? ((X
MAX
X
MIN
) / C
T
) S
X
=?
N

A veces damos un paso ms: establecemos con el desvo interno de la muestra los valores mnimo y mximo
que puede tomar el desvo de la poblacin. Lo mas comn es que enfaticemos el valor mximo. Que los
datos no varen demasiado. Con menos frecuencia lo que interesa es el valor mnimo de ese error.
Como fuere necesitamos una distribucin mas de probabilidades que es la de Helmert, que es un caso
particular de la funcin Gamma con = 0,5. Tambin se llama [] (Ji). Y como la variable est en escala
cuadrada se la llama Distribucin Ji Cuadrada.
La variable Ji cuadrada es el desvo estndar muestral, pero est en escala cuadrtica, y con una
transformacin de la variable que permite tabular la funcin:
[
2
= S
2
X
* (n 1) /
2
N
]
Y tambin aparece un parmetro que es el tamao de la muestra -1. Tenemos una familia de funciones (al
igual que en Student), una para cada tamao de la muestra. A ese parmetro se lo llama Grado de Libertad y
sirve para identificar que funcin Ji correspondiente a cada problema.
Si n = 5
2
4
(por n 1)
(0,7119,488) f(
2
) = 0,90






INTERVALO DE CONFIANZA PARA EL DESVO ESTNDAR POBLACIONAL
Retomando el ejemplo anterior X = {3, 4, 6, 8, 9} x = 6
S
x
= 2,55 = (((x - 6)
2
) / (5 1))) y
NX
= ((9 3) / 2,33) = 2,575
El desvo poblacional en forma puntual sera 2,575. Es un valor esperado, en algn caso concreto pueden ser
un poco menor o un poco mayor. El intervalo de confianza nos dice hasta donde puede caer o hasta donde
puede aumentar. Ese intervalo de confianza se calcula utilizando la frmula:
P((((n 1)
2
* S
2
) / b) <= <= (((n 1)
2
* S
2
) / b)) = 1 -
Entonces, en el ejemplo:
P([(4

* 2,55
2
) / 9,488] <= <= ([(4

* 2,55
2
) / 0,711]) = 0,90
P(1,66 <= <= 6,05) = 0,90
El valor esperado del desvo poblacional es 2,57. En algn aso concreto puede haber discrepancia, no
coincidir. El intervalo nos indica que puede caer hasta 1,66 o puede aumentar hasta 6,05. Para eso sirve el
intervalo. La variabilidad del intervalo es limitada, es demasiado ambigua. La causa de esa ambigedad es la
37

fuerte asimetra de la distribucin Gamma. Mucho mas marcada cuando los grados de libertad son pocos,
cuando la muestra es chica. Pero por si alguna razn especial debiramos ser muy cautelosos, el valor del
desvo poblacional que tendramos que considerar ya no sera 2,57 sino 6,05.

Ejercicios de la gua para resolver (Unidad 4) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 26 (c), 27 a 29
Si es la Gua 2010: 28 (c), 29 a 31

INTERVALO DE CONFIANZA PARA UNA DIFERENCIA DE PROMEDIOS
Digamos que los 5 datos anteriores corresponden al examen parcial parte A. Por lo comn en el segundo
examen los resultados son quiz ms altos. Cunto ms altos?:
Digamos: Y = {5, 6, 7, 9} S = ([(Y -Y) / (n 1)]) = 1,71
N
= (9 5) / 2,06 = 1,94
A nivel muestral hubo un incremento de X -Y = 6 6,75 = 0,75 puntos. Pero est tomado sobre 2
muestras. Si hubiramos considerado toda la poblacin, todo el curso, el resultado sera diferente y
queremos establecer cual hubiera sido el incremento su tuviramos los datos de todo el curso, el promedio
poblacional.
X

Y
= ? y 1 = 0,90
Se calculan mediante un intervalo de confianza, el nivel casi universal para 1 - es 90%.
(X -Y) +/- Error para una diferencia (X -Y) +/- Z * ((
2
/ n
X
) + (
2
/ n
Y
))
En el ejemplo: (6 6,75) +/- 1,64 * ((2,575
2
/ 5) + (1,99
2
/ 4)) = -3,22 y 1,72
En definitiva no sabemos si hubo un incremento o una disminucin, el resultado es totalmente ambiguo. Y
por ese motivo, este intervalo no tiene prcticamente aplicacin, salvo que las muestras sean
verdaderamente muy grandes.
A veces se forma el intervalo utilizando la distribucin de Student como alternativa a la normal,
fundamentalmente cuando tenemos ms confianza en la simetra que la normalidad en los datos. En la
primera muestra la normalidad es muy verosmil, en la segunda muestra la normalidad es bastante
cuestionable (13% de diferencia). En cambio si buscamos la mediana (promedio de ambos) es 6,50, que con
el 6,75 es muy prximo (4% de diferencia).
Cuando confiamos ms en la simetra que en la normalidad, calculamos el error con esta frmula:
[(X -Y) +/- t
nX+nY-2
* {([((n
X
1) * S
2
X
) + ((n
Y
1) * S
2
Y
)] / (n
X
+ n
Y
- 2)) * (1/n
X
+ 1/n
Y
)}]

En el ejemplo:
[(6 6,75) +/- 1,895 * {([((5

1) * 2,55
2
) + ((4

1) * 1,71
2
)] / (5

+ 4

- 2)) * (1/5 + 1/4)}] = -3,58 y +2,11
Otra vez nos encontramos con un resultado ambiguo, puede haber aumentado o disminuido, No sabemos
que decisin tomar.

Ejercicios de la gua para resolver (Unidad 4) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 33 a 38; Si es la Gua 2010: 40 a 45
38

CALCULO CON DATOS AGRUPADOS
Cuando la muestra es muy grande, puede realizarse un agrupado previo de datos para facilitar los clculos y
sobre todo para dar presentacin grfica a la informacin.
Supongamos que tenemos las calificaciones de 50
alumnos.










Se les da un agrupamiento que llamamos Serie
De Frecuencias:

x = E (promedio estimado) = (X) / 50 = (Xi * ni) / 50 = 250 / 50 = 5
S = (desvo estimado) = (((x-x)
2
) / (50 1)) = (((x - 5)
2 *
n
i
) / (50 1)) = (174 / 49) = 1,88
N = (9 0) / 4,5 = 2
Y 2 es muy parecido al 1,88, la diferencia es de 6%, un poco menos de lo esperado por LeptoKurtosis.

Histograma
Es normal?: ms o menos
Es simtrica?: si media = mediana: son 50 datos,
busco el que tiene 25 mayores y 25 menores: mediana
est entre 4 y 5, tomamos 4,5. Media da igual a 5. La
diferencia es del 10%.

Calculo de la mediana grficamente
Muestra la mediana con cierto impacto visual.
Se colocan los puntos de la acumulada y se unen con lneas,
luego se busca el punto donde corta la media.


Modo
Se suele llamar Promedio Modal o Modo a aqul valor que se repite
mayor nmero de veces, al ms frecuente.
Se puede obtener grficamente partiendo del mximo.
El modo se encuentra en un poco mas de 5,5.




Ejercicios de la gua para resolver (Unidad 4): 1, 2 y 5
39

Clase 8
PRUEBAS DE HIPTESIS UNIDAD 5

PRUEBAS DE HIPTESIS
VARIABLE DE PRUEBA
Cuando realizamos la estimacin del promedio poblacional utilizando intervalos de confianza es porque
desconocemos en absoluto el valor de ese promedio.
Existe otra posibilidad. Calculamos a priori el valor de ese promedio. Se nos ocurre decir que los alumnos
demoran una hora en arribar en promedio (sin base experimental) y entonces tomamos una muestra para
ver si la realidad parece concordar con ese valor hipottico.
X = {50, 80, 85, 70, 40, 55, 65}
x = 63,57 versus H
0
= = 60 = 3,57
Empricamente es 63,57, contra un valor hipottico de 60 minutos.
Tenemos una diferencia absoluta de 3,57 minutos. Puede ser insignificante y entonces la hiptesis no se
rechaza, decimos que se adecua a la realidad O por el contrario puede ser una diferencia importante,
significativa, y en ese caso la hiptesis se rechaza, no refleja la realidad.
Tenemos que decidir por una o por otra opcin. Hay un criterio matemtico que se llama Clculo de la
Variable de Prueba.
Pero ante todo, la decisin que tomemos no se lleva a cabo en situacin de certeza, sino de riesgo.
Concretamente, aceptamos de antemano la posibilidad de rechazar la hiptesis, de afirmar que la diferencia
es significativa cuando en realidad no lo es. Se simboliza [] ese riesgo, y su nivel casi universal es de 0,10.
Con esa limitacin, vamos a tomar la decisin. Vamos a admitir de antemano que un caso de cada 10
rechazamos la hiptesis, cuando en rigor no debemos hacerlo. Vamos a decir que hay demasiada diferencia
entre el valor hipottico y el valor experimental cuando en realidad esa diferencia no es tanta.
Ante todo tenemos una muestra pequea (7 datos). Es fundamental que la poblacin que proporcion se
distribuya segn la ley normal (Exponencial de Gauss).
x = 63,57 // S = ( (X 63,57)
2
/ (n 1)) = 16,26
Si X fuera normal, utilizando el coeficiente de Tippett en el denominador:

N
= ((X
MAX
X
MIN
) / 2,704) = 16,64
Hay una diferencia = 2,37%, es normal.
Admitimos que la poblacin es normal, y el prximo paso es decidir si es verdad que los alumnos demoran
en promedio 60 minutos en arribar. Aceptamos de antemano una posibilidad en 10 ( = 10%) de afirmarlo
que no tardan 60 minutos, cuando en rigor ese numero es acertado. Ese nivel de significacin se simboliza
o E
I
.
La tcnica para decidir consiste en calcular lo que llamamos Variable de Prueba.
[Z(Prueba) = (x ) / (
N
/ (n))]
En el ejemplo:
((63,57 60) / (16,64 / (7)) = 0,57 (Variable de Prueba)
Y esa variable se compara contra una variable terica
puramente matemtica que es la variable normal de la tabla.
La hiptesis no se rechazan, se tiene por cierto que todos los
alumnos del campus demoran 60 minutos en arribar. Aunque en
la muestra de 7 alumnos hayan demorado un poquito mas. La
diferencia no es significativa.




40

Cuando no rechazamos la hiptesis surge un riesgo diferente al riesgo y es la posibilidad de no rechazar
algo que no es cierto. Surge la posibilidad de validar lo falso, que nos pone en una situacin vulnerable
porque nos perjudicamos nosotros, y tomamos lo falso como cierto. La decisin prudente es rechazar la
hiptesis, y la posibilidad mas inmediata es elevar el riesgo . Hasta ahora la posibilidad de ser injustos,
tomando una decisin injusta descalificando lo verdadero era 10%. Si la elevamos al 20% o al 30%
posiblemente logremos rechazar la hiptesis. La pregunta es hasta donde tenemos que elevar el nivel de
riesgo . Es lo que llamamos Riesgo Posterior, p_value o
*
.

*
= 2* 0,2853 = 57%
Habra que elevar el riesgo del
10% al 57%.
Esto es imposible ya que seramos
tremendamente injustos. En 6
ocasiones de cada 10 recelaramos a la verdad, rechazaramos como
falso lo verdadero. Y entonces no queda otra posibilidad que no
rechazar la hiptesis pero con una prevencin adicional. Calcular el
riesgo de calificar como verdadero aquellos que es falso.
(Descalificar lo verdadero) = 0,10
(Calificar verdadero lo falso) = ?
Para calcular el riesgo , es decir, la posibilidad de tener por cierto un valor que es falso, necesitamos 2
pasos ms. Primero, plantear lo que llamamos Hiptesis Alternativa. Un valor distinto al de nuestra
hiptesis inicial.
= 0,10; = ?;
0
= 60;
A
= 66%
Hay que tomar la decisin con una tcnica diferente a la variable de prueba que llamamos Intervalo de
Validacin, que se define as:
[ +/- (Z * (
N /
(n)))]
En el ejemplo: 60 +/- (1,64 * (16,64/(7))) = 70,3 y 49,7
Si 49,7 <=x <= 70,3 no rechazo
0
= 60 y como

x = 63,57 no
rechazo.
En la medida que el promedio de la muestra sea menor que 70,3
puntos afirmo que el promedio de la poblacin es de 60 minutos.
Pero en esto hay un punto dbil, porque tambin es posible que
el promedio de la poblacin sea 66 y no obstante el promedio de
la muestra sea menor que 70,6. Esa posibilidad es el riesgo que
llamamos .
= P(x <= 70,3 si
0
= 66), {
A
con n = 7,
A
= 66 = 16,64}
= P(Z <= 70,3 66 / 16,64 / (7)) = P(Z <= 0,68)
Estamos en una posicin muy vulnerable. 3 veces de cada 4 vamos a dar como verdadero algo que
es falso. Y en cambio nuestro seguro de calificar como falso es solamente un 10%, estamos en
desventaja.
Queda una ltima opcin para trabajar con una seguridad razonable.
Por tradicin, la seguridad del riesgo es la mitad del riesgo .
= 0,10; = 0,5

Y la pregunta es, qu tamao de muestra garantiza esos mrgenes de
seguridad?
[n
*
=
2
N
* ((Z

)
2
/ (
0

A
)
2
)]
Remplazando:
n
*
= 16,64
2

* ((1,64 (-1,64))
2
/ (60 66)
2
)
n
*
= 83 datos para trabajar con ese margen de confianza.
En vez de 7 datos, 83.

41

PRUEBAS DE HIPTESIS DE UN EXTREMO (UNILATERALES)
El planteo ms comn de las hiptesis es que el promedio poblacional toma determinado valor, que es igual
a cierto valor (60 minutos en el ejemplo).
Pero a veces ponemos el nfasis en que no supere cierto valor o en que lo sobrepase. Por ejemplo, decimos
que a los sumo el viaje requiere una hora. H
0
:
0
<= 60.
La consecuencia prctica de este planteo es que el riesgo se concentra totalmente en un extremo y para
saber si es el izquierdo o el derecho conviene plantear la hiptesis contraria o alternativa.
H
0
:
0
<= 60 H
A
:
A
> 60.
Cuando la hiptesis alternativa se plantea por mayor, el riesgo se
concentra del lado derecho. Si se plantea por menor, el riesgo se sitia
del lado izquierdo.
La variable de prueba es la misma que en el caso
anterior. Z(Prueba) = 0,57
La variable no se rechaza,
admitimos que en promedio el viaje dura una hora. Y otra vez nos
preguntamos a cuanto habra que elevar el riesgo para que la
hiptesis pudiera rechazarse.
0,72 y 0,28
El riesgo habra que elevarlo al 28%

Ejercicios de la gua para resolver (Unidad 5): 1 a 11

PRUEBAS DE HIPTESIS UTILIZANDO LA VARIABLE STUDENT (GOSSITT)
Es lo indicado cuando dudamos que la poblacin sea normal, pero en cambio padeciere que es ms o menos
simtrica. La forma mas expeditiva de saber si es as, buscamos la mediana de la muestra y la comparamos
con el promedio de la muestra.
En el ejemplo:
x = 63,57; Me = 65 (mediana); = 2,2% (x Me); H
0
:
0
= 60
.
Pero la variable de prueba ahora es diferente
[t(prueba) = (x
0
) / (S / (n))]
En esta variable de prueba, tanto el desvo como el promedio son experimentales.
t(prueba) = (6,57 60) / (16,26 / (7)) = 0,58
Ahora se compara con la Student:

La conclusin se mantiene. Parece verosmil que el tiempo promedio de
viaje sea de una hora. La zona de no rechazo es un poco ms holgada que en
el caso normal: 1,94 en vez de 1,64.
En los hechos, eso significa que aumenta el riesgo .

Ejercicios de la gua para resolver (Unidad 5): 11 a 19

PRUEBAS DE HIPTESIS PARA EL DESVO ESTNDAR POBLACIONAL
Pocas veces las efectuamos. El desvo poblacional se calcula utilizando el coeficiente de Tippett y si la
poblacin es normal aceptamos que ese valor esperado es el valor verdadero. De todas maneras, se puede
realizar una prueba adicional para afianzar ese valor esperado (16,64).
H
0
=
N
= 16,64
La variable de prueba se basa en la distribucin de Helmert
2
[
2
(Prueba) = ((n 1) * S
2
) /
2
0
]
((7 1) * 16,26
2
) / 16,64
2
= 5,73
42








Aceptamos que el desvo poblacional es de 16,64. Lo que hemos hecho hasta ahora es ms legtimo.
Esta prueba tiene poca aplicacin porque para que sea vlida la conclusin la poblacin que proporciona la
muestra debe seguir una distribucin estrictamente normal, pero al mismo tiempo si ocurre esto no hay
ninguna duda que el valor esperado del desvo calculado por Tippett realmente corresponde a la poblacin y
la prueba es entonces superflua.
Por el contrario, si la poblacin no fuera normal y sospechsemos del valor calculado con el coeficiente de
Tippett, esta prueba tampoco tiene potencia para aceptarlo o rechazarlo.

Ejercicios de la gua para resolver (Unidad 5): 20 a 22

PRUEBA DE HIPTESIS PARA DIFERENCIA DE PROMEDIOS
Comparamos 2 poblaciones, por ejemplo alumnos que viven en Capital y alumnos que viven en Gran Buenos
Aires. Tardan lo mismo en arribar?
CABA: {50, 80, 85, 70, 40, 55, 65} x
CABA
= 63,57 // Me
CABA
= 65 // S
CABA
= 16,26 //
CABA
= 16,64
GBA: {70, 90, 85, 100, 95, 65}y
GBA
= 84,17 // Me
GBA
= 87,50 // S
GBA
= 13,93 //
GBA
= 13,81
Recordemos que fue calculado como (100 65) / 2,534, con el denominador por Tippet = 13,81
Nuestra hiptesis es: H
0
=
X
=
y

1) Suponemos que las poblaciones son normales (los desvos S y son similares)
[ Z(Prueba) = (x - y) / [(
2
X
/ n
X
) + (
2
Y
/

n
Y
)] ]

En el ejemplo:
= (63,57 84,17) / [(16,64
2
/ 7) + (13,81
2
/ 6)] = -2,44
Aparentemente GBA tarda ms que CABA.
Se rechaza la hiptesis.
Ejercicios de la gua para resolver (Unidad 5) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 23 y 26; Si es la Gua 2010: 28 y 31
2) La segunda posibilidad es que confiemos ms en la simetra que en la normalidad de la poblacin.
La hiptesis ser la misma pero cambia la variable de prueba, y aparece un nuevo estimador: la
Varianza Muestral Combinada.
[S
P
2
= (n 1) * S
2
X
+ (n 1) * S
2
Y
/ (n
X
+ n
Y
2)]
En este caso la variable de prueba se vincula con la Student y es la siguiente:
[t(Prueba) = (x - y) / (S
P
*

((1 / n
X
) + (1 / n
Y
)))]

En el ejemplo:
= S
P
2
= (6 * 16,26
2
+ 5 * 13,94
2
) / (7 + 6 2) S
P
2
= 232,54 S
P
= 15,24
t(Prueba) = (63,57 84,17) / (15,94 * ((1 / 7) + (1 / 6))) t(Prueba) = -2,43
Reitera la conclusin: GBA tarda mas que capital.

Ejercicios de la gua para resolver (Unidad 5) (Son los mismos pero cambi la numeracin):
Si es la Gua 2008 o Resueltos: 32, 33, 35, 36, 37, 38
Si es la Gua 2010: 27, 28, 30, 31, 32, 33
43

Clase 11
REGRESIN Y CORRELACIN UNIDAD 6

La muestra consiste en pares ordenados de datos. Por ejemplo, para un grupo de alumnos tenemos la nota
del primer parcial y del segundo parcial. Y tratamos de vincular ambas variables a travs de una funcin
lineal.
Bsicamente consideramos a una de ellas como dato cierto o conocido mientras que la otra variable es de
tipo aleatorio. Concretamente conociendo la nota del primer examen, se trata de predecir o anticipar la
nota del segundo examen.
El propsito es parecido al que perseguimos utilizando promedio aritmtico en lugar de este nuevo tipo de
promedio que llamamos Promedio De Regresin.
La ventaja consiste en una reduccin del error estndar que muchas veces es fuertemente significativo. Las
predicciones que hagamos con el promedio de regresin dinmico se adecuan mucho ms a la realidad que
aquellas que analizamos con el promedio aritmtico.
Ejemplo: X = Nota de parcial A // Y = Nota de parcial B // n = 5

Diagrama de Dispersin
La pendiente cambia entre pares sucesivos de puntos. Eso significa
que la funcin que liga a ambas variables es un polinomio de grado
superior a uno, pero se aproxima a esa funcin mediante una recta
que llamamos Recta De Regresin
Esa recta tiene una caracterstica. No tiene que pasar por ningn
par de puntos, pero al mismo tiempo debe pasar a menor distancia
de todas las observaciones que cualquier otra recta. En una palabra,
es la recta que hace mnimos los errores. O recta de cuadrados mnimos porque los errores suelen medirse
en escala cuadrtica. [] (^ es aproximacin lineal)
[ = a + (b * x) ]
Para que se cumpla esa condicin, la pendiente y la ordenada se calculan con frmulas especficas.
[ b = ((x * y) (n *x *y)) / (x
2
n *x) ]
[ a =y + b *x ]
x = 26/5 = 5,2
y = 33/5 = 6,6
b = (177 5 * 5,2 * 6,6) / (150 5 * 5,52
2
) = 0,3648
a = (6,6 0,3648 * 5,2) = 4,7027
= 4,7042 + 0,3648 * x

x = 26
y = 33
xy = 177
x
2
= 150
y
2
= 223
n = 5


Ejercicios de la gua para resolver (Unidad 6): 1(a y b), 2(a), 3(a), 5(a), 6(a), 9(a)




4
6
8
2 7
44

CALCULO DEL ERROR ESTNDAR UTILIZANDO EL PROMEDIO DE REGRESIN
El promedio aritmtico es esttico, toma un valor nico para toda la muestra. La nota promedio del segundo
examen es 6,6, al margen de cuanto haya obtenido en el primer examen.
El promedio de regresin es dinmico, la nota del primer examen nos anticipa cuanto puede obtener en el
segundo, ms un error:

7
= 4,70 + 0,36 * 7 = 7,22 +/- Error?
Se calcula ese error como un estndar, pero teniendo en cuenta que el promedio es dinmico y cambia para
cada observacin [S
YX
]
[ S
YX
= ((Y )
2
/ (n 2)) ]
Versus S
Y
= ((Y Y)
2
/ (n 1))
S
YX
= (3,234 / (5-2)) = 1,04
S
Y
= (5,2 / 4) = 1,14
El error con promedio e regresin es 1,04 puntos. Con promedio aritmtico
es de 1,14 puntos. Reducimos el error en un 10%, pero puede ser mucho
mayor.


PREDICCIN CON EL PROMEDIO DE REGRESIN
Hemos anticipado que un alumno que saca 7 puntos en el primer parcial obtendr 7,22 puntos en el
segundo. Esa prediccin no es definitiva, tiene un error de 1,04 puntos y le llamamos error de estimacin.
Hay que dar un paso mas para pasar del error de estimacin al error de prediccin, vamos a hacer la
prediccin mediante un intervalo de confianza. Aqu aparece el error de prediccin. Y ahora tenemos dos
posibilidades para calcularlo.
1) Primero, como una prediccin global que vale para todos aquellos que sacaron 7 puntos en el
primer parcial. Vale para ese grupo en el cual todos fueron calificados con 7 puntos. En ese caso, el
error de prediccin se calcula as:
[ t
n-2
* S
YX
* h ]
Ese error de prediccin incluye 3 factores
1) El Factor de Student (t de Student). La prediccin no es totalmente
cierta. Solo puede efectuarse con cierto grado de confianza (90%
aprox)
2) Error Estndar, ya lo tenemos y en este caso es 1,04.
3) El Factor de Hoaglin, que se calcula:
[ (h) = ((1 / n) + ((x -x)
2
/ (x
2
n *x
2
))) ]
En el ejemplo:
((1 / 5) + ((7 - 5,2)
2
/ (150 5 * 5,2
2
))) = 0,65
Error de Prediccin: 2,35 * 1,04 * 0,64 = 1,58
Prediccin:
7
=7,22 7,22 +/- 1,58 = 5,64 // 8,80
En el grupo de los que obtuvieron 7 puntos en el primer parcial, el resultado del segundo oscilar
entre 5,64 y 8,80. Esos lmites no son definitivos, solo tenemos cierta probabilidad acerca de que se
cumplan y por eso el intervalo suele indicarse as:
P(5,64 <=
XY
<= 8,80) = 0,90
El error es una porcin muy grande del indicador 1,58/7,20 = 21%, para una muestra tan pequea
no nos sirve.

Ejercicios de la gua para resolver (Unidad 6): 6(c) y 12(c)
45

2) La segunda opcin es tomar un caso particular que haya obtenido 7 puntos y no todo el grupo que
sac 7. En ese caso, el error de prediccin se calcula con esta frmula:
[ t
n-2
* S
XY
* (1 + h) ]
En el ejemplo: 2,35 * 1,04 * (1 + 0,65)
e
*
p
= 2,92 7,22 +/- 2,92 4,30 // 10,14
Un alumno en particular que sac 7 en el primer parcial puede caer a 4 en el segundo pero tambin
puede elevarse a 10 puntos, los lmites no son definitivos.
P(4,3 <= YF <= 10,14) F = Forecasting
Ejercicios de la gua para resolver (Unidad 6): 7(c) y 10(b)

COEFICIENTE DE DETERMINACIN
En general el error asociado al promedio de regresin es menor que el asociado al promedio aritmtico.
El motivo es la dependencia entre ambas variables, quienes mejor nota sacaron en el primer parcial,
presumiblemente sern mejor calificados en el segundo parcial. Esa dependencia se mide en forma
convencional entre 0 y 1, con un coeficiente que se llama De Determinacin.
2
0 <=
2
<= 1 //
2
= SSR / SST (Sum Of Squares Regression) / (SS Total)
[
2
= (a * y + b * xy n *y
2
) / (y
2
n *y) ]
En el Ejemplo:

2
= (4,702702 * 33 + 0,364865 * 177 5 * 6,6
2
) / (223 5 *6,6
2
) = 0,38
La nota del primer parcial influye un 38% en la nota del Segundo. Un 62% depende de otros factores.
A veces el clculo se realiza con otra frmula que le equivale completamente:
[
2
= < (n * xy x - y) / {[(n * (x
2
) (x)
2
)] * [(n * (y
2
) (y)
2
)]} >
2
]
En el Ejemplo:

2
= <(5 * 177 26 - 33) / {[(5 * 150 26
2
)] * [(5 * 223 33
2
)]} >
2
= 0,38
Como dato anecdtico, puede decirse que esta ltima forma es la de la Covarianza:

2
= ((C
V
(x,y)) / (
x
*
y
))
2


Ejercicios de la gua para resolver (Unidad 6): 2(b y c), 4(a), 7(a), 8(a), 14

COEFICIENTE DE CORRELACIN
Muchas veces se toma la raz cuadrada con signo del coeficiente de determinacin y se la llama coeficiente
de correlacin. El signo que se le otorga es el mismo de la pendiente, en este caso positiva (En el ejemplo
+(0,38) = 0,62)
Matemticamente esto tiene una ventaja: la distribucin de probabilidad del coeficiente de determinacin
es la de Snedecor, que tiene requisitos muy estrictos para su aplicacin, frecuentemente no los podemos
cumplir. Esa aplicacin se refiere esencialmente a decidir si la determinacin es significativa o no. En el
ejemplo, el primer parcial condiciona un 38% el segundo parcial, esta incidencia es tomada en cuenta o no.
Con la variable Snedecor, la decisin es muy ambigua, pero si tomamos la raz cuadrada con signo del
coeficiente de correlacin, podemos decidir usando la variable Student (Gossitt), bajo supuestos mucho ms
generales. Por ese motivo es que frecuentemente se trabaja con el coeficiente de correlacin y no con el de
determinacin, aunque por supuesto, el de determinacin tiene una interpretacin intuitiva e inmediata.
Con -1 <=

<= 1
46

SIGNIFICATIVIDAD DEL COEFICIENTE DE CORRELACIN
En nuestro ejemplo, la determinacin es del 38%, la correlacin del 62%. Nos preguntamos si vale la pena
tener en cuenta la nota del primer parcial como condicionante de la nota del segundo.
La primera idea es que la respuesta depende de cuantos datos hay en la muestra. Si la muestra fuera
grande, tiene muy pocos datos, esa determinacin leve ya parece dudosa y entonces se piensa, en primer
lugar, en la correlacin que habra con una cantidad grande de datos [ (Rho)]. Para pocos datos es .
Como hiptesis para verificar no hay determinacin, y en consecuencia no hay correlacin.
H
0
: = 0
La variable de prueba se vincula con la Student:
[t(Prueba) = [ / (((1 2) / (n 2))) ]]
En el Ejemplo:
t(Prueba) = [ 0,62 / (((1 0,62
2
) / (5 2))) ] = 1,37
Lo que hace 1,37 versus (t
n-2
) = t
3
La correlacin poblacional es prcticamente cero, lo que es lo mismo, la nota
del primer parcial no tiene ninguna influencia en la nota del segundo parcial.

Ejercicios de la gua para resolver (Unidad 6): 4(b), 7(b)

Existe una prueba mas intuitiva, en lugar de utilizar el coeficiente de correlacin se utiliza la pendiente de la
recta de regresin. La idea es que si no hay dependencia entre ambas variables y la variable y no tiene
ninguna incidencia en la variable x, la recta tiene que recostarse sobre el eje horizontal, es decir que la
pendiente debe ser 0 y esto debera cumplirse para una cantidad grande de datos, para una poblacin.
[Para N datos: = + * x]
[Para n datos: y = a + b * x ]
La hiptesis a verificar ahora es pendiente = 0 (H
0
= ( = 0))
La variable de prueba se vincula con la Student:
[ t(Prueba) = (b / (S
YX
/ ( x
2
(n *x
2
)))) ]
En el ejemplo:
t(Prueba) = (0,3649 / (1,04 / ( 150 (5 * 5,2
2
)))) = 1,37
Lo que hace 1,35 versus (t
n-2
) = t
3
La pendiente no es significativa.

Ejercicios de la gua para resolver (Unidad 6): 5(b), 8(d), 9(b)










47

ndice Alfabtico

Aproximacin Binomial-Normal, 28
Aproximacin Exponencial-Normal, 28
Aproximacin Gamma-Normal, 27
Aproximacin Poisson-Normal, 27
Aproximaciones Con La Normal De Gauss, 27
asimetra, 14

Bimodal, 20
Binomial, DIstribucin, 18

Calculo Con Datos Agrupados, 38
Calculo de la mediana grficamente, 38
Clculo de la Variable de Prueba, 39
clculo de probabilidades, 3
Certeza, Caso De, 4

Chevichev, Coeficiente De, 15

coeficiente de Chevichev, 15
coeficiente de correlacin, 16
Coeficiente de Correlacin, 45
Coeficiente de Correlacin, Significatividad, 46
Coeficiente de Determinacin, 45
Coeficiente de Dispersin Sigma, 11
Coeficiente De Snedecor, 45
Consistencia, 29
Contingencia, Caso De, 4
Covarianza, 15

Datos Agrupados, 38
Desigualdad de Gauss, 11
Diagrama de Dispersin, 43
distribucin acumulada de probabilidad, 10
Distribucin Binomial, 18
Distribucin de probabilidad, 9
Distribucin de Probabilidad del Promedio
Muestral., 30
Distribucin Exponencial Negativa, 20
Distribucin Gamma, 21
Distribucin Hiper Geomtrica, 18
Distribucin Ji Cuadrada, 36
Distribucin Normal o Gauss, 24
Distribucin Poisson, 19
Distribucin Student, 34
Distribucin Uniforme o Rectangular, 23

Error Del Promedio Muestral, 30
error estndar, 17
Error Estndar, 11
error estndar utilizando el promedio de
regresin, 44
espacio de resultados, 3
Esperanza de una variable continua, 17
Esperanza Matemtica, 10
Esperanza matemtica de una variable aleatoria,
10
Esquema Aditivo De Probabilidades, 5
Esquema De rbol De Prioridad De Secuencias, 8
estimacin, 29
Estimacin Mediante Intervalos De Confianza,
33
Estimacin Puntual, 33
exponencial de Gossitt (Student), 34
Exponencial Negativa, Distribucin, 20

Factor K, 11
factoriales de un nmero racional, 21
Forma Normal de Tippett, 32
funcin de densidad o de frecuencias, 16
funcin de distribucin acumulativa, 17
Funcin de Probabilidad, 9

Gamma, Distribucin, 21
Gauss, Distribucin, 24
Gossitt, Exponencial De, 34
Grado De Libertad, 34

Helmert, Distribucin, 36
Hiper Geomtrica, Distribucin, 18
Hiptesis Alternativa, 40
Hiptesis, Pruebas De, 39
Histograma, 38

Insesgamiento, 29
Interpretacin Geomtrica De Las
Probabilidades Multiplicativas Y Aditivas, 6
Intervalo de Confianza para el Desvo estndar
Poblacional, 36
48

Intervalo De Confianza Para El Desvo Estndar
Poblacional, 36
Intervalo de Confianza para una Diferencia de
Promedios, 37
Intervalo de Validacin, 40
Intervalos De Confianza, 33

Ji, Distribucin, 36

Kurtosis, 14

LeptoKurtosis, 38
Liapunov, Teorema Del Lmite Central, 30

Media, 34
Mediana, 34
Modo, 38
momento centrado de orden 3, 14
Momento Centrado de Orden 4, 14
Momentos de Orden Superior, 14
Momentos de una Variable, 10
muestra, 29

Nivel De Confianza De La Estimacin, 33
Normal, Distribucin, 24
Normalidad, Evalaucion De, 32

Operaciones con Variables Aleatorias, 12

p_value, 40
pendiente de la recta de regresin, Mtodo, 46
Poisson, Distribucin, 19
Prediccin con el Promedio de Regresin, 44
probabilidad, 3
Probabilidad Aditiva Para Tres Elementos, 6
Probabilidad Condicional, 5
Probabilidad Condicional 3 Sucesos, 7
probabilidad de presentacin de un suceso
aleatorio, 4
Probabilidades Multiplicativa Para Tres Sucesos,
6
Probabilidades, Tipos De, 5
Promedio De Regresin, 43
Promedio Modal, 38
Prueba De Hiptesis Para Diferencia De
Promedios, 42
Pruebas de Hiptesis, 39
Pruebas De Hiptesis De Un Extremo
(Unilaterales), 41
Pruebas De Hiptesis Para El Desvo Estndar
Poblacional, 41
Pruebas De Hiptesis Utilizando La Variable
Student, 41

Rectangular, Distribucin, 23
Reglas Axiomticas De Las Probabilidades, 4
Regresin Lineal, 43
riesgo , 39
Riesgo Posterior, 40
riesgo , 40

Serie De Frecuencias, 38
Snedecor, Coeficiente De, 45
Student, Distribucin, 34
suceso aleatorio, 3
Sucesos Multiplicativos, 5

Teorema De Bayes, 7
Teorema del Lmite Central de Liapunov, 30
Tippett, Forma Normal De, 32
Tippett, Tabla, 32

Uniforme, Distribucin, 23

Vaciedad, Caso De, 4
variable aleatoria, 9
Variable aleatoria de Gauss, 10
Variable de Prueba, 39
Variables Aleatorias Continuas, 16
Variables aleatorias dependientes, 15
Varianza, 12
Varianza Muestral Combinada, 42

Anda mungkin juga menyukai