Anda di halaman 1dari 16

Repblica Bolivariana de Venezuela.

Ministerio del Poder Popular para la Educacin Universitaria.


Universidad Politcnica Territorial del Estado Aragua.
Federico Brito Figueroa.
La Victoria, Estado Aragua.

MATEMTICA APLICADA

Autores: T.S.U. Haddad Yourmery. CI: 26 486 759.


T.S.U. Palencia mbar. C.I: 20 695 369.
T.S.U. Prez Adrin. CI: 21 259 331.
Coordinador (a): Liban Halegey.

Abril, 2013.
1

INDICE
CONTENIDO

Pp.

MATEMTICA APLICADA..
Estimacin de Parmetros...
Diferencia entre Estimacin Puntual y Estimacin por Intervalos.
Propiedades Deseables de los Estimadores Puntuales....
Error Cuadrtico Medio..
Estimador Insesgado y las Condiciones Debe Cumplir..
Estimador Consistente para los Parmetros y .....
Convergencia en Probabilidad
Desigualdad de Chebyshev.
Ley de los Grandes Nmeros..
Estimador Insesgasdo de Varianza Minima................
Estadstica Suficiente para un Parmetro
Estimacin por Mxima Verosimilitud...
Mtodo de los Momentos...
Estimacin del Intervalo para la Media Cuando se Muestrea una
Distribucin Normal, con Varianza Conocida y Cuando no se Conoce

3
3
3
3
4
5
6
6
6
7
7
7
8
8

la Varianza...
Intervalo de Confianza para la Diferencia de Medias Cuando se
Muestrean Dos Distribuciones Normales Independientes...

La Estimacin Bayesiana Puntual y Por Intervalos


Limites Estadsticos de Tolerancia.

12
13

BIBLIOGRAFA

14
15

MATEMTICA APLICADA
Estimacin de Parmetros
Es el procedimiento que se realiza cuando se quiere responder a una pregunta
que pide el valor de un parmetro poblacional, involucrando el uso de los datos
muestrales en conjuncin con alguna estadstica.
Diferencia entre Estimacin Puntual y Estimacin por Intervalos
La diferencia es que la estimacin puntual busca un estimador que, con base
en los datos muestrales, d origen a una estimacin univaluada del valor del
parmetro y que recibe el nombre de estimado puntual, mientras que la estimacin
por intervalo determina un intervalo en el que, en forma probable, se encuentra el
valor del parmetro y que recibe el nombre de intervalo de confianza estimado.
Propiedades Deseables de los Estimadores Puntuales
Con el propsito de mostrar la necesidad de estimar parmetros,
consideramos la siguiente situacin: cuando se obtiene una muestra aleatoria de
cierta caracterstica X de la distribucin de poblacin, y a pesar de que pueda
identificarse la funcin de densidad de esta, es poco probable que la caracterstica
pueda especificarse de manera completa mediante los valores de todos los
parmetros.
En esencia, se conoce la familia de distribuciones a partir de la cual se obtiene
la muestra, pero no puede identificarse el miembro de inters de sta, ya que no se
conoce el valor del parmetro. Este ltimo tiene que estimarse con base en los
datos de la muestra.
Para ello es necesario conocer las propiedades deseables de un buen
estimador:

1. Insesgado: Es cuando la esperanza del estimador es igual al parmetro que


se est estimando. Entonces T= (X1,X2 Xn) es un estimador insesgado de ,
si E(T) = para todos los valores posibles de
ECM(T) = VT.
2. Eficiente: Sea X1,X2 Xn una muestra aleatoria de una distribucin
cuya funcin de probabilidad es f (X, ). Sea el estadstico T= (X1,X2 Xn) un
estimador de , tal que E(T) = y V(T) es menor que la varianza de cualquier otro
estimador insesgado de .
3. Suficiente: Si utiliza toda la informacin contenida en la muestra aleatoria
con respecto a . Ejemplo: la media

es suficiente porque incluye todas las

observaciones de la muestra aleatoria. La moda no es suficiente porque considera


slo el valor que ms se repite en la muestra y la mediana tampoco lo es porque se
refiere a aquella observacin que divide en dos partes iguales la muestra.
4. Consistente: Cuando el limite al infinito de la esperanza del estimador (n
es ms grande) es igual al parmetro, y el lmite al infinito de la varianza del
estimador es igual a cero.
y

V(T)=0
Error Cuadrtico Medio

El error cuadrtico medio de un estimador T, el trmino [ E(T)] se define


como sesgo del estimador. El sesgo de T puede ser positivo, negativo o cero.
Debido a que el cuadrado del sesgo es un componente del error cuadrtico medio,
es importante mencionar que si el valor es positivo debera de ser lo ms pequeo
posible. Se puede decir que es considerado que un estimador tenga una media
igual al parmetro que se va a estimar.
Estimador Insesgado y las Condiciones Debe Cumplir
Como lo mencionamos anteriormente un estimador insesgado es aquel donde
la esperanza del estimador es igual al parmetro que se est estimando.
4

La condicin principal que debe cumplir es que la varianza sea mnima.


Ejemplo:

Sea X1,X2,X3,X4 ~

1 =

y su

a) V(1)= V(

( :

)=

(X1)+

(X2)=

)=

V(1) =

b)

2 = 0,1 X1 + 0,3 X2 +0,4X3+ 0,2 X4 y su


V(2)=V(0,1 X1 + 0,3 X2 +0,4X3+ 0,2 X4 )
V(2)=
V(X1) +
V(X2)+
V(X3)+
V(2)=
V(2)=

3=

c) V(3)=V (

V(X4)

y su
)=

V(3)=

[V(X1) +V(X2)+ V(X3)+ V(X4)]


=

=0,25

En estos tres ejemplos se puede observar que el estimador

3 es el estimador

con menor varianza, por lo tanto se cumple la condicin de ser un estimador


insesgado.
Estimador Consistente para los Parmetros y

Como ya sabemos un estimador consistente es cuando el limite al infinito de


la esperanza del estimador es igual al parmetro, y el lmite al infinito de la
varianza del estimador es igual a cero.
Las siguientes formulas se aplican para y ya que el parmetro puede ser
representado por ambas. La siguiente formula de la esperanza (

quiere decir que mientras el tamao de la muestra tienda a infinito el estimador va


a ser igual al parmetro que se va a estimar. Y la formula de la varianza (
V(T)=0) representa que cuando la varianza tiende a infinito y se va acercando
ms al valor de la muestra hacindose cada vez ms pequea, no tendra varianza
y seria igual a cero.
Convergencia en Probabilidad
(s.f) Fernndez, V. La variable aleatoria xn converge en probabilidad a una
constante c si lim n Prob(xn-c>e)=0. Para cualquier e>0. Esto quiere decir
que la convergencia en probabilidad se da a medida que

o el tamao de muestra

aumenta, entonces la variable aleatoria toma los valores cercanos a una


constante

con mayor probabilidad.


Desigualdad de Chebyshev

Existe una desigualdad muy conocida, del matemtico ruso Chebyshev,


que nos desenpea una funcin muy importante en el clculo de
probabilidades. Adems nos dar un medio para comprender, con precisin,
como la varianza mide la variabilidad respecto al valor esperado de una
variable aleatoria. Sea x una variable aleatoria con E(X) = y sea k un
nmero real cualquiera mayor o igual que 1, entonces:
o en forma equivalente:
. Bergagna, A. y otros (2005)
Esto quiere decir que la desigualdad de Chebyshev es un resultado estadstico
que ofrece una elevacin inferior a la probabilidad de que el valor de una variable
6

aleatoria con varianza finita est a una cierta distancia de su esperanza matemtica
o de su media.
Ley de los Grandes Nmeros
La ley de los grandes nmeros indica que los estimados por frecuencias
relativas de regla 1 tiende a mejorar si se hacen ms observaciones. Esta ley
refleja una simple nocin fundamental en el sentido comn; un estimado de
probabilidad basado en solo unos cuantos ensayos puede desviarse en
cantidades sustanciales; pero, con un nmero muy grande de ensayos,
estima tiende a s mucho ms preciso. (sf) Pineda, M.
Esto quiere decir que la ley de los grandes nmeros consiste en hacer muchos
ensayos para as saber una mejor probabilidad. Un ejemplo muy sencillo es el de
lanzar una moneda para visualizar la probabilidad de que cuntas veces sale cara y
cuando veces sale cello, mientras ms ensayos se hagan lanzando la moneda, se
sabr ms preciso cual es la probabilidad.
Estimador Insesgasdo de Varianza Mnima y sus Propiedades
Sea X1, X2, . . . , Xn una m.a. de fX(x|). Un estimador insesgado T(X)
= T(X1, X2, . . . , Xn) de () es un UMVUE para () si y solo si:
1. E(T(X)) = () (T(X) es un estimador insesgado para ())
2. V ar(T(X)) V ar(W(X)) para cualquier otro estimador W(X) de ()
que cumpla que E(W(X)) = (). (sf) Rodriguez, C.
Un estimador es insesgado de varianza mnima cuando su error cuadrtico
medio se reduce a su varianza.
Estadstica Suficiente para un Parmetro
Una estadstica es suficiente para un parmetro cuando utiliza toda la
informacin contenida en la muestra aleatoria con respecto a . Esto quiere decir
que la estadstica es suficiente cuando a la muestra, se le toma todas las
mediciones con respecto a y las misma se encuentre contenida en ese valor.

Estimacin por Mxima Verosimilitud


El mtodo de estimacin denominado mxima verosimilitud

segn

Zylberberg (2004): se basa en proponer la hiptesis de que sucede "lo que


mayores probabilidades tena de suceder". Es decir, que en cada valor obtenido en
la muestra, se obtuvo el valor que ms probabilidades tena de obtenerse.
el mtodo de estimacin por mxima verosimilitud, selecciona como
estimador a aquel valor del parmetro que tiene la propiedad de maximizar
el valor de la probabilidad de la muestra aleatoria observada. En otras
palabras, el mtodo de mxima verosimilitud consiste en encontrar el valor
del parmetro que maximiza la funcin de verosimilitud. Canavos (1988).
En este sentido, se puede decir que el mtodo de estimacin de mxima
verosimilitud hace referencia al valor que incrementa la probabilidad de la
muestra aleatoria y esta estimacin es muy cercana a la realidad.
Mtodo de los Momentos
Quiz el mtodo ms antiguo para la estimacin de parmetros es el
mtodo de los momentos. ste consiste en igualar los momentos apropiados
de la distribucin de la poblacin con los correspondientes momentos
muestrales para estimar un parmetro desconocido de la distribucin.
Canavos (1988)
Esto quiere decir, que el mtodo de los momentos consiste en igualar los
momentos muestrales con los tericos. Esto funciona cuando no se pueden
determinar los estimadores por mxima verosimilitud.
Estimacin del Intervalo para la Media Cuando se Muestrea una
Distribucin Normal, con Varianza Conocida y Cuando no se Conoce la
Varianza
1. Intervalos de confianza para cuando se muestrea una distribucin
normal, con varianza conocida:
Para determinar el intervalo de confianza cuando se conoce la varianza de la
media muestral se emplea la siguiente frmula:
Ic = X Z (1-/2) . /n

Donde
X: media muestral.
: desviacin tpica.
n: tamao de la muestra.
:

confianza.

Z: valor de la distribucin normal.


Ejemplo: Halle el intervalo de confianza para una muestra de 25 tornillos; con
un dimetro promedio de 2 cm y varianza de 0,09cm, si el grado de confianza
=5%

Datos:
Ic=?
n=25
X=2cm
=0,09cm2 -> =0,3cm
5%

-> =0,05

Solucin:
a) Hallo Z (1-/2):
Z (1-/2) = Z (1 - 0,05/2)
Z (1-/2) = Z (1 0,025)
Z (1-/2) = Z (0,975)
Z (1-/2) = 1,96
b) Determino el intervalo de confianza:
Ic = X Z (1-/2) . /n
Ic = 2 1,96 . 0,3/25)
Ic = 2 (196.0,3) / 5
Ic = 2 0,1176
Ic = (2 0,1176 ; 2 + 0,1176)
Ic = (1,8824 ; 2,1176)

c) Respuesta:
El intervalo de confianza para es de [1,8824 2 2,1176]
2. Intervalos de confianza para cuando se muestrea una distribucin
normal, con varianza desconocida:
Para determinar el intervalo de confianza cuando se desconoce la varianza de
la media muestral se emplea la siguiente frmula:
Ic = X T (1-/2 , n-1) . S/n
Donde
X: media muestral.
S: la desviacin tpica.
n: nmero de datos.
:

confianza.

T: valor de la distribucin T-Student.


Ejemplo: Halle el intervalo de confianza para los siguientes datos: 506, 508,
499, 503, 504, 510, 497, 512, 514, 505, 493, 496, 506, 502, 509, 496. Con una
varianza para =5%
Datos:
Ic=?
5%

-> =0,05

Solucin:
Xi
506
508
499
503
504
510
497
512
514
505

Xi X
2,25
4,25
-4,75
-0,75
0,25
6,25
-6,75
8,25
10,25
1,25
10

(Xi - X)
5,0625
18,0625
22,5625
0,5625
0,0625
39,0625
45,5625
68,0625
105,0625
1,5625

493
496
506
502
509
496

-10,75
-7,75
2,25
-1,75
5,25
-7,75

a) Determino el valor de X:
X = (Xi) / n
X = 8060 / 16
X = 503,75
b) Determino el valor de S:
S = (Xi - X) / n
S = 577 / 16
S = 36,0625
S = 6,005
c) Hallo T (1-/2) , n-1:
T (1-/2) , n-1 = T (1-0,05/2) , 16-1
T (1-/2) , n-1 = T (1-0,025) , 15
T (1-/2) , n-1 = T (0,975) , 15
T (1-/2) , n-1 = 2,131
d) Determino el intervalo de confianza:
Ic = X T (1-/2 , n-1) . S/n
Ic = 503,75 (2,131) . 6,005/16
Ic = 503,75 (2,131) . 6,005/4
Ic = 503,75 2,131 . 1,501
Ic = 503,75 3,199
Ic= (503,75 - 3,199 ; 503,75 + 3,199)
Ic = (500,551 ; 506,949)

11

115,5625
60,0625
5,0625
3,0625
27,5625
60,0625

e) Respuesta:
El intervalo de confianza para es de [500,551 503,75 506,949]
Intervalo de Confianza para la Diferencia de Medias Cuando se Muestrean
Dos Distribuciones Normales Independientes
Para determinar el intervalo de confianza cuando existen diferentes medias, se
emplea la siguiente frmula:
Ic = (X Y) T (1-/2 , nx+ny-2) Sp [(1/nx) + (1/ny)]
Donde
X: muestra 1.
Y: muestra 2.
T: valor de la distribucin T-Student.
nx: nmero de datos para la muestra 1.
ny: nmero de datos para la muestra 2.
Sp: desviacin total.
Ejemplo: Halle el intervalo de confianza para la diferencia de medias cuyos
datos se presentarn a continuacin:
nx=10

ny=14

X=16250

Y=15400

Sx=1187222,22

Sy=1352307,69
=1%

-> 0,01

Solucin:
a) Hallo la desviacin total:
Sp = [(nx-1)Sx + (ny-1)Sy] / (nx+ny-2)
Sp = [(10-1)1187222,22 + (14-1)1352307,69] / (10+14-2)
Sp = [(9)1187222,22 + (13)1352307,69] / (22)
Sp = [10684999,98 + 17579999,97] / (22)
Sp = [28264999,95] / (22)
Sp = 1284772,72
12

Sp = 1133,48
b) Hallo la T:
T (1-/2 , nx+ny-2) = T [(1-0,01/2) , 10+14-2)]
T (1-/2 , nx+ny-2) = T [(1-0,005) , 22]
T (1-/2 , nx+ny-2) = T (0,9) , 22
T (1-/2 , nx+ny-2) = 1,321
c) Determino el intervalo de confianza:
Ic = (X Y) T (1-/2 , nx+ny-2) Sp [(1/nx) + (1/ny)]
Ic = (16250 15400) 1,321 (1133,48) [(1/10) + (1/14)]
Ic = 850 1497,33 [0,1 + 0,07]
Ic = 850 1497,33 0,17
Ic = 850 617,36
Ic = (850 - 617,36 ; 850 + 617,36 )
Ic= (232,64 ; 1467,36)
d) Respuesta:
El intervalo de confianza para la diferencia de es de:
[232,64 850 1467,36]
La Estimacin Bayesiana Puntual y Por Intervalos
La estima de un parmetro poblacional dada por un nmero se llama
estima de punto del parmetro. La estima de un parmetro poblacional dada
por dos nmeros entre los cuales se considera que se encuentra dicho
parmetro se llama estima de intervalo del parmetro. Murray (1976)
Por otro lado, segn Canavos (1988): un intervalo bayesiano es, en
efecto, un intervalo de probabilidad. En otras palabras, puede decirse que la
probabilidad de que se encuentre contenido en el intervalo a, b es .
Ejemplo: Si se dice que una distancia viene dada por 5.28 pies, se est dando
una estima de punto. Si, por otra parte, se dice que la distancia es 5.28 + 0.03 pies,
es decir, la distancia real se encuentra entre 5.25 y 5.31 pies, se est dando una
estima de intervalo.
13

En este sentido, se puede decir que para determinar la estima puntual de un


parmetro establecido, se debe elegir el valor que parezca ms representativo.
Mientras que la estimacin bayesiana por intervalos se basa en valores
probabilsticos fijados en un parmetro determinado.
Limites Estadsticos de Tolerancia y su Clasificacin
Los lmites de Tolerancia estadsticos son similares a la capacidad del
proceso, es decir, que muestran los extremos prcticos de la variabilidad del
proceso y, por lo tanto pueden ser un dato valioso para determinar un lmite
de tolerancia tcnico. Vallhonrat, J. y otros (1990).
Esto quiere decir que los lmites de tolerancia son utilizados para indicar entre
que limites se pueden encontrar una proporcin dada de la poblacin. Se clasifican
en lmites de tolerancia independientes de la distribucin y lmites de tolerancia
cuando se muestra una distribucin normal:
1. Lmites de tolerancia independientes de la distribucin:
Este es el lmite cuando D es la proporcin de observaciones de la variable
aleatoria que se encuentra entre los limites L1 y L2, que son funcionales
univaluadas

de

las

observaciones

de

manera

tal

que

, entonces L1 y L2 reciben el nombre de lmites


estadsticos de tolerancia independiente.
2. Lmites de tolerancia cuando se muestra una distribucin normal:
Estos lmites son los que se basan en la distribucin normal, que no tiene
variedad a la hora de estudiarlos. De esta forma, si el muestreo se lleva a cabo
sobre una distribucin

de manera tal que y son conocidos, entonces,

por ejemplo, los limites 1645, 1.96 , y 2.575 incluirn al 90, 95 y


99% de la distribucin, respectivamente.

BIBLIOGRAFAS

14

(sf) Ayala, M. Probabilidad y Estadstica Novena Edicin. [Libro en lnea].


Teorema de Grandes Nmeros. Disponible: http://books.google.co.ve/books?
id=r_KIv6kA8IMC&pg=PA122&lpg=PA122&dq=ley+grandes+numero+proba
bilidad+estadistica&source=bl&ots=rZP7bXmiJ&sig=7JzY76bWl62n80fDVLWUsD-dA7k&hl=es&sa=X&ei=CNt2UZ7MIoq8ATc8oCYDA&ved=0CEQQ6AEwAzgK#v=onepage&q=ley%20grandes
%20numero%20probabilidad%20estadistica&f=false. [Consulta: 2013, Abril
20].
Bergagna, A. y otros. (2005). Estadstica Bsica Probabilidad. [Libro en lnea].
Teorema de Chebyshev: EdicionesUNL. Disponible:
http://books.google.co.ve/books?
id=yQYw15owYEIC&pg=PA133&lpg=PA133&dq=desigualdad+de+chebyshe
v+probabilidad&source=bl&ots=MUfEo8id26&sig=kHj9lew023wnpb1ZWpV
cZOeWXyw&hl=es&sa=X&ei=agF3Ucb_EJDc8ASpvoGQBg&ved=0CDwQ6
AEwAzgK#v=onepage&q=desigualdad%20de%20chebyshev
%20probabilidad&f=false. [Consulta: 2013, Abril 20].
Canavos, G. (1988). Probabilidad y Estadstica Aplicaciones y Mtodos [Libro en
lnea]. Estimacin Puntual y por Intervalo. Editorial McGRAW-HILL.
Disponible: http://mediafire.com/?jcxqfps31m7t7bt [Consulta: 2013, Abril 19]
Canavos, G. (1999). Probabilidad y Estadstica (Aplicaciones y Mtodos).
Mxico: Editorial McGRAW-HILL.
(s.f) Castro, M. y Villacampa, Y. Estadstica Aplicada a la Ingeniera Civil. [Libro
en lnea]. Estimador insesgado de mnima varianza. Editorial Club
Universitario. Disponible:
http://books.google.co.ve/books?
id=cIqAVHUw8uYC&pg=PA188&lpg=PA188&dq=estimador+insesgado+de+
varianza+minima&source=bl&ots=sOTZYOQKlv&sig=pAOgY5nsf2y7SLki2
Wnrj2KwtgQ&hl=es&sa=X&ei=2DN4UaSEBYPQ9AS-YHIDA&ved=0CCwQ6AEwATgK#v=onepage&q=estimador%20insesgado
%20de%20varianza%20minima&f=false. [Consulta: 2013, Abril 20].
(sf) Fernndez, V. Apuntes Teoria Econometrica I. [Libro en lnea]. Convergencia
en probabilidad. Disponible: http://www.oocities.org/vivipauf/asintotico.PDF. .
[Consulta: 2013, Abril 20].

(s.f) Garca, J. y otros. Universidad Central de Venezuela Facultad de


Agronoma Postgrado en Estadstica. Gua Terica- Prctica Estadstica
bsica.
15

Murray, S. (1976). Probabilidad y Estadstica [Libro en lnea]. Teora de


Estimacin: Editorial McGRAW-HILL. Disponible: http://mediafire.com/?
32ukp9pr2wwvc3d [Consulta: 2013, Abril 19]
(sf) Pineda, M. Probabilidad y Estadstica Novena Edicin. [Libro en lnea].
Teorema de Grandes Numeros. Disponible: http://books.google.co.ve/books?
id=r_KIv6kA8IMC&pg=PA122&lpg=PA122&dq=ley+grandes+numero+proba
bilidad+estadistica&source=bl&ots=rZP7bXmiJ&sig=7JzY76bWl62n80fDVLWUsD-dA7k&hl=es&sa=X&ei=CNt2UZ7MIoq8ATc8oCYDA&ved=0CEQQ6AEwAzgK#v=onepage&q=ley%20grandes
%20numero%20probabilidad%20estadistica&f=false. [Consulta: 2013, Abril
20].
(sf) Rodrguez, C. Estadistica y Probabilistica. [Libro en lnea]. Estimadores
Insesgado
de
Varianza
Minima.
Disponible:
http://actgodoy.files.wordpress.com/2010/11/estpuntext.pdf . [Consulta: 2013,
Abril 20].
Universidad Pedaggica Experimental Libertador (2004). Manual de Trabajos de
Grado de Especializacin y Maestra y Tesis Doctorales. Caracas: FEDUPEL.
Vallhonrat, J. y otros (1990). Manual de Control de la Calidad Volumen 1
Segunda Edicin [Libro en lnea]. Lmites Estadsticos de Tolerancia: Editorial
Revert, S.A. Disponible:
http://books.google.co.ve/books?
id=JmnDQ4fzgzQC&pg=PA702&lpg=PA702&dq=que+son+limites+estadistic
os+de+tolerancia&source=bl&ots=uu1EZmZ4HS&sig=R8AXVX9DTgfNqI2
NPHWoKUZdiA&hl=es&sa=X&ei=FN91UcbUNOm10AGuuoGADw&ved=0CC0Q6AEwA
A#v=onepage&q=que%20son%20limites%20estadisticos%20de
%20tolerancia&f=false. [Consulta: 2013, Abril 20]
Zylberberg, A. (2004). Probabilidad y Estadstica. [Libro en lnea]. Estimadores.
Disponible: http://mediafire.com/?emkewmzhmzz [Consulta: 2013, Abril 19]

16

Anda mungkin juga menyukai