Anda di halaman 1dari 16

Índice general

2. Muestras y Estadı́sticos muestrales 1


2.1. Introducción a la Estadı́stica Matemática . . . . . . . . . . . . . . . . . . 1
2.1.1. Concepto de Población . . . . . . . . . . . . . . . . . . . . . . . . 2
2.1.2. Concepto de muestra aleatoria . . . . . . . . . . . . . . . . . . . . 3
2.2. Estadı́sticos y su distribución en el muestreo . . . . . . . . . . . . . . . . 6
2.2.1. Propiedades de la distribución muestral . . . . . . . . . . . . . . . 7
2.3. Distribución en el muestreo y comportamiento asintótico. . . . . . . . . . 8
2.3.1. Distribución en el muestreo de los momentos muestrales . . . . . 10
2.3.2. Comportamiento asintótico de los momentos muestrales . . . . . . 11
2.3.3. Distribución asintótica de la varianza muestral . . . . . . . . . . . 12
2.3.4. Comportamiento asintótico de los cuantiles muestrales . . . . . . 13

1
Capı́tulo 2

Muestras y Estadı́sticos muestrales

2.1. Introducción a la Estadı́stica Matemática

El Cálculo de Probabilidades proporciona una teorı́a matemática que permite


analizar las propiedades de los fenómenos en que interviene el azar. Para él el espacio
probabilı́stico de partida (Ω, F , P ) es un dato. Sin embargo cuando tratamos de adaptar
un modelo probabilı́stico a cada situación aleatoria extraida de la realidad, está claro
que no cabe otra alternativa que llevar a cabo observaciones del fenómeno en cuestión
para discernir qué modelo traduce mejor la situación. El disponer de un conjunto de
observaciones acerca del fenómeno considerado en lugar de un espacio probabilı́stico
totalmente especificado, hace abandonar el campo del Cálculo de Probabilidades para
introducirse en el de la Estadı́stica Matemática o Inferencia Estadı́stica, cuya finalidad
es obtener información acerca de la ley de probabilidad de un fenómeno, a partir de
una observación no exhaustiva del mismo. Ası́ si se desea estudiar la distribución de
la estatura de los individuos de una población, será necesario conocer las tallas de
un número elevado de ellos. Frecuentemente se entiende por Estadı́stica el proceso de
recolección de datos ası́ como su tratamiento numérico. Sin embargo, el interés de la
Inferencia Estadı́stica se centra en el análisis e interpretación de las observaciones, como
método para obtener conclusiones sobre la ley de probabilidad del fenómeno estudiado.
Estas conclusiones serán de tres tipos:

1. Aquellas cuya finalidad es obtener un pronóstico numérico único acerca de un de-


terminado parámetro de la distribución (media, varianza, etc.). Es lo que se llama
la Estimación Puntual (ejemplo: probabilidad de obtener cara en una moneda mal
construida 0.37).
2. Aquellas que tratan de precisar un intervalo numérico en el que pueda razonable-

1
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 2

mente afirmarse que varı́a el parámetro en cuestión, es la Estimación por “Inter-


valos de Confianza”(ejemplo: la desviación tı́pica de las estaturas de la población
española está entre 3.5 y 4.5 cm.).

3. Aquellas cuya probabilidad es corroborar o invalidar una determinada afirmación


acerca de la distribución de probabilidad del fenómeno observado, es el problema
de los “contrastes de hipótesis”(ejemplo: se trata de verificar que un determinado
fármaco retrasa la calvicie).

2.1.1. Concepto de Población

Supongamos que nuestro interés se centra en el estudio de una v.a. X de dis-


tribución F más o menos desconocida, por ejemplo: volumen de ventas de un producto,
efectividad de un tratamiento médico, etc.. La distribución desconocida F recibe el
nombre de distribución teórica ó distribución de la población, término debido a la gran
frecuencia en que la Estadı́stica Matemática se utiliza para la determinación de la distri-
bución de alguna caracterı́stica de los individuos de una población. El desconocimiento
sobre F se refleja dando una familia F de distribuciones candidatas a ser realmente
la distribución de la población. F puede interpretarse como la información de que se
dispone ante un problema estadı́stico.
La situación más simple es aquella en que F está compuesta por distribucio-
nes de forma funcional fija y conocida dependientes de un parámetro θ de una o más
dimensiones que varı́a en un subconjunto Θ de Rk , denominado espacio paramétrico
F = {Fθ /θ ∈ Θ ⊂ Rk }. El estudio de esta situación lo constituye la estadı́stica pa-
ramétrica.

Ejemplo 2.1. Si X representa la duración de una componente electrónica que no enve-


jece, es decir que si la componente sobrevive en el instante t su estado es el mismo que
inicialmente y la distribución del tiempo que falta para su rotura sigue siendo la misma
que al principio, se deberá tomar la distribución exponencial que es la única con esta
propiedad de falta de memoria

f (x) = λe−λx x ≥ 0
! t+y −λx
t
λe dx [−e−λx ]tt+y −e−λ(t+y) + e−λt
!
P (t < X ≤ t + y/X > t) = ∞ −λx = = =
t
λe dx [−e−λx ]∞t e−λt
" y
−λy
= 1−e = λe−λx dx
0
El desconocimiento sobre F queda reducido al desconocimiento de λ.
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 3

Ejemplo 2.2. Empı́ricamente se ha visto que la inmensa mayorı́a de las caracterı́sticas


morfológicas de los individuos de una población biológica (longitudes, pesos, diámetros,
concentraciones, ...) sigue una distribución normal. La razón está en el T.C.L. debido a
que tales caracterı́sticas son el resultado de la acumulación de gran número de factores
de efectos individuales muy pequeños, con lo cual el modelo serı́a N(µ, σ), el descono-
cimiento se reducirı́a a µ y σ. También hay situaciones no paramétricas en que F sea
por ejemplo el conjunto de todas las distribuciones absolutamente continuas. En este
caso tendremos Inferencia No Paramétrica.

2.1.2. Concepto de muestra aleatoria

Con objeto de intentar disminuir el desconocimiento sobre la distribución teóri-


ca F realizaremos observaciones de la v.a. X en estudio. Para ello llevamos a cabo
repeticiones del experimento aleatorio que da lugar a la variable X y anotaremos los
valores de X en cada una de ellas. Ası́ se obtendrá un conjunto de valores numéricos
(x1 , x2 , . . . , xn ) que contituirán una muestra aleatoria de X. n: número de repeticiones
y de observaciones obtenidas es el tamaño muestral.
La idea es confiar en que el azar nos suministre una muestra “representativa”que
nos dé información sobre F .

Ejemplo 2.3. Para ver si una moneda está bien construida, se lanza 100 veces, si
aparecen 5 caras y 95 cruces se deducirá que está mal construida, sin embargo estando
bien construida el suceso observado es posible pero su probabilidad serı́a tan pequeña que
confiamos en el azar para que no se presente. Por otra parte la L.F.G.N. nos garantiza
que la frecuencia relativa de caras va a converger con probabilidad 1 a la probabilidad de
cara.
Hay diversos modos de realizar un muestreo aleatorio pero lo más simple es
llevar a cabo repeticiones independientes y en las mismas condiciones del experimento
aleatorio en cuyo caso obtendremos una muestra aleatoria simple.
Cuando ya se ha obtenido una muestra de tamaño n : (x1 , x2 , . . . , xn ), se dis-
pone de un conjunto de n valores numéricos con los que tratar de precisar la distribu-
ción teórica. Sin embargo cuando se está planificando el muestreo no se sabe qué va-
lores (x1 , x2 , . . . , xn ) resultarán de modo que deben considerarse n variables aleatorias
(X1 , X2 , . . . , Xn ) una de cuyas realizaciones se presentará.
En este sentido esa muestra aleatoria tendrá una distribución n-dimensional (su-
puesto Xi unidimensional) que gobierna las probabilidades de aparición de cada muestra
efectiva (Función de distribución conjunta de las variables de la muestra).
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 4

En el caso de muestreo aleatorio simple en que se efectúan repeticiones inde-


pendientes del experimento aleatorio, observando en cada una el valor de la variable X
en estudio de distribución teórica F tendremos:
Una m.a.s. de tamaño n de una v.a. X con distribución teórica F es una v.a.
n-dimensional cuyas componentes son v.a.i.i.d. de función de distribución F con lo que
la función de distribución conjunta será:

F (x1 , x2 , . . . , xn ) = F (x1 ) · F (x2 ) . . . F (xn )

Tal distribución se denomina distribución de la muestra

Ejemplo 2.4. Si estamos interesados en conocer la probabilidad θ de cara en una mo-


neda #
1 si cara P (X = 1) = θ
X=
0 si cruz P (X = 0) = 1 − θ
Pθ (x) = θx (1 − θ)1−x x = 0, 1

⎨ 0 si x < 0
Fθ (x) = P (X ≤ x) = 1−θ 0 ≤x< 1

1 x≥1
Si sacásemos una m.a.s. de tamaño 3 tendrı́amos una v.a. (X1 , X2 , X3 ) de distribución

X1 X2 X3 Prob.
1 1 1 θ3
1 1 0 θ2 (1 − θ)
1 0 1 θ2 (1 − θ)
0 1 1 θ2 (1 − θ)
1 0 0 θ(1 − θ)2
0 1 0 θ(1 − θ)2
0 0 1 θ(1 − θ)2
0 0 0 (1 − θ)3

Se puede escribir
! !
pθ (x) = θx (1 − θ)1−x y pθ (x1 , x2 , x3 ) = θ xi
(1 − θ)3− xi
xi = 0, 1 i = 1, 2, 3

En un sentido totalmente distinto se puede asociar a cada muestra concreta (x1 , x2 , . . . , xn )


una distribución muestral o distribución empı́rica a partir únicamente de la información
contenida en los n valores numéricos que componen la muestra.
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 5

Ası́ como F (x) = P (X ≤ x) ∀x ∈ R la distribución muestral asociada a la


muestra (x1 , x2 , . . . , xn ) de X se define como

número de elementos muestrales ≤ x


Fn∗ (x) = ∀x ∈ R
n
≡ frecuencia relativa de los valores ≤ x

Representación

corresponde a una función de distribución discreta con soporte D = {x1 , x2 , . . . , xn }


j
Pn∗ (x) = si j valores muestrales coinciden con x.
n
Veremos cómo Fn∗ (x) servirá para aproximar F (x).
Si tenemos una variable aleatoria bidimensional (X, Y ), una muestra aleatoria será 2n
dimensional ((X1 , Y1 ), (X2 , Y2 ), . . . , (Xn , Yn )). A una muestra concreta le asociaremos
una función de distribución muestral
1
Fn∗ (x, y) = (número de valores muestrales(xi , yi )/xi ≤ x, yi ≤ y) ∀(x, y) ∈ R2
n
j
Pn∗ (x, y) = si j valores muestrales(xi , yi ) coinciden con (x, y).
n

El conjunto de muestras posibles que pueden obtenerse al seleccionar una mues-


tra aleatoria constituye el espacio muestral X . Si es una muestra de tamaño n y X es
unidimensional será X ⊂ Rn . La distribución de la muestra determinará una medida
probabilı́stica P sobre el espacio muestral (X , β) siendo β la restricción de la σ-álgebra
de Borel a X .
Podemos expresar P ((X1 , X2 , . . . , Xn ) ∈ B) ∀B ∈ β
En los problemas paramétricos escribiremos Pθ y tendremos (X , β, Pθ )θ∈Θ .
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 6

2.2. Estadı́sticos y su distribución en el muestreo

Obtenida (x1 , x2 , . . . , xn ), el objetivo de disminuir la incertidumbre sobre F


habrá de intentarse en función de los resultados observados en la muestra, habrá que
basarse en una función T (x1 , x2 , . . . , xn ) de los valores observados.
Definición 2.1. Se denomina estadı́stico a cualquier función medible T del espacio
muestral (X , β) en un espacio euclı́deo (Rk , β k ). La dimensión k del espacio imagen se
denomina dimensión del estadı́stico.
Ejemplo 2.5.
n
1'
T1 (x1 , x2 , . . . , xn ) = xi = x media muestral
n i=1
n
1'
T2 (x1 , x2 , . . . , xn ) = (xi − x)2 = S 2 varianza muestral
n i=1
T3 (x1 , x2 , . . . , xn ) = mı́n(x1 , x2 , . . . , xn ) = x(1)
T4 (x1 , x2 , . . . , xn ) = máx(x1 , x2 , . . . , xn ) = x(n)

También se pueden considerar estadı́sticos multidimensionales


(x, S 2 ), (x(1) , x(n) ) ó (x(1) , x(2) , . . . , x(n) ).
El estadı́stico T (X1 , X2 , . . . , Xn ) es una variable aleatoria.
Definición 2.2. Se denomina distribución en el muestreo de un estadı́stico T definido en
el espacio muestral (X , β) a la distribución de la v.a. T (X1 , X2 , . . . , Xn ). Es la medida de
probabilidad que induce la distribución de la muestra P mediante T : (X , β) (→ (Rk , β k )
Ejemplo 2.6. En el ejemplo 2.1 de la componente aleatoria X : exp(θ), la distribución
de la muestra es
⎧ n
⎨ θn exp{−θ ' x } si x ≥ 0 i = 1, 2, . . . , n

i i
fθ (x1 , x2 , . . . , xn ) =

⎩ 0 i=1
si xi < 0 para algún i
n
'
Si T (X1 , X2 , . . . , Xn ) = Xi , T seguirá una distribución γ(n, θ), por ser la suma de n
i=1
v.a.i. exponenciales de parámetro θ.
⎧ n n−1 −θt
⎨ θ t e
t≥0
h(t) = (n − 1)!

0 t<0
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 7

Ejemplo 2.7.
X1 + X2 + X3
En el caso de la moneda considerado en el ejemplo 2.4, X =
3
tendrá distribución en el muestreo
X Probabilidad
1 θ3
2 2
3
3θ (1 − θ)
1
3
3θ(1 − θ)2
0 (1 − θ)3

2.2.1. Propiedades de la distribución muestral

Sea X una v.a. unidimensional de distribución teórica F . Dada una muestra


(x1 , x2 , . . . , xn ) consideramos

1.
número de obs. xi ∈ (−∞, x]
Fn∗ (x) = ∀x ∈ R
n
2. Si consideramos la muestra ordenada x(1) , x(2) , . . . , x(n) en orden creciente


⎪ 0 x < x(1)

⎪ ..

⎨ .
Fn∗ (x) = j/n x(j) < x < x(j+1) j = 1, 2, . . . n − 1

⎪ ..

⎪ .


1 x ≥ x(n)

3. n
1'
Fn∗ (x) = I(−∞,x] (xi )
n i=1

1. Recalca la similitud con la función de distribución teórica.

2. Facilita la representación gráfica.

3. Nos permitirá considerar, cuando sustituyamos xi por la v.a. Xi , a Fn∗ (x) como
una suma de v.a.independientes.
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 8

En cualquier caso Fn∗ es una función de distribución discreta que asigna probabilidad
1
n
a cada una de las observaciones muestrales, de manera que sus momentos, llamados
momentos muestrales existen y valen
n n
1' k 1'
ak = x , bk = (xi − x)k
n i=1 i n i=1
n n
1' 1'
x = a1 = xi , S 2 = b2 = (xi − x)2
n i=1 n i=1

También tienen interés los cuantiles muestrales cp definidos ∀p ∈ (0, 1) como aquéllos
valores que verifican
Fn∗ (cp ) ≥ p, Fn∗ (c−
p) ≤ p

los cuantiles se expresan en función de la muestra ordenada

/ N, [np] parte entera


- Si np ∈
cp = x([np]+1) , np − 1 < [np] < np, [np] + 1 > np
pues
[np] + 1 [np]
Fn∗ (x([np]+1) ) = > p y Fn∗ (x− ∗
([np]+1) ) = Fn (x([np]) ) = <p
n n
- Si np ∈ N, cp puede no quedar unı́vocamente determinado al poder ser Fn∗ (x) = p
x(np) + x(np+1)
para cualquier x ∈ [x(np) , x(np+1) ) en este caso se toma cp = , la
2
mediana M = c1/2 es el valor central de la muestra ordenada si n impar y la
semisuma de los 2 valores centrales si n es par.

2.3. Distribución en el muestreo y comportamiento


asintótico.

Antes de elegir la muestra ∀x ∈ R fijo, Fn∗ (x) es una v.a.


n
1'
Fn∗ (x) = I(−∞,x] (Xi )
n i=1

Veamos su distribución en el muestreo


#
1 P (Xi ≤ x) = F (x)
I(−∞,x] (Xi ) =
0 P (Xi > x) = 1 − F (x)
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 9

I(−∞,x] (Xi ) sigue una distribución de Bernoulli de parámetro p = F (x). Luego

E(I(−∞,x] (Xi )) = F (x) V (I(−∞,x] (Xi )) = F (x)(1 − F (x)).

) * nFn∗ : )
B(n,*
F (x))
k n
P Fn∗ (x) = = P (nFn∗ (x) = k) = (F (x))k (1 − F (x))n−k k = 0, 1, . . . n
n k
1 nF (x)
E[Fn∗ (x)] = E[nFn∗ (x)] = = F (x)
n n
1 n F (x)(1 − F (x))
V [Fn∗ (x)] = 2 V [nFn∗ (x)] = 2 (F (x))(1 − F (x)) =
n n n
P c.s.
Por L.D.G.N. Fn∗ (x) → F (x), por L.F.G.N. Fn∗ (x) → F (x) y por el T.C.L.

Sn − nµ L nF ∗ (x) − nF (x) L
√ → N(0, 1) ⇒ √ +n → N(0, 1)
σ n n F (x)(1 − F (x))
√ , + -
L
n (Fn∗ (x) − F (x)) → N 0, F (x)(1 − F (x))
. / 0
F (x)(1 − F (x))
para n grande Fn∗ (x) − F (x) ∼ N 0,
n
. / 0
F (x)(1 − F (x))
Fn∗ (x) ∼ N F (x),
n

Dado x podremos elegir n/P (|Fn∗(x) − F (x)| < ϵ) > 1 − α.


La L.F.G.N. nos dice que lı́mn |Fn∗ (x) − F (x)| = 0 c.s.

∀ϵ > 0, x fijo P (|Fn∗(x) − F (x)| > ϵ i.o. ) = 0 es decir ∃N/ P (|Fn∗ (x) − F (x)| ≤ ϵ ∀n ≥ N) = 1

pero N dependerá de x.
Es decir, hay probabilidad 0 de obtener una sucesión muestral a lo largo de la
cual, los sucesivos valores de Fn∗ (x), (n = 0, 1, 2 . . . , ) no converjan a F (x).
Pero más interesante será poder asegurar que dicha aproximación se produce
simultáneamente para todos los valores de x, lo cual no es inmediato pues aunque el
suceso relativo a x se produzca con probabilidad 1, el número de valores de x no es
numerable.
En este sentido tendremos el teorema de Glivenko- Cantelli también denominado
teorema central de la estadı́stica.
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 10

Teorema 2.1. de Glivenko-Cantelli: Sea {Xi }i=1,2,...,∞ una sucesión de v.a.i.i.d. con
distribución F. Si Fn∗ (x) es la función de distribución muestral asociada a la muestra
(X1 , X2 , . . . Xn ) y ∆n = supx∈R |Fn∗ (x) − F (x)| entonces lı́m ∆n = 0 c.s. es decir
n%→∞

∀ϵ > 0 P (lı́m sup |Fn∗ (x) − F (x)| > ϵ} = 0


n x∈R

Interpretación: Imaginando una banda de amplitud ϵ, arbitrariamente estrecha alrede-


dor de F , este teorema garantiza que hay probabilidad 1 de que la distribución muestral
Fn∗ (x) esté contenida dentro de la banda si se toma n suficientemente grande. Aunque
F sea desconocida, Fn∗ (x) nos permitirá aproximarla tomando muestras suficientemente
grandes.

2.3.1. Distribución en el muestreo de los momentos muestrales

Salvo para el caso Normal, estas distribuciones son difı́ciles de hallar. Sı́ ten-
dremos los siguientes resultados:
n
1' k
Si ak = X
n i=1 i

1. E[ak ] = αk supuesto que sea finita αk = E[X k ]


V [X k ] α2k − αk2
2. V [ak ] = = supuesto que sea finita α2k = E[X 2k ]
n n

α2 − α12 σ2
En particular para a1 = X se tiene E[X] = µ, V [X] = = . En cuanto a los
n n
momentos centrales bk tiene especial importancia la varianza muestral.
n n
1' 1' 2 2 2
Sn2 = (Xi − X)2 = Xi − X , V (X) = E[X ] − E 2 [X]
n i=1 n i=1
2
2 σ σ2 σ2 (n − 1) 2
E[X ] = + µ2 , E[Sn2 ] = α2 − − µ2 = σ 2 − = σ
n n n n
Debido a este resultado es muy frecuente considerar la cuasivarianza muestral
n
1 ' n
s2n = (Xi − X)2 = Sn2
n − 1 i=1 n−1

Entonces E[s2n ] = σ 2 .
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 11

En cuanto a la distribución en el muestreo la única fácil de obtener es la de


media , t - ) t *n
itX i n (X1 +X2 +...Xn )
ϕ(t) = E[e ] = E e = φ( )
n
1 2
it −np
ası́ si X : γ(p, a), φ(t) = (1 − ita )−p , X tiene función caracterı́stica ϕ(t) = 1 − na
1 2 2
que es la función caracterı́stica de γ(np, na). Si X : N(µ, σ) φ(t) = eitµ− 2 t σ la función
caracterı́stica de X será
) *n ) *
2
i nt µ− 12 t 2 σ2 itµ− 1 2 σ2
t σ
ϕ(t) = e n =e 2 n : N µ, √
n

2.3.2. Comportamiento asintótico de los momentos muestrales

Los momentos muestrales convergen casi seguro a los momentos poblacionales.


n
'
En efecto ak (n) = n1 Xik por L.F.G.N. se tiene
i=1

c.s.
ak (n) −→ αk = E[X k ]

Si g es una función continua de Rk → R

g(a1 (n), a2 (n), . . . ak (n)) → g(α1 , α2 , . . . , αk ) c.s.


) * ) *
k k
en particular bk (n) = ak − ak−1 a1 + ak−2 a21 + · · · + (−1)k ak1
1 2

bk (n) → µk c.s.

En particular
c.s c.s. c.s.
X n −→ µ, Sn2 −→ σ 2 también s2n −→ σ 2
La distribución asintótica de los momentos la obtendremos a partir del T.C.L.

Teorema 2.2. Dada una m.a.s. (X1 , X2 , . . . , Xn ) de una población con momentos finitos
de orden k ) 3 *
√ d 2
n(ak (n) − αk ) −→ N 0, α2k − αk

n
1' k
ak (n) = X , E[Xik ) = αk , V [Xik ] = E[Xi2k ] − E 2 [Xik ] = α2k − αk2
n i=1 i
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 12

Por T.C.L.

Sn − nµ n(X − µ) d
√ −→ N(0, 1) ó −→ N(0, 1)
σ n σ

n(ak (n) − αk ) d
+ −→ N(0, 1)
α2k − αk2
√ 3
d
n(ak (n) − αk ) −→ N(0, α2k − αk2 )

. / 0
α2k − αk2 √ d
para n grande ak (n) ∼ N αk , en particular n(X − µ) −→ N(0, σ)
n

2.3.3. Distribución asintótica de la varianza muestral


√ d +
Veamos que n(Sn2 − σ 2 ) −→ N(0, µ4 − σ 4 ). Como
n
' n
' n
'
2 2
(Xk − µ) = (Xk − X n + X n − µ) = (Xk − X n )2 + n(X n − µ)2 +
k=1 k=1 k=1

n
' n
1'
+2(X n − µ) (Xk − X n ) y Sn2 = (Xk − X n )2
k=1
n k=1
n
1'
Sn2 = (Xk − µ)2 − (X n − µ)2
n k=1
se tiene
n
' n
'
2 2
(Xk − µ) − nσ (Xk − µ)2 − nσ 2
k=1 d d
+
√ + −→ N(0, 1), k=1 √ −→ N(0, µ4 − σ 4 )
n µ4 − σ 4 n
n
'
√ 1 1 √
n(Sn2 − σ 2 ) = √ (Xk − µ)2 − √ nσ 2 − n(X n − µ)2
n k=1 n
'n
(Xk − µ)2 − nσ 2

= k=1 √ − n(X n − µ)2
n
' n n
√ 1 1 '
2
n(X n − µ) = √ ( Xi − nµ) = √ ( (Xi − µ))2
2
n n i=1 n n i=1
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 13

n
' n
'
(Xi − µ) (Xi − µ)
i=1 d i=1 d
√ −→ N(0, 1) =⇒ √ −→ Z : N(0, σ)
σ n n
n
'
( (Xi − µ))2
i=1 d
−→ Z 2
n
1 P
por aplicación de la función continua g(x) = x2 ; √ −→ 0
n
Por Slutski
n
1 ' d √ P
√ ( (Xi − µ))2 −→ 0, Z 2 = 0 =⇒ n(X n − µ)2 −→ 0
n n i=1

con lo cual por Slutski


√ d
+
n(Sn2 − σ 2 ) −→ N(0, µ4 − σ 4 )
3
4
para n grande Sn2 ∼ N(σ 2 , µ4 −σ
n
)

El resultado es general y
√ d
n(bk (n) − µk ) −→ N(0, σ(θ))
3
siendo σ(θ) = µ2k − µ2k − 2kµk+1µk−1 + k 2 µ2k−1 µ2 para k = 2 resulta lo anterior pues
µ1 = 0.

2.3.4. Comportamiento asintótico de los cuantiles muestrales

Sea {Xi } una sucesión de v.a.i.i.d. de distribución F que tenga un único cuantil
de orden p ∈ (0, 1) : xp . Si cp (n) es el cuantil muestral de orden p asociado a una m.a.s.
(X1 , X2 , . . . , Xn ) se verifica
lı́m cp (n) = xp c.s.
n→∞

Demostración:∀k ∈ N como xp verifica F (x− p ) ≤ p, F (xp ) ≥ p y es único será F (xp +


1
k
) > p (pues ha de ser F (xp + k ) ≥ p pero si fuese F (xp + k1 ) = p → xp + k1 serı́a cuantil
1

de orden p) entonces
1
lı́m Fn∗ (xp + ) > p c.s.
n k
CAPÍTULO 2. MUESTRAS Y ESTADÍSTICOS MUESTRALES 14

de manera Fn∗ (xp + k1 ) > p desde un n0 en adelante ⇒ cp (n) ≤ xp + k1 ∀n ≥ n0 . Análo-


gamente F (xp − 1p ) < p, con probabilidad 1 será lı́mn Fn∗ (xp − k1 ) < p ⇒ cp (n) ≥ xp − k1
a partir de un n1 en adelante
1
∀k ∈ N P {|cp (n) − xp | ≤ a partir de un n en adelante} = 1
k
=⇒ lı́m cp (n) = xp c.s.
n→∞
Bibliografı́a

[1] Rohatgi, V.K. (1976) An Introduction to Probability Theory and Mathematical Sta-
tistics Ed. Wiley

[2] Vélez, R.; Garcı́a A.(1993) Principios de Inferencia Estadı́stica UNED

15

Anda mungkin juga menyukai