Anda di halaman 1dari 19

Formulario de ESTADÍSTICA

ANÁLISIS DE DATOS UNIDIMENSIONALES


PARÁMETRO FÓRMULA OBSERVACIONES

MEDIDAS DE TENDENCIA CENTRAL o PROMEDIOS


n i =1 para distribuciones de tipo I en todas las

k
MEDIA x ni
ARITMÉTICA
x= i =1 i formulas que siguen.
n x i es la marca de clase en distribuciones de tipo III

∑ x p
n
i =1 i i p i son los “pesos” o importancias relativas de los
MEDIA PONDERADA xp =
∑ p
n distintos valores
i =1 i


k 2 Sustituye a x cuando los valores son positivos y
i =1
x i ni
MEDIA CUADRÁTICA C= negativos
n (saldos, errores de medidas,....)

G = n x1 1 x 2
n n2 nk
MEDIA GEOMÉTRICA L xk Es la media proporcional de n valores

n
H= Es la inversa de la media aritmética de los inversos de
1

MEDIA ARMÓNICA k
i =1
ni los valores
xi
hi +1
Mo = li −1 + ai
hi +1 + hi −1 En distribuciones de tipo III :
Distinta amplitud l i-1 es el límite inferior del intervalo modal
MODA
ni +1 a i amplitud del intervalo modal
Mo = l i −1 + ai ;
ni +1 + ni −1
igual amplitud
En distribuciones de tipo III :

n −N l i límite inferior del intervalo mediano


i −1
MEDIANA Me = li −1 + 2 ai Ni –1frecuencia absoluta acumulada hasta el intervalo anterior
ni n i frecuencia absoluta del intervalo modal
a i amplitud del intervalo modal

MEDIDAS DE POSICIÓN NO CENTRALES

j n −N j = 1, 2, 3 y se obtienen tres cuartiles Q1, Q2, y Q3 que


4 i −1
CUARTILES Q j = li −1 + ai dividen a la distribución en cuatro partes iguales
ni

j = 1, 2, 3, ...,9 y se obtienen nueve decíles D1, D2, D3,


jn
DECILES − N i −1 ..., D9 que dividen a la distribución en diez partes
D j = Li −1 + 10 ai iguales
ni
jn j = 1, 2, 3, ...,99 y se obtienen cien centiles C1, C2, C3,
− N i −1
CENTILES ..., C99 que dividen a la distribución en cien partes
C j = Li −1 + 100 ai
ni iguales

____________________________________________________________________________________________________________ 1
PARÁMETRO FÓRMULA OBSERVACIONES

MEDIDAS DE DISPERSIÓN
RANGO
R = xmax − xmin Diferencia entre el mayor y el menor de los datos
Amplitud o recorrido


k Es lo que “por término medio” se alejan los valores de la
i =1
x i − x ni
DESVIACIÓN MEDIA Dx = media.
n Análogamente se puede calcular D Me

∑ (x )
k 2
i =1 i − x ni Es la media aritmética del cuadrado de los desvíos de los
VARIANZA s2 = valores con respecto a la media.
n

DESVIACIÓN TÍPICA s =+ s2 Es la desviación cuadrática media o desviación estándar

∑ (x )
n 2
CUASIVARIANZA
i =1 i − x ni Tiene mejores propiedades que la varianza s para
2

S 2
= Interferencia Estadística
o varianza corregida n −1
CUASIDESVIACION Se utiliza para encontrar intervalos de confianza y en
S = + S2 contraste de hipótesis
TÍPICA
RANGO
R I = Q3 − Q1 Se utiliza en el diagrama de caja y bigotes
INTERCUARTÍLICO

COEFICIENTE DE s
V= 100 Es adimensional, por lo que permite comparar la dispersión
VARIACIÓN x de dos o más conjunto de datos

x−x Permite situar cualquier dato en unidades de desviación


VARIABLE TIPIFICADA z= típica con respecto a la media (z-scores)
s
MEDIDAS DE FORMA
As > 0 nos indica asimetría positiva o a la derecha
COEFICIENTE DE
As < 0 nos indica asimetría negativa o a la izquierda.
x − Mo
ASIMETRÍA DE As = As ≅ 0 nos indica que la distribución es simétrica.
s
PEARSON
Solo es aplicable a distribuciones unimodales

∑ (x )
k Con la misma interpolación que As
COEFICIENTE DE 1 i =1 i −x 3
ni
ASIMETRÍA DE FISHER
g1 = 3 Es aplicable a cualquier distribución
s n

∑i = 1 (xi − x ) g2 > 0 nos indica que la distribución es leptucúrtica.


k 4
COEFICIENTE DE 1 ni
g2 = 4 −3 g2 < 0 nos indica que la distribución es platicúrtica.
CURTOSIS s n g2 ≅ 0 nos indica que la distribución es mesocúrtica.

MEDIDAS DE CONCENTRACIÓN
Pi porcentajes acumulados de las frecuencias.
Qi porcentajes acumulados de las "riquezas" (xi ni).
∑ Pi − ∑i = 1 Qi
ÍNDICE DE k −1 k −1
i =1
CONCENTRACIÓN DE Ico = I
co =0 indica que el reparto es absolutamente igualitario.


k −1
GINI i =1
Pi I co = 1 indica que el reparto es totalmente antiigualitario.

El resto de los valores se interpreta con relación a ellos

____________________________________________________________________________________________________________ 2
ANÁLISIS DE DATOS BIDIMENSIONALES

PARÁMETRO FÓRMULA OBSERVACIONES

PARÁMETROS PARA DISTRIBUCIONES BIDIMENSIONALES Y SU INTERPRETACIÓN

k h

COVARIANZA ∑∑ x
i =1 j =1
i yj Cov (X,Y) > 0, dependencia positiva o directa

(distribuciones de tipo I) Cov (X,Y) = −x y Cov (X,Y) = 0, independencia entre X e Y


n Cov (X,Y) < 0, negativa o inversa

k h
COVARIANZA
∑∑ x
i =1 j =1
i y j nij Cov (X,Y) > 0, dependencia positiva o directa
(distribuciones Cov (X,Y )= −x y Cov (X,Y) = 0, independencia entre X e Y
de tipos II y III) n Cov (X,Y) < 0, negativa o inversa

Si r = -1, correlación máxima negativa o


inversa entre X e Y
COEFICIENTE DE Si r = 0, variables absolutamente
CORRELACIÓN DE Cov ( X , Y ) independientes
r=
PEARSON sx sy Si r = 1, correlación máxima positiva o directa
entre X e Y
El resto de valores con relación a ellos

d i son las diferencias de rangos tras ordenar


n
6 ∑ d i2
COEFICIENTE DE los datos
CORRELACIÓN DE Este coeficiente puede tomar los mismos
rs = 1 − i =1

SPEARMAN n −n3
valores que r (entre –1 y 1 ) y con la misma
interpretación

____________________________________________________________________________________________________________ 3
FÓRMULAS PARA REGRESIÓN

MODELO DE
COEFICIENTES DEL MODELO OBSERVACIONES
REGRESIÓN

LINEAL a ∑ xi + b n = ∑ y i
los ∑ son desde i = 1 hasta i = n
y =ax +b a ∑ xi2 + b ∑ xi = ∑ xi y i
Una alternativa al sistema de ecuaciones para
Cov ( X , Y ) encontrar la recta de regresión de Y sobre X
LINEAL y−y = ( x − x)
s x2 Análogamente la recta de regresión de X
sobre Y

a ∑ xi2 + b ∑ xi + c n = ∑ y i
CUADRÁTICO
Son válidos los comentarios hechos al ajuste
o parabólico
a ∑ x + b ∑ x + c ∑ xi = ∑ xi y i
3 2
lineal
y = a x2 + b x + c
i i

a ∑ xi4 + b ∑ xi3 + c ∑ xi2 = ∑ xi2 yi

MULTIPLICATIVO
Haciendo: Y’ = log Y, y X’ = log X tenemos
o potencial log Y = log a + b log X
regresión lineal y luego se deshace el cambio
y = a xb
EXPONENCIAL Con Y’ = log Y tenemos regresión lineal y
log Y = a X + b
Y = e aX + b luego se deshace el cambio

HIPERBÓLICA
1 Análogamente deshacemos el cambio para
Haciendo Y = tenemos Y ' = a X + b
'
1
Y= Y obtener Y conocido el valor de Y’
a X +b
AN
ANÁLISIS DE LA BONDAD DEL AJUSTE O FIABILIDAD DE LAS PREDICCIONES

SCTo, suma de cuadrados total

SCTo = ∑ ( y i − y ) 2 SCR, suma de cuadrados debida a la


regresión
SUMAS DE )
SCR = ∑ ( y i − y ) 2 SCE, suma de cuadrados debida al error de
CUADRADOS
)
SCE = ∑ ( yi − yi ) 2 predicción

los ∑ son desde i = 1 hasta i = n

SCE R ∈[0,1] desde totalmente inadecuado


2
SCR SCTo − SCE
COEFICIENTE DE R =
2
= = 1−
DETERMINACIÓN
SCTo SCTo SCTo hasta un ajuste perfecto si la dependencia es
funcional o exacta

____________________________________________________________________________________________________________ 4
ELEMENTOS DE PROBABILIDAD

TEORÍA COMBINATORIA
Todos los grupos están formados por
PERMUTACIONES todos los objetos de partida. Dos
Pn = n!
SIMPLES grupos se diferencian, solamente, en
el orden de colocación de los objetos
Con los mismos supuestos, los
PERMUTACIONES n!
PRna,b,c,... = elementos se repiten un determinado
CON REPETICIÓN a! b! c!...
número de veces
Los grupos están formados por solo n
COMBINACIONES ⎛m⎞ m! objetos de los m dados y dos grupos
C m,n = ⎜⎜ ⎟⎟ =
SIMPLES ⎝ n ⎠ n!(m - n)! se diferencian en la composición, no
importando el orden de colocación
Con los mismos supuestos, los
COMBINACIONES
CRm,n = Cm+n-1,n elementos pueden repetirse hasta n
CON REPETICIÓN
veces
También los grupos están formados
por n de los m objetos dados.
m!
VARIACIONES Vm,n = = Dos grupos se diferencian porque
(m - n)!
SIMPLES tienen algún elemento diferente, o
= m (m-1) (m-2)……...(m-n+1)
bien, cuando teniendo los mismos,
están colocados en diferente orden
Con los mismos supuestos, los
VARIACIONES
elementos pueden repetirse hasta n
CON REPETICIÓN VRm,n = mn
veces
Caso particular en el que los
PERMUTACIONES
PCn = (n -1)! elementos están situados alrededor
CIRCULARES
de un círculo

____________________________________________________________________________________________________________ 5
CÁLCULO DE PROBABILIDADES
REGLA DE LAPLACE p(A) = cf /cp nº de casos favorables /nº de casos posibles
PROBABILIDAD DE LA UNIÓN
Ocurre al menos uno de los dos sucesos
DE DOS SUCESOS
p(A U B) = p(A) + p(B) Dos sucesos son incompatibles si no pueden
INCOMPATIBLES ( U , ó, +)
ocurrir a la vez

PROBABILIDAD DE LA UNIÓN
Dos sucesos son compatibles si pueden
DE DOS SUCESOS p(A U B) = p(A) + p(B) - p(A I B)
COMPATIBLES
ocurrir a la vez

GENERALIZACIÓN A TRES O p(A U B U C) = Ocurre al menos uno de los tres sucesos


MÁS SUCESOS
= p(A) + p(B) + p(C) Tres sucesos son incompatibles si no pueden
INCOMPATIBLES
ocurrir a la vez

GENERALIZACIÓN A TRES O p(A U B U C) = p(A) + p(B) + p(C) -


MÁS SUCESOS p(A I B) - p(A I C) - p(A I C) + Tres sucesos son compatibles si pueden
COMPATIBLES p(A I B I C) ocurrir a la vez

PROBABILIDAD DE LA p(A I B) = p(A) p(B) Ocurren ambos y el resultado del primero no


INTERSECCIÓN DE DOS
SUCESOS INDEPENDIENTES
influye en el segundo

PROBABILIDAD DE LA p(A I B) = p(A) p(B/A) Ocurren ambos y el resultado del primero


INTERSECCIÓN DE DOS
SUCESOS DEPENDIENTES
influye en el segundo

GENERALIZACIÓN A TRES O p(A I B I C) = p(A) p(B) p(C) Ocurren los tres sucesos
MÁS SUCESOS
INDEPENDIENTES
Los sucesos son independientes dos a dos

GENERALIZACIÓN A TRES O Ocurren los tres sucesos


MÁS SUCESOS p(A I B I C) = p(A)p(B/A)p(C/A I B) El resultado del primero influye en el segundo
DEPENDIENTES y el de los dos primeros en el tercero
PROBABILIDAD Probabilidad de que ocurra un suceso A,
P(A/B) = p(A I B) / p(B)
CONDICIONADA sabiendo que ha ocurrido el suceso B
p(B) = p(A1 I B) + p(A2 I B) +…….+ Los sucesos A1, A2, …, Ak son incompatibles
TEOREMA DE LA
p(Ak I B) dos a dos y su unión es E, y por otra parte
PROBABILIDAD TOTAL consideramos los sucesos incompatibles B y
B cuya unión también es E
p(Ai/B) =

p ( Ai ∩ B ) p ( Ai ) p ( B / Ai )
= k
p(B) Con los mismos supuestos anteriores
∑ p ( Ai ) p ( B / Ai )
TEOREMA DE BAYES

i =1

____________________________________________________________________________________________________________ 6
MODELOS DE PROBABILIDAD DISCRETOS

VARIABLE ALEATORIA DISCRETA y momentos


Una variable aleatoria X es una función que asocia a los resultados de un experimento aleatorio:
x1, x2, …., xN, sus correspondientes probabilidades: p1, p2, …., pN
MEDIA N Tiene las dimensiones de la variable
o esperanza matemática
μ = E ( X ) = ∑ xi pi
i =1

VARIANZA V(X) = E(X2) – E(X)2


σ = V ( X ) = ∑ x pi − μ
2 2
i
2

DESVIACIÓN TÍPICA Tiene las dimensiones de la variable


σ =+ σ2
COVARIANZA N Cov ( XY ) = E ( XY ) − E ( X ) E (Y )
σ XY = ∑ ( xi − μ X )( y i − μ Y )
i =1

MONENTO de la v.a. X [
E ( X − a) k ]
con respecto a un
punto a de orden k
MONENTO de la v.a. X E( X k ) = α k La media es momento ordinario de
con respecto al origen orden uno: E (X ) = α 1 = μ media de X
u ordinarios de orden k
MONENTO de la v.a. X [
E (X − μ)k = μk ] La varianza es la diferencia entre el
con respecto a la momento ordinario de orden dos y el
media o centrales de
cuadrado de la media: σ 2 = α 2 − μ 2
orden k

Función gamma Γ(n)


∫x
n −1
Definición e − x dx = Γ(n), n ≠ 0, − 1, − 2, ....
0
Γ ( n) = ( n − 1)! si n entero y n > 0
⎛1⎞ ⎛ 1⎞
Γ⎜ ⎟ = ⎜ − ⎟ ! = π
⎝2⎠ ⎝ 2⎠
Aplicación al cálculo de integrales

Γ(n + 1) n!
∫0 x e dx = a n+1 = a n+1 , a > 0, n entero y positivo
n −a x


Γ( k ) n +1
∫x e − a x dx = , n > −1, p > 0, a > 0, k =
p
n
k
0 pa p

1 ⎛1⎞ 1
∫e π
−a 2 x 2
dx = Γ⎜ ⎟ =
0
2a ⎝ 2⎠ 2a

____________________________________________________________________________________________________________ 7
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
Di
Distribución Función de cuantía y parámetros Observaciones
X toma los valores 1 y 0 con probabilidades py
BERNOILLI Se ajusta a experimentos con resultados:
(1-p) respectivamente

MEDIA μ = E( X ) = p A/ A , cara/cruz, éxito/fracaso,


funcionamiento/fallo, ….
VARIANZA σ 2 = V ( X ) = p(1 − p)

⎛ n ⎞ Si p es la probabilidad de A y 1-p la de A , y si
p( X = x) = ⎜⎜ ⎟⎟ p x (1 − p ) n − x
BINOMIAL ⎝ x ⎠ se repite el experimento n veces sin que varíe a
lo largo de todo el proceso la probabilidad p, la
x = 0, 1, 2, …, n
probabilidad de que el resultado A se presente x
MEDIA μ = E( X ) = n p
veces es la función de cuantía de la v. a. X,
llamada binomial de parámetros n y p.
VARIANZA σ = V ( X ) = n p (1 − p)
2
Se utiliza en control de calidad por atributos y en
técnicas de muestreo con reemplazamiento

e −λ λx Se utiliza en la simulación de procesos de


p( X = x) =
POISSON x! llegadas en muchos fenómenos de espera y
X puede tomar culaquier valor rel positivo aparece con gran frecuencia en los estudios de
MEDIA μ = E( X ) = λ fiabilidad

VARIANZA σ 2 = V (X ) =λ

GEOMÉTRICA p( X = x) = p (1 − p) r −1 Analiza la probabilidad de que se produzcan


1 r - 1 fallos antes del primer éxito en un
MEDIA μ = E( X ) =
p experimento de Bernouilli
Fue propuesta por Pascal y se utiliza en estudios
1− p
VARIANZA σ 2 = V (X ) = de fiabilidad
p2

BINOMIAL ⎛ k + r − 1⎞ r
p( X = x) = ⎜⎜ ⎟⎟ p (1 − p) k
NEGATIVA ⎝ k ⎠
En los mismos procesos de Bernouilii, analiza la
n
MEDIA μ = E( X ) = probabilidad de que se produzcan k fallos antes
p
del r-ésimo éxito
np
VARIANZA σ 2 = V (X ) =
p2
Se utiliza en el muestreo de poblaciones finitas.
⎛ D⎞⎛ N − D⎞ N es el tamaño poblacional y la población consta
⎜⎜ ⎟⎟ ⎜⎜ ⎟
⎝ r ⎠ ⎝ n − r ⎟⎠ de dos grupos de individuos de tamaños D y N-D
HIPERGEOMÉTRICA p( X = r ) =
⎛N⎞ respectivamente. Se extraen para formar la
⎜⎜ ⎟⎟
⎝n ⎠ muestra n individuos sin reemplazamiento de los
que r son del primer grupo y n-r del segundo
____________________________________________________________________________________________________________ 8
MODELOS DE PROBABILIDAD CONTINUOS

VARIABLE ALEATORIA CONTINUA y momentos


Una variable aleatoria X continua es la que puede tomar cualquier valor dentro de un intervalo: x ∈ ( a, b)

con probabilidad definida por una función de densidad o masa: f (x )

MEDIA b
μ = E ( X ) = ∫ x f ( x) dx Tiene las dimensiones de la variable
o esperanza matemática a

b
VARIANZA σ = V ( X ) = ∫ x 2 f ( x) dx
2
V(X) = E(X2) – E(X)2
a

DESVIACIÓN TÍPICA σ =+ σ2 Tiene las dimensiones de la variable


Probabilidad a la a
P( x ≤ a) = ∫ f ( x)dx
izquierda de un valor a −∞

Probabilidad a la ∞
P( x ≤ a) = ∫ f ( x)dx
derecha de un valor b b

Probabilidad entre dos b


P( x ≤ a) = ∫ f ( x)dx
valores a y b a

MONENTO de la v.a. X
con respecto a un [
E ( X − a) k ]
punto a de orden k

MONENTO de la v.a. X
La media es momento ordinario de
con respecto al origen E( X k ) = α k orden uno
u ordinarios de orden k E (X ) = α 1 = μ media de X
La varianza es la diferencia entre el
MONENTO de la v.a. X momento ordinario de orden dos y el
con respecto a la media [
E (X − μ)k = μk ] cuadrado de la media
o centrales de orden k
σ 2 = α2 − μ 2

____________________________________________________________________________________________________________ 9
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
Di
Distribución Función de cuantía y parámetros Observaciones
UNIFORME 1 X toma los valores comprendidos entre a y b
f ( x) = a≤ x≤b
U(a, b) b−a con la misma probabilidad
MEDIA μ = E ( X ) = (a + b) / 2 Se utiliza en la generación de números
VARIANZA σ 2 = V ( X ) = (b − a) 2 / 12 aleatorios para modelos de simulación

Distribución del tiempo transcurrido entre


EXPONENCIAL

x dos sucesos poissonianos consecutivos
Exp( μ ) f ( x) =
1
e μ
0 ≤ x ≤ ∞, μ > 0
μ Modeliza bien la duración de la vida de los
equipos que no envejecen
MEDIA μ = E ( X ) =1 / μ
Tiene un papel clave en fiabilidad,

VARIANZA σ 2 = V ( X ) =1 / μ 2 mantenimiento y fenómenos de espera

Es la distribución del tiempo transcurrido


entre las ocurrencias k y k+n de un proceso
GAMMA λn x n −1 e − λx
x>0 poissoniano. En este caso es conocida
γ ( n, λ ) Γ ( n)
como ley de Erlang. Para n=1 aparece como
caso particular la ley exponencial
Es la suma de n variables independientes
n todas ellas distribuidas según una ley
MEDIA
λ
Exp (λ )

n Se utiliza en fiabilidad, mantenimiento y


VARIANZA
λ 2
fenómenos de espera
1 ⎛ x−μ ⎞
2

1 − ⎜
2⎝ σ ⎠
⎟ Es, con mucho, la más importante de las
NORMAL f ( x) = e
N ( μ, σ ) σ 2π distribuciones de probabilidad continuas y
X puede tomar culaquier valor rel ocupa un lugar central en el estudio de
MEDIA μ = E( X ) = μ muchas ramas de investigación

VARIANZA σ 2 = V ( X ) =σ 2

NORMAL TÍPICA 1
1
− z2 Está tabulada y tras la operación de
f ( z) = e 2

N ( 0, 1 ) 2π tipificación permite resolver problemas de


cualquier distribución normal
MEDIA μ = E( X ) = 0
x−μ
Valor tipificado de x: z =
VARIANZA σ 2 = V ( X ) =1 σ

____________________________________________________________________________________________________________ 10
DISTRIBUCIONES ASOCIADAS A LA NORMAL: CHI-CUADRADO, t de STUDENT
y F de SNEDECOR

DISTRIBUCIONES DE PROBABILIDAD ASOCIADAS A LA NORMAL


Di
Distribución Función de cuantía y parámetros Observaciones
La correspondiente a una Es la distribución de la suma de los cuadrados
CHI-CUADRADO
⎛n 1⎞ de n variables independientes y N (0, 1).
χ n2 Ge ⎜ , ⎟
El parámetro n recibe el nombre de grados de
⎝2 2⎠
libertad de la distribución
MEDIA μ = E( X ) = n
Es una distribución fundamental en Inferencia
VARIANZA σ 2 = V (X ) = 2n Estadística y los contrastes de ajuste

Distribución de la variable t = Y / X / n donde


⎛ n + 1⎞ Y el la N (0, 1), X es una distribución Χ n y son
2
t de STUDENT −
n +1
Γ⎜ ⎟
⎛ x 2
⎞ 2
⎝ 2 ⎠
tn K n ⎜⎜1 + ⎟⎟ Kn = independientes
⎝ n ⎠ ⎛n⎞
nπ Γ⎜ ⎟ El parámetro n recibe el nombre de grados de
⎝2⎠
libertad de la distribución
MEDIA μ = E ( X ) = 0 si n > 1 Juega un papel importante en Inferencia
Estadística cuando se analizan pequeñas
n
VARIANZA σ = V (X ) =
2
muestras
n−2

F DE SNEDECOR Y /n
Es la distribución de la variable F =
Fn, m X /m
m Donde Y y X son distribuciones Χ n y Χ m
2 2
MEDIA μ = E( X ) =
m−2
independientes, n y m son los grados de libertad
Tiene un papel importante en el análisis de la
2m (n + m − 2)
2
varianza y en el diseño de experimentos
VARIANZA σ 2 = V (X ) =
n(m − 2) 2 (m − 4) Se cumple Fα (n, m) = 1 / F1−α (m.n)

Γ(n ) = ∫ x n −1 e − x dx Γ(n ) = (n − 1) ¡ si n es entero


FUNCIÓN GAMMA

Γ(n )

____________________________________________________________________________________________________________ 11
TEORÍA DE LA ESTIMACIÓN
PARÁMETRO FÓRMULA OBSERVACIONES

ESTIMACION DE LA MEDIA POBLACIONAL μ


El mejor estimador de la media poblacional es
PUNTUAL E (x) = μ
la media muestral
Poblaciones infinitas o suficientemente grandes
)
σ S ⎛ n ⎞
σx = ≅ ⎜ f = 100 ≤ 5% ⎟
n n ⎝ N ⎠
Error de muestreo

σ N −n ⎛ n ⎞
σx = Poblaciones finitas ⎜ f = 100 > 5% ⎟
n N −1 ⎝ N ⎠
zα de la tabla 2 de la N(0,1) según nivel
POR INTERVALOS DE μ ∈ ( x ± zα σ x ) 2

CONFIANZA 2 confianza, zα = 1,96 al 95% de confianza


2

zα de la tabla 2 de la N(0,1) según nivel


Poblaciones infinitas 2

confianza
TAMAÑO DE LA z α2 σ 2
MUESTRA
n = 2 σ 2 varianza poblacional o de la muestra piloto
e2 e Máximo error que estamos dispuestos a
admitir
Poblaciones finitas: simplificación

ni
n = ni como si fuera población infinita
n
1+ i
N
tα de la tabla 6 con n-1 grados de libertad
MUESTRAS PEQUEÑAS
S
( n < 30), o si no se conoce μ ∈ ( x ± tα ) 2

2 n S la cuasi desviación típica muestral


σ ni hay muestra piloto

ESTIMACION DE LA PROPORCION POBLACIONAL. p (100 p es el porcentaje)



Si de N individuos A presentan una característica: P=A/N, y en la muestra: p = x/n

PUNTUAL E ( p) = p
pq N −n Poblaciones finitas
σp =
n N −1
Error de muestreo
pq
σp = Poblaciones infinitas
n

____________________________________________________________________________________________________________ 12
PARÁMETRO FÓRMULA OBSERVACIONES

Para n ≥ 30 zα de la tabla 2 de la N(0,1) según nivel


POR INTERVALOS DE
)
p ∈ ( p ± zα σ p )
2
CONFIANZA
2 σp varianza poblacional o muestra piloto

TAMAÑO DE LA zα de la tabla 2 de la N(0,1) según nivel


2 2
MUESTRA z α pq
pq de muestra piloto ó p= q = 0,5
En poblaciones infinitas n= 2
2
e e Máximo error que estamos dispuestos a
admitir

ni
n =
En poblaciones finitas n ni como si fuera población infinita
1+ i
N
ESTIMACION DE UN PARAMETRO DE POISSON a partir de las observaciones: x1 ,2 ,…xn

PUNTUAL E (λ ) = λ

POR INTERVALOS DE 1 2
λ1 = χ 1−α / 2 (2∑ xi gl )
CONFIANZA 2n χ2 de la tabla 7 de la chi-cuadrado con
Solución exacta 1
λ2 = χ α2 (2∑ xi + 2 gl ) los grados de libertad indicados
λ ∈ (λ1 , λ2 ) 2n 2

Si ∑x i ≥ 15
2
z α de la tabla 2 de la N(0,1) según
⎛ zα ⎞
1⎜ 2 ⎟
2

λ∈ ⎜
n⎜ 2
± ∑ xi + 0,5 ± 0,5 ⎟ nivel confianza

⎝ ⎠

TAMAÑO DE LA Z 2 λ2 λ2 de la muestra piloto


n = α2
MUESTRA d d máxima diferencia a admitir
ESTIMACION DE LA VARIANZA Y DESVIACION TIPICA

PUNTUAL E (S 2 ) = σ 2 y E (S ) = σ

S 2 (n − 1) S 2 (n − 1)
≤ σ2 ≤
χ α2 χ12−α
POR INTERVALOS DE 2 2 χ2 de la tabla 7 de la chi-cuadrado
CONFIANZA S (n − 1) S (n − 1) con (n-1) grados de libertad
≤σ ≤
χ α2 χ12−α
2 2

____________________________________________________________________________________________________________ 13
CONTRASTE DE HIPÓTESIS

CONTRASTES PARA UNA MUESTRA


1. Tests con una muestra
Tests para la media de una población normal Η 0 : μ = μ0
Si la v.a. X ≅ N ( μ, σ ) , con μ y σ desconocidas, y x1 , x 2 ,..., x n es una muestra aleatoria:

a) σ 2 conocida b) σ 2 desconocida

μ0 − x μ0 − x
t exp = t exp =
σ 2 /n S 2 / n −1
versus(vs) tα de la tabla 2 vs tα de la tabla 6 con (n-1) gl

2. Test de hipótesis para una proporción Η0 : p = p0


-Test exacto sobre la binomial Β ( n ≤ 10 )
sumando probabilidades se obtienen las zonas de aceptación y rechazo
- Si la binomial se aproxima a una Ρoisson; n ≥ 20 , p0 ≤ 0.05

Hacer Η 0 : λ = λ0 con λ0 = n p 0

- Si la binomial se aproxima a la normal; p 0 , q 0 > 0.05; n p 0 , n q 0 > 5

texp =
( x − n p0 − 0.5 )
n p0 q0

vs tα de la tabla 2

(x = nº de individuos de los n dados que verifican cierta propiedad)

3. Test de hipótesis para un parámetro λ de Poisson. Η 0 : λ = λ0


Si X ⇒ P (λ) y x1 , x2 , L , xn sonlos datos deuna muestra aleatoria

- Test exacto si n λ0 ≤ 10 se obtienen sumando probabilidades sobre la tabla de la

Ρ ( λ = n λ0 ) las zonas de aceptación y rechazo de la hipótesis nula


- Si la distribución de Poisson se aproxima a la normal; nλ 0 > 10

( Σ x i − n λ 0 − 0 .5 )
t exp =
n λ0 vs tα de la tabla 2

____________________________________________________________________________________________________________ 14
TEST DE HOMOGENEIDAD CON DOS MUESTRAS

H0 : σ1 = σ 2
2 2
1. Test de comparación de dos varianzas
Datos: n1 , n2 , S12 , S22 de dos muestras independientes de variables normales
2
Fexp =
S1
2 con S1 ≥ S 2
2 2
vs Fα ( n1 − 1 , n2 − 1 gl ) tabla 8
S2

2. Test de Student para 2 medias de v.a. normales H 0 : μ1 = μ 2

a) Muestras independientes

a.1.-Varianzas iguales:

t exp =
x1 − x 2
con S =
2 ( n1 − 1 ) S1 + ( n 2 − 1 ) S 2
2 2

2 n1 + n 2 n1 + n 2 − 2
S
n1 n 2

vs tα ( n1 + n2 – 2 gl ) , tabla 6

a.2 .-Varianzas distintas:

t exp =
x1 − x 2
, con A =
S1
2
S
, B= 2 , f =
2
( A + B )2
A+ B n1 n2 A2 B2
+
n1 − 1 n2 − 1

vs tα (f gl ), tabla 6

b) Muestras apareadas
Dadas n parejas de datos se obtienen las diferencias d i entre los datos de cada
2
pareja, la media d y la varianza de tales diferencias S d .

d
t exp =
2
, vs. tα ( n −1 gl ) tabla 6
Sd
n

____________________________________________________________________________________________________________ 15
3. Test para dos proporciones H0 : p1 = p 2

a) Para muestras independientes


∩ ∩
Datos: tamaños n1 , n2 y proporciones muestrales p 1 y p 2

∩ ∩
p1 − p 2 ∩ ∩
∩ n p + n2 p 2
t exp = , con p= 1 1 , vs t α tabla 6

⎛ ∩
⎞ n1 + n 2
p ⎜ 1 − p ⎟ ⎛⎜ 1 + 1 ⎞⎟
⎝ ⎠ ⎝ n1 n2 ⎠

b) Para muestras apareadas con n12 + n21 > 10

A\B si no
si n11 n12
( n12 − n21 − 0.5 )
no n21 n22 t exp = n12 + n21
, vs tα tabla 2
n

4. Test para dos parámetros de Poisson H0 : λ1 = λ 2

Datos : n1 observaciones ⇒ Σ x1 ⇒ x1 ⎫
⎪ Σ x1 + Σ x 2
⎬ Media global : X =
⎪ n1 + n2
Datos : n2 observaciones ⇒ Σ x 2 ⇒ x 2 ⎭
a) Si n1 x1 y n2 x 2 > 15

⎡ n1 + n 2 ⎤
⎢ n 2 Σ x 1 − n 1 Σ x 2 − ⎥
= ⎣ ⎦ ,
4
t exp v.s. tα tabla 2
n1 n 2 ( Σ x1 + Σ x 2 )

b) Si 5 < n1 x ( ó n x ) < 15
2

Se cambia el 4 por el 2 en la fórmula del estadístico t exp

____________________________________________________________________________________________________________ 16
OTROS CONTRASTES

1. Test para varios parámetros de Poisson. H0 : λ1 = λ2 = L = λk


Si x1, x2, . . . ., xk son los totales de observaciones de k muestras independientes de
Poisson de tamaños n1, n2, . . . . ,nk.

a) Tamaños iguales; n1 = n2 = . . . . = nk.

Condición de validez: x =
∑ xi > 5
k

Σ Xi
2

X exp = k
2
− Σ xi ; vs X α
2
⎡⎣ ( k − 1 ) gl ⎤⎦ tabla 7
Σ Xi

b) Tamaños distintos

⎛ 2
xi ⎞ Σ ni
X exp = ⎜ Σ
2
⎟ − Σ xi vs X α
2
⎡⎣ ( k − 1 ) gl ⎤⎦ tabla 7
⎝ ni ⎠ Σ xi

2. Test de independencia para variables cualitativas (Tablas de contingencia)


H0 : Los caracteres A y B son independientes

A\B s modalidades
O11 \ E11 O12 \ E12 O13\ E13 F1
O21 \ E21 O22 \ E22 O23 \ E23 F2
r modalidades
O31 \ E31 O32 \ E32 O33 \ E33 F3
C1 C2 C3 N

O ij Valores observados Fi C j
Ε =
E i j Valores esperados bajo el supuesto de independencia i j
N
Condiciones de validez: N > 40, o siendo 20 ≤ N ≤ 40, todos los E ij > 5

r s
O 2i j
X exp = ∑
2
∑ − N , vs Xα
2
[ ( r −1 )( s −1 ) gl ] tabla 7
i =1 j =1 Ei j

____________________________________________________________________________________________________________ 17
3. Test de homogeidad de varias muestras cualitativas

H 0 = Ρ1 = Ρ2 = L = Ρr
(La proporción de individuos es la misma en todas las poblaciones)

Muestras / clases 1 2 s
1 O11 O 12 ..... O 1s F1
2 O 21 O 22 ..... O 2s F2
.... ..... ..... ..... .... .....
r O r1 O r2 ..... O rs Fr
C1 C2 Cs N

O i j ⇒ Individuos observados en la muestra i, que caen en la clase j.

F i , C j totales de filas y columnas.


E ij = F i , C j / N
Las condiciones de valides son las del contraste anterior
Estadístico de contraste:
(O − Ej ) Oi
2

a) Si s r > 4 , X exp = ∑ =∑ −N
2 i

Ei Ei

A comparar con una



2
[ ( r −1 )( s −1 ) gl ] tabla 7
b) Para tablas 2 x 2:
( O11O22 − O12 O21 − N / 4)
Χ exp
2
= N A comparar con una Χ α2 de un grado de libertad
F1 F2 C1 C 2

4. Test para el coeficiente de correlación de Pearson H 0 : ρ = 0

Fijado el nivel de confianza, se calcula el estadístico: t exp = (n − 2) r / (1 − r )


2 2

y se compara con una t α (n − 2 gl ) de la tabla 6 de la t de Student

5. Test para el coeficiente de correlación de Spearman H 0 : ρ s = 0

También este coeficiente acepta un test de independencia si n (nº de parejas) > 30

Fijado el nivel de confianza, se calcula el estadístico: t exp = rs n −1

y se compara con una t α de la tabla 2 de la normal tipificada N(0,1)

____________________________________________________________________________________________________________ 18
CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
CONTRASTES DE BONDAD DEL AJUSTE
1.Test de Kolmogorov-Smirnov (K-S)
Ho : Fn ( x) ≅ F0 ( x) La distribución empírica se ajusta a una teórica especificada

Sea la muestra x(1) , x(2) , . . . . , x(n) ordenada de menor a mayor.


La distribución empírica se obtiene de la forma:
r
Fn ( x) = 0 si x < x(1) , si x( r ) ≤ x < x( r +1) y 1 si x ≥ x( n )
n
Se calcula el estadístico de contraste: Dn = máx Fn ( x) − F0 ( x) , y se compara con Dα

de la tabla de Kolmogorov-Smirnov si los parámetros de la distribución teórica son


conocidos, o con una Dα de la tabla de Lilliefors caso de ser desconocidos.

2.Test de la chi-cuadrado
Ho : Fn ( x) ≅ F0 ( x) La distribución empírica se ajusta a una teórica especificada

Si x1 , x2 , . . . . , xn es una muestra con n ≥ 25 y preferiblemente n ≥ 50 datos, se


agrupan en k intervalos o clases. Designamos con O1, O2, . . . , Ok a los valores
observados en cada uno de ellos y mediante E1, E2, . . . , Ek a los valores esperados en
cada uno bajo el supuesto de Ho cierta.
k
(Oi − Ei ) 2
Estadístico de contraste: χ 2
exp =∑ , a comparar con una χ α2 de la tabla 7 con
i =1 Ei
k-r-1 gl siendo r el número de parámetros estimados a partir de los datos muestrales.

3.Test de las rachas, para verificar independencia o aleatoriedad de una muestra


Ho : La muestra es aleatoria
Dado un conjunto de datos en el orden en que han sido tomados:
n1 .- número de datos A (si / cara / antes de la mediana...)
n2 .- número de datos B (si / cruz / después de la mediana...), n1 ≤ n2
Si se cumple que n1y n2 son iguales o mayores que 10, se calcula el estadístico

texp =
( Rexp − E ( R ) − 0.5 ) , vs tα tabla 2
V ( R)

con E ( R )=
2 n1 n 2
+1 y V ( R )= 2 n1 n 2( 2 n1 n2 − n1 − n2 )
n1 + n 2 ( n1 + n2 )2 ( n1 + n2 − 1 )
o E ( R) = (n + 2) / 2 y V ( R) = n(n − 2)4(n − 1) cuando n1 = n2 = n / 2
____________________________________________________________________________________________________________ 19

Anda mungkin juga menyukai