∑ x p
n
i =1 i i p i son los “pesos” o importancias relativas de los
MEDIA PONDERADA xp =
∑ p
n distintos valores
i =1 i
∑
k 2 Sustituye a x cuando los valores son positivos y
i =1
x i ni
MEDIA CUADRÁTICA C= negativos
n (saldos, errores de medidas,....)
G = n x1 1 x 2
n n2 nk
MEDIA GEOMÉTRICA L xk Es la media proporcional de n valores
n
H= Es la inversa de la media aritmética de los inversos de
1
∑
MEDIA ARMÓNICA k
i =1
ni los valores
xi
hi +1
Mo = li −1 + ai
hi +1 + hi −1 En distribuciones de tipo III :
Distinta amplitud l i-1 es el límite inferior del intervalo modal
MODA
ni +1 a i amplitud del intervalo modal
Mo = l i −1 + ai ;
ni +1 + ni −1
igual amplitud
En distribuciones de tipo III :
____________________________________________________________________________________________________________ 1
PARÁMETRO FÓRMULA OBSERVACIONES
MEDIDAS DE DISPERSIÓN
RANGO
R = xmax − xmin Diferencia entre el mayor y el menor de los datos
Amplitud o recorrido
∑
k Es lo que “por término medio” se alejan los valores de la
i =1
x i − x ni
DESVIACIÓN MEDIA Dx = media.
n Análogamente se puede calcular D Me
∑ (x )
k 2
i =1 i − x ni Es la media aritmética del cuadrado de los desvíos de los
VARIANZA s2 = valores con respecto a la media.
n
∑ (x )
n 2
CUASIVARIANZA
i =1 i − x ni Tiene mejores propiedades que la varianza s para
2
S 2
= Interferencia Estadística
o varianza corregida n −1
CUASIDESVIACION Se utiliza para encontrar intervalos de confianza y en
S = + S2 contraste de hipótesis
TÍPICA
RANGO
R I = Q3 − Q1 Se utiliza en el diagrama de caja y bigotes
INTERCUARTÍLICO
COEFICIENTE DE s
V= 100 Es adimensional, por lo que permite comparar la dispersión
VARIACIÓN x de dos o más conjunto de datos
∑ (x )
k Con la misma interpolación que As
COEFICIENTE DE 1 i =1 i −x 3
ni
ASIMETRÍA DE FISHER
g1 = 3 Es aplicable a cualquier distribución
s n
MEDIDAS DE CONCENTRACIÓN
Pi porcentajes acumulados de las frecuencias.
Qi porcentajes acumulados de las "riquezas" (xi ni).
∑ Pi − ∑i = 1 Qi
ÍNDICE DE k −1 k −1
i =1
CONCENTRACIÓN DE Ico = I
co =0 indica que el reparto es absolutamente igualitario.
∑
k −1
GINI i =1
Pi I co = 1 indica que el reparto es totalmente antiigualitario.
____________________________________________________________________________________________________________ 2
ANÁLISIS DE DATOS BIDIMENSIONALES
k h
COVARIANZA ∑∑ x
i =1 j =1
i yj Cov (X,Y) > 0, dependencia positiva o directa
k h
COVARIANZA
∑∑ x
i =1 j =1
i y j nij Cov (X,Y) > 0, dependencia positiva o directa
(distribuciones Cov (X,Y )= −x y Cov (X,Y) = 0, independencia entre X e Y
de tipos II y III) n Cov (X,Y) < 0, negativa o inversa
SPEARMAN n −n3
valores que r (entre –1 y 1 ) y con la misma
interpretación
____________________________________________________________________________________________________________ 3
FÓRMULAS PARA REGRESIÓN
MODELO DE
COEFICIENTES DEL MODELO OBSERVACIONES
REGRESIÓN
LINEAL a ∑ xi + b n = ∑ y i
los ∑ son desde i = 1 hasta i = n
y =ax +b a ∑ xi2 + b ∑ xi = ∑ xi y i
Una alternativa al sistema de ecuaciones para
Cov ( X , Y ) encontrar la recta de regresión de Y sobre X
LINEAL y−y = ( x − x)
s x2 Análogamente la recta de regresión de X
sobre Y
a ∑ xi2 + b ∑ xi + c n = ∑ y i
CUADRÁTICO
Son válidos los comentarios hechos al ajuste
o parabólico
a ∑ x + b ∑ x + c ∑ xi = ∑ xi y i
3 2
lineal
y = a x2 + b x + c
i i
MULTIPLICATIVO
Haciendo: Y’ = log Y, y X’ = log X tenemos
o potencial log Y = log a + b log X
regresión lineal y luego se deshace el cambio
y = a xb
EXPONENCIAL Con Y’ = log Y tenemos regresión lineal y
log Y = a X + b
Y = e aX + b luego se deshace el cambio
HIPERBÓLICA
1 Análogamente deshacemos el cambio para
Haciendo Y = tenemos Y ' = a X + b
'
1
Y= Y obtener Y conocido el valor de Y’
a X +b
AN
ANÁLISIS DE LA BONDAD DEL AJUSTE O FIABILIDAD DE LAS PREDICCIONES
____________________________________________________________________________________________________________ 4
ELEMENTOS DE PROBABILIDAD
TEORÍA COMBINATORIA
Todos los grupos están formados por
PERMUTACIONES todos los objetos de partida. Dos
Pn = n!
SIMPLES grupos se diferencian, solamente, en
el orden de colocación de los objetos
Con los mismos supuestos, los
PERMUTACIONES n!
PRna,b,c,... = elementos se repiten un determinado
CON REPETICIÓN a! b! c!...
número de veces
Los grupos están formados por solo n
COMBINACIONES ⎛m⎞ m! objetos de los m dados y dos grupos
C m,n = ⎜⎜ ⎟⎟ =
SIMPLES ⎝ n ⎠ n!(m - n)! se diferencian en la composición, no
importando el orden de colocación
Con los mismos supuestos, los
COMBINACIONES
CRm,n = Cm+n-1,n elementos pueden repetirse hasta n
CON REPETICIÓN
veces
También los grupos están formados
por n de los m objetos dados.
m!
VARIACIONES Vm,n = = Dos grupos se diferencian porque
(m - n)!
SIMPLES tienen algún elemento diferente, o
= m (m-1) (m-2)……...(m-n+1)
bien, cuando teniendo los mismos,
están colocados en diferente orden
Con los mismos supuestos, los
VARIACIONES
elementos pueden repetirse hasta n
CON REPETICIÓN VRm,n = mn
veces
Caso particular en el que los
PERMUTACIONES
PCn = (n -1)! elementos están situados alrededor
CIRCULARES
de un círculo
____________________________________________________________________________________________________________ 5
CÁLCULO DE PROBABILIDADES
REGLA DE LAPLACE p(A) = cf /cp nº de casos favorables /nº de casos posibles
PROBABILIDAD DE LA UNIÓN
Ocurre al menos uno de los dos sucesos
DE DOS SUCESOS
p(A U B) = p(A) + p(B) Dos sucesos son incompatibles si no pueden
INCOMPATIBLES ( U , ó, +)
ocurrir a la vez
PROBABILIDAD DE LA UNIÓN
Dos sucesos son compatibles si pueden
DE DOS SUCESOS p(A U B) = p(A) + p(B) - p(A I B)
COMPATIBLES
ocurrir a la vez
GENERALIZACIÓN A TRES O p(A I B I C) = p(A) p(B) p(C) Ocurren los tres sucesos
MÁS SUCESOS
INDEPENDIENTES
Los sucesos son independientes dos a dos
p ( Ai ∩ B ) p ( Ai ) p ( B / Ai )
= k
p(B) Con los mismos supuestos anteriores
∑ p ( Ai ) p ( B / Ai )
TEOREMA DE BAYES
i =1
____________________________________________________________________________________________________________ 6
MODELOS DE PROBABILIDAD DISCRETOS
MONENTO de la v.a. X [
E ( X − a) k ]
con respecto a un
punto a de orden k
MONENTO de la v.a. X E( X k ) = α k La media es momento ordinario de
con respecto al origen orden uno: E (X ) = α 1 = μ media de X
u ordinarios de orden k
MONENTO de la v.a. X [
E (X − μ)k = μk ] La varianza es la diferencia entre el
con respecto a la momento ordinario de orden dos y el
media o centrales de
cuadrado de la media: σ 2 = α 2 − μ 2
orden k
∫x
n −1
Definición e − x dx = Γ(n), n ≠ 0, − 1, − 2, ....
0
Γ ( n) = ( n − 1)! si n entero y n > 0
⎛1⎞ ⎛ 1⎞
Γ⎜ ⎟ = ⎜ − ⎟ ! = π
⎝2⎠ ⎝ 2⎠
Aplicación al cálculo de integrales
∞
Γ(n + 1) n!
∫0 x e dx = a n+1 = a n+1 , a > 0, n entero y positivo
n −a x
∞
Γ( k ) n +1
∫x e − a x dx = , n > −1, p > 0, a > 0, k =
p
n
k
0 pa p
∞
1 ⎛1⎞ 1
∫e π
−a 2 x 2
dx = Γ⎜ ⎟ =
0
2a ⎝ 2⎠ 2a
____________________________________________________________________________________________________________ 7
DISTRIBUCIONES DE PROBABILIDAD DISCRETAS
Di
Distribución Función de cuantía y parámetros Observaciones
X toma los valores 1 y 0 con probabilidades py
BERNOILLI Se ajusta a experimentos con resultados:
(1-p) respectivamente
⎛ n ⎞ Si p es la probabilidad de A y 1-p la de A , y si
p( X = x) = ⎜⎜ ⎟⎟ p x (1 − p ) n − x
BINOMIAL ⎝ x ⎠ se repite el experimento n veces sin que varíe a
lo largo de todo el proceso la probabilidad p, la
x = 0, 1, 2, …, n
probabilidad de que el resultado A se presente x
MEDIA μ = E( X ) = n p
veces es la función de cuantía de la v. a. X,
llamada binomial de parámetros n y p.
VARIANZA σ = V ( X ) = n p (1 − p)
2
Se utiliza en control de calidad por atributos y en
técnicas de muestreo con reemplazamiento
VARIANZA σ 2 = V (X ) =λ
BINOMIAL ⎛ k + r − 1⎞ r
p( X = x) = ⎜⎜ ⎟⎟ p (1 − p) k
NEGATIVA ⎝ k ⎠
En los mismos procesos de Bernouilii, analiza la
n
MEDIA μ = E( X ) = probabilidad de que se produzcan k fallos antes
p
del r-ésimo éxito
np
VARIANZA σ 2 = V (X ) =
p2
Se utiliza en el muestreo de poblaciones finitas.
⎛ D⎞⎛ N − D⎞ N es el tamaño poblacional y la población consta
⎜⎜ ⎟⎟ ⎜⎜ ⎟
⎝ r ⎠ ⎝ n − r ⎟⎠ de dos grupos de individuos de tamaños D y N-D
HIPERGEOMÉTRICA p( X = r ) =
⎛N⎞ respectivamente. Se extraen para formar la
⎜⎜ ⎟⎟
⎝n ⎠ muestra n individuos sin reemplazamiento de los
que r son del primer grupo y n-r del segundo
____________________________________________________________________________________________________________ 8
MODELOS DE PROBABILIDAD CONTINUOS
MEDIA b
μ = E ( X ) = ∫ x f ( x) dx Tiene las dimensiones de la variable
o esperanza matemática a
b
VARIANZA σ = V ( X ) = ∫ x 2 f ( x) dx
2
V(X) = E(X2) – E(X)2
a
Probabilidad a la ∞
P( x ≤ a) = ∫ f ( x)dx
derecha de un valor b b
MONENTO de la v.a. X
con respecto a un [
E ( X − a) k ]
punto a de orden k
MONENTO de la v.a. X
La media es momento ordinario de
con respecto al origen E( X k ) = α k orden uno
u ordinarios de orden k E (X ) = α 1 = μ media de X
La varianza es la diferencia entre el
MONENTO de la v.a. X momento ordinario de orden dos y el
con respecto a la media [
E (X − μ)k = μk ] cuadrado de la media
o centrales de orden k
σ 2 = α2 − μ 2
____________________________________________________________________________________________________________ 9
DISTRIBUCIONES DE PROBABILIDAD CONTINUAS
Di
Distribución Función de cuantía y parámetros Observaciones
UNIFORME 1 X toma los valores comprendidos entre a y b
f ( x) = a≤ x≤b
U(a, b) b−a con la misma probabilidad
MEDIA μ = E ( X ) = (a + b) / 2 Se utiliza en la generación de números
VARIANZA σ 2 = V ( X ) = (b − a) 2 / 12 aleatorios para modelos de simulación
1 − ⎜
2⎝ σ ⎠
⎟ Es, con mucho, la más importante de las
NORMAL f ( x) = e
N ( μ, σ ) σ 2π distribuciones de probabilidad continuas y
X puede tomar culaquier valor rel ocupa un lugar central en el estudio de
MEDIA μ = E( X ) = μ muchas ramas de investigación
VARIANZA σ 2 = V ( X ) =σ 2
NORMAL TÍPICA 1
1
− z2 Está tabulada y tras la operación de
f ( z) = e 2
____________________________________________________________________________________________________________ 10
DISTRIBUCIONES ASOCIADAS A LA NORMAL: CHI-CUADRADO, t de STUDENT
y F de SNEDECOR
F DE SNEDECOR Y /n
Es la distribución de la variable F =
Fn, m X /m
m Donde Y y X son distribuciones Χ n y Χ m
2 2
MEDIA μ = E( X ) =
m−2
independientes, n y m son los grados de libertad
Tiene un papel importante en el análisis de la
2m (n + m − 2)
2
varianza y en el diseño de experimentos
VARIANZA σ 2 = V (X ) =
n(m − 2) 2 (m − 4) Se cumple Fα (n, m) = 1 / F1−α (m.n)
Γ(n )
____________________________________________________________________________________________________________ 11
TEORÍA DE LA ESTIMACIÓN
PARÁMETRO FÓRMULA OBSERVACIONES
σ N −n ⎛ n ⎞
σx = Poblaciones finitas ⎜ f = 100 > 5% ⎟
n N −1 ⎝ N ⎠
zα de la tabla 2 de la N(0,1) según nivel
POR INTERVALOS DE μ ∈ ( x ± zα σ x ) 2
confianza
TAMAÑO DE LA z α2 σ 2
MUESTRA
n = 2 σ 2 varianza poblacional o de la muestra piloto
e2 e Máximo error que estamos dispuestos a
admitir
Poblaciones finitas: simplificación
ni
n = ni como si fuera población infinita
n
1+ i
N
tα de la tabla 6 con n-1 grados de libertad
MUESTRAS PEQUEÑAS
S
( n < 30), o si no se conoce μ ∈ ( x ± tα ) 2
____________________________________________________________________________________________________________ 12
PARÁMETRO FÓRMULA OBSERVACIONES
ni
n =
En poblaciones finitas n ni como si fuera población infinita
1+ i
N
ESTIMACION DE UN PARAMETRO DE POISSON a partir de las observaciones: x1 ,2 ,…xn
∧
PUNTUAL E (λ ) = λ
POR INTERVALOS DE 1 2
λ1 = χ 1−α / 2 (2∑ xi gl )
CONFIANZA 2n χ2 de la tabla 7 de la chi-cuadrado con
Solución exacta 1
λ2 = χ α2 (2∑ xi + 2 gl ) los grados de libertad indicados
λ ∈ (λ1 , λ2 ) 2n 2
Si ∑x i ≥ 15
2
z α de la tabla 2 de la N(0,1) según
⎛ zα ⎞
1⎜ 2 ⎟
2
λ∈ ⎜
n⎜ 2
± ∑ xi + 0,5 ± 0,5 ⎟ nivel confianza
⎟
⎝ ⎠
PUNTUAL E (S 2 ) = σ 2 y E (S ) = σ
S 2 (n − 1) S 2 (n − 1)
≤ σ2 ≤
χ α2 χ12−α
POR INTERVALOS DE 2 2 χ2 de la tabla 7 de la chi-cuadrado
CONFIANZA S (n − 1) S (n − 1) con (n-1) grados de libertad
≤σ ≤
χ α2 χ12−α
2 2
____________________________________________________________________________________________________________ 13
CONTRASTE DE HIPÓTESIS
a) σ 2 conocida b) σ 2 desconocida
μ0 − x μ0 − x
t exp = t exp =
σ 2 /n S 2 / n −1
versus(vs) tα de la tabla 2 vs tα de la tabla 6 con (n-1) gl
Hacer Η 0 : λ = λ0 con λ0 = n p 0
texp =
( x − n p0 − 0.5 )
n p0 q0
vs tα de la tabla 2
( Σ x i − n λ 0 − 0 .5 )
t exp =
n λ0 vs tα de la tabla 2
____________________________________________________________________________________________________________ 14
TEST DE HOMOGENEIDAD CON DOS MUESTRAS
H0 : σ1 = σ 2
2 2
1. Test de comparación de dos varianzas
Datos: n1 , n2 , S12 , S22 de dos muestras independientes de variables normales
2
Fexp =
S1
2 con S1 ≥ S 2
2 2
vs Fα ( n1 − 1 , n2 − 1 gl ) tabla 8
S2
a) Muestras independientes
a.1.-Varianzas iguales:
t exp =
x1 − x 2
con S =
2 ( n1 − 1 ) S1 + ( n 2 − 1 ) S 2
2 2
2 n1 + n 2 n1 + n 2 − 2
S
n1 n 2
vs tα ( n1 + n2 – 2 gl ) , tabla 6
t exp =
x1 − x 2
, con A =
S1
2
S
, B= 2 , f =
2
( A + B )2
A+ B n1 n2 A2 B2
+
n1 − 1 n2 − 1
vs tα (f gl ), tabla 6
b) Muestras apareadas
Dadas n parejas de datos se obtienen las diferencias d i entre los datos de cada
2
pareja, la media d y la varianza de tales diferencias S d .
d
t exp =
2
, vs. tα ( n −1 gl ) tabla 6
Sd
n
____________________________________________________________________________________________________________ 15
3. Test para dos proporciones H0 : p1 = p 2
∩ ∩
p1 − p 2 ∩ ∩
∩ n p + n2 p 2
t exp = , con p= 1 1 , vs t α tabla 6
∩
⎛ ∩
⎞ n1 + n 2
p ⎜ 1 − p ⎟ ⎛⎜ 1 + 1 ⎞⎟
⎝ ⎠ ⎝ n1 n2 ⎠
A\B si no
si n11 n12
( n12 − n21 − 0.5 )
no n21 n22 t exp = n12 + n21
, vs tα tabla 2
n
Datos : n1 observaciones ⇒ Σ x1 ⇒ x1 ⎫
⎪ Σ x1 + Σ x 2
⎬ Media global : X =
⎪ n1 + n2
Datos : n2 observaciones ⇒ Σ x 2 ⇒ x 2 ⎭
a) Si n1 x1 y n2 x 2 > 15
⎡ n1 + n 2 ⎤
⎢ n 2 Σ x 1 − n 1 Σ x 2 − ⎥
= ⎣ ⎦ ,
4
t exp v.s. tα tabla 2
n1 n 2 ( Σ x1 + Σ x 2 )
b) Si 5 < n1 x ( ó n x ) < 15
2
____________________________________________________________________________________________________________ 16
OTROS CONTRASTES
Condición de validez: x =
∑ xi > 5
k
Σ Xi
2
X exp = k
2
− Σ xi ; vs X α
2
⎡⎣ ( k − 1 ) gl ⎤⎦ tabla 7
Σ Xi
b) Tamaños distintos
⎛ 2
xi ⎞ Σ ni
X exp = ⎜ Σ
2
⎟ − Σ xi vs X α
2
⎡⎣ ( k − 1 ) gl ⎤⎦ tabla 7
⎝ ni ⎠ Σ xi
A\B s modalidades
O11 \ E11 O12 \ E12 O13\ E13 F1
O21 \ E21 O22 \ E22 O23 \ E23 F2
r modalidades
O31 \ E31 O32 \ E32 O33 \ E33 F3
C1 C2 C3 N
O ij Valores observados Fi C j
Ε =
E i j Valores esperados bajo el supuesto de independencia i j
N
Condiciones de validez: N > 40, o siendo 20 ≤ N ≤ 40, todos los E ij > 5
r s
O 2i j
X exp = ∑
2
∑ − N , vs Xα
2
[ ( r −1 )( s −1 ) gl ] tabla 7
i =1 j =1 Ei j
____________________________________________________________________________________________________________ 17
3. Test de homogeidad de varias muestras cualitativas
H 0 = Ρ1 = Ρ2 = L = Ρr
(La proporción de individuos es la misma en todas las poblaciones)
Muestras / clases 1 2 s
1 O11 O 12 ..... O 1s F1
2 O 21 O 22 ..... O 2s F2
.... ..... ..... ..... .... .....
r O r1 O r2 ..... O rs Fr
C1 C2 Cs N
a) Si s r > 4 , X exp = ∑ =∑ −N
2 i
Ei Ei
____________________________________________________________________________________________________________ 18
CONTRASTES DE HIPÓTESIS NO PARAMÉTRICOS
CONTRASTES DE BONDAD DEL AJUSTE
1.Test de Kolmogorov-Smirnov (K-S)
Ho : Fn ( x) ≅ F0 ( x) La distribución empírica se ajusta a una teórica especificada
2.Test de la chi-cuadrado
Ho : Fn ( x) ≅ F0 ( x) La distribución empírica se ajusta a una teórica especificada
texp =
( Rexp − E ( R ) − 0.5 ) , vs tα tabla 2
V ( R)
con E ( R )=
2 n1 n 2
+1 y V ( R )= 2 n1 n 2( 2 n1 n2 − n1 − n2 )
n1 + n 2 ( n1 + n2 )2 ( n1 + n2 − 1 )
o E ( R) = (n + 2) / 2 y V ( R) = n(n − 2)4(n − 1) cuando n1 = n2 = n / 2
____________________________________________________________________________________________________________ 19