Anda di halaman 1dari 120

UNIVERSIDAD NACIONAL ABIERTA

CENTRO LOCAL METROPOLITANO


LICENCIATURA EN MATEMTICA
MENCIN PROBABILIDAD Y ESTADSTICA

U NA

ESTUDIO DE MTODOS NO PARAMTRICOS


Informe de pasantas presentado como requisito para optar al ttulo de
Licenciado en Matemtica Mencin Probabilidad y Estadstica

Autor: Frank Rodrguez


Tutor: MSc. Amrica Vera

Caracas, Marzo de 2008

LISTA DE ILUSTRACIONES

GRFICOS

Pag.

Figura I.2.2.1. Distribucin con tres niveles de significancia distintos en


donde se muestra la regin de aceptacin y rechazo

Figura I.3.1. Curvas de funcin de potencia de una prueba de dos colas


con nivel de significancia = 0.05 con diferentes tamaos de muestras

Figura I.5.1. El rea sombreada muestra la regin de rechazo de una prueba


de dos colas

13

Figura I.5.2. El rea sombreada muestra la regin de rechazo de una prueba


de cola derecha o superior.

13

Figura I.5.3. El rea sombreada muestra la regin de rechazo de una prueba


de cola izquierda o inferior

13

Figura II.6.1. Regin derechazo para la prueba de corridas (rachas)

34

Figura II.6.2. Distribucin de n 1 elementos S en y 1 celdas

35

Grfica III.7.1. Distribucin muestral de R

74

Grfica III.7.2. Distribucin de probabilidad de R

74

Grfica III.7.3. Muestra la brillantez en funcin del tiempo

77

TABLAS
Tabla I.1.1. Resumen de probabilidades segn el tipo de error

Tabla I.4.4.1. Temperatura en centgrados y Fahrenheit

11

Tabla I.4.5.1. Resumen de los cuatro niveles de representacin

12

Tabla II.2.1. Hiptesis alternativa y regin de rechazo para la hiptesis


nula = 0

22

iii
Tabla II.2.2.1. Hiptesis alternativa y regin de rechazo para la hiptesis
nula X = Y

24

Tabla II.4.1. Hiptesis alternativa y regin de rechazo para la hiptesis


nula A = B

29

Tabla III.1.1. Observaciones y diferencias de mediciones de la resistencia


a la compresin de probetas preparadas para el ensayo

44

Tabla III.1.2. Observaciones y diferencias de las cantidades de monxido


de carbono (CO) emitidas contenidas en al aire

47

Tabla III.1.3. Observaciones y diferencias de las calificaciones del examen


con mediana 66 y 75 de los casos a) y b) respectivamente

49

Tabla III.2.1. Nmero de rechazos ocurridos antes y despus de la aplicacin


del nuevo saborizante en las compotas

51

Tabla III.2.2. Nmero de rechazos ocurridos antes y despus de la aplicacin


del saborizante indicando el signo de su diferencia

52

Tabla III.2.3. Nmero de piezas defectuosas producidas por mquina

53

Tabla III.2.4. Nmero de tuercas defectuosas por mquina y signo


de la diferencia

54

Tabla III.3.1. Medicin de resistencia

56

Tabla III.4.1. Pesos en libras antes y despus de aplicar la dieta a 16


personas

57

Tabla III.4.2. Pesos en libras antes y despus de aplicarla dieta a 16


personas con los rangos asignados

59

Tabla III.4.3. Datos pareados y sus diferencias para el ejemplo III.4.2

61

Tabla III.5.1. Resistencia de cable segn su aleacin

62

Tabla III.5.2. Asignacin de rango a las resistencias

62

iv
Tabla III.5.3. Rangos asociados de la tabla III.5.2

63

Tabla III.5.4. Datos del papel tamao carta con sus rangos y sus sumas
de rango

65

Tabla III.5.5. Asignaciones de rangos a las calificaciones

66

Tabla III.6.1. Calificaciones de examen final obtenida por tres grupos


con tres mtodos distintos

67

Tabla III.6.2. Nmero de unidades producidas por las mquinas A, B, C,


D, E

68

Tabla III.6.3. Asignacin de rango a los valores y su sumatoria

69

Tabla III.6.4. Datos del ejemplo III.6.3

70

Tabla III.7.1 Secuencia-corridas

73

Tabla III.7.2. Tabla (R,f) consecuencia de la tabla III.7.1

74

Tabla III.8.1. Estatura de 12 padres y sus hijos mayores

78

Tabla III.8.2. Los valores de la tabla III.8.1 sustituidos por sus rangos

79

Tabla III.8.3. Diferencia en rangos y su cuadrado

79

Tabla III.8.4. Compara nivel acadmico con el nivel profesional 10 aos


despus de graduados y la diferencia de rangos

80

Tabla III.8.5. Compara nivel acadmico con el nivel profesional 10 aos


despus de graduados y la diferencia de rangos

81

Tabla III.8.6. Horas de estudios por estudiante y las calificaciones


que obtuvieron en el examen de matemticas

82

Tabla III.8.7. Indicacin de rangos por variables y sus diferencias

83

Tabla III.9.1. Frecuencias acumulativas observadas y relativas

86

Tabla III.9.2. Frecuencias acumulativas observadas relativas, frecuencias


acumulativas relativas esperadas y desviaciones absolutas

87

v
Tabla IV.1.Conversin de valores paramtricos a rangos no paramtricos

93

Tabla # 1. Distribucin de Probabilidades Binomiales

98

Tabla # 2. Distribucin normal estndar

103

Tabla # 3. Prueba de rangos con signos de Wilcoxon. Valores crticos de T

104

Tabla # 4. Prueba U de Mann-Whitney. Valores crticos de U

105

Tabla # 5. Valores de 2 ,

107

Tabla # 6. Rachas o corridas. Valores crticos de R

108

Tabla # 7. Valores crticos del coeficiente de correlacin de rangos de Spearman110


Tabla # 8. Valores crticos de D para la prueba de bondad de ajuste
de Kolmogorov-Smirnov

111

vi

RESUMEN

El objeto del siguiente trabajo de grado es hacer una descripcin, mostrando


varias de las aplicaciones, de algunos de los mtodos no paramtricos de ms fcil uso
por su sencillez para el anlisis y el clculo, tales como: la prueba del signo, la prueba U
de Mann-Whitney, la prueba H de Kruskal- Wallis, la prueba de corridas o rachas, la
prueba del coeficiente de correlacin de rangos de Spearman y la prueba de
Kolmogorov-Smirnov. Se hace una revisin de algunas de las escalas de medicin
mostrando sus propiedades y aplicaciones, recopilando luego sus ecuaciones y despus
de mostrar como se aplican estas tcnicas, se hace una discusin donde se fija posicin
acerca de las ventajas y desventajas de estos mtodos y su comparacin, en los casos
posibles, con los mtodos paramtricos (que son los mtodos tradicionalmente usados).
En ningn momento se pretendi hacer un estudio exhaustivo de estos mtodos ni en su
fundamento terico ni en lo referente a sus aplicaciones. Se recopil un conjunto de
tablas, que se encuentra en los apndices, y son solo las necesarias para manejar los
ejemplos aqu tratados. Sin embargo, existe un grupo ms amplio de estas tablas en
algunos de los libros que se indican en la bibliografa. En el campo de aplicacin de
estas tcnicas, en algunos casos, se llega a usar la escala nominal o clasificatoria, muy
conveniente para las aplicaciones de Psiclogos, Socilogos y aquellos que estudian las
preferencias de los consumidores, cosa que difcilmente pueda hacerse con los mtodos
paramtricos.
Palabras claves: prueba, Mann-Whitney, Kruskal- Wallis, Spearman, KolmogorovSmirnov, corridas o rachas, rango, no paramtrico.

vii
NDICE
Pg.
Introduccin

CAPTULO I

Prueba estadstica y prueba de hiptesis

I.1 Elementos de una prueba estadstica

I.2 Nivel de significancia de una prueba

I.2.1 Seleccin

I.2.2 Interpretacin

I.3 Funcin de potencia de una prueba de hiptesis

I.4 Escalas de medicin

I.4.1 Introduccin

I.4.2 Escala nominal o clasificatoria

I.4.3 Escala ordinal o de rango

I.4.4 Escala de intervalo

10

I.4.5 Escala de proporcin

11

I.5 Teora de decisin

12

CAPTULO II

14

Las pruebas y su teora

14

II.1 Prueba del signo. Breve historia

14

II.1.1 Prueba del signo de una sola muestra

14

II.1.2 Prueba del signo para muestras en pares. Experimentos de pares


comparados

17

II.1.2.1 Caso de dos muestras

17

II.1.2.2 Modelo general de desplazamiento

18

viii
II.1.2.3 Prueba de los signos para un experimento de pares comparados
II.2 Prueba de Wilcoxon
II.2.1 Prueba de rangos para una sola muestra. Intervalos con signos

18
20
20

II.2.2 Prueba de rangos con signos de Wilcoxon para un experimento


de pares comparados

23

II.3 Prueba de suma de rangos de Wilcoxon. Muestras aleatorias independientes 26


II.4 Prueba U de Mann-Whitney. Muestras aleatorias independientes

26

II.5 Prueba H de Kruskal- Wallis

32

II.6 Prueba de corridas (rachas) de una sola muestra

34

II.7 Coeficiente de correlacin de rangos de Spearman

38

II.8 Prueba de Kolmogorov-Smirnov

41

CAPTULO III

43

Las pruebas y sus aplicaciones

43

III.1 Aplicaciones de la prueba del signo de una sola muestra

43

III.2 Aplicaciones de la prueba del signo para muestras de pares comparados

50

III.3 Aplicaciones para la prueba de rangos con signos de Wilcoxon para


un experimento de una sola muestra

55

III.4 Aplicaciones para la prueba de rangos con signos de Wilcoxon para


un experimento de pares comparados

57

III.5 Aplicaciones para la prueba U de Mann-Whitney

61

III.6 Aplicaciones de la prueba H de Kruskal- Wallis

67

III.7 Aplicaciones de la prueba de corridas (rachas) de una sola muestra

71

III.8 Aplicaciones del coeficiente de correlacin de rangos de Spearman

78

III.9 Aplicaciones de la prueba de Kolmogorov-Smirnov

84

CAPTULO IV

89

ix
Anlisis, conclusiones y recomendaciones

89

IV.1 Pruebas estadsticas paramtricas y no paramtricas

89

IV.2 Ventajas de los mtodos no paramtricos

92

IV.3 Desventajas de los mtodos no paramtricos

93

IV.4 Recomendaciones

94

APNDICE A

95

Teorema central del lmite

95

APNDICE B

98

Tabla # 1. Distribucin de probabilidades binomiales

98

Tabla # 2. Distribucin normal estndar

103

Tabla # 3 Valores crticos de T (Wilcoxon)

104

Tabla # 4 Valores crticos de U (Mann-Whitney)

105

Tabla # 5 Valores de 2 ,

107

Tabla # 6. Valores crticos de R (rachas o corridas)

108

Tabla # 7. Valores crticos del coeficiente de correlacin de


rangos de Spearman

110

Tabla # 8. Valores crticos de D (Kolmogorov-Smirnov)

111

REFERENCIA BIBLIOGRFICA

112

INTRODUCCIN

Cada vez es ms frecuente el uso de mtodos no paramtricos para el


anlisis estadstico entre profesionales y estudiantes de diferentes reas del
conocimiento, entre otras, las ciencias sociales, medicina, ingeniera y aquellas que
estudian las preferencias del consumidor. Esto ha motivado la elaboracin del presente
trabajo. Las pruebas estadsticas no paramtricas forman, hoy da, un conjunto amplio
con muchos mtodos de inferencia disponible, y debido a su importancia y lo poco
conocidas se presenta un estudio, introductorio, que describe los mtodos de Pruebas:
de signo, Wilcoxon, U de Mann-Whitney, H de Kruskal-Wallis, de corridas, correlacin
de rangos y de Kolmogorov-Smirnov mostrando, en forma clara, las aplicaciones en que
son de utilidad estos mtodos.
En ningn momento se pretende abordar el tema bajo estudio de manera
exhaustiva, se hace una recopilacin bibliogrfica considerando el fundamento terico y
aplicaciones de los mtodos mencionados arriba, y presentamos una comparacin con
los mtodos clsicos, en donde es posible.

CAPTULO I
PRUEBA ESTADSTICA Y PRUEBA DE HIPTESIS
I.1

ELEMENTOS DE UNA PRUEBA ESTADSTICA


En una prueba estadstica todo se inicia con una suposicin que hacemos de

un valor hipottico de la poblacin, cosa que se puede determinar, por ejemplo, en


forma intuitiva o producto de la experiencia que tenemos sobre un parmetro de algn
evento, que en particular creemos que tiene una determinada poblacin.
Uno de los objetivos de una prueba estadstica es el de probar una hiptesis
relacionada con los valores de uno o ms parmetros poblacionales. Una vez planteado
el problema, formulamos una hiptesis de investigacin respecto a los parmetros que
queremos sustentar y despus de seleccionar la hiptesis, se recogen los datos empricos
que dan informacin directa acerca de la aceptabilidad de sta, la cual es llamada
hiptesis nula y se denota mediante H 0 . Este trmino, hiptesis nula, surgi de las
primeras aplicaciones agrcolas y mdicas de la estadstica, teniendo como fin el probar
la efectividad de un nuevo fertilizante o una nueva medicina, la hiptesis que se probaba
era que no tuvo efecto, es decir, no hubo diferencia entre las muestras tratadas y no
tratadas.
Cuando nos referimos a un parmetro cualquiera de la poblacin, por
ejemplo , el smbolo 0 se usar en los planteamientos de este tipo de problemas para
representar el valor hipottico del parmetro poblacional que corresponde a la hiptesis
nula.
La decisin acerca del significado de los datos, una vez procesado, puede
conducir a la confirmacin, revisin o rechazo de la hiptesis y, con ella, la teora que la
origin.
La hiptesis alternativa, que se denota por H 1 , es la hiptesis que se acepta
si se rechaza H 0 y que queremos comprobar con base en la informacin de la muestra.

3
Por definicin una hiptesis estadstica es una afirmacin o conjetura de la
distribucin de una o ms variables aleatorias. Y cuando especfica por completo la
distribucin, recibe el nombre de hiptesis simple; si no, se conoce como hiptesis
compuesta.
Las partes esenciales de una prueba estadstica son el estadstico de prueba
y una regin de rechazo asociada. El estadstico de prueba, como un estimador, es una
funcin de las mediciones de la muestra que sirve de fundamento para las tomas de
decisiones estadsticas. La regin de rechazo, denotada por RR, especifica los valores
del estadstico de prueba para los que la hiptesis nula se rechaza a favor de la hiptesis
alternativa. Si en una muestra el valor calculado del estadstico de prueba est en la
regin RR, rechazamos la hiptesis nula H 0 y aceptamos la hiptesis alternativa H 1 . Si
el valor del estadstico de prueba no cae en la regin de rechazo RR, aceptamos H 0 1.
Un problema importante es encontrar una buena regin de rechazo para una
prueba estadstica y en cualquier regin de rechazo fija se pueden cometer dos tipos de
errores al tomar una decisin. Podemos decidirnos a favor de H 1 cuando H 0 es
verdadera o lo que es lo mismo rechazar H 0 cuando es verdadera, este error se
denomina del tipo I con probabilidad denominada nivel de significancia de la prueba,
o podemos decidirnos a favor de H 0 cuando H 1 es verdadera lo que equivale a rechazar
H 1 cuando es verdadera; este error se denomina del tipo II con probabilidad . As
estas probabilidades proporcionan una manera prctica de medir la bondad de una
prueba y podramos resumirlas

de la siguiente manera segn se muestra en la

tabla # I.1.1

Aceptar es asegurar que la hiptesis Ho es verdadera 100% y esto no es as. En la mayora de los textos
que tratan el tema se usa esta expresin como una abreviacin que no es ms que un abuso del lenguaje.
Todos aclaran, y as tambin lo hacemos aqu, que lo que se quiere decir es que no se tiene suficientes
elementos de juicio desde el punto de vista estadstico como para rechazarla; siendo sta la forma ms
adecuada o completa. En esta monografa se hace tambin de las dos formas y es bueno que se tenga
presente para no crear confusin.

4
Tipo de error
Probabilidad de rechazar la
hiptesis cuando es verdadera:
P(RHCEV) 1
I
P(RH 0 CEV) =
P(RH 1 CEV) =

II

Tabla # I.1.1. Resumen de probabilidades segn el tipo de error.

I.2 NIVEL DE SIGNIFICANCIA DE UNA PRUEBA


I.2.1 SELECCIN
El cuestionar o no el valor calculado del estadstico de una muestra no es el
propsito de la prueba de hiptesis, sino hacer un juicio con respecto a la diferencia
entre el valor de ese estadstico de muestra y un parmetro hipottico de la poblacin.
Una vez establecida la hiptesis nula y la alternativa, entonces, todo consiste en decidir
qu criterio utilizar para decidir si aceptar o rechazar la hiptesis nula.

I.2.2 INTERPRETACIN
No existe un nivel de significancia nico universal para probar hiptesis. En
algunos casos, se utiliza un nivel de significancia de 5%. Algunos resultados de
investigaciones publicados a menudo prueban hiptesis al nivel de significancia de 1%.
Es posible probar una hiptesis a cualquier nivel de significancia. Pero es bueno
recordar que la eleccin del estndar mnimo para una probabilidad aceptable, o el nivel
de significancia, es tambin el riesgo que se asume al rechazar una hiptesis nula
cuando es cierta. Mientras ms alto sea el nivel de significancia que se utilice para
probar una hiptesis, mayor ser la probabilidad de rechazar una hiptesis nula cuando
sea cierta.
Al examinar este concepto, nos referimos a la figura # I.2.2.1 en la que se ha
ilustrado una prueba de hiptesis con H 0 : = 0 y H 1 : 0 a tres niveles de
1

Probabilidad de Rechazar la Hiptesis Cuando Es Verdadera se abrevia como P(RHCEV). Obsrvese


que las palabras que se inician con mayscula son las nicas que se incluyen en el parntesis.

5
significancia diferentes: 0.01, 0.1, y 0.50. En ella se puede observar la distribucin
muestral, la regin de aceptacin de la hiptesis nula (en blanco) y su regin de rechazo
(sombreada).

Figura # I.2.2.1. Distribucin con tres niveles de significancia distintos en


donde se muestra la regin de aceptacin y de rechazo.

Tambin se ubica en ella la misma muestra x en cada una de las distribuciones en donde
puede verse que tanto en a) como en b) aceptaramos la hiptesis nula de que la media
de poblacin es igual al valor hipottico. Pero observe que en la parte c) de la misma
figura, rechazaramos la misma hiptesis nula que con la condicin anterior se acept,
pues nuestro nivel de significancia de 0.50 en esa parte es tan alto que raramente
aceptaramos dicha hiptesis cuando no sea cierta, pero, al mismo tiempo la
rechazaramos cuando es cierta.

6
Observemos que cuando ampliamos RR para obtener una nueva regin de
rechazo RR*; es decir, RR RR*, la prueba con la regin de rechazo RR* nos llevar a
rechazar H 0 con ms frecuencia. Si * y denotan las probabilidades de los errores
tipo I (niveles de las pruebas) cuando utilizamos RR* y RR como regiones de rechazo,
respectivamente, entonces, como RR RR*,

* = P( el estadstico de la prueba est en RR* cuando H 0 es verdadera)


P( el estadstico de la prueba est en RR cuando H 0 es verdadera) = .
De la misma manera, si usamos la regin de rechazo ampliada RR*, el
procedimiento de la prueba nos llevar a aceptar H 0 con menor frecuencia. Si * y
denotan las probabilidades de los errores tipo II para las pruebas con regiones de
rechazo RR* y RR, respectivamente, entonces

* = P( el estadstico de la prueba no est en RR* cuando H 1 es verdadera)


P( el estadstico de la prueba no est en RR cuando H 1 es verdadera) = .
Estas relaciones permiten notar que si se modifica la regin de rechazo para
incrementar , disminuye. De la misma manera, si el cambio en la regin de
rechazo da como resultado que disminuya, se incrementa. Por lo tanto, y
estn relacionados de manera inversa. Para poder reducir los valores de

debemos obtener ms informacin respecto a la verdadera naturaleza de la poblacin


incrementando el tamao de la muestra. En casi todas las muestras estadisticas, si se
mantiene fijo con un valor suficientemente menor, disminuye a medida que aumenta
el tamao de la muestra.

I.3 FUNCIN DE POTENCIA DE UNA PRUEBA DE HIPTESIS


La bondad de una prueba de hiptesis se mide mediante las probabilidades
de cometer errores de tipo I y II, stos estn identificados con y , respectivamente,

Figura # I.3.1. Curvas de funcin de potencia de una prueba de dos colas con nivel de
significancia = 0.05 con diferentes tamaos de muestras.
donde se elige con anterioridad, y determina la localizacin de la regin de rechazo.
Un mtodo que presenta una mayor utilidad para evaluar el desempeo de una prueba
recibe el nombre de funcin de potencia de una prueba de una hiptesis estadstica H 0
contra una hiptesis alternativa H 1 y est dada por
( )
fp ( ) =
1 ( )

para valores de supuestos con H o


para valores de supuestos con H 1

La figura # I.3.1 muestra las curvas tpicas fp para la prueba de H 0 : = 0 (hiptesis


simple) frente a la hiptesis alternativa H 1 : 0 (hiptesis compuesta) a medida que
el tamao de la muestra (n) se incrementa, de modo que la funcin potencia aumenta al
crecer el tamao de n. Esto en algunos casos de la prctica no siempre es posible pues
el investigador puede estar estudiando un caso muy raro de enfermedad, por ejemplo, en
la que n solo se dispondr en valores pequeos. En la figura se ilustra el incremento de
la potencia de una prueba de dos colas de la media que se produce con muestras de

8
tamao cada vez mayor, siendo n sucesivamente igual a 4, 10, 20, 50 y 100. Estas
muestras se tomaron de poblaciones normales con varianza 2 .
Es importante tener en cuenta que cuando los supuestos que constituyen el
modelo estadstico para una prueba no han sido en verdad satisfechos, o cuando la
medida carece de la fuerza requerida, es difcil, si no imposible, medir la potencia de la
prueba.

I.4

I.4.1

ESCALAS DE MEDICIN

INTRODUCCIN
Los investigadores principiantes y an los ms experimentados que usan la

estadstica como herramienta, encuentran dificultades en muchos casos, para decidir


cual de las pruebas estadsticas es la ms adecuada para analizar un conjunto de datos.
Las reas en las que se aplica la estadstica para el anlisis de datos son muy amplias y
diversas, pues abarca desde las ciencias bsicas, pasando por las ciencias mdicas y las
tecnolgicas, hasta llegar a las ciencias sociales y las que estudian las preferencias del
consumidor. La seleccin de la prueba estadstica necesaria para el caso, depende de
varios factores, y uno de ellos es la escala con la que se estn midiendo los datos que se
analizarn, pues no es igual procesar una variable que identifica el peso de un artculo
que la profesin del usuario de un producto. La medicin es el proceso de asignar
nmeros a objetos u observaciones. En seguida describiremos los cuatro mtodos de
medicin usados comnmente: nominal, ordinal, de intervalo y de proporcin.

I.4.2

ESCALA NOMINAL O CLASIFICATORIA


Es aquella escala en donde los nmeros o smbolos se usan con el fin de

distinguir entre s los grupos a que pertenecen varios objetos, personas o caractersticas
representando un nivel elemental de medicin pues simplemente los clasifica. Cada uno
de estos grupos debe ser mutuamente excluyente y la nica relacin implicada es la de

9
equivalencia ( = ) la cual es reflexiva (x = x x), simtrica (x = y y = x x,y) y
transitiva (si x = y e y = z x = z x,y,z) .
Ejemplos. Cuando un mdico psiquitrico examina a sus pacientes y los agrupa por
diagnstico como esquizofrnico, paranoico, manaco-depresivo o psiconeurtico se
vale de un smbolo para representar la clase de personas a que pertenece ese individuo;
por tanto se emplea la escala nominal.
Los nmeros de los uniformes de los futbolistas y de los policas tambin
ejemplifican el empleo de nmeros en escala nominal.
Tambin la asignacin de placas automovilsticas conforma otro ejemplo de
esta escala, pues en algunos pases los nmeros y letras de las placas indican el lugar
donde reside cada propietario del automvil, y tenemos que cada subclase de la escala
nominal consta de un grupo de entidades: todos los propietarios que residen en el
mismo lugar. La asignacin de los nmeros debe ser tal que el mismo nmero (o letra)
se d a todas las personas que residen en el mismo lugar y que diferentes nmeros (o
letras) se den a personas que residen en lugares diferentes. Esto es, el nmero o la letra
de la placa debe indicar claramente a qu conjunto de las subclases que se excluyen
mutuamente pertenece el propietario. Observe que en ste ejemplo como en los
anteriores, la diferencia entre dos valores cualesquiera de una escala para una prueba
estadstica no paramtrica carece de sentido y la frecuencia es un ejemplo de estadstico
utilizado en este tipo de escala.

I.4.3

ESCALA ORDINAL O DE RANGO


Se llama escala ordinal a toda escala nominal en la que se sostenga la

relacin >, que significa mayor que, entre todos los pares de clases de modo que surja
un rango ordenado completo. Este orden cumple con las relaciones de equivalencia ( = )
y la de mayor que ( > ), es irreflexiva ( x, x no es > x), asimtrica ( x,y x > y y no
es > x) y transitiva ( x,y,z x > y e y > z x > y).

10
Ejemplos. En el sistema educativo de un pas podra medirse el nivel de conocimientos,
o grado de preparacin, alcanzado por los estudiantes en las diferentes materias segn
las notas por ellos obtenidas. En la escala del 1 al 20 cada una de las notas representa
una clase. La relacin de equivalencia (=) se mantiene entre los miembros de la misma
clase y la relacin mayor que (>), entre cualquier pareja de clases.
El sistema de grados en el ejrcito es tambin un ejemplo de una escala
ordinal. El sargento > el cabo > el soldado raso cumple con la relacin mayor que, la
misma es irreflexiva: es decir el cabo no es mayor que el cabo; y es asimtrica: el cabo
es mayor que el soldado raso entonces el soldado raso no es mayor que el cabo y
transitiva: como el sargento es mayor que el cabo y ste a su vez mayor que el soldado
raso entonces el sargento es mayor que el soldado raso. Aqu tambin se mantiene la
relacin de equivalencia (=) entre elementos de la misma clase, ya que es reflexiva,
simtrica y transitiva.
Como puede verse por medio de estos ejemplos la diferencia entre valores
en esta escala no representa informacin con valor aunque s la posicin que las
diferentes clases tienen en ella.
Existen varios estadsticos que usan este tipo de escala para pruebas
estadsticas no paramtricas, uno de ellos es el coeficiente de correlacin de Spearman
que ser tratado ms adelante.

I.4.4 ESCALA DE INTERVALO


Se define as aquella escala en la que se especifica las relaciones de
equivalencia y de mayor que, junto con la proporcin de dos intervalos cualesquiera. En
esta escala el punto cero y la unidad de medida son arbitrarios.
Ejemplo. Un ejemplo tpico de medicin de una variable en esta escala, es la
temperatura cuando se mide en grados Fahrenheit o en grados centgrados, pues stas
como es ya conocido, no son escalas absolutas, sino relativas. Sabemos que la

11
diferencia entre 30 C y 35 C es la misma que entre 45 C y 50 C y si se dice que un
lquido se encuentra a 0 C, no significa que no tiene temperatura.
En la tabla # I.4.4.1 que se muestra seguidamente se tabula la misma
temperatura en ambas escalas

Centgrados 0
Fahrenheit

10 30 100

32 50 86 212

Tabla # I.4.4.1. Temperatura en centgrados y Fahrenheit.

Calculamos ahora la proporcin de la diferencia en cada escala: centgrados

y Fahrenheit

30 10
=2
10 0

86 50
= 2 . Las lecturas comparables en ambas escalas, como se ven
50 32

producto del clculo, dan como resultado la misma proporcin: 2. Esta escala es de tipo
cuantitativo y resulta apropiada para pruebas estadsticas paramtricas y no
paramtricas.

I.4.5

ESCALA DE PROPORCIN

Se llaman as a las escalas que adems de tener todas las caractersticas de


una escala de intervalo tienen un punto cero real en su origen. En ella, la proporcin de
un punto a otro cualquiera de la escala es independiente de la unidad de medida. Los
nmeros que se asocian con esta escala son nmeros con verdadero cero y cualquier
prueba estadstica, ya sea paramtrica o no paramtrica, puede usarse.
Ejemplo. Medimos la masa o el peso en una escala de proporcin. La escala en onzas y
libras tiene un verdadero punto cero. Lo mismo sucede con las escalas en gramos,
amperios y voltajes. La proporcin entre dos pesos cualesquiera es independiente de la
unidad de medida. Por ejemplo, si determinamos los pesos de dos objetos diferentes no

12
slo en libras sino tambin en gramos, encontramos que la razn de los dos pesos en
libras es idntica a la razn de los dos pesos en gramos.
La tabla # I.4.5.1 contiene un resumen sobre los cuatro mtodos de
medicin comentados anteriormente.

Escala

Relaciones definidas.

Pruebas estadsticas apropiadas.

Nominal

1- Equivalencia( = )

Pruebas estadsticas
no paramtricas
Pruebas estadsticas
no paramtricas
Pruebas estadsticas
paramtricas y
no paramtricas

Ordinal o de rango

1- Equivalencia( = )
2- Mayor que( > )
Intervalo
1- Equivalencia( = )
2- Mayor que ( > )
3- Proporcin conocida
de un intervalo a
cualquier otro.
Pruebas estadsticas
Proporcin
1- Equivalencia( = )
paramtricas y
2- Mayor que( > )
3- Proporcin conocida no paramtricas
de un intervalo a
cualquier otro.
4- Proporcin conocida
de un valor de la
escala a cualquier
otro.
Tabla # I.4.5.1. Resumen de los cuatro niveles de representacin.

I.5

TEORIA DE DECISIN

El razonamiento en que se apoya este proceso de decisin es muy simple. Se


trata de establecer un criterio para decidir si aceptar o rechazar la hiptesis nula. Si es
muy pequea la probabilidad asociada con la ocurrencia conforme a la hiptesis nula de
un valor particular en la distribucin muestral, decimos que dicha hiptesis es falsa.
Esto es, cuando la probabilidad asociada con un valor observado de una prueba
estadstica es igual o menor que el valor previamente determinado de , concluimos
que H 0 es falsa. El valor observado es llamado significativo. La hiptesis en prueba,

H 0 , se rechaza siempre que ocurra un resultado significativo. Por tanto, se llama valor
significativo a aquel cuya probabilidad asociada de ocurrencia de acuerdo con H 0 es

13
igual o menor que . Obsrvese que las figuras # I.5.1, # I.5.2., y # I.5.3 muestran las
diferentes regiones de rechazo o aceptacin de la hiptesis nula de una prueba para el
caso de dos y una cola, siendo esta ltima de cola derecha o de cola izquierda segn
corresponda.

Figura # I.5.1. El rea sombreada muestra la regin de rechazo de una prueba de dos
colas.

Figura # I.5.2. El rea sombreada muestra la regin de rechazo de una prueba de cola
derecha o superior.

Figura # I.5.3. El rea sombreada muestra la regin de rechazo de una prueba de cola
izquierda o inferior

14

CAPTULO I
LAS PRUEBAS Y SU TEORA
II.1

PRUEBA DEL SIGNO. BREVE HISTORIA

Es una de las pruebas no paramtricas ms simples y la ms antigua de


todas, pues est reportada en la literatura desde 1710 por John Arbuthnott, quien hizo
uso de este procedimiento, por primera vez, para demostrar que la proporcin de
varones

nacidos

en

Londres

en

un

determinado

perodo

de

tiempo

era

significativamente mayor que la proporcin de mujeres. Se basa en los signos que


generan la diferencia de comparar los datos en una poblacin con respecto a su media,
mediana o con respecto a otros datos tomados de la misma poblacin, presentndose as
dos casos, el de una muestra sencilla (una sola muestra) y el de una muestra en pares.

II.1.1

PRUEBA DEL SIGNO DE UNA SOLA MUESTRA

Si cada vez que se vaya a realizar una experiencia aleatoria, fijamos nuestra
atencin ante un suceso A, de probabilidad no nula P(A) = p, podemos definir
trivialmente una variable aleatoria Y , dicotmica, tomando valores en {0,1} , que recibe
el nombre de variable de Bernoulli de parmetro p, B(p):

Y = 1 si tiene lugar el evento A


Y = 0 si no tiene lugar el evento A
cuya funcin de densidad se puede expresar en la forma:

f ( y ) = P(Y = y ) = p y (1 p )1 y ,

y = 0,1

Si realizamos n ensayos o repeticiones independientes, es decir, en idnticas


condiciones, y siempre centrados en el suceso A, la variable X que cuenta el nmero de
veces que ha tenido lugar el suceso A define el modelo binomial B (x,n,p) que tiene por
funciones de densidad y distribucin la siguiente estructura:
n
f (x) = P (X= x ) = p x (1 p ) n x ; x = 0,1,...., n
x

15
t
t
n
FX (t ) = P ( X t ) = f (k ) = p k (1 p) n k
k =0
k =0 k

Cuando muestreamos una poblacin simtrica continua en donde se hace


insostenible la suposicin de que se muestrea una poblacin normal, se puede aplicar la
prueba del signo de una sola muestra, en donde el suceso A aparece como resultado de
la diferencia de cada uno de los datos con la media y la probabilidad de obtener un valor
de la muestra que sea mayor que la media o que sea menor que la media son ambas .
Y si no se puede suponer que la poblacin es simtrica, se usa la misma tcnica pero
aplicada a la hiptesis nula ~ = ~0 , donde ~ es la mediana de la poblacin.
Para probar la hiptesis nula H 0 : = 0 contra una alternativa apropiada
sobre la base de una muestra aleatoria de tamao n, se sustituye cada valor de la muestra
que exceda a 0 por un signo ms y cada valor de la muestra menor que 0 con un
signo menos, y despus se prueba la hiptesis nula de que el nmero de signos ms es el
valor de una variable aleatoria que tiene una distribucin binomial con los parmetros
n y p = 1/2. Por lo tanto, la alternativa bilateral H 1 : 0 se transforma en p 1 2 y
las alternativas unilaterales < 0 y > 0 se convierte en p < 1/2 y p > 1/2
respectivamente. Si un valor de la muestra es igual a 0 , simplemente se desecha.
Sea

( X 1 , X 2 ,....., X n )

variables

independientes y adems denotamos, para todo

aleatorias
i = 1,2,,n;

reales

contnuas

i = ( X i - 0 ) ,

con 0 conocido, donde

( xi ) = 1 si xi > 0
( xi ) = 0 si xi < 0
Entonces sea T( 1 ,, n ) un estadstico basado sobre los i . Los estadsticos

1 ,, n son independientes y siguen una distribucin de Bernoulli. En efecto como


los X i son independientes, los i lo son tambin. En particular si

16
n

T( X 1 , X 2 ,....., X n ) =

X
i =1

y 0 es la mediana comn de los X i , se tiene el siguiente

estadstico, denotado por S.

S = T( 1 ,, n ) =

i =
i =1

( X
i =1

- 0 ) = nmero de diferencias X i - 0

estrictamente positivas
El estadstico a calcular es:
S = n de casos en los que X i - 0 > o i = 1,2,....., n
y tiene una distribucin binomial B (s,n,1/2), donde n es el nmero de diferencias
X i - 0 no nulas ya que el estadstico obliga a la conversin de los valores a signos.
Para ejecutar una prueba del signo de una sola muestra cuando la muestra es
muy pequea, nos referimos directamente a la tabla # 1 de probabilidades binomiales
del apndice B; cuando la muestra es grande ( np > 5 y nq > 5 ), podemos utilizar la
distribucin normal representada en la tabla # 2 del mismo apndice como
aproximacin a la distribucin binomial. Una demostracin general de este concepto
puede verse en el apndice A.
La prueba del signo de una sola muestra se resume de la siguiente manera:
Sea p =
Hiptesis nula -------------------------H 0 : = 0
Hiptesis alternativa----------------- H 1 : 0 o ( < 0 o > 0 )
Estadstico de prueba ----------------S = n de casos en los que X i - 0 > o i = 1,....., n
Regin de rechazo--------------------si H 1 : 0 , se rechaza H 0 para los valores ms
grandes y ms pequeos de S; si H 1 : < 0 , se
rechaza H 0 para los valores ms pequeos de S;
si H 1 : > 0 , se rechaza H 0 para los valores ms
grandes de S.

17
II.1.2 PRUEBA DEL SIGNO PARA MUESTRAS EN PARES. EXPERIMENTOS
DE PARES COMPARADOS

II.1.2.1 CASO DE DOS MUESTRAS

Las pruebas estadsticas de dos muestras se usan cuando el investigador


desea establecer la diferencia entre dos tratamientos o si un tratamiento es mejor que
otro. El tratamiento puede ser cualquiera de una gran variedad de condiciones:
inyeccin de una droga, adiestramiento, propaganda, separacin de la familia,
modificacin quirrgica, cambio en las condiciones del alojamiento, integracin
intergrupal, cambios del clima, introduccin de un nuevo elemento en la economa, etc.
En cada caso, el grupo que ha sufrido el tratamiento es comparado con el que no lo ha
experimentado o que ha sufrido un tratamiento diferente.
En semejante comparaciones de dos grupos, algunas veces se observan
diferencias significativas que no son resultado del tratamiento. Por ejemplo para
comparar dos mtodos de enseanza, un investigador hace que un grupo de estudiantes
aprenda con uno de los mtodos y un grupo diferente aprenda con el otro. Ahora bien, si
uno de los grupos tiene estudiantes ms capaces o ms motivados, la ejecucin de los
dos grupos puede no reflejar exactamente la relativa efectividad de los dos mtodos de
enseanza, porque otras variables estn creando diferencias en la ejecucin.
Una manera de vencer la dificultad impuesta por diferencias extraas entre
los grupos es usar dos muestras relacionadas o comparables en la investigacin. Esto es,
uno puede igualar, relacionar o hacer comparables de otra manera las dos muestras
estudiadas, cosa que puede lograrse cuando cada sujeto es su propio control o con
parejas de sujetos en las que se asignan los miembros de cada pareja a las dos
condiciones. Cuando un sujeto sirve como su propio control est expuesto a ambos
tratamientos en diferentes ocasiones. Cuando se usa el mtodo de pares, se trata de
seleccionar, dentro de lo posible, en cada pareja de sujetos, aquellos que sean los ms

18
semejantes, con respecto a cualquier variable extraa que pudiera influir el resultado de
la investigacin. En el ejemplo mencionado anteriormente, el mtodo de pares requera
que fueran seleccionadas numerosas parejas de estudiantes, cada una compuesta por
dos estudiantes de capacidad y motivacin fundamentalmente iguales. Un miembro de
cada pareja, escogido al azar, sera asignado a uno de los mtodos de enseanza y su
compaero al otro.

II.1.2.2

MODELO GENERAL DE DESPLAZAMIENTO

Un problema que comnmente se presenta a los experimentadores es el


de obtener observaciones de dos poblaciones con el fin de probar si estas poseen la
misma distribucin. Por ejemplo, si se toman muestras aleatorias independientes en
donde X 1 , X 2 ,..., X n1 y Y1 , Y2 ,..., Yn2 tienen distribuciones F(x) y G(y) respectivamente y

queremos probar si las dos poblaciones tienen la misma distribucin, es decir,


H 0 : F(z) = G(z) frente a H 1 : F(z) G(z), para las que las formas de estas distribuciones
no estn determinadas. Obsrvese que H 1 es una hiptesis muy amplia. Muchas veces el
experimentador querr analizar la hiptesis alternativa ms especfica que indica que Y1
posee la misma distribucin que X 1 , desplazada una cantidad indeterminada . As se
tiene que G(y) = P( Y1 y) = P( X 1 y ) = F(y - ) para algn valor desconocido ;
es decir, las distribuciones tienen diferentes localizaciones.

II.1.2.3 PRUEBA DE LOS SIGNOS PARA UN EXPERIMENTO DE PARES


COMPARADOS

Aqu contamos con una tabla formada de n pares de observaciones de la


forma ( X i , Yi ), y queremos probar la hiptesis que afirma que la distribucin de los
valores de X es la misma que la distribucin de los valores de Y frente a la hiptesis
alternativa que sostiene que la distribucin tiene diferente localizacin. Con base en la

19
hiptesis nula que indica que X i y Yi provienen de las mismas distribuciones de
probabilidad continua, la probabilidad de que Di = X i - Yi sea positiva es igual a 1/2 (la
misma probabilidad de que Di sea negativa). Sea S la cantidad total de diferencias
positivas. De esta manera, si los valores de las variables X i y Yi poseen la misma
distribucin, S poseer una distribucin binomial con p = 1/2, y la regin de rechazo
para una prueba basada en S podr obtenerse mediante la distribucin de probabilidad
binomial. La prueba de los signos en este caso se resume de la siguiente manera.
Prueba de los signos para un experimento de pares comparados

Sea p = P(X >Y).


Hiptesis nula.. H 0 : p =
Hiptesis alternativa..H 1 : p > o (p < o p )
Estadstico de prueba........... S = nmero de diferencias positivas, donde Di = X i - Yi
Regin de rechazo............ si H 1 : p > , se rechaza H 0 para los valores ms
grandes de S; si H 1 : p < , se rechaza H 0 para los
valores ms pequeos de S; si H 1 : p , se rechaza
H 0 para valores muy grandes o muy pequeos de S.
Supuestos los pares ( X i , Yi ) se eligen de forma aleatoria e
independiente.
Prueba de los signos para experimentos de pares comparados

con muestras

grandes ( np > 5 y nq > 5 ).

Hiptesis nula:

H 0 : p = 0.5 (No hay preferencia por algn tratamiento).

Hiptesis alternativa:

H 1 : p 0.5

Estadstico de prueba:

Z=

para una prueba de dos colas.


S n/2
(1 / 2) n

20
Regin de rechazo:

H 0 se rechaza si z z / 2 o si z - z / 2 , donde z / 2 se

obtiene de la tabla # 2 del apndice B referente a la


distribucin normal.

II.2
II.2.1

PRUEBA DE WILCOXON
PRUEBA DE RANGOS PARA UNA SOLA MUESTRA. INTERVALOS

CON SIGNOS

Como se vio en secciones anteriores, la prueba del signo en sus dos versiones
es muy fcil de realizar, pues sin importar la distribucin que siguen las observaciones,
slo utilizamos los signos de las diferencias entre stas y 0 o entre las parejas
comparadas, siendo los signos + y las direcciones de las diferencias producto de las
transformaciones realizadas, desperdicindose por tanto, toda la informacin contenida
en la magnitud de estas diferencias. La prueba de Wilcoxon para intervalos con signo,
hace un mejor aprovechamiento de la informacin contenida en las observaciones, ya
que toma en cuenta, adems de los signos, las magnitudes de las diferencias por medio
de los rangos a que son asignados.
Sean ( Z 1 ,, Z n ) una muestra aleatoria de la variable aleatoria continua Z y
( Z (1) ,, Z (n ) ) la muestra ordenada asociada. Se llama rango Ri de la variable aleatoria
Z i al nmero de variables aleatorias Z i menores o iguales a Z i , 1 i n . Luego el
n

rango se determinar mediante la frmula Ri = (1 ( X j X i )) , donde es como


j =1

se defini en la seccin II.1.1, tenindose en particular que Z (1) < Z ( 2 ) < Z ( 3) < .... < Z ( n )
y Ri es tal que Z i = Z ( Ri ) , siendo sus valores extremos Z (1) = min( Z 1 ,, Z n )

Z (n ) = mx( Z 1 ,, Z n ).
En esta prueba se ordenan por rango los valores absolutos de las diferencias
en relacin con sus signos: asignamos el rango 1 a la menor de las diferencias en valor

21
absoluto, el rango 2 a la segunda diferencia ms pequea en valor absoluto, y as
sucesivamente. Cuando varias de las diferencias sean las mismas, si fuera el caso de las
que corresponderan a 3, 4 y 5, cada una tomara como rango el valor promedio de las
tres, en este caso, 4, seria el rango asignado a cada una de las diferencias iguales, y a la
siguiente diferencia en valor absoluto ms grande se le asignara el rango 5.
Calcularamos ahora la suma de los rangos para las diferencias negativas T y las
sumas de los rangos para las diferencias positivas T + .En el caso de una prueba de dos
colas utilizamos T, la ms pequea de estas dos cantidades, como estadstico de prueba
para probar la hiptesis nula que afirma que las dos poblaciones son idnticas. Cuanto
ms pequeo sea el valor de T, mayor el peso de la evidencia que favorece el rechazo de
la hiptesis nula. Por consiguiente, rechazaremos la hiptesis nula si T es menor o igual
a algn valor T .
La hiptesis nula permite que para cada rango, las probabilidades de que se
le asigne una diferencia positiva o una negativa son ambas . Podemos escribir el
estadstico como
T + = 1. X 1 + 2. X 2 + . . . . . . + nX n , donde X 1 , X 2 ,. . . .y

X n son variables

aleatorias independientes que tienen la distribucin de Bernoulli con p = . Como el


valor esperado y varianza de las

X i son E( X i ) = 0.1/2 +1.1/2 = 1/2 y

Var( X i ) = 1/2 .(1 1/2 ) = 1/4 para i = 1, 2, 3, ,n , y tomando en cuenta las


siguientes propiedades
E ( a1 X 1 + a 2 X 2 + ....... + a n X n ) = a1 E ( X 1 ) + . . . + a n E ( X n ) y
Var( a1 X 1 + a 2 X 2 + ....... + a n X n ) = a12Var ( X 1 ) + . . . + a n2 Var ( X n ) ,
se deduce que
E (T + ) = 1.1/2 + 2.1/2 + . . . + n.1/2 =

1 + 2 + ... + n
2

y aplicando el mtodo de induccin completa, se tiene que E ( T + ) =

n(n + 1)
,
4

22
y que
Var(T + ) = 1 2 .1/4 + 2 2 .1/4 +. . .+n 2 .1/4 =

1 + 2 + ... + n
4

y aplicando de nuevo el mtodo anterior, se llega a que


Var(T + ) =

n(n + 1)(2n + 1)
24

La probabilidad de que T sea menor o igual a algn valor T est calculado


para una combinacin de tamaos muestrales y valores de T . Estas probabilidades, se
pueden utilizar para determinar la regin de rechazo de la prueba que se basa en T.
Cualquiera sea la hiptesis alternativa, podemos basar todas las pruebas de
la hiptesis nula = 0 en la distribucin de T, debiendo slo tener cuidado de utilizar
la estadstica correcta y el valor crtico correcto de T, como se muestra en la tabla II.2.1

Hiptesis Rechace la hiptesis


alternativa nula si:
0
T T

> 0

T T 2

< 0

T + T 2

Tabla II.2.1. Hiptesis alternativa y regin de rechazo para la hiptesis nula = 0 .

donde, como se indica, el nivel de significancia es en cada prueba. Los valores


crticos de T, que son tales que T es el valor ms grande para el cual P(T T ) no es
mayor que , se dan en la tabla 3 del apndice B. Obsrvese que los mismos valores
crticos sirven para pruebas en diferentes niveles de significancia, dependiendo de que
la hiptesis alternativa sea unilateral o bilateral.

23
II.2.2

PRUEBA DE RANGOS CON SIGNOS DE WILCOXON PARA UN

EXPERIMENTO DE PARES COMPARADOS

En este caso, al igual que la prueba del signo de pares comparados,


contamos tambin con n observaciones pareadas ( X i , Yi ) y Di = X i - Yi . Nos interesa
probar la hiptesis de que los valores de X e Y tienen la misma distribucin frente a la
hiptesis alternativa que sostiene que la localizacin de las distribuciones es diferente.
En la hiptesis nula no hay diferencia en las distribuciones de los valores de X e Y ,
esperaramos que la mitad de las diferencias de los pares fuera negativa y la otra mitad
positiva, o sea, que el nmero esperado de las diferencias negativas fuera de valor n/2.
Para realizar la prueba de Wilconxon calculamos las diferencias ( Di ) de
cada uno de los n pares eliminando las diferencias nulas y se asignan los rangos como
en la seccin anterior.
Para detectar la hiptesis alternativa unilateral que afirma que la
distribucin de los valores de X

estn desplazados a la derecha de los valores de Y

empleamos la suma de rangos T de las diferencias negativas, y rechazamos la hiptesis


nula para los valores

T T 2 . Si queremos detectar un desplazamiento de la

distribucin de los valores de Y a la derecha de los valores de X , empleamos la suma


de rangos T + de las diferencias positivas como estadstico de la prueba, y rechazamos
los valores T + T 2 .
El resumen de las hiptesis alternativas, para el caso de dos muestras,
basada en la prueba de la hiptesis nula X = Y , es como se muestra en la tabla II
2.2.1 donde hay que tener presente los mismos detalles de la seccin anterior y manejar
la tabla con los mismos criterios indicados all. A continuacin se resume la prueba que
se basa en T, la cual se conoce como prueba de rangos con signo de Wilconxon.

24
Hiptesis Rechace la hiptesis
alternativa nula si:
T T
X Y

X > Y

T T 2

X < Y

T + T 2

Tabla II.2.2.1.Hiptesis alternativa y regin de rechazo para la hiptesis nula X = Y

Prueba de rangos con signo de Wilcoxon para un experimento de pares


comparados.

Hiptesis nula

H0:

las distribuciones de poblacin para los valores de X e Y


son idnticas.

Hiptesis alternativa H 1 :

las dos distribuciones de poblacin tienen diferentes


localizaciones (dos colas); o la distribucin de poblacin
para los valores de X ( Y ) est desplazada a la derecha de
la distribucin para los valores de Y ( X ) (una cola).

Estadstico de la prueba:
1.

Para una prueba de dos colas utilice T = mn(T + , T ), donde T + es la suma de

los rangos de las diferencias positivas y T es igual a la suma de los rangos de las
diferencias negativas.
2.

En una prueba de una cola utilice la suma T (T + ) de los rangos de las

diferencias negativas (positivas) cuando la distribucin de los valores de X ( Y ) estn


desplazados a la derecha de los valores de Y ( X ).
Regin de rechazo:
1.

Para una prueba de dos colas rechace H 0 si T T donde T es el valor crtico

para la prueba bilateral que se proporciona en la tabla 3 del apndice B.


2.

En una prueba de una cola rechace H 0 si T (T + ) T 2 donde T 2 es el valor

crtico para la prueba unilateral.

25

Prueba de rangos con signos de Wilcoxon con muestra grandes para un


experimento de pares comparados.

Hiptesis nula

H0:

las distribuciones de poblacin para los valores de X e Y


son idnticas.

Hiptesis alternativa H 1 :

las dos distribuciones de poblacin tienen diferente


localizacin (prueba de dos colas); o la distribucin de
poblacin para los valores de X est desplazada a la
derecha (o izquierda) de la distribucin de los valores de

Y (pruebas de una cola).

Estadstico de prueba:

Z=

T + [n(n +1) / 4]
n(n +1)(2n +1) / 24

, T = T + ya que T +

o T tendr aproximadamente una distribucin normal


cuando la hiptesis nula sea verdadera y n sea grande.
Regin de rechazo:

rechace H 0 si z z / 2 o z - z / 2 , en una prueba de dos


colas.
Para detectar un desplazamiento en las distribuciones de
valores de X a la derecha de los valores de Y, rechace H 0
cuando z z . Y para detectar un desplazamiento en la
direccin opuesta rechace H 0 si z - z .

26
II.3

PRUEBA DE SUMA DE RANGOS DE WILCOXON. MUESTRAS

ALEATORIAS INDEPENDIENTES

En el ao de 1945 Wilcoxon propuso una prueba estadstica para comparar


dos poblaciones basadas en muestras aleatorias independientes. Suponga que elegimos
muestras aleatorias independientes de n 1 y n 2 observaciones, cada una de ellas tomadas
de dos poblaciones; representemos a las muestras con A y B. La idea de Wilcoxon fue
combinar las n 1 + n 2 = n observaciones y ordenarlas por orden de magnitud, de la uno
(la ms pequea) a la n (la ms grande). Los empates se manejan igual que como se
indic antes. Si las observaciones se obtienen de poblaciones idnticas, las sumas de
rangos para las muestra deberan ser ms o menos proporcionales a los tamaos de las
muestras n 1 y n 2 . Por ejemplo, si n 1 y n 2 son iguales, esperamos que las sumas de los
rangos sean aproximadamente iguales. Pero si las observaciones de la muestra A, por
ejemplo, tienden a ser mayores que las observaciones de la muestra B, las observaciones
de la muestra A tendern a recibir los rangos ms altos, y la suma de rangos que le
pertenece ser mayor que la suma de rangos esperada. Por consiguiente, teniendo
muestras de igual tamao, si una prueba de rangos es muy grande y, en consecuencia, la
otra es muy pequea, esta podra indicar una diferencia importante entre las dos
poblaciones desde el punto de vista estadstico.

II.4

PRUEBA U DE MANN-WHITNEY. MUESTRAS ALEATORIAS

INDEPENDIENTES

Mann y Whitney propusieron en 1947 una prueba estadstica equivalente a


la de Wilcoxon que tambin incluye las sumas de los rangos de dos muestras, la cual
consiste en ordenar las (n 1 + n 2 ) observaciones de acuerdo con su magnitud y contar el
nmero de observaciones de la muestra A, por ejemplo, que preceden a cada
observacin de la B, as resulta el estadstico U que es la suma de estas enumeraciones.

27
Sean ( X 1 ,,X m ) y (Y 1 ,,Y n ) dos muestras aleatorias A y B de las
variables continuas X e Y. Se llama muestra combinada a la muestra de tamao
N = n + m igual a (X 1 ,,X m , Y 1 ,,Y n ) = (Z 1 ,,Z m ,Z m +1 ,,Z N ). Entonces sea
R = (R 1 ,,R m ,R m +1 ,,R N ) el vector de los rangos asociados a la muestra combinada,

aqu Q = (R 1 ,,R m ) y S = (R m +1 ,,R N ) son los vectores de los rangos de los X y los Y
m

en la muestra combinada y se tiene

Ri +
i =1

Rj =

j = m +1

k =1

N ( N + 1)
.
2
m

Consideremos los estadsticos T 1 , T 2 , T 3 y T 4 tales que T 1 (Z 1 ,,Z N ) =


N

T 2 ( Z 1 ,,Z N ) =

T 3 ( Z 1 ,,Z N ) =

j = m +1

T 4 ( Z 1 ,,Z N ) =

Z j ,
n

(Y
i =1 j =1

( X
i =1 j =1

Z
i =1

Yj )

Xi)
m

Entonces los estadsticos W y W tales que W = T 1 (R 1 ,,R N ) =

i =1

= suma de los

rangos de las X i en la muestra combinada y W = T 2 (R 1 ,,R N ) =

j = m +1

= suma de los

rangos de las Y i en la muestra combinada, son no paramtricos llamados de Wilcoxon


para dos muestra.
Luego los estadsticos T 3 y T 4 son los de Mann-Whitney
m

U = MW = T 3 (Z 1 ,,Z N ) =

( X
i =1 j =1

U = MW = T 4 (Z 1 ,,Z N ) =

Yj )

(Y
i =1 j =1

Xi) ,

entonces
n

( X
j =1

- Y j ) = nmero de valores de j tal que Y j < X i para un i, i = 1,,m, fijado


n

Luego si m i = nmero de X menor o igual a X i se tiene: ( X i - X j ) = R i - m i


j =1

28
m

Entonces U A = MW =

( Ri - m i ) = Ri - mi =
i =1

i =1

i =1

Ri - i =
i =1

i =1

i =1

Cambiando m por n se obtiene inmediatamente U B = MW =

j = m +1

m(m + 1)
2

n(n + 1)
2

Haciendo n 1 = m y n 2 = n, las frmulas para el estadstico U quedaran as:


MW = U A = R 1 - n 1 (n 1 +1)/2
MW= U B = R 2 - n 2 (n 2 +1)/2

donde
n 1 = nmero de observaciones de la muestra A
n 2 = nmero de observaciones de la muestra B
U A + U B = n1n 2
R 1 = suma de rangos para la muestra A
R 2 = suma de rangos para la muestra B

Como se puede ver en las frmulas de U A y U B , U A es pequeo cuando


R 1 es grande, un caso que puede presentarse cuando la distribucin de poblacin de las

mediciones de A se encuentra desplazada a la derecha de las mediciones de B. Por


consiguiente, para efectuar una prueba de dos colas con el fin de detectar un
desplazamiento en la distribucin de A a la derecha de la distribucin de B, es necesario
rechazar la hiptesis nula que afirma que no hay diferencia en las distribuciones de
poblacin si U A es menor que algn valor especfico U . Es decir, rechazamos H 0
para valores pequeos de U A . De manera similar, para llevar a cabo una prueba de una
cola con el fin de detectar un desplazamiento de la distribucin B a la derecha de la
distribucin A, se rechazara H 0 si U B es menor que algn valor especfico U 2 .
La tabla 4 del apndice B proporciona la probabilidad de que un valor
observado de U sea menor que un valor especfico U . Para llevar a cabo una prueba
de dos colas, es decir, para detectar un desplazamiento en las distribuciones

29
poblacionales para las mediciones A y B en cualquier direccin, convenimos en utilizar
siempre U, el menor de U A o U B o sea U = mn(U A , U B ) como estadstico de prueba y
rechazar H 0 para U < U . El valor de para la prueba de una cola es el doble del de
una prueba de dos colas tal como se muestra en la siguiente tabla # II.4.1.

Hiptesis Rechace la
alternativa hiptesis nula si:
U U
A B

A > B

U B U 2

A < B

U A U 2

Tabla # II.4.1.Hiptesis alternativa y regin de rechazo para la hiptesis nula A = B

Una prueba para muestras grandes simplificada (n 1 > 8 y n 2 > 8) se puede


obtener utilizando el estadstico Z de la distribucin normal. Si las distribuciones de
poblacin son idnticas, el estadstico U posee los siguientes valores esperados y de
varianza cuando U = U A (o U = U B ):
E(U A ) =

n1 n 2
2

y Var(U A ) =

n1 n2 (n1 + n2 + 1)
12

La prueba U de Mann Whitney se resume de la siguiente forma

Hiptesis nula:

H 0 : Las distribuciones de frecuencias relativas de

poblacin para A y B son idnticas.


Hiptesis alternativa:

H 1 : Las dos distribuciones de frecuencias relativas de

poblacin estn desplazadas respecto a sus


localizaciones relativas (prueba de dos colas); o
H 1 : La distribucin de frecuencias relativas

de

poblacin para A est desplazada a la derecha de

30
la distribucin de frecuencias relativa para la
poblacin B
Estadstico de prueba:

(prueba de una cola).

Para una prueba de dos colas, utilice U, el ms


pequeo de
U A = R 1 - n 1 (n 1 +1)/2 y U B = R 2 - n 2 (n 2 +1)/2

donde R 1 y R 2 constituyen las sumas de rangos


para las muestras A y B, respectivamente. Para
una prueba de una cola utilice U A o U B segn
sea el caso. Tabla II.4.1.
Regin de rechazo:

1. Para una prueba de dos colas y un valor dado de

rechace H 0 si U U ,

donde

P(U U ) = (Nota: observe que U es el


valor por el que P(U U ) = )
2. Para una prueba de una cola y un valor dado de
, rechace H 0 si U A ( U B ) U 2 , donde

P(U A ( U B ) U 2 ) = 2 .

Supuestos:

Las muestras se han seleccionado aleatoria e


independientemente de

sus

respectivas

poblaciones. Los empates en las observaciones


se pueden manejar promediando los rangos que
se hubieran asignado a las

observaciones

empatadas y asignando este promedio a cada


observacin. Por consiguiente, si hay
observaciones empatadas, debido a que

tres
se

les asignaron los rangos 3, 4 y 5, les asignaremos


el rango 4 a las tres.

31

En el caso de muestras grandes la prueba U se resume como sigue:

Hiptesis nula:

H 0 : Las distribuciones de frecuencias relativas de

poblacin
Hiptesis alternativa

para A y B

son

idnticas.

H 1 : Las dos distribuciones de frecuencias relativas

de poblacin no son idnticas (prueba de dos


colas); o
H 1 : La distribucin de frecuencias relativas

de

poblacin para A est desplazada a la derecha (o


izquierda) de la distribucin de frecuencias
relativa para la poblacin B
U = U A (U B )

Estadstico de prueba:

Regin de rechazo:

Z=

(prueba de una cola).

U (n1 n2 / 2)
(n1 n2 )(n1 + n2 + 1) / 12

Rechace H 0 si z > z o z < -z en el caso de una


2

prueba de dos colas. En una prueba de una cola


coloque todos los valores de en una de las colas
de la distribucin z. Para detectar un desplazamiento
de la distribucin de las observaciones A a la
derecha de distribucin de las observaciones B
rechace H 0 cuando z < - z . Para detectar un
desplazamiento en la direccin contraria rechace H 0
cuando z > z . Los valores tabulados de z se
encuentran en la tabla 2 del apndice B que es la
distribucin normal.

32
II.5 PRUEBA H DE KRUSKAL-WALLIS

La prueba de Kruskal-Wallis o prueba H es una generalizacin para k


muestras de la prueba U. El procedimiento de Kruskal-Wallis no requiere supuestos
respecto a la forma real de las distribuciones de probabilidad. Supondremos que las
muestras aleatorias independientes se tomaron de k poblaciones que difieren slo en
cuanto a su localizacin y no necesitamos suponer que estas poblaciones poseen
distribuciones normales. Generalizamos, utilizando tamaos de muestras diferentes y
representaremos con n i en el caso de i = 1,2,,k el tamao de la muestra tomada de la
i-sima poblacin. Aqu tambin se combinan las n 1 + n 2 + + n k = n observaciones
y se ordena de 1, la ms pequea, a n , la ms grande. Los empates se manejan igual que
antes. Sea R i la suma de los rangos de las observaciones obtenidas de la poblacin i, y
sea Ri = R i /n i el promedio correspondiente de los rangos. Si R es igual al promedio
total de los rangos, consideramos el equivalente para los rangos de la suma de los
cuadrados para los tratamientos, que se calcula utilizando los rangos, en lugar de los
k

valores reales de las mediciones:

V=

n
i =1

( Ri - R ) 2 .

Si la hiptesis es verdadera y las poblaciones no difieren en cuanto a su localizacin,


esperaramos que los valores de Ri fueran aproximadamente iguales y que el valor que
se obtiene de V fuera relativamente pequeo. Si la hiptesis alternativa es verdadera,
espiraramos que este hecho se reflejara en las diferencias entre los valores de las Ri , lo
cual dara como resultado un valor grande para V. Como R = (suma de los primeros n
enteros) / n = [n(n + 1) / 2] / n

n +1
=
; de esta manera, V =
2

n ( R
i

i =1

n +1 2
) .
2

En lugar de concentrarse en V, Kruskal y Wallis consideraron el estadstico


12V
12
H=
, que puede escribirse como H =
n(n + 1)
n(n + 1)

Ri
-3(n+1).

i =1 ni

33
La hiptesis nula afirma que la igualdad de las poblaciones se rechaza a favor de la
hiptesis alternativa que plantea que las poblaciones difieren en cuanto a su localizacin
si el valor de H es grande. En consecuencia, la prueba de nivel correspondiente exige
el rechazo de la hiptesis nula en favor de la hiptesis alternativa si H > h( ), donde
h( ) satisface la relacin.

La prueba, adems de suponer que la variable en estudio tiene como base


una distribucin continua, requiere, por lo menos, una medida ordinal de la variable.
La distribucin de H para cualesquiera valores de k y n 1 , n 2 , , n k se
puede determinar calculando el valor de H para cada una de las n! permutaciones, con la
misma probabilidad, de los rangos de las n observaciones.
Kruskal y Wallis demostraron que, si los n i valores son grandes, la
distribucin nula de H se puede aproximar mediante una distribucin ji-cuadrada con
k-1 grados de libertad. Esta aproximacin, por lo general, se considera adecuada si cada

uno de los n i es mayor o igual a 5.


Resumen de la prueba de Kruskal-Wallis basada en H para comparar k
distribuciones de poblacin.
Hiptesis nula

H 0: Las k distribuciones de poblacin son idnticas.

Hiptesis alternativa..H 1 : Por lo menos dos de las distribuciones de poblacin


difieren en cuanto a posicin.
Estadstico de la prueba H =

12
n(n + 1)

Ri
-3(n+1), donde

i =1 ni

n i = nmero de mediciones en la muestra tomada

de la poblacin i
R i = suma de los rangos para la muestra i, en la que

el rango de cada medicin se calcula de acuerdo


con su tamao relativo en el conjunto total de

34
n = n1 + n 2 + + n k

combinando

observaciones formadas

los datos

de

las

muestras.

Regin de rechazo. Rechace H 0 si H > 2 con k-1 grados de libertad.


Supuestos Las k muestras se extraen de forma aleatoria e
independiente.
Hay cinco o ms mediciones en cada muestra.

II.6

PRUEBA DE CORRIDAS ( RACHAS) DE UNA SOLA MUESTRA

Esta prueba se aplica en el estudio de una serie de eventos en la que cada


elemento de la serie puede dar origen a dos resultados, xito (S) o fracaso (F). Si
consideramos un proceso de fabricacin en el que al hacer el control de calidad a cada
artculo, se produce una serie, como por ejemplo, S S S S S F F S S S F F F S S S S S S
S, en la que se ha hecho la observacin de 20 artculos consecutivos, donde (S) denota

cuando el articulo es no defectuoso y (F) a los defectuoso y deseamos saber si este


agrupamiento que se muestra en la serie implica que no hay aleatoriedad en el proceso,
y por consiguiente, hay falta de control.
Una cantidad muy pequea o muy grande de corridas (subsucesin mxima
de elementos iguales) en una serie constituye una seal de no aleatoriedad. Llamamos R
el nmero de corridas en una serie y es el estadstico de la prueba, y sea R k 1 y
R k 2 la regin de rechazo.

|------|------|------//-----|--------------------------------------------|------//------|------|------|-----|
2

k1

Regin de rechazo

Nmero de rachas

k2

Regin de rechazo

Fig.II.6.1.Regin de rechazo para la prueba de corridas (rachas).

35
Para determinar la distribucin de probabilidad de R, supongamos que la
serie completa contiene n 1 elementos S y n 2 elementos F, lo cual da como resultado Y 1
corridas de elementos S y Y 2 corridas de elementos F, donde Y 1 + Y 2 = R. Por
consiguiente dado Y 1 , Y 2 es necesariamente igual a Y 1 , (Y 1 -1) o (Y 1 +1). Sea m el
nmero mximo de posibles corridas. Observe que m = 2n 1 si n 1 = n 2 y que m = 2n 1 + 1
si

n 1 < n 2 . Supondremos que todo ordenamiento distinguible de los n 1 + n 2 elementos

de la serie constituye un evento simple del experimento y que los puntos muestrales son
equiprobables. As nos queda como siguiente paso, contar el nmero de puntos
muestrales que implica R corridas.
En la serie estn dados n1 elementos indistinguibles S y n2 elementos
indistinguibles F, stos generan el nmero total de ordenamientos distinguibles dado
n + n2
1
y, por consiguiente, la probabilidad por punto muestral es de
por 1
.
+
n
n
n

2
1

n
1

|S|SSSS|SS|SS|SSS|S|
Fig.II.6.2. Distribucin de n 1 elementos S en y 1 celdas.

El nmero de formas para obtener y 1 corridas de elementos S es igual al nmero de


ordenamientos distinguibles de n 1 elementos indistinguibles en y 1 celdas, ninguna de
las cuales esta vaca, como se indica en la figura # II.6.2. Esta cantidad es igual al
nmero de formas para distribuir las (y 1 -1) barras internas idnticas en los (n 1 -1)
espacios entre los elementos S. En consecuencia, es igual al nmero de formas para
seleccionar (y 1 -1) espacios para las barras afuera de los (n 1 -1) espacios disponibles; es
n 1
decir 1
y1 1

36
El nmero de formas para observar y 1 corridas de elementos S y y 2 corridas
n 1 n 1

de elementos F, se obtiene con el producto 1 2


y1 1 y 2 1

Esta expresin proporciona el nmero de puntos muestrales en el evento y 1 corridas de


elementos S y y 2 corridas de elementos F. Si multiplicamos este nmero por la
probabilidad de cada punto muestral, obtenemos la probabilidad de y 1 corridas de
elementos S y y 2 corridas de elementos F, exactamente:
n1 1 n 2 1

y1 1 y 2 1

p(y 1 , y 2 ) =
n1 + n 2

n1

Entonces, P(R = r) es igual a la suma de p(y 1 ,y 2 ) que recorre todos los


valores de y 1 y y 2 , los cuales satisfacen la relacin (y 1 + y 2 ) = r.
Para ilustrar la aplicacin de esta frmula, el evento R = 4 podra ocurrir
cuando y 1 = 2 y y 2 = 2, ya sea que el elemento S o F inicie las sucesiones. Por lo tanto,
P(R = 4) = 2P(Y 1 = 2, Y 2 = 2). Por otra parte, R = 5 podra ocurrir cuando y 1 = 2 y y 2 = 3,

o cuando y 1 = 3 y y 2 = 2, y estas ocurrencias son mutuamente excluyentes. De manera


que P(R = 5) = P(Y 1 = 3, Y 2 = 2) + P(Y 1 = 2, Y 2 = 3).

EJEMPLO # II.6.1
Suponga que una sucesin consta de n 1 = 5 elementos S y n 2 = 3
elementos F. Calcule P(R 3).

SOLUCIN
Podran ocurrir tres corridas cuando y 1 = 2 y y 2 = 1, o cuando y 1 = 1 y
y 2 = 2. Por consiguiente,

37
P(R = 3) = P(Y 1 = 2, Y 2 = 1) + P(Y 1 = 1, Y 2 = 2)

4 2

1 0
= +
8

5

4 2

0 1 = 4 + 2 = 0 . 107 .
56 56
8

5

En seguida, requerimos que P(R 3) = P(R = 2) + P(R = 3). En consecuencia,


4 2

0 0
3
P(R = 2) = 2P(Y 1 = 1, Y 2 = 1) = 2 =
= 0.036.
84
8

5
Por lo tanto, la probabilidad de tres o menos corridas es de 0.107 + 0.036 = 0.143
Cuando n 1 y n 2 son pequeos, suelen realizarse pruebas de aleatoriedad con respecto a R
mediante el uso de tablas especiales, como la tabla # 6 del apndice B. Rechazamos la
hiptesis nula de aleatoriedad en el nivel de significancia si R r

o bien

R r donde r es el valor ms grande para el cual P( R r ) no es mayor que


2

y r es el valor ms pequeo para el cual P( R r ) no es mayor que


2

El resumen de esta prueba es como se muestra:

Hiptesis nula H 0: Hay

aleatoriedad

Hiptesis alternativa. H 1 : No

hay aleatoriedad

Estadstico de la prueba.. R = nmero


Regin de rechazo... Se

de

corridas

en

el
en el
en

una

proceso
proceso
prueba

rechaza la hiptesis nula si R k 1 = r y


2

R k2 = r
2

38
Como en el caso de otros estadsticos de prueba no paramtricos analizados
anteriormente, la distribucin de probabilidad para R tiende a la normalidad conforme
n 1 y n 2 crecen. La aproximacin es buena cuando n 1 y n 2 son mayores que 10. As que

podemos utilizar el estadstico Z como estadstico de prueba para una muestra grande.
En consecuencia,
Z=

R R

y R =

2n1 n 2
+ 1 con
n1 + n 2

R2 =

2n1 n2 (2n1 n2 n1 n 2 )
(n1 + n2 ) 2 (n1 + n 2 1)

representan el valor esperado y la varianza de R, respectivamente. La regin de rechazo


para una prueba de dos colas con = 0.05 es z 1.96. Si es la probabilidad que se
busca de cometer un error tipo I, en el caso de una prueba de cola superior, rechazamos
la hiptesis nula si z > z (en el caso de una prueba de cola inferior rechazamos H 0
si z < - z ).

II.7

COEFICIENTE DE CORRELACIN DE RANGOS DE SPEARMAN

Con frecuencia, en el anlisis de correlacin, la informacin no esta


disponible en forma de valores numricos, pero si podemos asignar clasificaciones a los
elementos de cada una de dos variables que estamos estudiando, entonces puede
calcularse un coeficiente de correlacin de rango. Esta es una medida de la correlacin
que existe entre los dos conjuntos de rangos, una medida del grado de asociacin entre
las variables que no podramos calcular de otra manera. Tambin este mtodo simplifica
el proceso de clculo a partir de un conjunto de datos muy grande para cada una de las
dos variables, ya que calcula una medida de asociacin basada en los rangos de las
observaciones y no en los valores numricos de los datos. Esta medicin se le conoce
como el coeficiente de correlacin de rango de Spearman, en honor al estadstico que lo
desarroll a principios del siglo pasado y fue la primera de todas las estadsticas basadas
en rangos.

39
Para un conjunto dado de datos ordenados en parejas {( xi , y i ); i = 1,2,..., n},
este se obtiene ordenando por rango las x entre si mismas y tambin las y; cuando hay
coincidencias de rango, se procede como se hizo en caso del estadstico de MannWhitney.
Se parte de la frmula de Pearson
n

(x
r=

i =1

(x
i =1

x )( y i y )

x)

S xy

(y
i =1

y)

S xx S yy

y como las x y las y son rangos, entonces r = r s ; la suma de los n enteros 1, 2, . . ., n, es


n

x
i =1

2
i

x
i =1

n(n + 1)
, y la suma de sus cuadrados, 1 2 , 2 2 , . . . , n 2
2
n(n + 1)(2n + 1)
. Por consiguiente,
6
n

S xx = ( xi x ) = x
2

i =1

i =1

2
i

( xi ) 2
i =1

n(n + 1)(2n + 1) n(n + 1) 2 n 3 n


=
=
,

4
12
6

y similarmente

n3 n
S yy =
.
12
Ahora

d=xy
d 2 = ( x y) 2 = x 2 2 xy + y 2
n

i =1

i =1

i =1

i =1

d i2 = xi2 + yi2 2 xi yi
n

d
i =1

2
i

= S xx + S yy 2S xy

Pero la frmula establece que

r=

S xy
S xx S yy

= rs

es

40
cuando las observaciones estn en forma de rango. Por consiguiente,
n

d
i =1

2
i

S xx + S yy d i2

= S xx + S yy -2 r s

S xx S yy , y r s =

i =1

2 S xx S yy

sustituyendo se tiene

rs=

n3 n n3 n n 2
+
di
12
12
i =1
2 (

n3 n n3 n
)(
)
12
12

n
2
2(n 3 n) n 2
2
d
6
di
d i2

i
12
i =1
=
= 1 i =31
= 1 i3=1
3
2(n n)
n n
n n
12
6

que se podr usar cuando no hay empates en x o y, o si el nmero de empates es


pequeo en comparacin con el nmero de pares de datos. As el error cometido al
emplear esta frmula ser pequeo.
Cuando es el caso en que el nmero de empates es grande hay que usar el
factor T =

t3 t
para ajustar la frmula. En este caso se tendr
12
n

S xx + S yy d i2
rs=

i =1

2 S xx S yy

donde

S xx =

n3 n
Tx
12

y S yy =

n3 n
Ty
12

Resumen de la prueba de correlacin de rangos de Spearman

Hiptesis nula:

H 0 : No

hay relacin entre

los

pares de rangos.

Hiptesis alternativa:

H 1 : Hay relacin entre los pares de rangos (prueba de dos

colas) o,
H 1 : La correlacin entre los pares de rangos es positiva

(o negativa) (prueba de una cola).


Estadstico de la prueba:

rs =

n
n n
n xi y i xi y i
i =1
i =1 i =1

n 2 n
n x i xi
i =1
i =1

n 2 n

n y i y i
i =1
i =1

= 1

6 d i2
i =1

n3 n

41
donde x i y y i representan los rangos del i-simo par de
observaciones.
Regin de rechazo:

En una prueba de dos colas, rechace

H 0 si r s r0 o

r s r0 , donde r0 figura en la tabla # 7 del apndice B.

Duplique la probabilidad tabulada para obtener el valor de


para la prueba de dos colas. En una prueba de una cola,
rechace H 0 si r s r0 (para una prueba de cola superior) o
r s r0 (para una prueba de cola inferior). El valor de

para una prueba de una cola figura en la misma tabla 7 del


apndice B.

II.8

PRUEBA DE KOLMOGOROV-SMIRNOV

La prueba de Kolmogorov-Smirnov, bautizada as en honor de los


estadsticos A. N. Kolmogorov y N. V. Smirnov quienes la desarrollaron, se trata de un
mtodo no paramtrico sencillo para probar si existe una diferencia significativa entre
una distribucin de frecuencia observada y otra de frecuencia terica. La prueba K-S es,
por consiguiente, otra medida de la bondad de ajuste de una distribucin de frecuencia
terica, como lo es la prueba ji-cuadrada. Sin embargo, la prueba K-S tiene varias
ventajas sobre la prueba 2 : es una prueba ms poderosa, y es ms fcil de utilizar,
puesto que no requiere que los datos se agrupen de alguna manera.
La estadstica K-S, D n , es particularmente til para juzgar que tan cerca est
la distribucin de frecuencia observada de la distribucin de frecuencia esperada,
porque la distribucin de probabilidad de D n depende del tamao de la muestra n, pero
es independiente de la distribucin de frecuencia esperada (D n es un estadstico de
distribucin libre)

42
El estadstico a calcular es D n = sup Fn F , donde n, es el total de
muestras tomadas, F n la distribucin de frecuencias observadas y, F la distribucin
terica.
La formulacin de hiptesis es de la siguiente manera:
Hiptesis nulaH 0 : Una distribucin F es una buena descripcin del patrn de
uso.
Hiptesis alternativa..H 1 : Una distribucin F no es una buena descripcin del patrn
de uso
Estadstico de prueba.D n = sup Fn F
Regin de rechazo. , es el nivel de significancia para probar estas hiptesis
Una prueba K-S siempre debe ser una prueba de un extremo.

43

CAPTULO III
LAS PRUEBAS Y SUS APLICACIONES
III.1 APLICACIONES DE LA PRUEBA

DEL SIGNO DE UNA SOLA

MUESTRA

Su aplicacin abarca la mayora de las reas de conocimiento ya que se


hace relativamente frecuente encontrarse con variables dicotmicas o dicotomizadas, es
decir, con variables categricas que solo toman dos valores: acierto-error, a favor-en
contra, tratados-no tratados, recuperados-no recuperados, etc. Podemos llamar, de forma
genrica, xito y fracaso a los niveles de una variable de este tipo. Algunas de sus
aplicaciones se muestran en los ejemplos que siguen:

EJEMPLO # III.1.1
En el listado que sigue se muestra un conjunto de mediciones tomadas en un
laboratorio de ensayos del IMME 1, estas representan la resistencia a la compresin
reportada en unidades de libra-fuerza por pulgadas cuadradas (psi), de un total de 20
probetas cilndricas preparadas con una mezcla de concreto especial, en la que se espera
una resistencia media a la compresin de 160 psi. Prubese esta hiptesis en el nivel de
significancia del 5% contra la alternativa > 160 psi.

163 165 160 189 161 171 158 151 169 162
163 139 172 165 148 166 172 163 187 173

SOLUCIN
1.- H 0 : = 160
H 1 : > 160
1

IMME es el Instituto de Materiales y Modelos Estructurales de la Universidad Central de Venezuela que


cuenta con laboratorios y personal especializado para la prueba de morteros que sern usados en
edificaciones y puentes.

44
2.- Rechazamos la hiptesis nula si S k .05 , donde S es el nmero de signos positivos
n

k .05

es el entero ms pequeo para el cual

B ( s ; n, p

s = k

B ( s ; n, p 0 ) =

n! 1
p 0s (1 p 0 ) n s , s = 0,1,..., n es la probabilidad de lograr s
s! (n s )!

aciertos en n ensayos binomiales cuando p = p 0 . El tamao de esta regin crtica, est


por lo tanto, lo ms prximo posible a sin excederlo.
3.- Sustituyendo cada valor mayor que 160 por un signo positivo, cada valor menor
que 160 por un signo negativo y desechando el valor que sea igual a 160, se obtiene la
siguiente tabla # III.1.1

Observacin Resistencia
a la
compresin
xi
1
163

Signo de
la
diferencia
x i -160
+

observacin

11

Resistencia
a la
compresin
xi
163

Signo de
la
diferencia
x i -160
+

165

12

139

160

13

172

189

14

165

161

15

148

171

16

166

158

17

172

151

18

163

169

19

187

10

162

20

173

Tabla # III.1.1. Tabla de observaciones y diferencias de mediciones de la resistencia a la


compresin de probetas preparadas para el ensayo.

N de signos positivos (+)- - - - - - - - - - - - 15


N de signos negativos (- )- - - - - - - - - - - - 4

45

de manera que n =19 y s = 15. De la tabla # 1 apndice B de probabilidades


binomiales se determina el valor de k .05 para n =19. Siendo que los valores de

B ( s , n ,1/2) son:
B (19,19,1/2) = 0.0000
B (18,19,1/2) = 0.0000
19

B (17,19,1/2) = 0.0003

B(s,19,1 / 2) = 0.0003

s =17

19

B (16,19,1/2) = 0.0018

B(s,19,1 / 2) = 0.0021

s =16

19

B (15,19,1/2) = 0.0074

B(s,19,1 / 2) = 0.0095

s =15

19

B (14,19,1/2) = 0.0222

B(s,19,1 / 2) = 0.0317 < 0.05

s =14

19

B (13,19,1/2) = 0.0518

B(s,19,1 / 2) = 0.0835 > 0.05

s =13

obtenindose

por lo tanto que k .05 = 14 es el menor entero para el cual

19

B( y,19,1 / 2) = 0.0317 < 0.05

y =14

4.-

Como s = 15 es mayor que k .05 = 14, se debe rechazar la hiptesis nula y se

concluye que estadsticamente la resistencia media a la compresin de las probetas es


mayor de 160 psi.

EJEMPLO # III.1.2
Yubir Ortega, Ministra del Poder Popular para el Ambiente, est pensando
que por el tiempo que lleva la descentralizacin de empresas del rea metropolitana de
Caracas, es hora de retirar los filtros instalados hace 6 aos con el fin de limpiar el aire
en la ciudad. En tal sentido ha nombrado una comisin tcnica para que tome una serie

46
de mediciones con equipo especial, y as determinar si el contenido de gases como el
CO (monxido de carbono) ha bajado a 21.5 ppm o menos, ya que este nivel no
representa riesgo para la salud, o si por el contrario se mantiene por encima de este
valor. Los datos que siguen, expresados en ppm (partes por milln), son las mediciones
de monxido de carbono en diferentes puntos de la ciudad:

17 15 20 29 19 18 22 25 27 9 24 20 17 6 24 14 15 23 24 26
19 23 28 19 16 22 24 17 20 13 19 10 23 18 31 13 20 17 24 14

Se quiere probar la hiptesis nula = 21.5 contra la hiptesis alternativa

> 21.5 en el nivel de significancia = 0.01 utilizando, en este caso, la aproximacin


a la distribucin normal por ser n = 40 un nmero grande. Ver el apndice A para mayor
informacin.

SOLUCIN
1.- H 0 : = 21.5
H 1 : > 21.5

2.- La mitad del rea debajo de la curva de una funcin de densidad normal es 0,5, que
al restarle 0,01 se obtiene la diferencia 0,49, valor de probabilidad que corresponde
segn la tabla normal a z = 2.33, esto nos permite fijar el intervalo de rechazo de la
hiptesis nula as: z > z.01 = 2.33, donde z =

( s 1 2) np
np (1 p)

, p=

1
y S es el nmero de
2

signos positivos (+). Como la variable S para la distribucin binomial es discreta,


mientras que la de una distribucin normal es contnua, se hace una correccin por
continuidad (por ejemplo, 3 caras es en realidad un valor entre 2.5 y 3.5 caras).

47
Signo de la observacin
diferencia
x i -21.5
21

19

Signo de la
diferencia
x i -21.5
-

22

23

23

28

29

24

19

19

25

16

18

26

22

22

27

24

25

28

17

27

29

20

10

30

13

11

24

31

19

12

20

32

10

13

17

33

23

14

34

18

15

24

35

31

16

14

36

13

17

15

37

20

18

23

38

17

19

24

39

24

20

26

40

14

observacin

Cantidad de
CO

17

15

20

Cantidad de
CO

Tabla # III.1.2. Tabla de observaciones y diferencias de las cantidades de monxido de


carbono (CO) contenidas en el aire.

Esto equivale a disminuir S en 0,5 si S > np y a incrementar S en 0,5 si S < np.

48
Como

n = 40

16,

se

obtiene

np (1 p ) = 40(0.5)(0.5) = 3.16 y, por lo tanto, z =

1
np = 40. = 20 ,
2

(16 + 1 2) 20
= 1.11
3.16

3.- Ya que z = 1.11 es menor que z = 2.33 , no se puede rechazar la hiptesis nula.
La Ministra tiene razn, se pueden retirar los filtros.

EJEMPLO # III.1.3
Un examen de la materia Clculo I en la Universidad Nacional Abierta fue
aplicado en todos los estados del pas. Del conjunto de datos se tom una muestra
compuesta por 40 calificaciones las cuales se muestran seguidamente:

71 67 55 64 82 66 74 58 79 61 78 46 84 93 72 54 78 86 48 52
67 95 70 43 70 73 57 64 60 83 73 40 78 70 64 86 76 62 95 66 .

Pruebe la hiptesis, al nivel 0.05 de significancia, de que la mediana

de las

calificaciones de todos los participantes en el examen es a) 66 b) 75

SOLUCIN
a) Al restar 66 de todas las entradas dadas anteriormente y al mantener solo los signos
asociados, resulta la tabla #III.1.3 donde se ve que hay 23 signos ms (+) ,15 signos
menos (-) y dos ceros. Al descartar los 2 ceros, la muestra consiste de 38 signos: 23 + y
15 -.Con el uso de una prueba bilateral de la distribucin normal, con probabilidades
0.025 en cada cola y tomando en cuenta las caractersticas antes nombradas de esta
funcin de densidad, tenemos: 0,5 - 0.025 = 0,475, luego buscamos en la tabla normal
(Tabla # 2 del apndice B) y

49
Observacin

Calificacin

71

Signo de la
diferencia
x i -66/ x i -75
+/-

21

67

67

+/-

22

95

+/+

55

-/-

23

70

+/-

64

-/-

24

43

-/-

82

+/+

25

70

+/-

66

0/-

26

73

+/-

74

+/-

27

57

-/-

58

-/-

28

64

-/-

79

+/+

29

60

-/-

10

61

-/-

30

83

+/+

11

78

+/+

31

73

+/-

12

46

-/-

32

40

-/-

13

84

+/+

33

78

+/+

14

93

+/+

34

70

+/-

15

72

+/-

35

64

-/-

16

54

-/-

36

86

+/+

17

78

+/+

37

76

+/+

18

86

+/+

38

62

-/-

19

48

-/-

39

95

+/+

20

52

-/-

40

66

0/-

Observacin

Calificacin

Signo de la
diferencia
x i -66/ x i -75
+/-

Tabla # III.1.3. Tabla de observaciones y diferencias de las calificaciones del examen


con mediana 66 y 75 de los casos a) y b) respectivamente.

50
encontramos que este valor corresponde a z = 1,96 lo que permite adoptar la regla de
decisin de la siguiente forma: aceptar la hiptesis si -1.96 z 1.96. De otra manera,
rechazar la hiptesis.
s np

Como z =

npq

(23 0.5) (38)(0.5)


(38)(0.5)(0.5)

= 1.14

se acepta la hiptesis de que la mediana es 66, al nivel 0.05.


b) Para este caso aplicamos el mismo procedimiento que se us en la parte a) slo que
ahora restamos 75 de todas las calificaciones, los resultados se muestran en la misma
tabla # III.1.3 donde, como se puede observar, hay 13 signos + y 27 signos -.
Dado que z =

(13 + 0.5) (40)(0.5)


(40)(0.5)(0.5)

= -2.06, se rechaza la hiptesis de que la mediana

es 75 al nivel 0.05 ya que este valor de z queda fuera del intervalo de aceptacin.

III.2 APLICACIONES DE LA PRUEBA DEL SIGNO PARA MUESTRA DE


PARES COMPARADOS

Se aplica a aquellos casos en donde el investigador requiere probar la


hiptesis que afirma que la distribucin de los valores de X es la misma que la
distribucin de los valores de Y frente a la hiptesis alternativa que sostiene que las
distribuciones tienen diferente localizacin. Algunas de las muy variadas situaciones en
la que se usa este mtodo se muestran seguidamente.

EJEMPLO # III.2.1
Alimentos El Gordito produce compotas en 12 sabores diferentes. Y con el
fin de mejorar las ganancias, su gerente general quiere disminuir costos de produccin
utilizando un tipo de saborizante artificial, el cual ha sido desarrollado por el laboratorio
de qumica de la compaa, siendo ste una sustancia mucho ms econmica que la que
actualmente se utiliza. En este sentido realiz una prueba piloto, para saber cual ser la

51
tendencia en el consumo de este alimento entre los nios menores de 2 aos, una vez
que, en todos sus productos, aplique el nuevo tipo de saborizante. En la tabla # III.2.1 se
muestran los resultados antes y despus de la aplicacin del nuevo saborizante:

Observacin Antes Despus


1

10

11

12

Tabla # III.2.1.Nmero de rechazos ocurridos antes y despus de la aplicacin del nuevo


saborizante en las compotas.

Utilice la prueba del signo de muestra en pares para probar la hiptesis nula
de que el nuevo saborizante no es efectivo en = 0.05 .

SOLUCIN
1. H 0 :

1 = 2

H1:

1 > 2

52
2. Rechace la hiptesis nula si s .05 , donde s es el nmero de signos ms
(diferencias positivas) y .05 es el entero ms pequeo para el cual
n

B ( s ; n, p

s = k

) .

3. Sustituyendo cada par de valores por el signo de su diferencia, se obtiene


Observacin Antes Despus Signo de la
diferencia
1
3
1
+
2

10

11

12

Tabla # III.2.2. Nmero de rechazos ocurridos antes y despus de la aplicacin del


saborizante indicando el signo de su diferencia.
de manera que n = 12 y s = 10.
De la tabla # 1 apndice B de probabilidades binomiales se tiene que
B (12,12,1/2) = 0.0002
12

B (11,12,1/2) = 0.0029

B(s,12,1 / 2) = 0.0031 < 0.05

s =11

12

B (10,12,1/2) = 0.0161

B(s,12,1 / 2) = 0.0192 < 0.05

s =10

53
12

B (9,12,1/2) = 0.0537

B(s,12,1 / 2) = 0.0729 > 0.05


s =9

obtenindose que .05 = 10 para n = 12.


4.

Como s = 10 es igual a .05 = 10, se debe rechazar la hiptesis nula y se

concluye que el nuevo saborizante es efectivo en el aumento de la demanda.

EJEMPLO # III.2.2
La cooperativa TECAS (tcnicos asociados) ha comprado recientemente dos
tornos de control, tipo alfa-numrico, para la fabricacin de un tipo especial de pieza
automotriz utilizada en el ensamblaje de los vehculos Tiuna de versin civil.

Da

10 11 12

Mquina I

47 56 54 49 36 48 51 38 61 49 56 52

Mquina II 71 63 45 64 50 55 42 46 53 57 75 60
Tabla # III.2.3.Nmero de piezas defectuosas producidas por mquina

El torno I es de refabricacin argentina y el II es de fabricacin china. Se tom la


produccin durante 12 das consecutivos de los tornos y en la tabla # III.2.3 se muestra
el nmero de piezas defectuosas producidas por las mquinas, y se supone que estos
tienen la misma produccin diaria. Contraste la hiptesis Ho de que no existe diferencia
entre los tornos I y II, con la hiptesis alternativa de que s hay diferencia al nivel 0.05
de significancia.

SOLUCIN
Primero hallamos los signos de la tabla III.2.3 y los mostramos como sigue
en la tabla # III.2.4

54
Da

Mquina I

47 56 54 49 36 48 51 38 61 49 56 52

Mquina II

71 63 45 64 50 55 42 46 53 57 75 60

Signo de la diferencia

10 11 12

Tabla # III.2.4.Nmero de piezas defectuosas por mquina y signo de la diferencia

1. H 0 :

1 = 2

H1:

1 2

2. Dado que H 1 es la hiptesis de que hay una diferencia entre las mquinas y no la
hiptesis de que la mquina I es mejor que la mquina II, entonces se utiliza un
contraste bilateral. Luego se suman las probabilidades de cualquiera de las colas, hasta
que la suma exceda 0.025 y se rechazar la hiptesis nula si s k .'025 o s k .025 , donde
s es el nmero de signos ms, k .'025 es el entero ms grande para el cual
k.'025

B(s,12,1 / 2) 0.025
s =0

k .025

es

el

entero

ms

pequeo

para

el

cual

12

B(s,12,1 / 2) 0.025

s =k.025

De la tabla observamos que n = 12 y s = 3, con estos datos nos vamos a la


tabla # 1del apndice B y obtenemos
B(12,12,1 / 2) = 0.0002

12

B(s,12,1 / 2) = 0.0002 < 0.025

s =12

B(11,12,1 / 2) = 0.0029

12

B(s,12,1 / 2) = 0.0029 + 0.0002 = .00031 < 0.025

s =11

B(10,12,1 / 2) = 0.0161

12

B(s,12,1 / 2) = 0.0161 + 0.0031 = .00192 < 0.025

s =10

B(9,12,1 / 2) = 0.0537

12

B(s,12,1 / 2) = 0.0537 + 0.0031 = 0.0729 > 0.025


s =9

55
Lo que nos permite obtener k .025 = 10 y por simetra k 0' .025 = 2, que al comparar en el
intervalo de rechazo se encuentra que s = 3 > k 0' .025 = 2 lo que nos permite afirmar que
no es posible rechazar H 0 al nivel 0.05 y se debe concluir que no hay diferencia entre
las mquinas a este nivel.

III.3

APLICACIONES PARA PRUEBA DE RANGOS CON SIGNOS DE

WILCOXON PARA UN EXPERIMENTO DE UNA SOLA MUESTRA

Se puede emplear en lugar de la prueba del signo en el caso de una muestra


como se ve seguidamente.

EJEMPLO # III.3.1
Cooperativa El Resistor se encarga de la fabricacin de resistencias elctricas
para equipos electrnicos en pelculas de carbn con bajo coeficiente trmico. Se toma
una muestra de 15 mediciones en el proceso de fabricacin con el fin de chequear si el
valor medio de la muestra es 98.5 . Las mediciones son las siguientes:
97.5, 95.2, 97.3, 96.0, 96.8, 100.3, 97.4, 95.3, 93.2, 99.1, 96.1, 97.6, 98.2, 98.5, 94.9.
Utilice una prueba de rangos con signos en el nivel de significancia 0.05 para
confirmarlo o rechazarlo.

SOLUCIN
1. H 0 : = 98.5
H 1 : 98.5

2. Rechace la hiptesis nula si T T , donde T debe tomarse de la tabla # 3 del


apndice B en relacin con el valor de n apropiado y el nivel de significancia.
3. Restando 98.5 de cada valor y ordenando las diferencias por rango sin tomar en
cuenta el signo, se obtiene la tabla # III.3.1.

56

Observacin Medicin Diferencia Rango


1

97.5

-1.0

95.2

-3.3

12

97.3

-1.2

96.0

-2.5

10

96.8

-1.7

100.3

1.8

97.4

-1.1

95.3

-3.2

11

93.2

-5.3

14

10

99.1

0.6

11

96.1

-2.4

12

97.6

-0.9

13

98.2

-0.3

14

98.5

0.0

15

94.9

-3.6

13

Tabla III.3.1.Medicin de resistencia

As obtenemos T = 4+12+6+10+7+5+11+14+9+3+1+13=95,
T + = 8+2 = 10 y T = 10. De la tabla # 3 del apndice B se tiene que T .05 = 21 para
n = 14 1.

4. Como T = 10 es menor que T .05 = 21, se debe rechazar la hiptesis nula; el valor
medio de resistencia dado no es 98.5.

En este caso n=14 pues la medicin 98.5 no tiene diferencia percibida y por tanto se elimina.

57
III.4

APLICACIONES PARA LA PRUEBA DE RANGOS CON SIGNOS DE

WILCOXON PARA UN EXPERIMENTO DE PARES COMPARADOS

Se puede emplear esta prueba en lugar de la del signo en pares comparados

EJEMPLO # III.4.1
En el casero el Charco, Municipio Salas, Estado Bolvar, se aplica un plan
piloto de reduccin de peso para personas obesas por medio del programa Barrio
Adentro. Se piensa que este problema es una consecuencia de los hbitos
Observacin

Antes

Despus

147.0

137.9

183.5

176.2

232.1

219.0

161.6

163.8

197.5

193.5

206.3

201.4

177.0

180.6

215.4

203.2

147.7

149.0

10

208.1

195.4

11

166.8

158.5

12

131.9

134.4

13

150.3

149.3

14

197.2

189.1

15

159.8

159.1

16

171.7

173.2

Tabla # III.4.1. Pesos en libras antes y despus de aplicar la dieta a 16 personas.

58
alimenticios de los habitantes del sector, ya que previamente se practic el respectivo
examen tiroideo resultando el estudio negativo para todos los casos de la muestra
tomada. La tabla # III.4.1, que ms adelante se muestra, consigna los pesos en libras
para todos los casos, antes y despus de aplicado el programa, de 16 personas que
siguieron la dieta reductora de peso durante cuatro semanas. En este ensayo se le dio
libertad a los participantes de comer cualquier cosa en el desayuno que fuera rica en
grasa y carbohidratos, pero no ayunar, y el almuerzo y la cena slo lo que indicaba el
programa para cada da en el horario establecido.
Utilice la prueba de rangos con signo para demostrar en el nivel de
significancia 0.05, si la dieta es efectiva para bajar de peso.

SOLUCIN
1. H 0 :

1 = 2

H1:

1 > 2

2. Las diferencias entre las parejas respectiva son 9.1, 7.3, 13.1, -2.2, 4.0, 4.9, -3.6,
12.2,-1.3, 12.7, 8.3, -2.5, 1.0, 8.1, 0.7, -1.5, si se ordenan por rango sus valores
absoluto, se tiene que las diferencias positivas ocupan los rangos 13, 10, 16, 8,9,14, 15,
12, 2, 11 y 1. En la tabla #III.4.2 se muestra la asignacin de rangos.
Por consiguiente,
T + = 13+10+16+8+9+14+15+12+2+11+1 = 111
T = 5 + 7 + 3 + 6 + 4 = 25
T = min(111, 25) = 25

3. De la tabla #3 del apndice B se obtiene T

2 (.05 )

=T

.01

= 36 para n = 16.

4. Como T = 25 < T2 = 36 , se debe rechazar la hiptesis nula; concluimos que la


dieta es, en realidad, efectiva para bajar de peso.

59
Observacin

Antes

Despus

Diferencia

Rango

147.0

137.9

9.1

13

183.5

176.2

7.3

10

232.1

219.0

13.1

16

161.6

163.8

-2.2

197.5

193.5

4.0

206.3

201.4

4.9

177.0

180.6

-3.6

215.4

203.2

12.2

14

147.7

149.0

-1.3

10

208.1

195.4

12.7

15

11

166.8

158.5

8.3

12

12

131.9

134.4

-2.5

13

150.3

149.3

1.0

14

197.2

189.1

8.1

11

15

159.8

159.1

0.7

16

171.7

173.2

-1.5

Tabla # III.4.2. Pesos en libras antes y despus de aplicar la dieta a 16 personas


con los rangos asignados.

EJEMPLO # III.4.2.
Resolveremos el mismo caso tratado en el ejemplo # III.4.1 pero ahora
usando la aproximacin a la distribucin normal por ser n 15.

SOLUCIN.
1. H 0 :

1 = 2

60
H1:

1 > 2

2. Aproximamos con la normal por ser n = 16.


3. Rechace la hiptesis nula si z z .05 = 1.645, donde Z =

T + E (T + )
Var (T + )

T + = 13+10+16+8+9+14+15+12+2+11+1 = 111

Puesto que E(T + ) =

Z=

111 68
347

(16)(17)(33)
(16)(17)
= 374, se obtiene
= 68 y Var.(T + ) =
24
4

= 2.22

3. Ya que z = 2.22 es mayor que z .05 = 1.645, se debe rechazar la hiptesis nula;
concluimos que desde el punto de vista estadstico no hay suficientes elementos de
juicio para aceptar la hiptesis nula. La dieta es, en realidad, efectiva para bajar de peso.

EJEMPLO # III.4.3.
Realice la prueba de hiptesis que afirma que no hay diferencias en las
distribuciones de poblacin de la densidad de la torta de casabe en un experimento de
pares comparados que incluye 6 tortas horneadas al nivel de significancia de 10%; en
cada par se utilizan dos preparados, A y B, uno por cada torta.

SOLUCIN
La tabla # III.4.3 muestra los datos originales y las diferencias en la densidad (en onzas
por pulgada cbica) para los seis pares de tortas.
Como en el caso de otras pruebas no paramtricas, la hiptesis nula por
probar sostiene que las dos distribuciones de frecuencias de poblacin en las densidades
de las tortas son idnticas, mientras que la alternativa, que implica una prueba de dos
colas, afirma que las distribuciones tienen diferente localizacin.

61
Diferencia, Diferencia Rango de la
absoluta
diferencia absoluta
A-B
0.135 0.129
0.006
0.006
3
A

0.102 0.120

-0.018

0.018

0.108 0.112

-0.004

0.004

1.5

0.141 0.152

-0.011

0.011

0.131 0.135

-0.004

0.004

1.5

0.144 0.163

-0.019

0.019

Tabla # III.4.3. Datos pareados y sus diferencias para el ejemplo # III.4.2

De acuerdo con la tabla # 3 del apndice B, el valor crtico de T para una


prueba de dos colas, = 0.10, es T .10 = 2. Por consiguiente, rechazaremos H 0 si T 2.
Puesto que solo hay una diferencia positiva, cuyo rango es 3, T + = 3 y
T = 18, y, por tanto, T = 3. El valor observado de T rebasa su valor crtico; de manera

que no hay suficiente evidencia para concluir que las dos distribuciones de frecuencia
de poblacin en las densidades de las tortas de casabe son diferentes. No podemos
rechazar H 0 para = 0.10.

III.5 APLICACIONES PARA LA PRUEBA U DE MANN- WHITNEY

Es una de las pruebas no paramtricas ms poderosas y constituye la


alternativa ms til ante la prueba paramtrica t cuando el investigador desea evitar las
suposiciones que sta exige o si la medicin en la investigacin es ms vaga que la
escala de intervalo.

EJEMPLO # III.5.1
En la tabla siguiente se muestra las resistencias de cables hechos con dos
aleaciones diferentes, A y B. En esta tabla se tienen dos muestras: 8 cables de la aleacin

62
A y 10 cables de la aleacin B. Se busca decidir si existe o no una diferencia entre las

muestras o, de manera equivalente, si proviene o no de la misma poblacin.

Aleacin B

Alineacin A

18.3 16.4 22.7 17.8 12.6

14.1

20.5

10.7

18.9 25.3 16.1 24.2 15.9

19.6

12.9

15.2

11.8

14.7

Tabla # III.5.1. Resistencia del cable segn su aleacin

SOLUCIN
1.

Combinando los 18 valores muestrales en orden, desde el ms pequeo al ms

grande, se obtiene la primera y tercera columna; si se enumera del 1 al 18, como se


observa en la segunda y cuarta columna, se indicar el rango de cada uno.
Resistencia Rango Resistencia Rango
del cable

del cable

10.7

16.4

10

11.8

17.8

11

12.6

18.3

12

12.9

18.9

13

14.1

19.6

14

14.7

20.5

15

15.2

22.7

16

15.9

24.2

17

16.1

25.3

18

Tabla # III.5.2. Asignacin de rango a las resistencias

63

2.

Para calcular la suma de los rangos de cada muestra, se escribe la tabla

ordenando los rangos por tipo de aleacin.

Aleacin B
Aleacin A
Resistencia del
Resistencia del
cable
Rango cable
Rango
18.3
12 12.6
3
16.4

10

14.1

22.7

16

20.5

15

17.8

11

10.7

18.9

13

15.9

25.3

18

19.6

14

16.1

12.9

24.2

17

15.2

Suma 106 11.8

14.7

6
Suma 65

Tabla # III.5.3. Rangos asociados de la tabla # III.5.2.

3.

La muestra de la aleacin A tiene el menor tamao, siendo n 1 = 8 y n 2 =10. Las

sumas correspondientes de los rangos son R 1 = 106 y R 2 = 65. Entonces,


U = mn(U A , U B ) .

Luego,

U A = R 1 - n 1 (n 1 +1)/2 = 106 -

(8)(9)
= 70 y
2

U B = R2 n 2 (n 2 + 1) 2 = 65 10(11) 2 = 65 55 = 10

Entonces tenemos,
U = mn(70,10) = 10

64
Dado que la hiptesis H 0 que se est probando afirma que no hay diferencia entre las
aleaciones, se requiere de una prueba bilateral. Para el nivel 0.05 de significancia,
n1 = 8 y n 2 = 10 se obtiene de la tabla # 4 del apndice B que U .05 = 17 . Como U = 10

es menor que U .05 =17 se rechaza la hiptesis nula. Se concluye que estadsticamente si
hay diferencia entre las aleaciones al nivel 0.05 de significancia.

EJEMPLO # III.5.2
En la empresa INVEPAL, productora de papel para oficina, se efectu el
siguiente experimento: se agrega una sustancia qumica al tradicional papel tamao
carta, con densidad de 75g/m2, que se usa para fotocopiadoras. Se quiere comparar la
resistencia de los tipos de papel, con y sin el qumico, para ver si sta aumenta y
mejorar as la calidad del mismo. A tal fin se tomaron diez trozos de cada clase de
papel, elegidos aleatoriamente de la produccin, y dieron como resultado las mediciones
de resistencia que se muestran en la tabla # III.4.3. Compruebe la hiptesis que afirma
que no hay diferencia en las distribuciones de las resistencias de las dos clases de papel
frente a la hiptesis alternativa que afirma que el papel tratado con la sustancia qumica
tiende a ser ms resistente en el nivel de significancia de 0.05.

SOLUCIN
Como = 0.05 podemos determinar U 2 consultando la tabla 4 del
apndice B, que corresponde a n1 = n 2 = 10 y 2 = 0.10. De donde se obtiene U 2 = 27.
Por consiguiente, rechazaremos la hiptesis nula si U 27.
Ahora calculamos U A y U B ,
U A = R 1 - n 1 (n 1 +1)/2 = 85.5- 55 = 30.5 y U B = R2 n 2 (n 2 + 1) 2 = 124.5 55 = 69.5,
U = mn(30.5, 69.5) = 30.5

65

Rango

Papel tratado
B(Kgf)
1.49

1.43

12

1.37

7.5

1.35

1.67

20

1.51

17

1.50

16

1.39

1.31

1.17

1.29

3.5

1.48

14

1.52

18

1.42

11

1.37

7.5

1.29

3.5

1.44

13

1.40

10

1.53

19

Papel normal
A(Kgf)
1.21

Rango

R1 = 85.5

15

R2 = 124.5

Tabla # III.5.4. Datos del papel tamao carta con sus rangos y
sus sumas de rango.

Como se observa, U no es menor que U 2 = 27. Por tanto, no podemos rechazar la


hiptesis nula. En el nivel de significancia de = 0.05 no hay suficiente evidencia que
indique que el papel tratado es ms resistente que el papel normal.

EJEMPLO # III.5.3
Un profesor imparte dos clases de gramtica de la lengua espaola: una
diurna con 9 estudiantes y una nocturna con 12 estudiantes. En un examen final,
realizados al mismo tiempo para todos los estudiantes, las clases recibieron las
calificaciones como se muestra. Clase diurna: 73 87 79 75 82 66 95 75 70. Clase
nocturna: 86 81 84 88 90 85 84 92 83 91 53 84.

66
SOLUCIN
1. La tabla III.5.5 muestra el orden de las calificaciones y los rangos. Obsrvese que el
rango para las dos calificaciones de 75 es 0.5(5+6) = 5.5, mientras que el rango para las
tres calificaciones de 84 es 1/3(11+12+13) = 12
2. La suma de rangos es como se muestra:
Clase diurna = 73,
Clase nocturna = 158
R 1 = 73, R 2 = 158, n 1 = 9 y n 2 =12. Por lo tanto
U A = R 1 - n 1 (n 1 +1)/2 = 73 9(10) 2 = 73 45 = 28

3. U = n 1 n 2 /2 =

Por lo tanto Z =

(9)(12)
= 54;
2

U A U

U2 = n 1 n 2 ( n 1 +n 2 +1)/12=

(9)(12)(22)
= 198
12

28 54
= 1.85
14.07

Como se desea contrastar la hiptesis H 1 de que las clases son diferentes, con la
hiptesis H 0 de que no hay diferencia al nivel 0.10, entonces se requiere de un

Calificacin Rango Calificacin Rango Calificacin Rango


53

81

86

15

66

82

87

16

70

83

10

88

17

73

84

12

90

18

75

5.5

84

12

91

19

75

5.5

84

12

92

20

79

85

14

95

21

Tabla III.5.5.Asignaciones de rangos a las calificaciones

contraste bilateral. Refirindose a esto se tiene la regla de decisin:

67
Aceptar H 0 si z 1.645.
Rechazar H 0 si z > 1.645.
Dado que el valor real de z = -1.85 < -1.645, se rechaza H 0 y se concluye que la clase
matutina es diferente a la vespertina al nivel 0.10.

III.6 APLICACIONES DE LA PRUEBA H DE KRUSKAL-WALLIS

Se aplica en todos aquellos casos en donde se requiere saber, teniendo ms


de dos muestras independientes, si stas provienen de poblaciones diferentes. Los
siguientes son ejemplos tpicos de sus aplicaciones.

EJEMPLO # III.6.1
Las siguientes cifras son las calificaciones del examen final obtenidas por
muestras de tres grupos de estudiantes a quienes se les ense el idioma ingls a travs
de tres mtodos distintos (instruccin en el aula y laboratorio de idiomas, solo
instruccin en el aula y estudio autodidacta en el laboratorio de idiomas):

Primer mtodo

94 88 91 74 87 97

Segundo mtodo 85 82 79 84 61 72 80
Tercer mtodo

89 67 72 76 69

Tabla # III.6.1.Calificaciones de examen final obtenida por tres grupos


de estudiantes con tres mtodos distintos.

Utilice la prueba H en el nivel de significancia 0.05 para probar la hiptesis


nula de que los tres mtodos son igualmente efectivos.

68
SOLUCIN
1. H 0 : 1 = 2 = 3
H1:

1 , 2 y 3 no son iguales

2. Rechace la hiptesis nula si H 5.991 , donde 5.991 es el valor de .205, 2


3. Ordenando

las

calificaciones

por

rango

de

18,

se

tiene

que

R 1 = 6 + 13 + 14 + 16 + 17 + 18 = 84, R 2 = 1 + 4.5 + 8 + 9 +10 + 11 + 12 = 55.5 y


R 3 = 2 + 3 + 4.5 + 7 +15 = 31.5, donde hay una coincidencia y a las calificaciones se

les asigna a cada una el rango 4.5. Mediante la sustitucin de los valores de R 1 , R 2 y R 3
junto con n 1 = 6, n 2 = 7, n 3 = 5 y n = 18 en la frmula de H, se obtiene
H=

12 84 2 55.5 2 31.5 2

+
+
(18)(19) 6
7
5

3.19 = 6.67

4. Como H = 6.67 es mayor que .205, 2 = 5.991, se debe rechazar la


hiptesis nula; se concluye que los tres mtodos no son igualmente efectivo.

EJEMPLO # III.6.2
La cooperativa KyM, productora de tornillos auto-roscante cabeza pan,
desea comprar una de 5 mquinas: A, B, C, D o E. En un experimento, diseado para
determinar si existe una diferencia en el desempeo de las mquinas por tiempos

68 72 77 42 53

72 53 63 53 48

60 82 64 75 72

48 61 57 64 50

64 65 70 68 53

Tabla # III.6.2. Nmero de unidades producidas por las


mquinas A, B, C, D, E

69
iguales, se tomaron un conjunto de cinco mediciones por mquina, y en la tabla
siguiente se muestra el nmero de unidades producidas por cada mquina. Pruebe la
hiptesis de que no hay diferencia entre las mquinas a los niveles a) 0.05 y b) 0.01 de
significancia.

SOLUCIN
Como hay cinco muestras (A, B, C, D, E), k = 5, cada muestra consiste de
cinco valores, se tiene n 1 = n 2 = n 3 = n 4 = n 5 = 5 y n = n 1 + n 2 + n 3 + n 4 + n 5 = 25. Al
arreglar todos los valores en orden creciente de magnitud y al asignar rangos apropiados
a los empates, se escribe la tabla en la siguiente forma:

R
A

17.5

21

24

6.5

70

21

6.5 12

6.5

2.5 48.5

10

25

14

23

21

93

2.5

11

14

40.5

14

16

19 17.5 6.5

73

Tabla # III.6.3. Asignacin de rango a los valores y su sumatoria

Donde en la columna de la derecha se muestra la suma de los rangos: R 1 = 70,


R 2 = 48.5, R 3 = 93, R 4 = 40.5, R 5 = 73. Por lo tanto
2
12
k Rj
H=
3(n + 1) =

n(n + 1) j =1 n j

12 70 2 48.5 2 93 2 40 2 73 2
+
+
+
+

3.26 = 6.44
25(26) 5
5
5
5
5

Para k-1 grados de libertad,

70
a) al nivel 0.05 de significancia, y de la tabla # 5 del apndice B se obtiene el valor

.205, 4 = 9.49. Dado que 6.44 < 9.49, no se puede rechazar la hiptesis de que no
hay diferencia entre las mquinas al nivel 0.05.
b) al nivel 0.01 de significancia .201, 4 = 13.28 y dado que 6.44 < 13.28 no se puede
rechazar H 0 al nivel 0.01.

EJEMPLO # III.6.3
En una gran planta de artculos electrnicos, se seleccionan muestras
independientes de tres lneas de ensamblaje. Se analiza en cada lnea la cantidad de

Lnea 1
Artculos
defectuosos
6

Lnea 2
Artculos
defectuosos
34

25

Lnea 3
Artculos
defectuosos
13

36

27

28

19

35

26

42

30

19

15

17

13

13

9.5

11

40

29

29

20

30

21

31

22

15

11

16

12

32

23

33

24

25

17

39

28

18

14

27

18

24

16

Rango

R 1 = 120

Rango

R 2 = 210.5

Rango
9.5

R 3 = 134.5

Tabla # III.6.4. Datos del ejemplo # III.6.3

artculos defectuosos

producidos en 10 horas de trabajo seleccionadas al azar.

Proporcionan los datos de la tabla # 6.3 suficiente evidencia para concluir que las

71
distribuciones de probabilidad del nmero de artculos defectuosos producidos por hora
difieren en cuanto a localizacin en dos de las lneas por lo menos? Utilice un nivel de
significancia 0.05.

SOLUCIN
En este caso n 1 = 10 = n 2 = n 3 y n = 30. Por tanto,
H=

12 (120) 2 (210.5) 2 (134.5) 2


+
+

3(31) = 6.097.
30(31) 10
10
10

Como los valores de las n i son mayores o iguales a 5, podemos utilizar la aproximacin
para la distribucin nula de H y rechazar la hiptesis nula de que las posiciones son
iguales si H > 2 tiene k - 1 = 2 grados de libertad. Para determinar que .205, 2 = 5.991
consultamos la tabla # 5 del apndice B. Por consiguiente, rechazamos la hiptesis nula
en el nivel de significancia de = 0.05 y concluimos que, por lo menos, una de las tres
lneas tiende a producir una mayor cantidad de artculos defectuosos que las dems.
De acuerdo con la tabla # 5 del apndice B, el valor calculado de H = 6.097
nos lleva a rechazar la hiptesis nula si = 0.05 .

III.7

APLICACIONES DE LA PRUEBA DE CORRIDAS DE UNA SOLA

MUESTRA

Las prueba de corridas, como ya se dijo, es una prueba no paramtrica y es


capaz de manejar variables cuantitativas y cualitativas de tipo dicotmico. La utilidad
de esta prueba, abarca diferentes campos de la actividad humana y puede servir desde
para probar la aleatoriedad: de las encuestas aplicadas por los entrevistadores, de las
fallas de la maquinaria en la produccin, de las cantidades compradas o vendidas, de las
faltas de los empleados, hasta para controlar la calidad de la produccin. Veamos
algunos ejemplos:

72
EJEMPLO # III.7.
El gobierno bolivariano puso en circulacin una nueva moneda nacional
denominada Bolvar Fuerte. El profesor Miguel LeClanch del departamento de
matemticas UNA hizo, en la clase de probabilidad, 30 lanzamientos de una de las
monedas obteniendo la siguiente secuencia de caras (C) y de cruces (X):
C X X C X C C C X C C X X C X C X C C X C X X C XC C X C X

Pruebe si la secuencia obtenida por el profesor es aleatoria al nivel 0.05 de significancia.

SOLUCIN
1. H 0 : La disposicin es aleatoria
H 1 : La disposicin no es aleatoria.

2. Como n1 > 10 y n 2 > 10 se puede usar la aproximacin normal. Rechace la hiptesis


nula si z 2.575 o z 2.575, donde z =

R 1 2 R

3. Existen n 1 = 16 caras y n 2 = 14 cruces en la muestra de lanzamiento y como el


nmero de corridas es 22, entonces se tiene que

R =

2n1 n 2
2(16)(14)
+1 =
+ 1 = 15.93
n1 + n 2
16 + 14

R2 =

2n1 n2 (2n1 n 2 n1 n2 )
(n1 + n 2 ) 2 (n1 + n2 1)

2(16)(14)[2(16)(14) 16 14]
(16 + 14) 2 (16 + 14 1)

7.175,

R = 2.679.
La medicin z correspondiente a R = 22 corridas es, por lo tanto,
z=

(22 0.5) 15.93


= 2.08
2.679

Ahora para una prueba bilateral al nivel 0.05 de significancia, se aceptara la hiptesis
H 0 de aleatoriedad si -1.96 z 1.96 ; de otra manera, se rechazara. Como el valor

calculado de z es 2 > 1.96, se concluye que los lanzamientos no son aleatorios al nivel

73
0.05. La prueba indica que hay demasiadas corridas, lo que demuestra un patrn cclico
en los lanzamientos.

EJEMPLO # III.7.2
a) Forme todas las secuencias posibles consistentes de tres a y dos b y d el nmero de
corridas, R, correspondiente a cada secuencia.
b) Obtenga la distribucin muestral de R y su grfica.
c) Determine la distribucin de probabilidad de R y su grfica.

SOLUCIN
a) El nmero de secuencias posibles consistentes de tres a y dos b es
n1 + n 2 5
5!

= =
= 10
n1 2 2! 3!

Estas secuencias se muestran en la tabla siguiente junto con el nmero de corridas


correspondientes a cada secuencia.
b)La distribucin muestral de R est dada en la tabla (R,f) mostrada obtenida a partir de
la tabla de secuencia-corridas

Secuencia Corridas (R) Secuencia Corridas (R)


aaabb

abaab

aabab

bbaaa

aabba

babaa

ababa

baaab

abbaa

baaba

Tabla # III.7.1 Secuencia-corridas

74

Tabla # III.7.2. Tabla (R,f) consecuencia de la tabla # III.7.1

Grfica # III.7.1. Distribucin muestral de R

Grfica # III.7.2. Distribucin de probabilidad de R

75
a)La distribucin de probabilidad de R graficada, se obtiene a partir de la tabla (R,f)
al dividir cada frecuencia entre la frecuencia total 2+3+4+1=10. Por ejemplo,
P r {R = 5} =

1
= 0.1
10

EJEMPLO # III.7.3
Calcule a) la media y b) la varianza del nmero de corridas en el ejemplo
anterior directamente de los resultados.

SOLUCIN
a) De la tabla secuencia-corridas se tiene

R =

2 + 4 + 3 + 5 + 3 + 4 + 2 + 4 + 3 + 4 17
=
10
5

b) Usando el mtodo de datos agrupados para calcular la varianza, de la tabla (R,f):

R2 =

f (R
f

)2

17 2 21
17 2
17 2
17 2
1
.
) =

)
(
5
)
4
(
4
)
3
(
3
2
(
2
5 25
5
5
5
10

EJEMPLO # III.7.4
Una comisin formada por tcnicos de la misin rbol, est revisando los
araguaneyes que se plantaron hace muchos aos a lo largo de la carretera nacional
Caracas-Guarenas, dicha comisin obtuvo la siguiente disposicin de rboles sanos (S)
y enfermos (E) despus de una inspeccin:
SSSSEEESSSSSSSEESSEEEE

Pruebe en el nivel de significancia 0.05 si esta disposicin puede considerarse aleatoria

SOLUCIN
1. H 0 : La disposicin es aleatoria
H 1 : La disposicin no es aleatoria.

76
2. Como n 1 = 13 y n 2 = 9, rechace la hiptesis nula si R 6 o R 17 , donde 6 y 17 son
los valores correspondientes de r .025 y r .025 tomados de la tabla.
3. R = 6 por inspeccin de los datos.
4. Ya que R = 6 es menor que o igual a 6, se debe rechazar la hiptesis nula; la
disposicin de araguaneyes sanos y enfermos no es aleatoria. Parece que los rboles
enfermos estn agrupados en conjuntos.
Una segunda aplicacin de la prueba de corridas consiste en detectar la no
aleatoriedad de una sucesin de medidas cuantitativas a travs del tiempo. Estas
sucesiones, conocidas como series temporales, se presentan en muchos campos. Por
ejemplo, la medida de una caracterstica de calidad de un producto industrial, de la
presin sangunea de un ser humano y del precio de una accin en el mercado de valores
varan con el tiempo. El alejamiento de la aleatoriedad en una serie, causada por las
tendencias o periodicidades, se puede detectar analizando las desviaciones de las
mediciones de la serie temporal de sus promedios. Las desviaciones negativas y
positivas se pueden representar con S y F, respectivamente, y entonces se puede probar
la no aleatoriedad de esta sucesin temporal de desviaciones. Ilustramos este hecho con
un ejemplo.

EJEMPLO # III.7.5.
En una gran planta productora de papel se tienen procesos de produccin
continua para la elaboracin de ste producto. El personal de control de calidad toma
una vez cada hora la medida de la brillantez Y del papel, y los resultados, una vez
graficados, se distribuyen como se indica en la figura # III.7.2.

77

Figura # III.7.3. Muestra la brillantez en funcin del tiempo.

El promedio y de las 16 mediciones muestrales aparecen en la figura.


Obsrvese las desviaciones respecto a y . Indican estos datos una falta de aleatoriedad
y, por consiguiente, sugieren que hay periodicidad y por tanto falta de control en el
proceso?

SOLUCIN
La sucesin de desviaciones negativas (S) y positivas (F), es como se indica
a continuacin
S S S S FF F S F F S F S S S S

1. H 0 : La disposicin es aleatoria
H 1 : La disposicin no es aleatoria

2. Como n 1 = 10 y n 2 = 6, rechace la hiptesis nula si R 4 o R 13


3. R = 7 por inspeccin de los datos.
4. Ya que R = 7 es mayor que 4 y menor que 13 se debe aceptar la hiptesis de
aleatoriedad. En consecuencia, no existe suficiente evidencia que indique que no hay
aleatoriedad en la sucesin de medidas de brillantez.

78
III.8

APLICACIONES DEL COEFICIENTE DE CORRELACIN

DE

RANGOS DE SPEARMAN.

Su aplicacin abarca todas aquellas reas del conocimiento en donde se


requiere conocer el grado de relacin o asociacin lineal entre dos variables y requiere
que ambas variables sean medidas por lo menos en una escala ordinal, de manera que
los objetos o individuos en estudio puedan colocarse en dos series ordenadas. Veamos
algunos ejemplos.

EJEMPLO # III.8.1
La misin Barrio Adentro hace visitas mdicas, casa por casa, para la
deteccin temprana de los problemas de salubridad que presenta la colectividad. Y en
este sentido, se aplic un plan piloto en el barrio La Comunidad de Guarenas, el cual
comenz con la toma de una muestra de 12 padres y sus hijos mayores, tal como se
indica en la tabla # III.8.1. Existe relacin en la estatura de los padres y los hijos?

Estatura del padre (pulg.) 65 63 67 64 68 62 70 66 68 67 69 71


Estatura del hijo (pulg.)

68 66 68 65 69 66 68 65 71 67 68 70

Tabla III.8.1. Estatura de 12 padres y sus hijos mayores

SOLUCIN
Arregladas en orden creciente de magnitud, las estaturas de los padres son
62 63 64 65 66

67

67

68 68

69

70 71

Como el sexto y sptimo lugares en este ordenamiento representa la misma estatura (67
pulg.), se asigna un rango medio

1
(6 + 7) = 6.5 para estos lugares. De manera similar,
2

al octavo y noveno lugares se le coloca el rango


estaturas de los padres se asignan a los rangos

1
(8 + 9) = 8.5 . Por lo tanto, las
2

79
1 2 3 4 5 6.5 6.5 8.5 8.5 10 11 12
De manera similar, ordenadas en orden creciente de magnitud, las estaturas de los hijos
son
65 65 66 66 67 68 68 68 68 69 70 71
Y como el sexto, sptimo, octavo y noveno lugares representan la misma estatura (68
pulg.), se les asigna el rango medio

1
(6 + 7 + 8 + 9) =7.5 a estos lugares. Por lo tanto,
4

las estaturas de los hijos corresponden a los rangos


1.5 1.5 3.5 3.5 5 7.5 7.5 7.5 7.5 10 11 12
Usando las correspondencias se puede sustituir la tabla III.8.1 con la tabla III.8.2

Rango del padre 4


Rango del hijo

6.5 3

8.5 1

7.5 3.5 7.5 1.5 10

11

8.5 6.5 10

3.5 7.5 1.5 12

12

7.5 11

Tabla III.8.2. Los valores de la tabla III.8.1 sustituidos por sus rangos

La tabla II.8.3 muestra la diferencia en rangos, D, y los clculos de D 2 y

, de

donde
r s = 1-

-1.5

6 D 2
n(n 1)
2

-1.0

= 1-

1.5

6(72.50)
= 0.7465
12(12 2 1)

-3.5

-1.5

-2.5

3.5

3.5

-3.5

1.5

2.5

1.0

D2

12.25 2.25 1.00 2.25 2.25 6.25 12.25 12.25 12.25 2.25 6.25 1.00
Tabla III.8.3. Diferencia en rangos y su cuadrado.

Se concluye que existe una relacin entre la estatura de los padres y la de los hijos en la
poblacin.
Ahora haremos el clculo tomando en cuenta las repeticiones.

=72.5

80
S xx =

23 2 23 2
n3 n
12 3 12
Tx =
(
+
) = 143 0.5 0.5 = 142
12
12
12
12

S yy =

23 2 23 2 43 4
n3 n
12 3 12
Ty =
(
+
)
+
12
12
12
12
12

S yy =143 0.5 - 0.5 - 5.0 = 137


n

S xx + S yy d i2
rs=

i =1

2 S xx S yy

142 + 137 72.5


2 (142)(137)

206.5
= 0.7403
278.9552

Obsrvese que la diferencia de los dos valores de r s es muy pequea y esto es debido a
que los empates, por ser muy pocos, casi no influyen.

EJEMPLO # III.8.2
En

la tabla siguiente se enumera cinco personas y compara el rango

acadmico que obtuvieron en la universidad con el nivel que han obtenido en cierta
compaa 10 aos despus de su graduacin. El valor de 5 representa el rango ms alto
del grupo; el 1 es el ms bajo.

Estudiante Rango
Rango en la compaa Diferencia
universitario 10 aos despus
rangos d
Juan
4
4
0

d2

Margarita

Odiln

Esteban

Luisa

Tabla III.8.4. Compara nivel acadmico con el nivel profesional 10 aos


despus de graduados y la diferencia de rangos

81
Usando la informacin de la tabla # III.8.4, podemos calcular un coeficiente
de correlacin de rango entre xito de la universidad y nivel en la compaa logrado 10
n

6 d i
aos despus. Sustituyendo, se tiene r s = 1-

i =1
2

n( n 1

0
6(0)
= 1
=1
120
5(25 1)

Este coeficiente de correlacin de rango 1 muestra una tendencia perfecta entre las dos
variables. Esto verifica el hecho de que los rangos universitarios y de la compaa para
cada persona fueran idnticos.

EJEMPLO # III.8.3
La tabla muestra una relacin similar a la anterior, se enumera cinco
personas y se compara el rango acadmico, calcule el coeficiente de correlacin
Estudiante Rango
Rango en la Diferencia entre Diferencia
universitario compaa
los dos rangos cuadrada
Mara
5
1
4
16
David

-4

16

Jos

Carlota

-2

Ana

Tabla # III.8.5. Compara nivel acadmico con el nivel profesional 10 aos despus de
graduados y la diferencia de rangos

Sustituyendo en la ecuacin
r s = 1-

6 d 2
n(n 1)
2

= 1

240
6(40)
= 1
= 1 2 = 1 ,
120
5(25 1)

Este valor (-1) representa una correlacin inversa perfecta, indicando que la gente que
ms destac en la universidad termin en los menores rangos de una organizacin.

82
EJEMPLO # III.8.4
Las siguientes cifras mostradas en la tabla II.8.5 son las horas de estudio de
10 alumnos para presentar un examen final de matemticas y las calificaciones que
obtuvieron:
Calificaciones
Nmero de
horas de estudio
y
x
8
56
5

44

11

79

13

72

10

70

54

18

94

15

85

33

65

Tabla III.8.6. Horas de estudios por estudiante y las calificaciones que


obtuvieron en el examen final de matemticas.

Calcule el valor de r s y pruebe en el nivel de significancia 0.01 si el valor obtenido del


coeficiente de correlacin de rango es significativo. Resuelva tambin utilizando la
aproximacin normal.

SOLUCIN
Ordenando por rango las x y las y, se obtiene la siguiente tabla

83
Rango Rango d
d2
de x
de y
6.5
7
-0.5 0.25
8.5

-0.5 0.25

1.0

1.00

1.0

1.00

0.0

0.00

8.5

0.5

0.25

0.0

0.00

0.0

0.00

10

10

0.0

0.00

6.5

0.5

0.25

= 3.00

Tabla III.8.7. Indicacin de rangos por variables y sus diferencias

y la sustitucin en la frmula de r s produce el resultado


r s = 1-

6(3)
= 0.98
10(10 2 1)

Para valores de n pequeos (n 10 ), la prueba de la hiptesis nula de no correlacin, en


realidad la prueba de la hiptesis nula de que las x y las y se ajustan al azar, se pueden
basar en tabla # 7 del apndice B. No obstante la mayora de las veces nos valemos de
que la distribucin de r s puede obtenerse en forma muy aproximada con una
distribucin normal, teniendo en cuenta que con la hiptesis nula de no correlacin, la
media es
E(r s ) = 0 y la varianza Var(r s ) =

1
.
n 1

Para la segunda parte tomando en cuenta que r s = 0.98, hacemos el anlisis de la


siguiente manera

84
1. H 0 :

no hay correlacin

H1:

s hay correlacin.

2. Rechace la hiptesis nula si z 2.575 o z 2.575 , donde z = r s

n 1

3. Al sustituir n = 10 y r s = 0.98, se obtiene z = 0.98 10 1 = 2.94


4. Como z = 2.94 es mayor que 2.575, debe rechazarse la hiptesis nula; se concluye
que existe una relacin real (positiva) entre el tiempo de estudio y las calificaciones.

III.9 APLICACIONES DE LA PRUEBA DE KOLMOGOROV-SMIRNOV

Se aplica en todas aquellas reas del conocimiento en donde se requiera


saber, como ya se dijo, si existe una diferencia significativa entre una distribucin de
frecuencia observada y otra de frecuencia terica. Vase el siguiente ejemplo.

EJEMPLO # III.9.1
Una central telefnica de la empresa nacional CANTV ubicada en la ciudad
de Caracas, ha estado llevando un registro automtico del nmero de transmisores (un
tipo de equipo automtico que se utiliza en las centrales telefnicas) usados en un
instante dado. Las observaciones se hicieron en 3 754 ocasiones distintas. Para
propsitos de planeacin de inversin de capital, el funcionario de presupuesto de esta
compaa piensa que el patrn de uso sigue una distribucin de Poisson con una media
de 8.5. Se desea probar esta hiptesis al nivel de significancia de 0.01.
La tabla # III.9.1 enumera las frecuencias observadas y las transforma en
frecuencias acumulativas observadas relativas.
Formulamos nuestra hiptesis de la siguiente manera:
Hiptesis nula.
H 0 : Una distribucin de Poisson con = 8.5 es una buena descripcin

del patrn de uso.

85
Hiptesis alternativa.
H 1 : Una distribucin de Poisson con = 8.5 no es una buena

descripcin del patrn de uso.

= 0.01 nivel de significancia para probar esta hiptesis


Ahora podemos utilizar la frmula de Poisson, P(x) =

x .e
x!

, para calcular

las frecuencias esperadas (F e ). Al comparar estas frecuencias esperadas con nuestras


frecuencias observadas (F o ), podemos examinar el alcance de la diferencia entre ellas:
la desviacin absoluta, Fe F0 . En la tabla III.9.2 enumeramos las frecuencias
acumulativas observadas para x = 0 a 22.
Para calcular el estadstico K-S para este problema, simplemente se elije D n , la
desviacin absoluta mxima de F e , desde F 0 .
D n = sup Fe F0

En este problema, D n = 0.2582 en x = 9.


Una prueba K-S siempre debe ser una prueba de un extremo. Los valores
crticos para D n se han tabulado y pueden encontrase en la tabla 8 apndice B del
apndice. Si buscamos en la fila de n = 3 754 (el tamao de la muestra) y la columna
para un nivel de significancia de 0.01, encontramos que el valor crtico de D n debe
calcularse usando la frmula: 1.63

n = 1.63

3754 = 0.0266

86
Nmero Frecuencia Frecuencia Frecuencia
ocupado observada acumulativa acumulativa
observada
observada
relativa
0
0
0
0.0000
1

0.0013

14

19

0.0051

24

43

0.0115

57

100

0.0266

111

211

0.0562

197

408

0.1087

278

686

0.1827

378

1064

0.2834

418

1482

0.3948

10

461

1943

0.5176

11

433

2376

0.6329

12

413

2789

0.7429

13

358

3147

0.8383

14

219

3366

0.8966

15

145

3511

0.9353

16

109

3620

0.9643

17

57

3677

0.9795

18

43

3720

0.9909

19

16

3736

0.9952

20

3743

0.9971

21

3751

0.9992

22

3754

1,0000

Tabla III.9.1. Frecuencias acumulativas observadas y relativas

87
Nmero
ocupado

Frecuencia Frecuencia Frecuencia Frecuencia


Fe F0
observada acumulativa acumulativa acumulativa
Desviacin
esperada
observada
observada
absoluta
relativa
0
0
0.0000
0.0002
0.0002

0.0013

0.0019

0.0006

14

19

0.0051

0.0093

0.0042

24

43

0.0115

0.0301

0.0186

57

100

0.0266

0.0744

0.0478

111

211

0.0562

0.1496

0.0934

197

408

0.1087

0.2562

0.1475

278

686

0.1827

0.3856

0.2029

378

1064

0.2834

0.5231

0.2397

418

1482

0.3948

0.6530

0.2582

10

461

1943

0.5176

0.7634

0.2458

11

433

2376

0.6329

0.8487

0.2158

12

413

2789

0.7429

0.9091

0.1662

13

358

3147

0.8383

0.9486

0.1103

14

219

3366

0.8966

0.9726

0.0760

15

145

3511

0.9353

0.9862

0.0509

16

109

3620

0.9643

0.9934

0.0291

17

57

3677

0.9795

0.9970

0.0175

18

43

3720

0.9909

0.9987

0.0078

19

16

3736

0.9952

0.9995

0.0043

20

3743

0.9971

0.9998

0.0027

21

3751

0.9992

0.9999

0.0007

22

3754

1.0000

1.0000

0.0000

Tabla III.9.2 Frecuencias acumulativas observadas relativas, frecuencias acumulativas


relativas esperadas y desviaciones absolutas.

88
El siguiente paso es comparar el valor calculado de D n con el valor crtico
de D n que se encuentra en la tabla. Si el valor de la tabla para el nivel de significancia
elegido es mayor que el valor calculado de

D n , entonces aceptaremos la hiptesis

nula. Obviamente, 0.0266 < 0.2582, as que rechazamos H 0 y llegamos a la conclusin


de que una distribucin de Poisson con una media de 8.5 no es una buena descripcin
del patrn de uso del transmisor en la central telefnica de la ciudad.

89

CAPTULO IV
ANLISIS, CONCLUSIONES Y RECOMENDACIONES
IV.1 PRUEBAS ESTADSTICAS PARAMTRICAS Y NO PARAMTRICAS

Una prueba estadstica paramtrica es aquella cuyo modelo especfica


ciertas condiciones acerca de los parmetros de la poblacin de la que se obtuvo la
muestra investigada, que no se prueban ordinariamente, sino que se supone que se
mantienen. La significacin de los resultados de una prueba paramtrica depende de la
validez de estas suposiciones. Las pruebas paramtricas tambin requieren que los datos
analizados sean producto de una medicin que por lo menos tenga la fuerza de una
escala de intervalo.
Una prueba estadstica no paramtrica es aquella cuyo modelo no especifica
las condiciones de los parmetros de la poblacin de la que se sac la muestra. Hay
algunas suposiciones que se asocian con la mayora de las pruebas estadsticas no
paramtricas: observaciones independiente y variable continua; pero estas suposiciones
son pocas comparadas con las asociadas con las pruebas paramtricas. Adems, las no
paramtricas no requieren mediciones tan fuertes; la mayora de las pruebas no
paramtricas se aplican a datos de una escala ordinal, y algunas a los de una escala
nominal.
Las pruebas estadsticas no paramtricas expuestas en captulos anteriores
representan slo un nmero reducido de los muchos mtodos estadsticos no
paramtricos de inferencia disponibles. Los libros de texto de la bibliografa contienen
un conjunto de procedimientos no paramtricos ms amplio, as como una mayor
variedad de ejemplos resueltos. Existen procedimientos de estimacin no paramtricos,
entre otras cosas, para estimar parmetros de localizacin y resolver problemas de
inferencia relacionados con el modelo lineal.
Sealamos que los procedimientos estadsticos no paramtricos son
especialmente tiles en particular cuando las observaciones experimentales se pueden

90
ordenar, pero no se pueden medir en una escala numrica, as es el caso de la escala
nominal o clasificatoria. Los procedimientos estadsticos paramtricos difcilmente se
pueden aplicar a este tipo de datos. Por consiguiente, cualquier procedimiento de
inferencia que desee usarse en este respecto debe basarse en mtodos no paramtricos.
Otra aplicacin de los mtodos estadsticos no paramtricos tiene que ver
con la prueba de hiptesis relacionada con poblaciones de datos cuantitativos cuando
existe la incertidumbre en lo que se refiere al cumplimiento de ciertos supuestos
respecto a la forma de las distribuciones de poblacin. Cun tiles son los mtodos no
paramtricos en estos casos? Los mtodos estadsticos no paramtricos permiten llevar a
cabo el trabajo con rapidez y a menudo facilitan la toma inmediata de una decisin en el
momento de probar hiptesis. Cuando las condiciones experimentales se alejan en
forma sustancial de los supuestos fundamentales que sustentan las pruebas paramtricas,
las medidas de respuesta a menudo se pueden transformar para rectificar algunas
condiciones, pero con frecuencia esto da como resultado que la respuesta transformada
ya no sea til, desde el punto de vista prctico, y que el anlisis de los datos
transformados ya no responda a los objetivos del experimentador. La aplicacin de
mtodos no paramtricos con frecuencia evita esta dificultad. Muchos mtodos no
paramtricos son casi tan eficaces como sus equivalentes paramtricos cuando los
supuestos detrs de los procedimientos paramtricos son verdaderos; adems, como se
seal, los mtodos no paramtricos podran ser ms eficaces cuando los supuestos no
se satisfacen. Estos argumentos sugieren que las tcnicas no paramtricas desempean
un papel muy til en la metodologa estadstica.
En el caso de dos muestras comparadas, por ejemplo, la tcnica paramtrica
usual para analizar datos provenientes de dos muestras de este tipo es aplicar una prueba
t a la diferencia de las observaciones. Esta diferencia puede obtenerse de los dos valores

de los miembros de cada pareja igualada o de los dos valores de cada sujeto bajo las dos
condiciones. La prueba t supone que estas diferencias de las observaciones estn

91
distribuidos normal e independientemente en la poblacin de la cual se tom la muestra,
y requiere que sea medido en una escala de intervalo.
En numerosos casos, la prueba t es inaplicable. El investigador puede
encontrar que a) los supuestos y requerimientos de la prueba t son poco realistas para
sus datos; b) prefiere evitar hacer los supuestos o probar los requerimientos para dar
mayor generalidad a sus conclusiones; c) las diferencias entre las parejas igualadas estn
representadas de tal forma que se puede decir qu miembro de cualquier pareja es
mayor que el otro, pero no se puede decir en cunto), o d) sus valores son simplemente
clasificatorios: los miembros de cada pareja igualada pueden responder del mismo
modo o de maneras enteramente diferentes que no tienen orden ni relacin cuantitativa.
En estos casos, el investigador pude escoger una prueba estadstica no paramtrica para
dos muestras comparadas. Adems de que son adecuadas para los casos mencionados
antes, estas pruebas tienen la ventaja adicional que no requieren una misma poblacin
de la que provengan todas las parejas.
En el caso de la prueba H de Kruskal-Wallis esta es una versin no
paramtrica de ANOVA (anlisis de varianza), esta ltima, parte de la suposicin de
que cada una de las muestras es tomada de una poblacin normal y cada una de tales
poblaciones tiene la misma varianza, 2 . Sin embargo, si los tamaos de muestras son
lo suficientemente grande, lo cual podra ser costoso, no necesitamos la suposicin de
normalidad. Esta prueba H requiere por lo menos una medicin ordinal de la variable.
La prueba de una muestra de Kolmogorov-Smirnov trata las observaciones
individuales separadamente y, as, a diferencia de la prueba 2 para una muestra, no
pierde necesariamente informacin al combinar categoras. Cuando las muestras son
pequeas las categoras adyacentes deben combinarse antes de que 2 pueda calcularse
apropiadamente. La prueba 2 es definitivamente menos poderosa que la prueba de
Kolmogorov-Smirnov. Adems, para muestras muy pequeas, la prueba 2 no es
aplicable en modo alguno; sin embargo, la de Kolmogorov-Smirnov s lo es. Estos

92
hechos sugieren que la prueba de Kolmogorov-Smirnov puede en todos los casos ser
ms poderosa que su alternativa, la prueba 2 .
La prueba de rachas de una muestra se refiere a la aleatoriedad de la
ocurrencia temporal o sucesin de las medidas en una muestra. Ningn principio
general acerca de la eficiencia general de las pruebas de aleatoriedad basado en las
rachas es significativo; en este caso la cuestin de eficiencia tiene significado solamente
en el contexto de un problema especfico.
La correlacin de rangos es til, entre otros casos, cuando los datos estn
distribuidos anormalmente y tienen la ventaja de poderse aplicar en los que la
informacin no est disponible en forma de valores numricos. Tambin cuando hay en
esta informacin una o varias observaciones extremas en los datos originales, el
coeficiente de correlacin puede que no sea una buena descripcin de la asociacin que
existe entre dos variables. Sin embargo, las observaciones extremas en una prueba de
correlacin de rango nunca producirn una gran diferencia de rango.
En conclusin podemos sealar las siguientes ventajas y desventajas de los
mtodos no paramtricos.

IV.2 VENTAJAS DE LOS MTODOS NO PARAMTRICOS

Los mtodos no paramtricos tienen un nmero de ventajas claras sobre los


mtodos paramtricos:
1. A menudo se les llama de distribucin libre pues uno de sus principales mritos es
que no suponen que los datos que se estn analizando se hayan sacado de una poblacin
distribuida de una forma especfica, por ejemplo, de una poblacin distribuida
normalmente.
2. Generalmente, son ms fciles de efectuar y comprender. La mayora de las pruebas
no paramtricas no demandan el tipo de laboriosos clculos a menudo requeridos, por
ejemplo para calcular una desviacin estndar. Una prueba no paramtrica nos puede

93
pedir reemplazar valores numricos con el orden en el que esos valores aparecen en una
lista, como se ha hecho en la tabla IV.1.
Obviamente, tratar computacionalmente con 1, 2, 3, 4 y 5 cuesta menos
esfuerzo que trabajar con 13.33, 76.50, 101.79, 113.45 y 189.42. Muchos creen que la
sencillez de clculo permite a los investigadores en general dedicar ms tiempo a la
reflexin y formulacin cuidadosa de sus problemas de investigacin y a la recoleccin
de datos precisos y pertinentes.
3. Algunas veces ni siquiera se requiere del ordenamiento o clasificacin formal. A
menudo, lo nico que podemos hacer es describir un resultado como mejor que otro.
Cuando ste es el caso, o cuando nuestras mediciones no son tan exactas como es
necesario para las pruebas paramtricas, podemos usar mtodos no paramtricos.

Valor paramtrico

113.45 189.42 76.5 13.33 101.79

Valor no paramtrico 4

Tabla IV.1.Conversin de valores paramtricos a rangos no paramtricos.


4. Otro conveniente de estas pruebas es su utilidad con muestras pequeas, o tan
pequeas como por ejemplo n = 6, lo cual es una ventaja para el investigador que recoge
datos de un estudio piloto y para aquel cuyas muestras deben ser pequeas por su misma
naturaleza (por ejemplo, muestras de personas con una forma rara de enfermedad
mental).

IV.3 DESVENTAJAS DE LOS MTODOS NO PARAMTRICOS

1. Ignoran una cierta cantidad de informacin. Hemos mostrado como los valores 1, 2,
3, 4 y 5 pueden reemplazar a los nmeros 13.33, 76.5, 101.79, 113.45, y 189.42. Sin
embargo, si representamos 189.42 por 5, perdemos informacin que est contenida
en el valor de 189.42. Observe que en nuestro ordenamiento de los valores 13.33, 76.5,
101.79, 113.45 y 189.42, el valor 189.42 puede convertirse en 1.189.42 y seguir siendo

94
el quinto o mayor valor de la lista. Pero si esta lista es un conjunto de datos, podemos
aprender ms

sabiendo que el valor ms alto es 1189.42 189.42 de lo que

aprenderamos al representar ambos nmeros mediante el valor 5.


2. A menudo no son tan eficientes o agudas como las pruebas paramtricas. La
estimacin de un intervalo al nivel de confianza de 95% usando una prueba no
paramtrica puede ser el doble de tamao que la estimacin al utilizar una prueba
paramtrica. Cuando usamos pruebas no paramtricas, efectuamos un trueque:
perdemos agudeza al estimar intervalos, pero ganamos la habilidad de usar menos
informacin y calcular ms rpidamente.

IV.4 RECOMENDACIONES

Aunque como se ha podido ver, la mayor parte del clculo que se usa en
estas pruebas es bastante sencillo, y pensando en la gran difusin que tiene hoy da la
computadora, ya que en casi cualquier parte hay una, sera adecuado, como un posterior
estudio del tema tratado, hacer un anlisis sobre el tipo de programas disponibles en el
mercado para el procesamiento de datos con mtodos no paramtricos, y hacer la
respectiva comparacin con los tradicionales programas que usan los mtodos
paramtricos. Las pruebas que los tienen disponibles y sus alcances puede motivar a
investigadores, estudiantes e interesados en general a escoger algunas de las
herramientas que ofrecen los mtodos no paramtricos.
Tambin vemos como necesario, para desarrollar en un posterior estudio, la
evaluacin de pruebas estadsticas por medio de las funciones de potencia, ya que estas
desempean un papel muy importante, pues nos da las probabilidades de rechazar la
hiptesis nula para diversos valores del parmetro. Hacer un estudio ms profundo
sobre dichas funciones, permitira evaluar los mritos de un criterio de prueba y hacer
las comparaciones en los diferentes mtodos con mayor precisin que como se hizo
aqu.

95

APNDICE A

DEMOSTRACIN DEL TEOREMA DEL LMITE CENTRAL

Esbozaremos una demostracin del teorema del lmite central para el caso
en el que existen las funciones generadoras de momentos de las variables aleatorias de
la muestra. Esta demostracin depende de un resultado fundamental de la teora de
probabilidades que no se probar, pero que se enuncia en el siguiente teorema A-1

TEOREMA A-1

Si Yn y Y son variables aleatorias con funciones generadoras de momentos


mn (t ) y m(t ) , respectivamente. Si
lm mn (t ) = m(t ) cuando n
para toda t real, entonces la funcin de distribucin de Yn converge a la funcin de
distribucin Y conforme n .

TEOREMA A-2: TEOREMA CENTRAL DEL LMITE

Sean

Y1 , Y2 ,..., Yn variables

aleatorias

independientes

idnticamente

distribuidas con E( Yi ) = y Var( Yi ) = 2 < . Definamos,


Un =

n(

) donde Y =

1 n
Yi
n i =1

Entonces, la funcin de distribucin U n converge a la funcin de distribucin normal


estndar conforme n .

96
DEMOSTRACIN

Partamos del hecho de que k denota el k-simo momento de una variable


aleatoria, W, entonces la funcin generadora de momentos de W se puede expresar de la
siguiente manera: mW (t ) = E (e tW ) = 1 + t1 +

t2
t3
2 + 3 + ...
2
3!

Definamos la variable aleatoria Z i mediante


Zi =

Yi

Advierta que E ( Z i ) = 0 y Var ( Z i ) = 1 . Por consiguiente, los primeros dos momentos


de Z i son 0 y 1, respectivamente, y la funcin generadora de momentos de Z i se puede
expresar de la manera siguiente:
mZi = 1 +

t2 t3
+ E ( Z i3 ) + ...
2 3!

Adems,
n

Un = n(

)=

Y
(

i =1

)=

1
n

Z .
i =1

Como las variables aleatorias Yi son independientes, se deduce que las variables
aleatorias Z i son independientes para i = 1, 2, . . . ,n.
Tngase en cuenta que la funcin generadora de momentos de la suma de
las variables aleatorias independientes es el producto de sus funciones generadoras de
momentos individuales. Por lo tanto,
n

t
t2
t3
+
k + ...) n
mn (t ) = mZ ( ) = (1 +
32
n
2
n
3
!
n

donde k = E ( Z i3 ).
Ahora tomamos el lmite de mn conforme n . Una forma de evaluar el lmite es
considerar el logaritmo natural de mn (t ) , donde

97
ln(mn (t )) = n ln(1 +

t2
t3
+
k + ...)
2n 3!n 3 2

Una expansin en serie estndar de ln(1+x) es

ln( 1 + x) = x

Si

x2 x3 x4
+

+ ...
3
3
4

t2
t 3k
x = ( + 3 2 + ...)
2n 6n

tenemos
ln(mn ) = n ln(1 + x) = n( x

t2

1 t2
x2
t 3k
t 3k
+ ...) = ( + 3 2 + ...) ( + 3 2 + ...) 2 + ...
2
2 2n 6n
2n 6n

Donde los trminos sucesivos de la expansin incluyen x 3 , x 4 y as sucesivamente. Si


multiplicamos por n, vemos que el primer trmino t 2 2 no incluye a n, mientras que los
dems trminos la incluyen elevada a una potencia positiva en el denominador. Por lo
tanto, podemos demostrar que
lm ln(mn (t )) =

t2
cuando n
2

o
lm (mn (t )) = e t

cuando n

es la funcin generadora de momentos para una variable aleatoria normal estndar. Si


aplicamos el teorema A-1, concluimos que U n posee una funcin de distribucin que
converge a la funcin de distribucin de la variable aleatoria normal estndar.

98

APNDICE B
TABLA # 1
Distribucin de Probabilidades Binomiales

n
1

2
3

s
0
1
0
1
2
0
1
2
3
0
1
2
3
4
0
1
2
3
4
5
0
1
2
3
4
5
6
0
1
2
3
4
5
6
7
0
1
2
3
4
5
6
7
8
0
1
2
3
4
5

.05
.9500
.0500
.9025
.0950
.0025
.8574
.1354
.0071
.0001
.8145
.1715
.0135
.0005
.0000
.7738
.2036
.0214
.0011
.0000
.0000
.7351
.2321
.0305
.0021
.0001
.0000
.0000
.6983
.2573
.0406
.0036
.0002
.0000
.0000
.0000
.6634
.2793
.0515
.0054
.0004
.0000
.0000
.0000
.0000
.6302
.2985
.0629
.0077
.0006
.0000

.10
.9000
.1000
.8100
.1800
.0100
.7290
.2430
.0270
.0010
.6561
.2916
.0486
.0036
.0001
.5905
.3280
.0729
.0081
.0004
.0000
.5314
.3543
.0984
.0146
.0012
.0001
.0000
.4783
.3720
.1240
.0230
.0026
.0002
.0000
.0000
.4305
.3826
.1488
.0331
.0046
.0004
.0000
.0000
.0000
.3874
.3874
.1722
.0446
.0074
.0008

.15
.8500
.1500
.7225
.2550
.0225
.6141
.3251
.0574
.0034
.5220
.3685
.0975
.0115
.0005
.4437
.3915
.1382
.0244
.0022
.0001
.3771
.3993
.1762
.0415
.0055
.0004
.0000
.3206
.3960
.2097
.0617
.0109
.0012
.0001
.0000
.2725
.3847
.2376
.0839
.0185
.0026
.0002
.0000
.0000
.2316
.3679
.2597
.1069
.0283
.0050

.20
.8000
.2000
.6400
.3200
.0400
.5120
.3840
.0960
.0080
.4096
.4096
.1536
.0256
.0016
.3277
.4096
.2048
.0512
.0064
.0003
.2621
.3932
.2458
.0819
.0154
.0015
.0001
.2097
.3670
.2753
.1147
.0287
.0043
.0004
.0000
.1678
.3355
.2936
.1468
.0459
.0092
.0011
.0001
.0000
.1342
.3020
.3020
.1762
.0661
.0165

.25
.7500
.2500
.5625
.3750
.0625
.4219
.4219
.1406
.0156
.3164
.4219
.2109
.0469
.0039
.2373
.3955
.2637
.0879
.0146
.0010
.1780
.3560
.2966
.1318
.0330
.0044
.0002
.1335
.3115
.3115
.1730
.0577
.0115
.0013
.0001
.1001
.2670
.3115
.2076
.0865
.0231
.0038
.0004
.0000
.0751
.2253
.3003
.2336
.1168
.0389

.30
.7000
.3000
.4900
.4200
.0900
.3430
.4410
.1890
.0270
.2401
.4116
.2646
.0756
.0081
.1681
.3602
.3087
.1323
.0284
.0024
.1176
.3025
.3241
.1852
.0595
.0102
.0007
.0824
.2471
.3177
.2269
.0972
.0250
.0036
.0002
.0576
.1977
.2965
.2541
.1361
.0467
.0100
.0012
.0001
.0404
.1556
.2668
.2668
.1715
.0735

.35
.6500
.3500
.4225
.4550
.1225
.2746
.4436
.2389
.0429
.1785
.3845
.3105
.1115
.0150
.1160
.3124
.3364
.1811
.0488
.0053
.0754
.2437
.3280
.2355
.0951
.0205
.0018
.0490
.1848
.2985
.2679
.1442
.0466
.0084
.0006
.0319
.1373
.2587
.2786
.1875
.0808
.0217
.0033
.0002
.0207
.1004
.2162
.2716
.2194
.1181

.40
.6000
.4000
.3600
.4800
.1600
.2160
.4320
.2880
.0640
.1296
.3456
.3456
.1536
.0256
.0778
.2592
.3456
.2304
.0768
.0102
.0467
.1866
.3110
.2765
.1382
.0369
.0041
.0280
.1306
.2613
.2903
.1935
.0774
.0172
.0016
.0168
.0896
.2090
.2787
.2322
.1239
.0413
.0079
.0007
.0101
.0605
.1612
.2508
.2508
.1672

.45
.5500
.4500
.3025
.4950
.2025
.1664
.4084
.3341
.0911
.0915
.2995
.3675
.2005
.0410
.0503
.2059
.3369
.2757
.1128
.0185
.0277
.1359
.2780
.3032
.1861
.0609
.0083
.0152
.0872
.2140
.2918
.2388
.1172
.0320
.0037
.0084
.0548
.1569
.2568
.2627
.1719
.0703
.0164
.0017
.0046
.0339
.1110
.2119
.2600
.2128

.50
.5000
.5000
.2500
.5000
.2500
.1250
.3750
.3750
.1250
.0625
.2500
.3750
.2500
.0625
.0312
.1562
.3125
.3125
.1562
.0312
.0156
.0938
.2344
.3125
.2344
.0938
.0156
.0078
.0547
.1641
.2734
.2734
.1641
.0547
.0078
.0039
.0312
.1094
.2188
.2734
.2188
.1094
.0312
.0039
.0020
.0176
.0703
.1641
.2461
.2461

99

10

11

12

12
13

13

14

6
7
8
9
0
1
2
3
4
5
6
7
8
9
10
0
1
2
3
4
5
6
7
8
9
10
11
0
1
2
3
4
5
6
7
8
9
10
11
12
0
1
2
3
4
5
6
7
8
9
10
11
12
13
0

.0000
.0000
.0000
.0000
.5987
.3151
.0746
.0105
.0010
.0001
.0000
.0000
.0000
.0000
.0000
.5688
.3293
.0867
.0137
.0014
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.5404
.3413
.0988
.0173
.0021
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.5133
.3512
.1109
.0214
.0028
.0003
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.4877

.0001
.0000
.0000
.0000
.3487
.3874
.1937
.0574
.0112
.0015
.0001
.0000
.0000
.0000
.0000
.3138
.3835
.2131
.0710
.0158
.0025
.0003
.0000
.0000
.0000
.0000
.0000
.2824
.3766
.2301
.0852
.0213
.0038
.0005
.0000
.0000
.0000
.0000
.0000
.0000
.2542
.3672
.0448
.0997
.0277
.0055
.0008
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.2288

.0006
.0000
.0000
.0000
.1969
.3474
.1759
.1298
.0401
.0085
.0012
.0001
.0000
.0000
.0000
.1673
.3248
.2866
.1517
.0536
.0132
.0023
.0003
.0000
.0000
.0000
.0000
.1422
.3012
.2924
.1720
.0683
.0193
.0040
.0006
.0001
.0000
.0000
.0000
.0000
.1209
.2774
.2937
.1900
.0838
.0266
.0063
.0011
.0001
.0000
.0000
.0000
.0000
.0000
.1028

.0028
.0003
.0000
.0000
.1074
.2684
.3020
.2013
.0881
.0264
.0055
.0008
.0001
.0000
.0000
.0859
.2362
.2953
.2215
.1107
.0388
.0097
.0017
.0002
.0000
.0000
.0000
.0687
.2062
.2835
.2362
.1329
.0532
.0155
.0033
.0005
.0001
.0000
.0000
.0000
.0550
.1787
.2680
.2457
.1535
.0691
.0230
.0058
.0011
.0001
.0000
.0000
.0000
.0000
.0440

.0087
.0012
.0001
.0000
.0563
.1877
.2816
.2503
.1460
.0584
.0162
.0031
.0004
.0000
.0000
.0422
.1549
.2581
.2581
.1721
.0803
.0268
.0064
.0011
.0001
.0000
.0000
.0317
.1267
.2323
.2581
.1936
.1032
.0401
.0115
.0024
.0004
.0000
.0000
.0000
.0238
.1029
.2059
.2517
.2097
.1258
.0559
.0186
.0047
.0009
.0001
.0000
.0000
.0000
.0178

.0210
.0039
.0004
.0000
.0282
.1211
.2335
.2668
.2001
.1029
.0368
.0090
.0014
.0001
.0000
.0198
.0932
.1998
.2568
.2201
.1321
.0566
.0173
.0037
.0005
.0000
.0000
.0138
.0712
.1678
.2397
.2311
.1585
.0792
.0291
.0078
.0015
.0002
.0000
.0000
.0097
.0540
.1388
.2181
.2337
.1803
.1030
.0442
.0142
.0034
.0006
.0001
.0000
.0000
.0068

.0424
.0098
.0013
.0001
.0135
.0725
.1757
.2522
.2377
.1536
.0689
.0212
.0043
.0005
.0000
.0088
.0518
.1395
.2254
.2428
.1830
.0985
.0379
.0102
.0018
.0002
.0000
.0057
.0368
.1088
.1954
.2367
.2039
.1281
.0591
.0199
.0048
.0008
.0001
.0000
.0037
.0259
.0836
.1651
.2222
.2154
.1546
.0833
.0336
.0101
.0022
.0003
.0000
.0000
.0024

.0743
.0212
.0035
.0003
.0060
.0403
.1209
.2150
.2508
.2007
.1115
.0425
.0106
.0016
.0001
.0036
.0266
.0887
.1774
.2365
.2207
.1471
.0701
.0234
.0052
.0007
.0000
.0022
.0174
.0639
.1419
.2128
.2270
.1766
.1009
.0420
.0125
.0025
.0003
.0000
.0013
.0113
.0453
.1107
.1845
.2214
.1968
.1312
.0656
.0243
.0065
.0012
.0001
.0000
.0008

.1160
.0407
.0083
.0008
.0025
.0207
.0763
.1665
.2384
.2340
.1596
.0746
.0229
.0042
.0003
.0014
.0125
.0513
.1259
.2060
.2360
.1931
.1128
.0462
.0126
.0021
.0002
.0008
.0075
.0339
.0923
.1700
.2225
.2124
.1489
.0762
.0277
.0068
.0010
.0001
.0004
.0045
.0220
.0660
.1350
.1989
.2169
.1775
.1089
.0495
.0162
.0036
.0005
.0000
.0002

.1641
.0703
.0176
.0020
.0010
.0098
.0439
.1172
.2051
.2461
.2051
.1172
.0439
.0098
.0010
.0005
.0054
.0269
.0806
.1611
.2256
.2256
.1611
.0806
.0269
.0054
.0005
.0002
.0029
.0161
.0537
.1208
.1934
.2256
.1934
.1208
.0537
.0161
.0029
.0002
.0001
.0016
.0095
.0349
.0873
.1571
.2095
.2095
.1571
.0873
.0349
.0095
.0016
.0001
.0001

100

15

16

16
17

1
2
3
4
5
6
7
8
9
10
11
12
13
14
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
0
1
2
3
4
5
6
7

.3593
.1229
.0259
.0037
.0004
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.4633
.3658
.1348
.0307
.0049
.0006
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.4401
.3706
.1463
.0359
.0061
.0008
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.4181
.3741
.1575
.0415
.0076
.0010
.0001
.0000

.3559
.2570
.1142
.0349
.0078
.0013
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.2059
.3432
.2669
.1285
.0428
.0105
.0019
.0003
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.1853
.3294
.2745
.1423
.0514
.0137
.0028
.0004
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.1668
.3150
.2800
.1556
.0605
.0175
.0039
.0007

.2539
.2912
.2056
.0998
.0352
.0093
.0019
.0003
.0000
.0000
.0000
.0000
.0000
.0000
.0874
.2312
.2856
.2184
.1156
.0449
.0132
.0030
.0005
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0743
.2097
.2775
.2285
.1311
.0555
.0180
.0045
.0009
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0631
.1893
.2673
.2359
.1457
.0668
.0236
.0065

.1539
.2501
.2501
.1720
.0860
.0322
.0092
.0020
.0003
.0000
.0000
.0000
.0000
.0000
.0352
.1319
.2309
.2501
.1876
.1032
.0430
.0138
.0035
.0007
.0001
.0000
.0000
.0000
.0000
.0000
.0281
.1126
.2111
.2463
.2001
.1201
.0550
.0197
.0055
.0012
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0225
.0957
.1914
.2393
.2093
.1361
.0680
.0267

.0832
.1802
.2402
.2202
.1468
.0734
.0280
.0082
.0018
.0003
.0000
.0000
.0000
.0000
.0134
.0668
.1559
.2252
.2252
.1651
.0917
.0393
.0131
.0034
.0007
.0001
.0000
.0000
.0000
.0000
.0100
.0535
.1336
.2079
.2252
.1802
.1101
.0524
.0197
.0058
.0014
.0002
.0000
.0000
.0000
.0000
.0000
.0075
.0426
.1136
.1893
.2209
.1914
.1276
.0668

.0407
.1134
.1943
.2290
.1963
.1262
.0618
.0232
.0066
.0014
.0002
.0000
.0000
.0000
.0047
.0305
.0916
.1700
.2186
.2061
.1472
.0811
.0348
.0116
.0030
.0006
.0001
.0000
.0000
.0000
.0033
.0228
.0732
.1465
.2040
.2099
.1649
.1010
.0487
.0185
.0056
.0013
.0002
.0000
.0000
.0000
.0000
.0023
.0169
.0581
.1245
.1868
.2081
.1784
.1201

.0181
.0634
.1366
.2022
.2178
.1759
.1082
.0510
.0183
.0049
.0010
.0001
.0000
.0000
.0016
.0126
.0476
.1110
.1792
.2123
.1906
.1319
.0710
.0298
.0096
.0024
.0004
.0001
.0000
.0000
.0010
.0087
.0353
.0888
.1553
.2008
.1682
.1524
.0923
.0442
.0167
.0040
.0011
.0002
.0000
.0000
.0000
.0007
.0060
.0260
.0701
.1320
.1849
.1991
.1685

.0073
.0317
.0845
.1549
.2066
.2066
.1574
.0918
.0408
.0136
.0033
.0005
.0001
.0000
.0005
.0047
.0219
.0634
.1268
.1859
.2066
.1771
.1181
.0612
.0245
.0074
.0016
.0003
.0000
.0000
.0003
.0030
.0150
.0468
.1014
.1623
.1983
.1889
.1417
.0840
.0392
.0142
.0040
.0008
.0001
.0000
.0000
.0002
.0019
.0102
.0341
.0796
.1379
.1839
.1927

.0027
.0141
.0462
.1040
.1701
.2088
.1952
.1398
.0762
.0312
.0093
.0019
.0002
.0000
.0001
.0016
.0090
.0318
.0780
.1404
.1914
.2013
.1647
.1048
.0515
.0191
.0052
.0010
.0001
.0000
.0001
.0009
.0056
.0215
.0572
.1123
.1684
.1969
.1812
.1318
.0755
.0337
.0115
.0029
.0005
.0001
.0000
.0000
.0005
.0035
.0144
.0411
.0875
.1432
.1841

.0009
.0056
.0222
.0611
.1222
.1833
.2095
.1833
.1222
.0611
.0222
.0056
.0009
.0001
.0000
.0005
.0032
.0139
.0417
.0916
.1527
.1964
.1964
.1527
.0916
.0417
.0139
.0032
.0005
.0000
.0000
.0002
.0018
.0085
.0278
.0667
.1222
.1746
.1964
.1746
.1222
.0667
.0278
.0085
.0018
.0002
.0000
.0000
.0001
.0010
.0052
.0182
.0472
.0944
.1484

101

18

19

19

20

8
9
10
11
12
13
14
15
16
17
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
0
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
0
1
2
3
4
5

.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.3972
.3763
.1683
.0473
.0093
.0014
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.3774
.3774
.1787
.0533
.0112
.0018
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.3585
.3774
.1887
.0596
.0133
.0022

.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.1501
.3002
.2835
.1680
.0700
.0218
.0052
.0010
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.1351
.2852
.2852
.1796
.0798
.0266
.0069
.0014
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.1216
.2702
.2852
.1901
.0898
.0319

.0014
.0003
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0536
.1704
.2556
.2400
.1592
.0787
.0301
.0091
.0022
.0004
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0456
.1529
.2428
.2428
.1714
.0907
.0374
.0122
.0032
.0007
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0388
.1368
.2293
.2428
.1821
.1028

.0084
.0021
.0004
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0180
.0811
.1723
.2297
.2153
.1507
.0816
.0350
.0120
.0033
.0008
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0144
.0685
.1540
.2182
.2182
.1636
.0955
.0443
.0166
.0051
.0013
.0003
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0000
.0115
.0576
.1369
.2054
.2182
.1746

.0279
.0093
.0025
.0005
.0001
.0000
.0000
.0000
.0000
.0000
.0056
.0338
.0958
.1704
.2130
.1988
.1436
.0820
.0376
.0139
.0042
.0010
.0002
.0000
.0000
.0000
.0000
.0000
.0000
.0042
.0268
.0803
.1517
.2023
.2023
.1574
.0974
.0487
.0198
.0066
.0018
.0004
.0001
.0000
.0000
.0000
.0000
.0000
.0000
.0032
.0211
.0669
.1339
.1897
.2023

.0644
.0276
.0095
.0026
.0006
.0001
.0000
.0000
.0000
.0000
.0016
.0126
.0458
.1046
.1681
.2017
.1873
.1376
.0811
.0386
.0149
.0046
.0012
.0002
.0000
.0000
.0000
.0000
.0000
.0011
.0093
.0358
.0869
.1491
.1916
.1916
.1525
.0981
.0514
.0220
.0077
.0022
.0005
.0001
.0000
.0000
.0000
.0000
.0000
.0008
.0068
.0278
.0716
.1304
.1789

.1134
.0611
.0263
.0090
.0024
.0005
.0001
.0000
.0000
.0000
.0004
.0042
.0190
.0547
.1104
.1664
.1941
.1792
.1327
.0794
.0385
.0151
.0047
.0012
.0002
.0000
.0000
.0000
.0000
.0003
.0029
.0138
.0422
.0909
.1468
.1844
.1844
.1489
.0980
.0528
.0233
.0083
.0024
.0006
.0001
.0000
.0000
.0000
.0000
.0002
.0020
.0100
.0323
.0738
.1272

.1606
.1070
.0571
.0242
.0081
.0021
.0004
.0001
.0000
.0000
.0001
.0012
.0069
.0246
.0614
.1146
.1655
.1892
.1734
.1284
.0771
.0374
.0145
.0045
.0011
.0002
.0000
.0000
.0000
.0001
.0008
.0046
.0175
.0467
.0933
.1451
.1797
.1797
.1464
.0976
.0532
.0237
.0085
.0024
.0005
.0001
.0000
.0000
.0000
.0000
.0005
.0031
.0123
.0350
.0746

.1883
.1540
.1008
.0525
.0215
.0068
.0016
.0003
.0000
.0000
.0000
.0003
.0022
.0095
.0291
.0666
.1181
.1657
.1864
.1694
.1248
.0742
.0354
.0134
.0039
.0009
.0001
.0000
.0000
.0000
.0002
.0013
.0062
.0203
.0497
.0949
.1443
.1771
.1771
.1449
.0970
.0529
.0233
.0082
.0022
.0005
.0001
.0000
.0000
.0000
.0001
.0008
.0040
.0139
.0365

.1855
.1855
.1484
.0944
.0472
.0182
.0052
.0010
.0001
.0000
.0000
.0001
.0006
.0031
.0117
.0327
.0708
.1214
.1669
.1855
.1669
.1214
.0708
.0327
.0117
.0031
.0006
.0001
.0000
.0000
.0000
.0003
.0018
.0074
.0222
.0518
.0961
.1442
.1762
.1762
.1442
.0961
.0518
.0222
.0074
.0018
.0003
.0000
.0000
.0000
.0000
.0002
.0011
.0046
.0148

102
6 .0003 .0089 .0454 .1091 .1686 .1916 .1712 .1244 .0746 .0370
7 .0000 .0020 .0160 .0545 .1124 .1643 .1844 .1659 .1221 .0739
8 .0000 .0004 .0046 .0222 .0609 .1144 .1614 .1797 .1623 .1201
9 .0000 .0001 .0011 .0074 .0271 .0654 .1158 .1597 .1771 .1602
10 .0000 .0000 .0002 .0002 .0099 .0308 .0686 .1171 .1593 .1762
11 .0000 .0000 .0000 .0005 .0030 .0120 .0336 .0710 .1185 .1602
12 .0000 .0000 .0000 .0001 .0008 .0039 .0136 .0355 .0727 .1201
13 .0000 .0000 .0000 .0000 .0002 .0010 .0045 .0146 .0366 .0739
14 .0000 .0000 .0000 .0000 .0000 .0002 .0012 .0049 .0150 .0370
15 .0000 .0000 .0000 .0000 .0000 .0000 .0003 .0013 .0049 .0148
16 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0003 .0013 .0046
17 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002 .0011
18 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0002
19 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
20 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
Basada en tables of the Binomial Probabilitiy Distribution, National Bureau of
Standards Applied Mathematics Serie n 6 Washington, D.C.:US. Goberment printing
Office,1950.

103
TABLA # 2
Distribucin normal estndar

z
.00
.01
.02
.03
.04
.05
.06
.07
.08
.09
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0398 .0438 .0478 .0517 .0557 .0596 .0636 .0675 .0714 .0753
0.2 .0793 .0832 .0871 .0910 .0948 .0987 .1026 .1064 .1103 .1141
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1554 .1591 .1628 .1664 .1700 .1736 .1772 .1808 .1844 .1879
0.5 .1915 .1950 .1985 .2019 .2054 .2088 .2123 .2157 .2190 .2224
0.6 .2257 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2517 .2549
0.7 .2580 .2611 .2642 .2673 .2704 .2734 .2764 .2794 .2823 .2852
0.8 .2881 .2910 .2939 .2967 .2995 .3023 .3051 .3078 .3106 .3133
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3413 .3438 .3461 .3485 .3508 .3531 .3554 .3577 .3599 .3621
1.1 .3643 .3665 .3686 .3708 .3729 .3749 .3770 .3790 .3810 .3830
1.2 .3849 .3869 .3888 .3907 .3925 .3944 .3962 .3980 .3997 .4015
1.3 .4032 .4049 .4066 .4082 .4099 .4115 .4131 .4147 .4162 .4177
1.4 .4192 .4207 .4222 .4236 .4251 .4265 .4279 .4292 .4306 .4319
1.5 .4332 .4345 .4357 .4370 .4382 .4394 .4406 .4418 .4429 .4441
1.6 .4452 .4463 .4474 .4484 .4495 .4505 .4515 .4525 .4535 .4545
1.7 .4554 .4564 .4573 .4582 .4591 .4599 .4608 .4616 .4625 .4633
1.8 .4641 .4649 .4656 .4664 .4671 .4678 .4686 .4693 .4699 .4706
1.9 .4713 .4719 .4726 .4732 .4738 .4744 .4750 .4756 .4761 .4767
2.0 .4772 .4778 .4783 .4788 .4793 .4798 .4803 .4808 .4812 .4817
2.1 .4821 .4826 .4830 .4834 .4838 .4842 .4846 .4850 .4854 .4857
2.2 .4861 .4864 .4868 .4871 .4875 .4878 .4881 .4884 .4887 .4890
2.3 .4893 .4896 .4898 .4901 .4904 .4906 .4909 .4911 .4913 .4916
2.4 .4918 .4920 .4922 .4925 .4927 .4929 .4931 .4932 .4934 .4936
2.5 .4938 .4940 .4941 .4943 .4945 .4946 .4948 .4949 .4951 .4952
2.6 .4953 .4955 .4956 .4957 .4959 .4960 .4961 .4962 .4963 .4964
2.7 .4965 .4966 .4967 .4968 .4969 .4970 .4971 .4972 .4973 .4974
2.8 .4974 .4975 .4976 .4977 .4977 .4978 .4979 .4979 .4980 .4981
2.9 .4981 .4982 .4982 .4983 .4984 .4984 .4985 .4985 .4986 .4986
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
Asimismo, para z = 4.0, 5.0 y 6.0, las probabilidades son 0.49997, 0.4999997 y
0.499999999.
Tomada de Robert D. Mason, Essentials of Statistics. 1976, pg.307.

104
TABLA # 3
Prueba de rangos con signos de Wilcoxon
Valores crticos de T
n

T .10

T .05

T .02

T .01

4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25

1
2
4
6
8
11
14
17
21
26
30
36
41
47
54
60
68
75
83
92
101

1
2
4
6
8
11
14
17
21
25
30
35
40
46
52
59
66
73
81
90

0
2
3
5
7
10
13
16
20
24
28
33
38
43
49
56
62
69
77

0
2
3
5
7
10
13
16
19
23
28
32
37
43
49
55
61
68

De F. Wilcoxon y R.A. Wilcox, Some Rapid Aproxmate Statiscal Procedures,


American Cyanamid Company, Pearl River, M.Y., 1964.

105
TABLA # 4
Prueba U de Mann-Whitney
Valores crticos de U
Valores de U .10

n2
n1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

2 3 4

10 11 12 13 14 15

0
0
1
2
2
3
4
4
5
5
6
7
7

0
1
2
4
5
6
8
9
11
12
13
15
16
18

0
2
3
5
7
8
10
12
14
16
17
19
21
23

0
2
4
6
8
11
13
15
17
19
21
24
26
28

1
3
5
8
10
13
15
18
20
23
26
28
31
33

1
4
6
9
12
15
18
21
24
27
3
33
36
39

1
4
7
11
14
17
20
24
27
31
34
37
41
44

10 11 12 13 14 15

0
0
0
1
1
1
1
2
2
3
3

0
1
2
3
4
5
6
7
8
9
10
11
12

1
5
8
12
16
19
23
27
31
34
38
42
46
50

2
5
9
13
17
21
26
30
34
38
42
47
51
55

2
6
10
15
19
24
28
33
37
42
47
51
56
61

3
7
11
16
21
26
31
36
41
46
51
56
61
66

3
7
12
18
23
28
33
39
44
50
55
61
66
72

Valores de U .05

n2

2 3 4

n1 1
2
3
4
0
5
0 1
6
1 2
7
1 3
8
0 2 4
9
0 2 4
10
0 3 5
11
0 3 6
12
1 4 7
13
1 4 8
14
1 5 9
15
1 5 10
Tomada de D.B.
Energy.

0
0 1 1 2
1 2 3 4
2 3 5 6
3 5 6 8
5 6 8 10
6 8 10 13
7 10 12 15
8 11 14 17
9 13 16 19
11 14 18 22
12 16 20 24
13 17 22 26
14 19 24 29
Owen, Handbook

0 0 0 1 1 1 1
2 3 3 4 4 5 5
4 5 6 7 8 9 10
7 8 9 11 12 13 14
10 11 13 14 16 17 19
12 14 16 18 20 22 24
15 17 19 22 24 26 29
17 20 23 26 28 31 34
20 23 26 29 30 36 39
23 26 30 33 37 40 44
26 29 33 27 41 45 49
28 30 37 41 45 50 54
31 36 40 45 50 55 59
34 39 44 49 54 59 64
of Statistical Tables, 1962, U.S. Department of

106
Continuacin
Valores de U .02

n2
n1
2
3
4
5
6
7
8
9
10
11
12
13
14
15

2 3 4 5

0
0
1
1
1
2
0 2
0 2
0 3

0
1
1
2
3
3
4
5
5
6
7

0
1
2
3
4
5
6
7
8
9
10
11

10 11 12 13 14 15
1
3
6
8
11
13
16
19
22
24
27
30
33

1
4
7
9
12
15
18
22
25
28
31
34
37

2
5
8
11
14
17
21
24
28
31
35
38
42

0
2
5
9
12
16
20
23
27
31
35
39
43
47

0
2
6
10
13
17
22
26
30
34
38
43
47
51

1
2
3
4
6
7
8
9
11
12
13
15

0
1
3
4
6
7
9
11
12
14
16
17
19

0
2
4
6
7
9
11
13
15
17
20
22
24

1
3
5
7
9
11
14
16
18
21
23
26
28

10 11 12 13 14 15

0
1
3
4
6
7
9
10
12
13
15
16

1
2
4
6
7
9
11
13
15
17
18
20

0
1
3
5
7
9
11
13
16
18
20
22
24

0
2
4
6
9
11
13
16
18
21
24
26
29

Valores de U .01

n2
n1
3
4
5
6
7
8
9
10
11
12
13
14
15

3 4 5 6

0
0
0
1
1
1
2

0
0
1
1
2
2
3
3
4
5

0
1
1
2
3
4
5
6
7
7
8

0
1
2
3
4
5
6
7
9
10
11
12

0
2
5
7
10
13
16
18
21
24
27
30
33

1
3
6
9
12
15
18
21
24
27
31
34
37

1
3
7
10
13
17
20
24
27
31
34
38
42

1
4
7
11
15
18
22
26
30
34
38
42
46

2
5
8
12
16
20
24
29
33
37
42
46
51

0
3
7
11
15
18
24
28
33
37
42
47
51
56

107
TABLA # 5
Valores de 2 ,

1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30

=.995
.0000393
.0100
.0717
.207
.412
.676
.989
1.344
1.735
2.156
2.603
3.074
3.565
4.075
4.601
5.142
5.697
6.265
6.844
7.434
8.034
8.643
9.260
9.886
10.520
11.160
11.808
12.461
13.121
13.787

=.99
.0000157
.0201
.115
.297
.554
.872
1.239
1.646
2.088
2.558
3.053
3.571
4.107
4.660
5.229
5.812
6.408
7.015
7.633
8.260
8.897
9.542
10.196
10.856
11.524
12.198
12.879
13.565
14.256
14.953

=.975
.000982
.0506
.216
.484
.831
1.237
1.690
2.180
2.700
3.247
3.816
4.404
5.009
5.629
6.262
6.908
7.564
8.231
8.907
9.591
10.283
10.982
11.689
12.401
13.120
13.844
14.573
15.308
16.047
16.791

=.95
.00393
.0103
.352
.711
1.145
1.635
2.167
2.733
3.325
3.940
4.575
5.226
5.892
6.571
7.261
7.962
8.672
9.390
10.117
10.851
11.591
12.338
13.091
13.848
14.611
15.379
16.151
16.928
17.708
18.493

=.05
3.841
5.991
7.815
9.488
11.070
12.592
14.067
15.507
16.919
18.307
19.675
21.026
22.362
23.685
24.996
26.296
27.587
28.869
30.144
31.410
32.671
33.924
35.172
36.415
37.652
38.885
40.113
41.337
42557
43.773

=.025
5.024
7.378
9.348
11.143
12.832
14.449
16.013
17.535
19.023
20.483
21.920
23.337
24.736
26.119
27.488
28.845
30.191
31.526
32.852
34.170
35.479
36.781
38.076
39.364
40.646
41.923
43.194
44.461
45.722
46.979

=.01
6.635
9.210
11.345
13.277
15.086
16.812
18.475
20.090
21.666
23.209
24.725
26.217
27.688
29.141
30.578
32.000
33.409
34.805
36.191
37.566
38.932
40.289
41.638
42.980
44.314
45.642
46.963
48.278
49.588
50.892

=.005
7.879
10.597
12838
14.860
16.750
18.542
20.278
21.955
23.589
25.188
26.757
28.300
29.819
31.319
32.801
34.267
35.718
37.156
38.582
39.997
41.401
42.796
44.181
45.558
46.928
48.290
49.645
50.993
52.336
53.672

Basada en la tabla 8 de Biometrika Tables for Statisticians, Vol. 1, Cambridge


University Press, 1954.

108
TABLA # 6
Rachas o corridas
Valores crticos de R

n2 2

n1

2
3
4
5
6
7
8
9
10
11
12
13
14
15

2
2
2
2
2
2
2
2
2
3

2
2
2
2

2
2
2
3
3
3
3
3
3
3
3

2
2
3
3
3
3
3
4
4
4
4
4

2
2
3
3
3
3
4
4
4
4
5
5
5

Valores de r .025
7 8 9 10 11 12 13 14 15
2 2 2 2
2 2 2
2 2 2 2 2 3
2 3 3
3 3 3 3 3 3
3 3 3
3 4 4 4 4 4
3 3 4
4 4 4 5 5 5
3 4 4
5 5 5 5 5 6
4 4 5
5 5 6 6 6 6
4 5 5
5 6 6 6 7 7
5 5 5
6 6 7 7 7 7
5 5 6
6 7 7 7 8 8
5 6 6
7 7 7 8 8 8
5 6 6
7 7 8 8 9 9
5 6 7
7 8 8 9 9 9
6 6 7
7 8 8 9 9 10

Valores de r .025

n1

n2

4
5
6
7
8
9
10
11
12
13
14
15

9
9

9
10
10
11
11

9
10
11
12
12
13
13
13
13

11
12
13
13
14
14
14
14
15
15
15

11
12
13
14
14
15
15
16
16
16
16

10 11 12

13

14

15

13 13 13 13
14 14 14 14
14 15 15 16
15 16 16 16
16 16 17 17
16 17 17 18
16 17 18 19
17 18 19 19
17 18 19 20
18 18 19 20

15
16
17
18
19
19
20
20
21

15
16
17
18
19
20
20
21
22

15
16
18
18
19
20
21
22
22

Tomada de F. S. Swed y C. Eisenhart, Tables for testing randomness of grouping


in a sequence of alternatives, nnals of Mathematical Statistics, Vol. 14.

109

Continuacin
Valores de r' .005

n1 n2
3
4
5
6
7
8
9
10
11
12
13
14
15

2
2
2
2

2
2
2
2
2
2
2
3

2
2
2
2
3
3
3
3
3
3

2
2
2
3
3
3
3
3
3
4
4

2
2
3
3
3
3
4
4
4
4
4

2
2
3
3
3
3
4
4
4
5
5
5

2
2
3
3
3
4
4
5
5
5
5
6

10 11
2
3
3
3
4
4
5
5
5
5
6
6

12 13
2
2
2 2
2
3
3
3
3 3
3
4 4
4
4 4 5
5 5
5
5 5
5
5
6
6
6 6 6
6 6 7
6 7
7
7 7 7

14
2
2
3
4
4
5
5
6
6
7
7
7
8

15
2
3
3
4
4
5
6
6
7
7
7
8
8

Valores de r .005

n1 n 2

5
6
7
8
9
10
11
12
13
14
15

5
11

6
11
12
13
13

13
13
14
15
15
15

13
14
15
15
16
16
17
17
17

10

11

12

13

14

15

15
15
16
17
17
18
18
18
19

15
16
17
17
18
19
19
19
20

15
16
17
18
19
19
20
20
21

17
18
19
19
20
21
21
22

17
18
19
20
21
21
22
22

17
18
19
20
21
22
23
23

19
20
21
22
22
23
24

110
TABLA # 7
Valores crticos del coeficiente de correlacin de rangos de Spearman

n =0.05 = 0.025 =0.01 =0.005


5 0.900
__
__
_
6 0.829
0.886
0.943

7 0.714
0.786
0.893

8 0.643
0.738
0.833
0.881
9 0.600
0.683
0.783
0.833
10 0.564
0.648
0.745
0.794
11 0.523
0.623
0.736
0.818
12 0.497
0.591
0.703
0.780
13 0.475
0.566
0.673
0.745
14 0.457
0.545
0.646
0.716
15 0.441
0.525
0.623
0.689
16 0.425
0.507
0.601
0.666
17 0.412
0.490
0.582
0.645
18 0.399
0.476
0.564
0.625
19 0.388
0.462
0.549
0.608
20 0.377
0.450
0.534
0.591
21 0.368
0.438
0.521
0.576
22 0.359
0.428
0.508
0.562
23 0.351
0.418
0.496
0.549
24 0.343
0.409
0.485
0.537
25 0.336
0.400
0.475
0.526
26 0.329
0.392
0.465
0.515
27 0.323
0.385
0.456
0.505
28 0.317
0.377
0.448
0.496
29 0.311
0.370
0.440
0.487
30 0.305
0.364
0.432
0.478
Tomada de E. G. Olds, "Distribution of Sums of Squares of Rank Differences for Small
Samples", Annals of Mathematical Statistics, vol 9. 1938.

111
TABLA # 8
Valores crticos de D para la prueba de bondad de ajuste de Kolmogorov-Smirnov.

Nivel de significancia para D = mx Fe Fo


Tamao de
muestra, n
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
25
30
35
ms de 35

0.20

0.15

0.10

0.05

0.01

0.900
0.684
0.565
0.494
.0446
0.410
0.381
0.358
0.339
0.322
0.307
0.295
0.284
0.274
0.266
0.258
0.250
0.244
0.237
0.231
0.21
0.19
0.18
1.07/ n

0.925
0.726
0.597
0.525
0.474
0.436
0.405
0.381
0.360
0.342
0.326
0.313
0.302
0.292
0.283
0.274
0.266
0.259
0.252
0.246
0.22
0.20
0.19
1.14/ n

0.950
0.776
0.642
0.564
0.510
0.470
0.438
0.411
0.388
0.368
0.352
0.338
0.325
0.314
0.304
0.295
0.286
0.278
0.272
0.264
0.24
0.22
0.21
1.22/ n

0.975
0.842
0.708
0.624
0.565
0.521
0.486
0.457
0.432
0.410
0.391
0.375
0.361
0.349
0.338
0.328
0.318
0.309
0.301
0.294
0.27
0.24
0.23
1.36/ n

0.995
0.929
0.828
0.733
0.669
0.618
0.577
0.543
0.514
0.490
0.468
0.450
0.433
0.418
0.404
0.392
0.381
0.371
0.363
0.356
0.32
0.29
0.27
1.63/ n

Nota: Los valores de D dados en la tabla son valores crticos asociados con valores
elegidos de n. Cualquier valor de D mayor o igual al valor de la tabla es significativo en
el nivel de significancia indicado.
Tomada de F. J. Massey, Jr., The Kolmogorov-Smirnov test for goodness of it, J. Am.
Stat. Assoc. 46:68-78, 1951.

Anda mungkin juga menyukai