Anda di halaman 1dari 24

Ao de la Promocin de la Industria Responsable y Compromiso Climtico

UNIVERSIDAD NACIONAL DE EDUCACION

ENRIQUE GUZMAN Y VALLE


ESCUELA DE POSTGRADO

ESTADSTICA APLICADA A LA EDUCACIN CIENTFICA

TEMA:

ESTADSTICA PARAMTRICA Y NO PARAMTRICA


DOCENTE:
Dr. NARCISO FERNANDEZ SAUCEDO

MAESTRISTAS:
Freddy TARAZONA SANCHEZ.
Martha GALINDO QUISPE.

Alfredo Henry MANRIQUE ARIAS.


Henry Edwin PONCE REYES.

2014
1

Estadstica aplicada a la Educacin Cientfica.

A Dios
permitirnos
cada
mejores.

por
ser
da

Estadstica aplicada a la Educacin Cientfica.

INDICE

ndice General.

Introduccin

CAPTULO I: Estadstica No paramtrica


1.1 Qu es la estadstica no paramtrica?
1.2 Ventajas y desventajas de la estadstica no paramtrica.

5
5

1.3 Las principales pruebas no paramtricas

2.1

CAPTULO II: Herramientas de la estadstica No paramtrica


Prueba de Pearson

2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
2.10
2.11
2.12

Contraste de los signos e intervalos de confianza


Prueba de rangos asignados de Wilcoxon
Prueba de Mann Whitney.
Coeficiente de correlacin de Spearman
Prueba exacta de Fisher
Prueba de la mediana
Prueba de Kruskal-Wallis
Prueba de Anderson-Darling
Prueba de Cohen kappa
Prueba de Friedman
Prueba de Cochran

2.13 Prueba de Kendall


2.14 Prueba de Kolmogrov-Smirnov
2.15 Prueba de Siegel-Tukey
Conclusiones
Glosario
Simbologa
Bibliografa
Web grafa

7
8
9
10
12
13
13
14
14
15
16
17
17
18
19
21
22
23
24
24

Estadstica aplicada a la Educacin Cientfica.

INTRODUCCIN

La Estadstica Inferencial se divide principalmente en:


Las tcnicas paramtricas y las no paramtricas. Las primeras se basan en suposiciones
especficas acerca de la poblacin de la que se desea hacer algn tipo de inferencia,
mientras que en cambio las tcnicas no paramtricas hacen supuestos muy generales
respecto a la distribucin poblacional de la que se desea hacer inferencias. Son supuestos
generales por ejemplo la simetra o continuidad de la distribucin. Tradicionalmente lo que
separa ambas tcnicas estadsticas es el supuesto de que la poblacin de la que se toman
los datos sigue una distribucin normal.

Durante mucho tiempo los estadsticos han preferido las tcnicas paramtricas o han
optado por diversas transformaciones a fin de poder aplicarlas, dejando como recurso
final a las pruebas no paramtricas cuando no se ha podido encontrar evidencia
estadstica de que la poblacin sigue una distribucin normal. Por otro lado Hollander M.,
Wolfe D. (1973) recalcan la falta de robustez de las pruebas paramtricas frente al
supuesto de normalidad en la mayora de los casos. Indican adems que los supuestos de
donde se parte para el desarrollo terico de dichas tcnicas son fuertes, es decir difciles
de suponer sin pruebas de hiptesis apropiadas, mientras que las pruebas no
paramtricas permiten soluciones elegantes donde los supuestos son ms sencillos de
cumplir que los propuestos por las tcnicas paramtricas.

En esta monografa nos centraremos en el desarrollo de la estadstica NO paramtrica,

Estadstica aplicada a la Educacin Cientfica.

CAPITULO I
LA ESTADSTICA NO PARAMTRICA

1.1. QU ES LA ESTADSTICA NO PARAMTRICA?


La estadstica no paramtrica es una rama de la estadstica que estudia las pruebas
y modelos estadsticos cuya distribucin subyacente no se ajusta a los llamados
criterios paramtricos. Su distribucin no puede ser definida a priori, pues son los
datos observados los que la determinan. La utilizacin de estos mtodos se hace
recomendable cuando no se puede asumir que los datos se ajusten a una
distribucin conocida, cuando el nivel de medida empleado no sea, como mnimo,
de intervalo.
Una estadstica no paramtrica est basada en un modelo que especifica solo
condiciones muy generales y ninguna acerca de la forma especfica

de la

distribucin de la cual fue obtenida la muestra.


Los procedimientos no paramtricos permiten probar diferentes hiptesis acerca de
la poblacin, precisamente donde los procedimientos paramtricos no actan.
1.2. VENTAJAS Y DESVENTAJAS DE LA ESTADISTICA NO PARAMTRICA:
1.2.1.

Ventajas de la Estadstica No Paramtrica:


Si el tamao de la muestra es muy pequeo, puede no haber otra
opcin que usar una prueba no paramtrica, a menos que la naturaleza
de la distribucin de la poblacin se conozca con exactitud.
Las pruebas no paramtricas tpicamente hacen menos suposiciones
acerca de los datos y pueden ser ms relevantes a una situacin
particular.
Los mtodos no paramtricos estn disponibles para tratar datos que
son simplemente clasificatorios, es decir medidos en escala nominal.
Existen pruebas no paramtricas que son adecuadas para tratar
muestras obtenidas en observaciones de diferentes poblaciones.
La interpretacin de una prueba no paramtrica suele ser ms directa
que la interpretacin de las pruebas paramtricas.

Estadstica aplicada a la Educacin Cientfica.

1.2.2.

Desventajas de la Estadstica No Paramtrica:


Las estadsticas no paramtricas No son sistemticas.
Las estadsticas no paramtricas se relaciona con la conveniencia, por
lo que en ocasiones puede ser un problema elegir la adecuada.

1.3. LAS PRINCIPALES PRUEBAS NO PARAMTRICAS:

Prueba de Pearson

Contraste de los signos e intervalos de confianza

Prueba de rangos asignados de Wilcoxon

Prueba de Mann Whitney.

Coeficiente de correlacin de Spearman

Prueba exacta de Fisher

Prueba de la mediana

Prueba de Kruskal-Wallis

Prueba de Anderson-Darling

Prueba de Cohen kappa

Prueba de Friedman

Prueba de Cochran

Prueba de Kendall

Prueba de Kolmogrov-Smirnov

Prueba de Siegel-Tukey

Prueba binomial

Prueba de Kuiper

Prueba de cambio de McNemar

Tablas de contingencia

Prueba de Wald-Wolfowitz

En la Estadstica no Paramtrica se utiliza a partir de escalas nominales u ordinales


con variables cualitativas, o bien, cuando no se cumple alguno de los tres supuestos
anteriores.

Estadstica aplicada a la Educacin Cientfica.

CAPITULO II
HERRAMIENTAS DE LA ESTADSTICA NO
PARAMTRICA
2.1. Prueba X2 de Pearson:1
La prueba X2 de Pearson es considerada como una prueba no paramtrica que
mide la discrepancia entre una distribucin observada y otra terica (bondad de
ajuste), indicando en qu medida las diferencias existentes entre ambas, de
haberlas, se deben al azar en el contraste de hiptesis. Tambin se utiliza para
probar la independencia de dos variables entre s, mediante la presentacin de los
datos en tablas de contingencia.
2.1.1. Bondad de ajuste:
Permite comprobar si la distribucin emprica de una variable cualitativa se
ajusta a una distribucin terica.
Es una extensin del contraste sobre una proporcin para el caso de que la
variable tenga ms de dos categoras.
La frmula que da el estadstico es la siguiente:
I

observadai teoricai

i 1

teoricai

X
2

2 I 1k

La zona crtica:

X2

Se rechaza Ho si

X 2 2 I 1k

En caso de rechazar Ho, puede investigarse la causa calculando los


errores:

ei observadoi teoricoi
o el error tipificado: Z ei

observadoi teoricoi
teoricoi

2.1.2. Independencia e igualdad de proporciones:


Se utiliza para evaluar si existe relacin entre dos variables cualitativas.
1

https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_tema_6.pdf

Estadstica aplicada a la Educacin Cientfica.

Si la distribucin de una variable es igual en todos los grupos de la otra.


Se comprueba si la distribucin conjunta de ambas variables se ajusta a lo
esperado bajo la hiptesis de independencia.
Las hiptesis son:
Ho : las variables son independientes.
H1 : las variables estn relacionadas.
En este caso la zona crtica para la toma de decisin es:

X 2 2 I 1 J 1

2.2. Contraste de los signos e intervalos de confianza:


El contraste no paramtrico ms sencillo de realizar es el contraste de signos. Se
utiliza principalmente para contrastar hiptesis sobre la posicin central (mediana)
de una distribucin poblacional o para analizar datos de muestras pareadas. El
contraste de signos se emplea en los estudios de mercado para averiguar si los
consumidores prefieren uno de dos productos. Dado que los encuestados
manifiestan simplemente su preferencia, los datos son nominales y se prestan a
mtodos no paramtricos.
2.2.1. Contraste de signos de muestras pareadas:
Cuando se toman muestras pareadas de una poblacin y se descartan las
diferencias iguales a 0, por lo que quedan n observaciones. El contraste
de signos puede utilizarse para contrastar la hiptesis nula de que la
mediana poblacional de las diferencias es 0. Sea + una diferencia positiva y
una diferencia negativa. Si la hiptesis nula fuera verdadera, nuestra
secuencia de diferencias + y podra concebirse como una muestra
aleatoria extrada de una poblacin en la que las probabilidades de + y
fueran cada una de 0,5. En ese caso, las observaciones constituiran una
muestra aleatoria extrada de una poblacin binomial en la que la
probabilidad de + sera de 0,5. Por lo tanto, si P representa la verdadera
proporcin de + que hay en la poblacin (es decir, la verdadera proporcin
de diferencias positivas), la hiptesis nula es simplemente

H0 : P 0,5
Donde P es la proporcin de observaciones no nulas en la poblacin que
son positivas.

Estadstica aplicada a la Educacin Cientfica.

2.2.2. Aproximacin normal:


Puede utilizarse la distribucin normal como aproximacin de la distribucin
binomial si el tamao de la muestra es grande. Los expertos discrepan
sobre la definicin exacta de grande. Sugerimos que la aproximacin
normal es aceptable si el tamao de la muestra es de ms de 20. Un factor
de correccin de continuidad del estadstico del contraste compensa la
estimacin de datos discretos con una distribucin continua y permite
aproximarse ms al p-valor.
El contraste de signos de grandes muestras se basa en la aproximacin
normal de la media y desviacin tpica:
Media: nP

Desviacin tpica: nP 1 P

El estadstico de contraste es:

S*

S * Pn
P n

2.3. Prueba de Wilcoxon basado en la ordenacin de las diferencias:


Uno de los inconvenientes del contraste de signos es que solo tiene en cuenta una
cantidad muy reducida de informacin, a saber, los signos de las diferencias.
Cuando el tamao de la muestra es pequeo, es de esperar, pues, que el
contraste no sea muy poderoso. El contraste de Wilcoxon basado en la ordenacin
de las diferencias es un mtodo para incorporar informacin sobre la magnitud de
las diferencias entre pares enlazados. Sigue siendo un contraste que no depende
de la distribucin. Al igual que muchos contrastes no paramtricos, se basa en las
ordenaciones.
La prueba de Wilcoxon puede emplearse cuando se dispone de una muestra
aleatoria de pares enlazados. Si la distribucin poblacional de las diferencias en
estas muestras pareadas es simtrica y que queremos contrastar la hiptesis nula
de que esta distribucin est centrado en 0. Descartando los pares entre los que la
diferencia es 0, ordenamos las n diferencias absolutas restantes en sentido
ascendente; en caso de empate, el puesto asignado es la media de los puestos
que ocupan en la ordenacin. Se calculan las sumas de los puestos
correspondientes a las diferencias positivas y negativas y la menor de estas sumas
es el estadstico de Wilcoxon, T, es decir,

T min T ,T
9

Estadstica aplicada a la Educacin Cientfica.

Donde:

T = suma de los puestos correspondientes a diferencias positivas.


T = suma de los puestos correspondientes a diferencias negativas.
Se rechaza la hiptesis nula si T es menor o igual que el valor de la tabla.
En la hiptesis nula de que las diferencias poblacionales estn centradas en 0, el
contraste de Wilcoxon tiene una media y una varianza que vienen dadas por:

E T T
Var T T2

n n 1
4

n n 1 2n 1
24

Y cuando el tamao de la muestra, es grande, la distribucin de la variable


aleatoria,
Z, es aproximadamente normal estndar donde:

T T

2.4. Prueba de Mann Whitney:2


Se presenta cuando se toman muestras aleatorias independientes de las dos
poblaciones, el contraste U de Mann-Whitney. La distribucin del estadstico de
Mann-Whitney, U, se aproxima a la distribucin normal a un ritmo bastante rpido
a medida que aumenta el nmero de observaciones muestrales. La aproximacin
es adecuada si cada muestra contiene al menos 10 observaciones. Por lo tanto,
solo consideraremos aqu las muestras en las que n1 10 y n2 10 . Para
contrastar la hiptesis nula de que la posicin central de las dos distribuciones
poblacionales es igual, suponemos que, aparte de la existencia de cualquier
posible diferencia entre las posiciones centrales, las dos distribuciones
poblacionales son idnticas.
2.4.1. Supongamos que, aparte de la existencia de posibles diferencias entre las
posiciones centrales, las dos distribuciones poblacionales son idnticas.
2

Estadstica para administradores y economa. Captulo 15.

10

Estadstica aplicada a la Educacin Cientfica.

Supongamos que se dispone de n1 observaciones de la primera poblacin y


n2 observaciones de la segunda. Se juntan las dos muestras y se ordenan
las observaciones en sentido ascendente, asignando, en caso de empate, la
media de los puestos correspondientes. Sea R1 la suma de los puestos de
las observaciones de la primera poblacin. En ese caso, el estadstico U de
Mann-Whitney se define de la forma siguiente:

U n1n2

n1 n1 1
R1
2

2.4.2. Contraste U de Mann-Whitney: aproximacin normal.


Suponiendo como hiptesis nula que las posiciones centrales de las dos
distribuciones poblacionales son iguales, el estadstico U de Mann-Whitney
tiene la media y la varianza siguientes:

E U U

Var U 2U

n1n2
2

n1n2 n1 n2 1
12

Cuando las muestras son de gran tamao (ambas son como mnimo de 10),
la distribucin normal es una buena aproximacin de la distribucin de la
variable aleatoria:

U U

2.4.3. Reglas de decisin del contraste U de Mann-Whitney.


Se supone que las dos distribuciones poblacionales son idnticas, aparte de
las diferencias que puedan existir entre sus posiciones centrales. Para
contrastar la hiptesis nula de que las dos distribuciones poblacionales
tienen la misma posicin central, las reglas de decisin para un nivel de
significacin dado son las siguientes:
Si la hiptesis alternativa es la hiptesis de la cola superior unilateral, la
regla de decisin es:

U U

Re chazar H 0 si

Si la hiptesis alternativa es la hiptesis de la cola inferior unilateral, la regla


de decisin es:

Re chazar H 0 si
11

U U

Estadstica aplicada a la Educacin Cientfica.

2.5. Correlacin de orden de Sperman:


El coeficiente de correlacin muestral puede verse seriamente afectado por las
observaciones extremas. Adems, los contrastes basados en l recurren para su
validez al supuesto de

la normalidad. Puede obtenerse una medida de la

correlacin en la que no influyen seriamente los valores extremos y en la que


pueden basarse contrastes validos de distribuciones poblacionales muy generales
utilizando los puestos en ordenaciones. El contraste resultante ser en ese caso
no paramtrico.
Supongamos que se toma una muestra aleatoria x1 , y1 ,..., xn , yn de n pares
de observaciones. Si las xi y las y j se ordenan en sentido ascendente y se
calcula la correlacin muestral de estos puestos, el coeficiente resultante se llama
coeficiente de correlacin de orden de Spearman. Si no hay empates, una formula
equivalente para calcular este coeficiente es:
n

rs 1

6 di2
i 1
2

n n 1

Donde las di son las diferencias entre los puestos de los miembros de los
distintos pares. Los siguientes contrastes de la hiptesis nula Ho de que no existe
ninguna relacin en la poblacin tienen un nivel de significacin .
Para contrastar la hiptesis nula de que no existe ninguna relacin frente a la
hiptesis alternativa de que existe una relacin positiva, la regia de decisin es:

Re chazar H 0 si rs rs ,
Para contrastar la hiptesis nula de que no existe ninguna relacin frente a la
hiptesis alternativa de que existe una relacin negativa, la regia de decisin es:

Re chazar H 0 si rs rs ,

12

Estadstica aplicada a la Educacin Cientfica.

2.6. Prueba exacta de Fisher para tablas de 2 x 2.


La prueba de la probabilidad exacta de Fisher para tablas de 2 x 2 es una tcnica
extremadamente satisfactoria para analizar datos discretos (tanto nominales como
ordinales) cuando dos muestras independientes son pequeas.
Se usa cuando las observaciones de dos muestras independientes al azar caen
dentro de dos clases mutuamente excluyentes; las cuales son representadas por
frecuencias en una tabla de 2 x 2.
Los encabezados de los renglones, pueden tener cualquiera de dos
clasificaciones: por arriba y por debajo de la media, acertaron y erraron, ciencias
mayores y artes mayores, acuerdos y desacuerdos, etc.
La prueba determina si los dos grupos difieren en las proporciones en donde caen
dentro de cualquiera de las clasificaciones.

2.7. Prueba de la mediana:


Es un procedimiento para evaluar si dos grupos independientes difieren en sus
tendencias culturales. Ms precisamente, esta prueba nos proporciona informacin
acerca de que tan probable es que dos grupos independientes (no necesariamente
del mismo tamao) hayan sido extrados de la misma poblacin con la misma
mediana. La hiptesis nula plantea que los dos grupos son la misma poblacin y
tienen la misma mediana; la hiptesis alterna puede plantear que la mediana de
una poblacin es diferente de la otra poblacin, o que la mediana de una poblacin
es superios que la otra poblacin.
La prueba puede utilizarse cuando las puntuaciones de los dos grupos se miden,
al menos, en una escala ordinal.
Se podr observar que no puede existir una prueba alterna a la prueba de la
mediana, an para datos en escala de intervalo. Esto podra ocurrir cuando una o
ms de las observaciones estn fuera de la escala y truncadas hacia el mximo o
el mnimo de las observaciones asignadas.
Esta prueba est especialmente indicada cuando los datos sean extremos o estn
sesgados.

13

Estadstica aplicada a la Educacin Cientfica.

2.8. Prueba de Kruskal Wallis:


El anlisis de la varianza unifactorial por rangos. De Kruskal Wallis, es una
prueba extremadamente til para decidir si k muestras independientes provienen
de diferentes poblaciones. Los valores de la muestra invariablemente difieren de
alguna manera, y la pregunta es si la diferencia entre las muestras significan
diferencias genuinas en la poblacin o si solo representan la clase de variaciones
que pueden esperarse en muestras que se obtiene al azar de la misma poblacin.
La tcnica Kruskal Wallis prueba la hiptesis nula de que las k muestras
provienen de la misma poblacin o de poblaciones idnticas con la misma
mediana. Para especificar explcitamente las hiptesis nula y alterna, j debe ser
la mediana de la poblacin para el j-esimo grupo o muestra. Entonces podemos
escribir la hipotesis nula de que las medianas son las mismas como

H0 : 1 2 .... k y la hiptesis alterna como H1 : i j para algunos


grupos i y j.
Si la hiptesis alterna es verdadera, al menos un par de grupos tienen medianas
diferentes. Segn la hiptesis nula, la prueba supone que las variables en estudio
tienen la misma distribucin subyacente; adems, requiere que las mediciones de
la variable se encuentres, al menos, en escala nominal.
El estadstico de prueba es:
k R2
12
j
H
3 n 1

n n 1 j 1 n j

2.9. La prueba de Anderson-Darling


Es una prueba estadstica que permite determinar si una muestra de datos se
extrae de una distribucin de probabilidad. En su forma bsica, la prueba asume
que no existen parmetros a estimar en la distribucin que se est probando, en
cuyo caso la prueba y su conjunto de valores crticos siguen una distribucin libre.
Sin embargo, la prueba se utiliza con mayor frecuencia en contextos en los que se
est probando una familia de distribuciones, en cuyo caso deben ser estimados los
parmetros de esa familia y debe tenerse estos en cuenta a la hora de ajustar la
prueba estadstica y sus valores crticos. Cuando se aplica para probar si una

14

Estadstica aplicada a la Educacin Cientfica.

distribucin normal describe adecuadamente un conjunto de datos, es una de las


herramientas estadsticas ms potentes para la deteccin de la mayora de las
desviaciones de la normalidad.
2.10. El Coeficiente kappa de Cohen:3
Es una medida de concordancia propuesta por Cohen en 1960, que se basa en
comparar la concordancia observada en un conjunto de datos, respecto a la que
podra ocurrir por mero azar. Es til para todas las tablas, pero tiene algunas
peculiaridades cuando se aplica a tablas de 2 x 2. Para el caso de ms de dos
evaluadores, clasificaciones, mtodos, etc., Fleiss generaliz el mtodo de Cohen,
por lo que a veces se conoce tambin como Kappa de Fleiss.
Est claro que una medida simple de concordancia, sera la proporcin de
coincidencias frente al total de sujetos. En la tabla de 2 x 2, y con la nomenclatura
que habitualmente utilizamos sera

a d .
n

No obstante, aunque no hubiera

ninguna relacin entre los dos mtodos de clasificacin o evaluacin o entre los
observadores, o entre las dos escalas de evaluacin, podra haber algn grado de
coincidencia por mero azar. Si empleramos una moneda para clasificar una
poblacin asignndole una situacin segn salga cara o cruz, y volvemos a
evaluarlo mediante el lanzamiento de otra moneda, lo ms probable es que haya
aproximadamente un 50% de coincidencias. Si se quiere eliminar ese sesgo, hay
que eliminar de alguna forma la concordancia esperada por azar.
Si denominamos Co a la proporcin de la concordancia observada (en tanto por
uno), y Ca, a la proporcin de concordancia que se esperara por mero azar, K
sera igual a:

Co Ca
1 Ca

Si K es cero, ello significa que la concordancia observada coincide con la que


ocurrira por puro azar. Valores positivos sealan mayor concordancia que la que
3

http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-de-concordancia/kappade-cohen.html

15

Estadstica aplicada a la Educacin Cientfica.

se esperara por el puro azar. Si el resultado fuera 1, se tratara de una


concordancia perfecta. Si K toma un valor negativo, significa existencia de
discordancia, que solamente en la tabla de 2 x 2, podra llegar hasta 1, lo que
sealara una discordancia total entre las dos clasificaciones o evaluaciones.
Con todo, hay que calcular tambin el intervalo de confianza en el que se mueve
K, ya que, aunque K tenga valores positivos, si el intervalo de confianza es muy
amplio, habra que reconsiderar la significacin, es decir, si es suficiente para
decidir que ambas clasificaciones, observadores, etc. son similares.
Aunque siempre es una escala subjetiva, Landis y Koch propusieron unos lmites
para el grado de acuerdo estimado con el resultado del clculo de Kappa:
Otros discuten la afirmacin de que kappa "tiene en cuenta" la posibilidad de
acuerdo. Para hacerlo con eficacia se requerira un modelo explcito de cmo
afecta el azar a las decisiones de los observadores. El llamado ajuste por azar del
estadstico kappa supone que, cuando no estn absolutamente seguros, los
evaluadores simplemente aventuran una respuesta (un escenario muy poco
realista)

2.11. Prueba de Friedman:4


La prueba de Friedman es la alternativa no paramtrica para el anlisis de la
varianza de una va con medidas repetidas.
Fue desarrollado por el economista Milton Friedman.
Esta prueba puede utilizarse en aquellas situaciones en las que se seleccionan n
grupos de k elementos de forma que los elementos de cada grupo sean lo ms
parecidos posible entre s, el mtodo consiste en ordenar los datos por filas o
bloques, reemplazndolos por su respectivo orden.
Las hiptesis a plantearse son:
Ho : No existen diferencias entre los grupos.
H1 : Existen diferencias entre los grupos.
4

http://www.estadisticafi.unam.mx/point/11.pdf

16

Estadstica aplicada a la Educacin Cientfica.

Para resolver el contraste de hiptesis anterior, Friedman propuso un estadstico


que distribuye como una Chi-cuadrado con K 1 grados de libertad, siendo K el
nmero de variables relacionadas; se calcula mediante la siguiente expresin.
El estadstico de prueba es:

X r2

12
Rc 2 3H K 1

HK K 1

Donde:

X r2 Estadstico calculado del anlisis de varianza por rangos de Friedman.


H = representa el nmero de elementos o bloques.
K = el nmero de variables relacionadas.

Rc

= es la suma de rangos por columnas al cuadrado.

2.12. Prueba de Cochran:5


Es una prueba no paramtrica de comparacin de proporciones para tres o ms
muestras relacionadas, debe cumplir las siguientes caractersticas:
a) Los datos se ajustan a la distribucin de chi cuadrada
b) Nivel nominal de la variable dependiente
Su funcin es comparar el cambio en la distribucin de proporciones entre ms de
dos mediciones de una variable dicotmica y determinar que la diferencia no se
deba al azar (que las diferencia sea estadsticamente significativa).
2.13. Prueba de Kendall:
En lugar de comparar los rangos, solo se calcula si una coordenada es mayor que
la otra.
El coeficiente tau de Kendall es:

2 NC N D
N N 1

1 1

http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/Vonk-Cochrans-Q2011-June-7.pdf

17

Estadstica aplicada a la Educacin Cientfica.

En caso de empates se usa:

2 NC N D

N N 1 TX N N 1 TY

Las Hiptesis pueden ser:


Ho : No hay correlacin entre las variables.
H1 : Hay correlacin entre las variables.
Ho se acepta si : C /2,N
tiende rpidamente a una distribucin normal con: (N > 10)

4 N 10
9 N N 1

3 N N 1
4 N 10

El coeficiente de Kendall indica la diferencia de la probabilidad de que las dos


variables estn en el mismo orden menos la probabilidad de que estn en un
orden diferente.
2.14. Prueba de Kolmogrov Smirnov:6
En esta prueba se usan como hiptesis de contraste a los siguientes:
Ho : Los datos analizados siguen una distribucin M.
H1 : Los datos analizados no siguen una distribucin M.
El estadstico de contraste es:

D sup F n xi F0 xi
1i n

Donde:

xi es el i-esimo valor observado en la muestra (cuyos valores se han ordenado


previamente de menor a mayor).

F n xi es un estimador de probabilidad de observar valores menores o iguales


que xi .

F0 xi es la probabilidad de observar valores menores o iguales que xi cuando


Ho es cierta.
6

http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bondad_de_Ajust
e_de_Kolmogorov_Smirnov.pdf

18

Estadstica aplicada a la Educacin Cientfica.

De esa manera, D es la mayor diferencia absoluta observada entre la frecuencia


acumulada observada F n xi y la frecuencia acumulada terica F0 xi ,
obtenida a partir de la distribucin de probabilidad que se especifica como
hiptesis nula.
Cuanto mayor sea la discrepancia entre la distribucin emprica F n xi y la
distribucin terica, mayor ser el valor de D.
Por lo tanto, el criterio para la toma de decisiones entre las dos hiptesis ser de la
forma:

Si D D Aceptar H0

Si D D Re chazar H0
Donde D se elige de tal manera que:

P Re chazar H 0 / H 0 es cierta
P D D / los datos siguen la distribucin M
Siendo el nivel de significacin del contraste.
2.15. Prueba de Siegel-Tukey:7
El procedimiento de Mann-Whitney fue adaptado por S. Siegel y J. Tukey puede
adaptarse para contrastar si dos muestras independientes han sido extradas de
poblaciones con igual varianza, frente a la hiptesis alternativa de que han sido
extradas de poblaciones con varianzas diferentes. Para ello, una vez ordenados
todos los elementos de ambas muestras, combinados, se asignan rangos
comenzando desde el menor y el mayor, hacia el centro: al menor valor se le
asocia el rango 1; al valor ms elevado y al que le precede se asignan los rangos 2
y 3 ; al segundo y tercer valores ms bajos se asignan los rangos 4 y 5, y as
sucesivamente. Si el nmero total de observaciones en ambas muestras es par,
una de ellas se quedar sin rango. Las expresiones anteriores se utilizan para
7

https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf

19

Estadstica aplicada a la Educacin Cientfica.

calcular el estadstico Rm, que es la suma de rangos de la muestra de menor


tamao. La interpretacin del contraste estriba en que si una de las dos muestras
procede de una poblacin con mayor dispersin, recibir los rangos menores,
mientras que la que procede de una muestra de menor variabilidad recibir los
rangos mayores. Puede apreciarse que el contraste tiene inters cuando
condicionamos en que ambas distribuciones tienen una media de posicin central
similar.
El estadstico Rm puede aproximarse, para n1 n2 20 , por una distribucin
Normal:

Rm

n n 1 n1n2 n 1
N m
;

2
2

Donde: nm min n1, n2 , y n n1 n2

20

Estadstica aplicada a la Educacin Cientfica.

CONCLUSIONES

Cumpliendo el supuesto de normalidad, para tamaos de muestra pequeos, la


longitud del intervalo de confianza para el valor plausible correspondiente a la prueba
no paramtrica (Prueba de Wilcoxon) es menor que el correspondiente a las
paramtricas (Prueba Z y t). A medida que el tamao de muestra crece tenemos que
los intervalos de confianza del valor plausible de ambas pruebas llegan a tener
longitudes que no difieren significativamente. El nmero de aceptaciones de la
hiptesis nula entre las pruebas paramtricas y no paramtricas tampoco difiere
significativamente. Las pruebas paramtricas fueron ms potentes que las no
paramtricas. La varianza de la media aritmtica para poblaciones normales fue menor
que la de la mediana muestral para todos los casos, ya sean estos al variar el
parmetro 2 o al variar el tamao de la muestra. A medida que se aumenta el tamao
de muestra y el valor del parmetro 2, el valor de la mediana muestral se acerca
mucho ms al valor real de la media poblacional que el valor correspondiente a la
media aritmtica en el mismo caso.

Para dos muestras cumplindose el supuesto de normalidad si las varianzas de ambas


distribuciones son iguales y las muestras difieren mucho en tamao, se tiene que las
conclusiones son muy similares para las pruebas paramtricas y no paramtricas. El
valor plausible correspondiente a la prueba paramtrica (prueba t para dos muestras)
es mucho mayor que el de su equivalente no paramtrico (prueba de Mann-Withney) y
sus intervalos de confianza son tambin de mayor longitud, aunque no
significativamente.

21

Estadstica aplicada a la Educacin Cientfica.

GLOSARIO
CONCEPTOS BSICOS
Poblacin: Todo el conjunto de elementos, finito o infinito, que tiene una o

varias

caractersticas que satisfacen el objeto de estudio de una investigacin.


Censo: Est directamente relacionado con la poblacin. Es un listado de los elementos
que componen una poblacin.
Muestra: Es cualquier subconjunto de una poblacin y, para que sea vlida, ha de ser
representativa de la poblacin porque se va a trabajar con ella y las conclusiones se
van a extrapolar a la poblacin. Ej. 300 alumnos de la Universidad de Enrique Guzmn
y Valle.
Parmetro: Es cualquier funcin definida a partir de los valores numricos de una
poblacin. Se representan con letras griegas.
= media
= desviacin tpica
Estadstico: Es cualquier funcin calculada sobre los valores numricos de

una

muestra (media, moda, mediana, varianza...). Todos ellos permiten describir en forma
simplificada al conjunto de datos obtenidos en la muestra.
X , M = media
S, DT = desviacin tpica
En definitiva, lo que en la investigacin interesa es describir las poblaciones.
Pero debido a que suelen ser muy grandes y su conocimiento es costoso, la
Estadstica Inferencial se encarga de estimar los parmetros a partir de los
correspondientes estadsticos.
Tabular: Es clasificar la informacin de forma resumida mediante una tabla.
Tabla: Conjunto de clases o modalidades

22

Estadstica aplicada a la Educacin Cientfica.

Clase: Agrupaciones de distintos elementos que siguen un criterio (exhaustivas,


excluyentes, definidas).
Frecuencia absoluta (F): nmero de observaciones que aparece en cada clase o
modalidad.
Frecuencia relativa (Fr ): es igual al cociente entre las frecuencias absolutas y el
nmero total de datos.
Porcentajes: columnas de las frecuencias relativas multiplicadas por 100. Tiene la
misma funcin que las frecuencias relativas. % = Fr * 100
Frecuencia acumulada (Fa): Indica el nmero de casos comprendidos en un
intervalo o por debajo del mismo. La frecuencia acumulada no se puede conocer en
variables cualitativas en escala nominal.

SIMBOLOGA

Media poblacional

Media aritmtica muestral

Mediana poblacional

x~

Mediana muestral

Varianza poblacional

Desviacin estndar de la poblacin

H0

Hiptesis Nula

H1

Hiptesis Alterna

ij

Coeficiente de correlacin entre la variable Xi y la variable Xj

0, 1

Parmetros del modelo de regresin lineal simple

T+, T-

23

Estadsticos de Wilcoxon

U1, U2

Estadsticos de Mann-Whitney

W1, W2

Estadsticos de Ansari-Bradley

Estadstica aplicada a la Educacin Cientfica.

BIBLIOGRAFIA
Introduccin a la estadstica descriptiva - Esther Chiner
"Tcnicas Estadsticas Paramtricas y No Paramtricas Equivalentes: Resultados
Comparativos por Simulacin- Muman Andrs Rojas Dvila-Escuela Superior
Politcnica del Litoral-Ecuador.2003.

WEB GRAFIA
http://www.iuma.ulpgc.es/~nunez/mastertecnologiastelecomunicacion/RecursosGenerale
s/TesisEstadisticaParametricayNoPara "Tcnicas Estadsticas Paramtricas y No
Paramtricas Equivalentes: Resultados Comparativos Por Simulacin"

http://scientific-european-federation-osteopaths.org/es/prueba-estadisticasLas pruebas
estadsticas
http://es.wikipedia.org/wiki/Par%C3%A1metro_estad%C3%ADstico#Principales_par.C3.A
1metros parmetros
https://www.ucm.es/data/cont/docs/518-2013-11-13-noparam.pdf
http://www2.ulpgc.es/hege/almacen/download/5/5015/Complemento_3_Prueba_de_Bond
ad_de_Ajuste_de_Kolmogorov_Smirnov.pdf
http://www.let.rug.nl/nerbonne/teach/rema-stats-meth-seminar/presentations/VonkCochrans-Q-2011-June-7.pdf
http://www.estadisticafi.unam.mx/point/11.pdf
http://www.samiuc.es/index.php/estadisticas-con-variables-binarias/medidas-deconcordancia/kappa-de-cohen.html
https://www.uam.es/personal_pdi/psicologia/cadalso/Docencia/ADII/Materiales/esquema_t
ema_6.pdf

24

Estadstica aplicada a la Educacin Cientfica.

Anda mungkin juga menyukai