Anda di halaman 1dari 34

GUÍA PARA LA INTERPRETACIÓN DE

RESULTADOS EN EL CONTRASTE DE
HIPÓTESIS ESTADÍSTICAS
(Estadística Paramétrica y No Paramétrica)

Autor: Enrique Navarro Asencio


(@eduktive)
https://eduktive.wordpress.com/
Versión 5
26/01/2015
Enrique Navarro Asencio (@eduktive)

ÍNDICE

1. ESTADÍSTICA DESCRIPTIVA E INFERENCIA ESTADÍSTICA ....................................................................... 2


1.1 Variables en la investigación .......................................................................................................................... 3
1.2 Formulación de hipótesis estadísticas ........................................................................................................... 5
1.3 Distribución Muestral..................................................................................................................................... 6
1.4 Estadísticos de contraste y probabilidad asociada........................................................................................ 7
Nivel de significación ....................................................................................................................................... 9
1.5 Clasificación de Análisis estadísticos para el contraste de hipótesis. ........................................................ 10
Grupos Relacionados vs. Grupos Independientes ........................................................................................ 12
1.6 Software para el contraste de hipótesis y análisis de datos. ....................................................................... 13
2. PRUEBAS ESTADÍSTICAS (PARAMÉTRICAS Y NO PARAMÉTRICAS) ...................................................... 14
2.1 Pruebas paramétricas de Diferencias entre grupos .................................................................................... 14
2.1.1 Diferencias entre las puntuaciones de DOS grupos INDEPENDIENTES. Prueba T de Student ...... 14
2.1.2 Diferencias entre las puntuaciones de TRES o más grupos INDEPENDIENTES. Análisis de
Varianza (ANOVA) ......................................................................................................................................... 16
2.1.3 Diferencias entre las puntuaciones de DOS grupos RELACIONADOS. Prueba T de Student .......... 18
2.1.4 Comparación de un único grupo. Prueba T de Student ...................................................................... 19
2.2 Pruebas paramétricas de Relación entre variables.....................................................................................20
2.2.1 Correlación entre dos variables cuantitativas. Pearson ......................................................................20
2.3 Pruebas No paramétricas de Diferencias entre grupos .............................................................................. 23
2.3.1 Diferencias entre las puntuaciones de DOS grupos INDEPENDIENTES. Prueba U de Mann-
Whitney........................................................................................................................................................... 23
2.3.2 Diferencias entre las puntuaciones de TRES o más grupos independientes. Prueba H de Kruskal-
Wallys.............................................................................................................................................................. 25
2.3.3 Diferencias entre las puntuaciones de DOS grupos relacionados. Prueba W de Wilcoxon. ............. 26
2.3.4 Diferencias entre las puntuaciones de DOS grupos relacionados. Prueba McNemar ...................... 27
2.3.5 Comparación de un único grupo. Chi-Cuadrado como bondad de ajuste. ........................................ 28
2.4 Pruebas No Paramétricas de relaciones entre variables ............................................................................ 29
2.4.1 Correlación entre dos variables cualitativas ordinales. Spearman, tau-b, tau-c y gamma ...............30
2.4.2 Correlación entre dos variables cualitativas nominales. Chi-Cuadrado para la independencia ...... 31
2.4.2 Correlación entre una variable cualitativa nominal dicotómica y una variable cuantitativa ........... 33

1
Enrique Navarro Asencio (@eduktive)

Esta guía pretende llevar a cabo una introducción a los conceptos básicos del contraste de hipótesis
estadístico. Con su lectura se puede dar respuesta a dos preguntas fundamentales: ¿Qué tipo de
análisis estadístico es adecuado para analizar los datos? y ¿cómo se interpreta esa información
estadística?

1. ESTADÍSTICA DESCRIPTIVA E INFERENCIA ESTADÍSTICA


El análisis estadístico puede agruparse en dos vertientes diferenciadas. Por un lado, la estadística
descriptiva, que se encarga de describir las características de los sujetos que forman parte del
estudio para presentar la información de forma organizada y resumida, por ejemplo, qué cantidad
o proporción de mujeres y hombres, sus edades, sus niveles en las variable de interés, etc. Y, por
otro, la estadística inferencial que trata de contrastar hipótesis partir de los datos de la muestra
para que puedan generalizarse a la población.
Esta generalización de los resultados dependerá en parte del proceso de selección muestral y su
tamaño. No obstante, contar con muestras pequeñas no es un impedimento para realizar
contrastes estadísticos utilizando una metodología rigurosa y correcta.

Univariada

Descriptiva

Bivariada
(Correlaciones)

Estadística

Pruebas
Paramétricas
Inferencial
(Contraste de
Hipótesis)
Pruebas No
Paramétricas

Figura 1. Clasificación de análisis estadísticos


Esta guía se centra en el segundo grupo de análisis estadísticos que se utilizan para llevar a cabo el
contraste de hipótesis. También se incluyen los estadísticos para analizar la relación entre
variables, aunque usualmente se clasifican dentro del grupo de estadísticos descriptivos y se
denominan estadísticos descriptivos bivariados.
La estadística descriptiva incluye una parte de análisis de cada variable por separado (univariada) y
otra para establecer relaciones entre pares de variables (bivariada).
La estadística descriptiva bivariada también se puede considerar estadística inferencial si la
finalidad de la investigación es generalizar los resultados de correlación a la población. Si la

2
Enrique Navarro Asencio (@eduktive)

investigación no tiene ese objetivo y solo pretende describir un grupo de sujetos, las correlaciones
son estadísticos descriptivos.
Esa inferencia, por tanto, permite la generalización de los resultados de una muestra a la población
en términos de probabilidad. Esta generalización de los resultados dependerá principalmente del
proceso de selección muestral que debe garantizar la representatividad de la muestra.
Antes de comenzar con la descripción de las diferentes pruebas que se utilizan para el contraste de
hipótesis en estudios con datos empíricos, conviene introducir algunos conceptos básicos.

1.1 VARIABLES EN LA INVESTIGACIÓN


Cada vez que se observa un fenómeno o se administra un determinado test, cuestionario o encuesta
a un sujeto, se está llevando a cabo un proceso de medición de variables. Una variable es una
característica que varía entre los diferentes individuos de una población. La información que
disponemos de cada individuo es resumida en variables. Las variables se pueden manipular, medir
o controlar. Y, por definición, una variable es lo opuesto a una constante.
La información cualitativa se recoge mediante técnicas de recogida de información cualitativa,
principalmente la entrevista en sus diversos formatos (grupos de discusión, biográficas, delphi…), y
el producto es contenido textual, en cambio, la información cuantitativa se extrae mediante
técnicas de recogida de información cuantitativa (cuestionarios, tests…) y se puede codificar de
forma numérica para cuantificarla.
Esa información cuantitativa se pude medir a través de diferentes escalas (escalas nominales,
ordinales, intervalo y razón). Y cada escala es adecuada para medir un tipo de variable
determinado.

• Los números representan cantidades iguales


• El cero significa ausencia del atributo o varible
• Permiten cualquier tipo de operación matemática.
Razón • Ejemplos: ead, euros, velocidad, tamaño del aula...

• Las distancias iguales entre dos números de la escala

Intervalo: representan la misma diferencia en la varible.


• El cero no es absoluto
• Ejemplos: temperatura, puntuaciones de test...

• Las cateogrías pueden ordenarse de mayor a


Ordinal menor o viceversa.
• Ejemplos: tipo Likert, clase social...

• los números no representan cantidades.,


sólo distinguen entre categorías.

Nominal: • La asignación de los números a las


categorías es aleatoria
• Ejemplos: género, raza, tipo de
lateralidad...

FIGURA 2. ESCALA DE MEDIDA DE VARIABLES


Las escalas nominales y ordinales miden variables de naturaleza cualitativa y las de intervalo y
razón las de naturaleza cuantitativa. Por tanto, la recogida de información cuantitativa puede
producir variables de naturaleza cuantitativa y cualitativa:

3
Enrique Navarro Asencio (@eduktive)

A) Cualitativas: sus valores (niveles) no se pueden asociar naturalmente a un número, es decir,


no se pueden hacer operaciones algebraicas con ellos como sumar o restar los valores de los
diferentes niveles o categorías. Este grupo incluye variables:
 Nominales: Si sus valores no se pueden ordenar en función de la cantidad o nivel de la
variable. Pueden ser dicotómicas con dos categorías (sexo: hombre-mujer; ítems de
verdadero-falso o de sí-no, etc.) o politómicas con más de dos categorías (Grupo Sanguíneo,
nacionalidad, etc.). En ocasiones, algunas variables pueden dicotomizarse para convertirlas
en cualitativas con dos únicas categorías, por ejemplo, el rendimiento categorizado como
alto o bajo.
 Ordinales: Si sus valores se pueden ordenar pero no hay la misma distancia entre las
diferentes categorías de la variable, es decir, permiten establecer relaciones de mayor,
menor o igual. Por ejemplo el grado de satisfacción Intensidad del dolor (leve, moderado,
intenso), las notas (suspenso, aprobado, notable, sobresaliente), etc.
B) Cuantitativas o Numéricas: son variables que pueden ser medidas de forma numérica y, por
tanto, sus valores corresponden a cantidades y tiene sentido hacer operaciones algebraicas con
ellos. Este grupo incluye variables:
 Discretas: si toma únicamente valores enteros: nº de hijos, edad (nº de años), notas (de 0
a 10), etc.
 Continuas: Si entre dos valores, son posibles infinitos valores intermedios: altura, peso,
puntuaciones en test estandarizados, presión intraocular, etc.
Otra forma de clasificación de variables es según el papel o función que desempeña en una
investigación. Desde esta perspectiva es posible diferenciar entre:
 Independientes: es una variable que funciona como un estímulo para provocar cambios.
También se suele identificar con el agente o con la posible “causa” de que otras variables
cambien o varíen. Por ejemplo, si la hipótesis es: “los estudiantes que reciben un programa
de mejora de la creatividad obtienen mejores resultados en comprensión lectora que
aquellos que siguen la enseñanza tradicional”, es recibir o no el programa de creatividad la
variable que antecede a los resultados en comprensión lectora y, por tanto, será la variable
independiente que, en este caso, tiene dos valores: método de creatividad o enseñanza
tradicional.
 Dependientes: es la variable dónde se observan los cambios producidos por la variable
independiente y es el objeto de interés de la investigación. En los estudios con variable
neuropsicológicas y rendimiento académico, las primeras anteceden a los resultados de
rendimiento. Por ejemplo, el tratamiento (causa o variable independiente) provoca cambios
en el rendimiento de los estudiantes (efecto o variable dependiente). En esta distinción
conviene destacar que es el investigador quien decide el papel de las variables cuando
formula las hipótesis.
 Intervinientes: son variables que afectan a la dependiente, pero que no producen
cambios que interesen para la investigación. Son variables ajenas a la investigación pero
que pueden afectar a los resultados. Si se incluyen en el diseño se denominan variables de
control y si no se incluyen variables extrañas.
También conviene tener en cuenta que cuando se estudia únicamente la relación entre variables
mediante coeficientes de correlación, no se diferencia entre dependiente e independiente porque
un coeficiente de correlación no indica que variable antecede a otra o cuál es la causa.
Finalmente, las variables independientes también reciben una doble categorización: Son
variables activas si el investigador puede manipular de forma directa, es decir, es el investigador

4
Enrique Navarro Asencio (@eduktive)

quien decide qué niveles o modalidades tiene esa variable y permite distribuir a los sujetos de
forma aleatoria en esos niveles, como diferentes dosis de medicamento o diferentes modalidades de
un programa de intervención (control, experimental). En cambio, son variables asignadas si no
pueden ser manipuladas por el investigador, es decir, son características propias de los sujetos
como el género, nivel educativo, edad, etc.

1.2 FORMULACIÓN DE HIPÓTESIS ESTADÍSTICAS


El análisis estadístico inferencial se lleva a cabo para probar algún tipo de hipótesis, ya sea para
encontrar diferencias entre grupos, probar la relación entre variables, o análisis más complejos
como la predicción (regresión) o la causalidad (análisis de ecuaciones estructurales). En todos los
casos se debe formular una hipótesis que se confirmará (o no), en función de los resultados de estos
análisis.
Una hipótesis es una afirmación sobre un posible resultado que el investigador espera encontrar en
su investigación y el contraste de hipótesis (también denominado prueba de significación o prueba
estadística) es el método que se utiliza para averiguar si esa hipótesis debe aceptarse o rechazarse.
La lógica del contraste de hipótesis estadístico consiste en aceptar o rechazar la hipótesis
formulada en términos de probabilidad de ocurrencia, es decir, una hipótesis se rechaza porque
tienen poca probabilidad de que se produzca. De lo que se trata es de probar con datos empíricos
esa hipótesis y comprobar si el resultado se puede generalizar a la población.
Las hipótesis de una investigación neuropsicológica suelen referirse a correlaciones entre
variables o a comparaciones de grupo, aunque existen otro tipo de hipótesis (de predicción, de
causalidad, etc.). Por ejemplo, un investigador formula la siguiente hipótesis de investigación:
No existen diferencias entre las puntuaciones de creatividad de chicos y chicas
El investigador quiere comprobar si los resultados en creatividad de los chicos y las chicas son
estadísticamente iguales. Esta hipótesis para ser contrastada en primer lugar se formula en
términos estadísticos.
Una hipótesis estadística es una afirmación sobre las características de una distribución de
probabilidad y surge de la hipótesis de investigación formulada. Siguiendo con el ejemplo anterior
y considerando que la creatividad se ha medido en una escala de intervalo, el investigador quiere
probar si las medias de chicos y chicas son iguales.
La hipótesis de investigación es el origen de las hipótesis estadísticas, pero no son exactamente lo
mismo. Mientras que la hipótesis de investigación hace referencia a algún aspecto observado de la
realidad, las estadísticas hacen referencia a la distribución de probabilidad que, en este caso, como
se cuenta con una variable cuantitativa (distribución normal), se formula sobre la distribución de la
media:
Mediachicos= Mediachicas
Las hipótesis estadísticas son siempre 2: Nula (representada por H0) y alternativa (representada p
La hipótesis nula es siempre la hipótesis que se somete a contraste y siempre se formula en
términos de igualdad cuando se comparan los resultados de dos o más grupos o de negación
cuando se trata de correlación, es decir, indica que no hay correlación entre variables o que el valor
de la correlación es igual a cero. En cambio la hipótesis alternativa incluye el resto de resultados
posible que no se establecen en la nula.
Las hipótesis estadísticas se formulan de esta manera para que rechazar la hipótesis nula suponga
automáticamente la confirmación de la alternativa, Ambas son complementarias y mutuamente
excluyentes. Por ejemplo, en el caso de buscar la relación entre dos variables la hipótesis nula (H0)
quedaría formulada de la siguiente forma:
5
Enrique Navarro Asencio (@eduktive)

 No existe relación entre el rendimiento en matemáticas y el rendimiento en lengua (o la


correlación entre las variables es igual a cero).
H0: ρ= 0
Y la hipótesis alternativa (H1) sería así:
 Las variables rendimiento en matemáticas y rendimiento en lengua están relacionadas.
H1: ρ≠ 0
Para el caso en el que la hipótesis trata de analizar las diferencias entre grupos de sujetos distintos,
por ejemplo, diferencias en matemáticas en función del género, quedaría formulada de la siguiente
forma:
 Hipótesis Nula (H0): No existen diferencias en el rendimiento en matemáticas de
mujeres y hombres (o las puntuaciones de hombres y mujeres son iguales).
H0: µchicos= µchicas
 Hipótesis Alterna (H1): Sí existen diferencias en el rendimiento en matemáticas de
mujeres y hombres (o las puntuaciones de hombres y mujeres son diferentes).
H1: µchicos≠ µchicas
Mediante el análisis estadístico adecuado se busca evidencia para aceptar o rechazar la hipótesis
nula. En caso de ser rechazada, la hipótesis alternativa debe aceptarse.

1.3 DISTRIBUCIÓN MUESTRAL


Para definir una variable aleatoria se deben determinar los diferentes valores que puede tomar y
con qué probabilidad pueden ocurrir esos valores. Cada valor de una variable tiene una
probabilidad de ocurrencia, de la misma forma que cuando lanzamos una moneda al aire sabemos
que existe un 50% de probabilidades de que salga cara y otro 50% de que salga cruz. A esa función
de probabilidad se la denomina distribución muestra o densidad de probabilidad.
Las probabilidades de ocurrencia de los niveles de una variable son equivalentes a sus frecuencias
relativas o porcentajes, es decir, cuántas veces ocurre un fenómeno del total de casos.
En las variables con dos únicos niveles, como el lanzamiento de una moneda o el género de los
sujetos, acertar o fallar un ítem, etc. los niveles pueden tener o no la misma probabilidad de
ocurrencia, este tipo de distribuciones se denominan distribuciones binomiales

0,75
50% 50%
0,5

0,25

5000 LANZAMIENTOS
FIGURA 3. DISTRIBUCIÓN BINOMIAL CON IGUAL PROBABILIDAD

6
Enrique Navarro Asencio (@eduktive)

Cuando se trabaja con variables cuantitativas y se cuenta con un tamaño suficiente, su distribución
muestral adquiere forma de campana de Gauss que se denomina distribución normal o también
conocida como distribución Z.

68,28%

95%

99%

-2,58 -1,96 -1 0 +1 +1,96 +2,58


FIGURA 4. DISTRIBUCIÓN NORMAL
Con esta distribución es posible saber exactamente cuál es la probabilidad de que un sujeto obtenga
un valor determinado en la variable y también que habrá más probabilidades de que se obtengan
valores próximos a la media que los valores extremos, es decir, un mayor número de casos se
situará en esos valores cercanos a la media y habrá menos casos en los valores extremos. Y conocer
además cuántos casos hay entre dos valores de la variable, por ejemplo, hay un 50% de casos a un
lado y otro de la media (en la distribución normal media, mediana y moda tienen el mismo valor),
entre la puntuación de -1,96 y la de +1,96 se encuentran el 95% de los sujetos.
El valor representativo o esperado de las variables cuantitativas, es decir, el valor que tiene una
mayor probabilidad de ocurrencia, es la media. Y en consecuencia, cuando se contrastan
hipótesis con variables cuantitativas se utiliza ese estadístico como referencia: la
media. Por ejemplo, una de las posibles hipótesis que podría comprobarse es si las chicas y los
chicos difieren en sus resultados de creatividad y, para averiguarlo, se compararían los resultados
medios de ambos grupos para comprobar esas diferencias.
La media tiene su distribución muestral que se asemeja a la curva normal, pero no es el único tipo
de distribución existente. Cuando se trabaja con variables cualitativas nominales se comparan las
frecuencias o proporciones, si se emplean variables ordinales se analizan rangos, etc. Incluso
cuando se calcula una correlación, también cuenta con una distribución muestral asociada a los
valores obtenidos. Otras distribuciones conocidas son la binomial, F de Senedor, chi-cuadrado, T
de Student, etc.
Por tanto, cuando contrastamos hipótesis utilizando muestras es necesario comparar esos valores
con los de la distribución para confirmar que ese resultado se produciría también en la población. Y
contar con un tipo de variables u otras determinará la distribución muestral de referencia.

1.4 ESTADÍSTICOS DE CONTRASTE Y PROBABILIDAD ASOCIADA


Los estadísticos son esas distribuciones que se utilizan como referencia para contrastar las
hipótesis formuladas. En esta guía se describen aquellos que tienen el objetivo de, por un lado,
encontrar diferencias entre dos o más grupos y, por otro, analizar la relación entre distintas
variables.

7
Enrique Navarro Asencio (@eduktive)

Utilizar variables cuantitativas que cumplen con los requisitos de normalidad, como ya se
mencionó en el tema anterior, es uno de los supuestos que se deben cumplir para utilizar pruebas
estadísticas paramétricas. En cambio, si la distribución de puntuaciones no cumple con la
normalidad se deberán emplear pruebas no paramétricas.
 Pruebas Paramétricas: se utilizan con variables cuantitativas y con una muestra
suficiente de sujetos (al menos 30 casos por grupo). Estos requisitos son necesarios para
obtener una distribución normal de las puntuaciones en la variable analizada.
 Pruebas NO Paramétricas: se utilizan con variables dependientes cualitativas, ya
sean ordinales o nominales. También cuando se cuenta con variables cuantitativas pero
no se alcanza el tamaño mínimo recomendado.
La decisión de emplear un tipo de pruebas u otras depende de las características de las variables
que forman parte de la investigación. Para utilizar pruebas paramétricas las variables deben
cumplir una serie de supuestos:
 Variables dependientes cuantitativas: medidas en escalas de intervalo o razón. En
algunas ocasiones variables ordinales pueden considerarse cuantitativas si cumplen con
el supuesto de normalidad
 Normalidad de las puntuaciones: las variables objeto de estudio deben tener
distribución normal, es decir, con forma de campana de Gauss. Este supuesto puede
comprobarse con la prueba de Kolmogorov-Smirnov, pero si se cuenta con variables
cuantitativas y un tamaño muestral suficiente (30 casos).

FIGURA 5. DISTRIBUCIÓN NORMAL DE PUNTUACIONES


 Homocedasticidad: cuando se comparan las puntuaciones de dos o más grupos es
necesario que la varianza de esos grupos sea homogénea, es decir, que las varianzas de
los grupos sean iguales 1. Es posible comprobar este supuesto con la prueba de Levene o
de Box. También es necesario garantizar un tamaño suficiente de los grupos (30 casos
por grupo a comparar).
 Independencia de las observaciones: en la recogida de información, las respuestas
de un sujeto a un determinado test no deben depender de las respuestas de otro sujeto.
 Linealidad: para el estudio de correlación con pruebas paramétricas (índice de
Pearson) es necesario que la relación entre el par de variables analizadas sea lineal.
Por tanto, además del tipo de hipótesis a contrastar (relación o diferencias entre grupos), es la
naturaleza de las variables (cuantitativa o cualitativa) y el tamaño muestral, los que determinan la
prueba estadística adecuada para analizar la información. En función de esa naturaleza, los
estadísticos se clasifican dentro de esas dos categorías generales:
A. Estadísticos Paramétricos
1. Diferencias entre grupos: T de Student y F de Snedecor (ANOVA)

1 Conviene recordad que la varianza es un estadístico descriptivo de dispersión


8
Enrique Navarro Asencio (@eduktive)

2. Correlación: Pearson
B. No Paramétricos
1. Diferencias entre grupos: U de Mann-Whitney, H de Kruskal-Wallys y W de
Wilcoxon
2. Correlación: Spearman, Tau b, Tau c, Gamma y Chi-cuadrado, biserial-puntual
El estadístico siempre va acompañado de un valor de probabilidad asociado. Normalmente se
nombra como sig. (bilateral) o P-valor. Este valor es el que determina si el estadístico calculado ha
resultado significativo.

NIVEL DE SIGNIFICACIÓN
Cada estadístico estimado en un contraste de hipótesis, ya sea paramétrico o no paramétrico, de
correlación o comparación, siempre se acompaña de su probabilidad de ocurrencia de la hipótesis
nula (p-valor).
Esta probabilidad asociada al estadístico indica el número de ocasiones (cuántas veces de cada 100,
es una proporción) que se cumplirá la hipótesis nula. Ese valor se debe comparar con un valor de
probabilidad, elegido por el investigador, que establece el límite para considerar que una hipótesis
se cumple. Ese valor de comparación es el nivel de significación o nivel de error que se espera
cometer (α) y en investigación social no debe superar el 5%, es decir, una probabilidad de 0,05.
Para aceptar la hipótesis nula deberá cumplirse más del 5% de las ocasiones, por tanto, debe tener
una probabilidad asociada que supere el 0,05.
Unos valores bajos de probabilidad asociada al estadístico inferior o igual al nivel de error (5% o
inferior o igual a 0,05) señalarán que la hipótesis nula no se cumple el número suficiente de
ocasiones y, en consecuencia, deberá rechazarse y, por tanto, aceptar la hipótesis alternativa. En
cambio, si la probabilidad supera ese valor deberá aceptarse.
Ese 5% (α=,05) es el límite establecido por consenso en investigación. No obstante, si el resultado
de la probabilidad es igual o inferior al 1% (p = ,01) indica que la hipótesis nula solo ocurre una de
cada 100 veces. Si esa probabilidad es del 0,1% (p= ,001) nos indica que ocurre una de cada 1000
ocasiones. Cuanto más bajo sea el nivel de significación más seguridad habrá al rechazar la
hipótesis nula.
Siempre que se realiza un contraste de hipótesis estadístico hay cierta probabilidad de error. Ese
5% indica también el error que se asume en el contraste de hipótesis. Utilizar este punto de corte
del valor de la probabilidad conlleva asumir un 95% de nivel de confianza, pero es posible aunque
poco probable que rechacemos una hipótesis nula cuando es cierta, o que la aceptemos cuando es
falta. Los distintos tipos de error que pueden cometerse se resumen en la siguiente tabla:

Realidad

H0 cierta H0 Falsa

Correcto Error de tipo II


El tratamiento no tiene efecto y El tratamiento si tiene efecto
No Rechazo H0
así se decide. pero no lo percibimos.
Robustez estadística Probabilidad β

Error de tipo I Correcto


Rechazo H0 El tratamiento no tiene efecto El tratamiento tiene efecto y el
Acepto H1 pero se decide que sí. experimento lo confirma.
Probabilidad α Potencia estadística
Tabla 1. Tipos de error en un contraste de hipótesis
9
Enrique Navarro Asencio (@eduktive)

Por tanto, cuando se rechaza la hipótesis nula es porque tiene poca probabilidad de ocurrencia. En
un análisis de correlación la hipótesis nula se formula en términos de negación de la relación entre
las variables de rendimiento. Y, por tanto, la obtención de un valor de probabilidad inferior a 0,05
quiere decir que esa falta de relación, la hipótesis nula, ocurre menos del 5% de las veces y debe ser
rechazada. En el otro 95% de los casos la relación es significativa. De forma opuesta, cuando el
valor de probabilidad supera ese 0,05 la hipótesis nula tiene una probabilidad de ocurrencia
suficiente para no ser rechazada.
1.5 CLASIFICACIÓN DE ANÁLISIS ESTADÍSTICOS PARA EL CONTRASTE
DE HIPÓTESIS.
En este apartado se presentan los estadísticos más habituales para contrastar hipótesis de
correlación o de comparación de grupos, diferenciando entre paramétricos y no paramétricos.
Los distintos análisis de correlación que se incluyen en esta guía están representados en la Figura
6. El coeficiente Pearson se emplea con variables cuantitativas y tamaños muestrales grandes (por
encima de 30 casos). El coeficiente Spearman (también tau-b, tau-c y gamma) se emplean cuando
no se alcanza ese tamaño muestral o cuando las variables analizadas tienen naturaleza ordinal.
Cuando se correlaciona una variable cualitativa dicotómica y otra cuantitativa se utiliza la
correlación biserial-puntual. Finalmente, el coeficiente chi-cuadrado analiza la relación entre
variables cualitativas nominales o entre una variable nominal y otra ordinal.
El estadístico chi-cuadrado tiene variantes en función del número de niveles de la variable
nominal. Si las variables tienen el mismo número de categorías, especialmente si las variables a
correlacionar tienen dos únicas categorías, se utiliza el coeficiente de contingencia. En cambio, si el
número de niveles es distinto se emplearía chi-cuadrado.

Variables Cuantitativas
Paramétrica
(Pearson)

Cualitativas Ordinales
Descriptiva Bivariada
(Spearman, taub,
(Correlación)
tauc, gamma)

Nominal dicotómica y
No Paramétrica cuantitativa (biserial-
puntual)
chi-cuadrado, phi y v
de Cramer (distinto
número de categorías)

Cualitativas Nominales
Coeficiente de
contingencia, phi y v
de Cramer (mismo
número de categorías

Figura 6. Clasificación de análisis de correlación


Las pruebas estadísticas para la comparación de grupos, además de la distinción entre
paramétricas y no paramétricas, también pueden variar en función del número de grupos a
comparar y si esos grupos están relacionados o son independientes, como muestra la Figura 7 y
Figura 8.

10
Enrique Navarro Asencio (@eduktive)

T de Student para
1 grupo
una muestra

Independientes
(T de Student)

Paramétrica 2 grupos
Relacionados
(T de Student)

Independientes
(ANOVA)

Más de dos grupos Relacionados


(ANOVA de medidas
repetidas)

Figura 7. Pruebas paramétricas para la comparación de grupos

VD. Ordinal o
Nominal (Chi-
1 grupo
Cuadrado como
bondad de ajuste)

VD. Ordinal
(U de Mann-
Whitney)
Independientes
VD. Nominal VD y VI
dicotómicas
(Chi-cuadrado para (Coeficiente de
la independencia) Contingencia)

2 grupos
VD. Ordinal (W de
Wilcoxon)
No Paramétrica
Relacionados
Variables
dicotómicas
(Mc Nemar)

VD. Ordinal (H de
Kruskal Wallis)

Independientes
VD Nominal
(Chi-cuadrado para
la independencia)

Más de dos grupos


VD. Ordinal
(Q de Cochran)

Relacionados

VD y VI nominal
(Friedman)

Figura 8. Pruebas No Paramétricas para la comparación de grupos

11
Enrique Navarro Asencio (@eduktive)

Todas las pruebas paramétricas y no paramétricas se describen en esta guía excepto aquellas que se
utilizan para comparar más de dos grupos relacionados (ANOVA de medidas repetidas, Friedman y
Q de Cochran). Se excluyen debido a su alta complejidad de interpretación y porque son poco
utilizadas en este campo de estudio. Las pruebas para grupos relacionados, tanto paramétricas
como no paramétricas, normalmente comparan únicamente dos grupos: un pretest con un postest.

GRUPOS RELACIONADOS VS. GRUPOS INDEPENDIENTES


La diferencia principal entre estos dos tipos de grupos son las características de los sujetos que los
componen. En los grupos independientes los sujetos tienen características distintas y las
comparaciones se llevan a cabo utilizando esas variables distintivas. Por ejemplo, comparar los
resultados en función del género (chicos y chicas), en función de su nivel de rendimiento (alto-
bajo), de su lateralidad, etc. En cambio, en los grupos relacionados se compara a los mismos
sujetos en momentos temporales distintos. El ejemplo más claro de grupos relacionados es cuando
se mide a los mismos casos en dos ocasiones distintas (pretest-postest), pero también es posible
formar grupos relacionados emparejando a los sujetos en función de alguna característica, por
ejemplo, que tengan el mismo nivel de razonamiento espacial (ver Figura 10).
Supongamos que queremos comprobar el efecto de un programa de enseñanza de las matemáticas.
Para ello, formamos dos grupos uno va a recibir el programa y el otro no. Existen dos posibilidades
de construir estos grupos.
La primera de ellas se muestra la Figura 9, y distribuye a los sujetos de forma aleatoria en los dos
grupos. Si se actúa de esta manera es posible que los grupos no sean equivalentes, es decir, que
tengan alguna característica diferente y que influya en los resultados de matemáticas, por ejemplo,
el razonamiento espacial. En este caso, esa variable es distinta entre los grupos y puede afectar a los
resultados de matemáticas, independientemente del tratamiento experimental que se aplica.

Figura 9. Grupos Independientes


Para evitar este problema se mide inicialmente a los sujetos en razonamiento verbal y se
distribuyen en los grupos en función de sus niveles. Cada grupo cuenta con un individuo de cada
nivel de razonamiento verbal, están emparejados (ver Figura 10) y los grupos son equivalentes,
están relacionados. De esta forma, la media en razonamiento verbal es igual en ambos grupos y no
afectará a los resultados de matemáticas.

12
Enrique Navarro Asencio (@eduktive)

Figura 10. Grupos relacionados en función de su Razonamiento Espacial


La otra opción, ya mencionada, para forma grupos relacionados es la utilización de los mismo
sujetos en varias ocasiones de medida, es decir, la comparación de los resultados de un pretest con
un postest.

1.6 SOFTWARE PARA EL CONTRASTE DE HIPÓTESIS Y ANÁLISIS DE


DATOS.
Para llevar a cabo el análisis de la información con la finalidad de contrastar hipótesis estadísticas,
van a utilizarse dos herramientas informáticas:
 EZAnalyze: es un complemento gratuito de Microsoft Excel. Permite realizar análisis
descriptivo de las variables y las pruebas paramétricas de contraste de hipótesis. Puede
conseguirse en la siguiente página web: http://www.ezanalyze.com
 SPSS: es un paquete estadístico para el análisis de datos. No es una herramienta gratuita
pero es posible conseguir una versión por 15 días en la siguiente dirección:
https://www14.software.ibm.com/download/data/web/en_US/trialprograms/W110742E0
6714B29.html. Con este software puede realizarse cualquier tipo de análisis estadístico pero
en esta guía se emplea para la estadística no Paramétrica.
 PSPP: alternativa gratuita a SPSS. Es posible hacer los análisis estadísticos más habituales
en investigación. La desventaja es que los gráficos no son editables. Hay versiones para
Windows (http://pspp.awardspace.com/), Mac
(http://lavergne.gotdns.org/projects/pspp/) y Linux (http://mirrors.nfsi.pt/gnu/pspp/)

13
Enrique Navarro Asencio (@eduktive)

2. PRUEBAS ESTADÍSTICAS (PARAMÉTRICAS Y NO


PARAMÉTRICAS)
Como ya se ha mencionado, las pruebas paramétricas se emplean cuando la variable dependiente
analizada sigue una distribución normal. Normalidad estadística quiere decir que la distribución de
frecuencias de esa variable tiene la forma de campana de Gauss.
Este tipo de distribución tiene un mayor número de caso en torno a los valores medios o centrales y
un menor número en los extremos de la distribución.
Para cumplir con los requisitos de normalidad las variables deben ser cuantitativas. Normalmente,
las puntuaciones de test estandarizados cumplen con ese requisito. No obstante, en ocasiones
cuando se cuenta con poca muestra (inferior a 30 casos) las variables cuantitativas tampoco
cumplen ese supuesto de normalidad.
Por tanto, cuando se cuenta con poca muestra y también cuando la variable dependiente es
cualitativa, deben aplicarse pruebas estadísticas no paramétricas para el análisis de los datos.

2.1 PRUEBAS PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS


El objetivo de este tipo de pruebas es encontrar diferencias estadísticamente significativas entre las
puntuaciones de una variable cuantitativa (variable dependiente) de varias muestras o grupos
(variable independiente). Es una prueba de comparación y permite obtener la respuesta a la
cuestión ¿existen diferencias entre las puntuaciones medias de los grupos? Veamos un ejemplo:
La hipótesis nula que se prueba con este tipo de análisis es la siguiente:
 NO existen diferencias significativas en las puntuaciones de la variable inteligencia
emocional (variable dependiente) en función de la variable género (variable independiente,
la que forma los grupos)
También se puede formular de la siguiente forma:
 Las puntuaciones de la variable inteligencia emocional de los chicos es igual a la de las
chicas
Conviene recordar, que toda hipótesis nula tiene una hipótesis alternativa en el caso de que sea
rechazada. En este caso:
 SÍ existen diferencias significativas en las puntuaciones de la variable inteligencia
emocional (variable dependiente) en función de la variable género (variable independiente,
la que forma los grupos).
El tipo de prueba estadística podrá variar en función del número de grupos a comparar, en el
ejemplo anterior la variable género tiene dos únicos grupos (mujer-hombre). Y también en función
de si los grupos son relacionados o independientes.

2.1.1 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS


INDEPENDIENTES. PRUEBA T DE STUDENT
La variable independiente debe tener únicamente dos categorías independientes. Es decir, solo
pueden compararse dos grupos distintos y sus niveles o categorías deben ser mutuamente
excluyentes. Por ejemplo, el género (hombre-mujer), rendimiento categorizado (alto-bajo),

14
Enrique Navarro Asencio (@eduktive)

lateralidad (izquierda-derecha), asistencia a preescolar (Sí-No), recibir un tratamiento o programa


experimental (grupo experimental-grupo control), etc.
El estadístico adecuado para analizar las diferencias entre las medias de dos grupos es T de
Student. Su objetivo es analizar las diferencias entre las medias de dos grupos en una variable
dependiente con distribución normal. Por ejemplo, diferencias entre chicas y chicos en el
rendimiento en matemáticas.
Supongamos que se desean analizar las diferencias entre varones y mujeres en las puntuaciones de
una prueba que mide el conocimiento de otras culturas y religiones. Las hipótesis quedarían
formuladas de la siguiente manera:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes.
 Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de
conocimientos de otras culturas en función del género (Mujer-Varón) de los participantes.
Los resultados proporcionados por el complemento de Excel para el análisis de datos EZAnalyze
aparecen en la Tabla 2 y la Figura 11
La primera parte de los resultados muestra los estadísticos descriptivos (media, desviación típica y
tamaño de los grupos (N)) para cada grupo. En este caso el grupo uno son las mujeres y el dos los
varones. Se observa que la media de las mujeres (7,750) es mayor a la de los varones (4,385).
Para conocer si esas diferencias entre las medias de ambos grupos, que muestran los estadísticos
descriptivos, son significativas debe observarse la probabilidad asociada al estadístico T, es decir,
su probabilidad de ocurrencia. En la tabla aparece con la letra P y su valor es de 0,000.
Como el valor de la probabilidad asociada al estadístio T es inferior al nivel de error (0,05) debe
rechazarse la hipótesis nula y aceptar la alternativa. Es decir, se confirman las diferencias en las
puntuaciones medias de mujeres y varones en el nivel de conocimientos de otras culturas.
La tabla también informa sobre la diferencia entre las medias de los dos grupos (mean difference).
En este caso hay 3,365 puntos de diferencia a favor de las mujeres. Por tanto, las mujeres tienen un
mayor conocimiento de otras culturas que los varones.
EZAnalyze Results Report - Independent T-Test of group 1 and 2 on INFORMA

SEXO 1 (Mujeres) 2 (Varones)


Mean: 7,750 4,385
Std. Dev: 1,212 2,180
N: 48 52

Mean Difference: 3,365


T-Score:
Probabilidad 9,434
asociada
Eta Squared: ,471
P: ,000
The observed difference between the group means is significant
Tabla 2. Prueba T de diferencias entre dos grupos. Resultados EZAnalyze
La tabla de resultados se acompaña de un gráfico de barras que representa las puntuaciones
medias de los dos grupos comparados (ver la Figura 11)

15
Enrique Navarro Asencio (@eduktive)

Figura 11. Medias de los grupos.

2.1.2 DIFERENCIAS ENTRE LAS PUNTUACIONES DE TRES O MÁS GRUPOS


INDEPENDIENTES. ANÁLISIS DE VARIANZA (ANOVA)
Cuando la variable independiente tiene más de dos grupos, por ejemplo, el nivel socioeconómico
(alto-medio-bajo) el tipo de prueba debe adaptarse a estas características.
El estadístico que se calcula en el ANOVA es F d Snedecor. Esta prueba estadística es similar a
la prueba T pero compara las medias de tres o más grupos. El estadístico F, de la misma forma que
en pasaba con T de Student, va acompañado de una probabilidad asociada que determina si las
diferencias entre los grupos son significativas.
La manera de llevar a cabo la interpretación y tomar la decisión de aceptación o rechazo de la
hipótesis nula es igual que con las pruebas anteriores. Cuando el valor de esa probabilidad asociada
al estadístico, en esta caso F de Snedecor, es inferior a 0,05, la hipótesis nula deberá rechazarse y se
podrá confirmar las diferencias entre los grupos. Si el valor supera ese 0,05 la hipótesis nula deberá
aceptarse. Esto quiere decir que las puntuaciones de los grupos son tienen medias iguales.
Esta prueba también se acompaña de los denominados contrastes posteriores (post hoc) que
determinan entre qué grupos se dan esas diferencias.
Por ejemplo, si el objetivo es analizar las diferencias en las puntuaciones obtenidas en un test de
xenofobia en función de los contactos con otras culturas (es una variable con tres grupos 1. Nulos,
2. Sistemáticos, 3. Ocasionales), las hipótesis quedarían formuladas de la siguiente forma:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel
xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional).
 Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel
xenofobia en función del tipo de contacto con otras culturas (Nulo-Sistemático-Ocasional).
Los resultados que arroja el programa EZAnalyze se muestran en la Tabla 3, Tabla 4 y Figura 12.
En la primera de ellas (Tabla 3) aparecen los estadísticos descriptivos de cada grupo (media,
desviación típica y tamaño de los grupos) y también una media global de xenofobia (grand mean).
Se observa que la media global es de 35 puntos aproximadamente. Si se analizan los grupos por
separado, el grupo 2 (contactos sistemáticos) obtienen la menor puntuación media en xenofobia
con un valor de 30 puntos. El grupo con contacto nulo (grupo 1) tiene menor media (35,459) que
los que tienen un contacto ocasional (grupo3).

16
Enrique Navarro Asencio (@eduktive)

Esta misma tabla se muestra también los resultados del ANOVA. Para comprobar si existen
diferencias entre los grupos se observa el valor de la probabilidad asociada al estadístico F de
Snedecor (P). Esta probabilidad tiene un valor de 0,001, valor inferior a 0,05. Como la
probabilidad de ocurrencia de la hipótesis nula es muy baja debe ser rechazada y, por tanto,
aceptar la alternativa y afirmar diferencias entre los grupos.
EZAnalyze ANOVA Report - ANOVA of AXENOFO by CONTACT

0 cases were removed due to missing data

Grand Mean 35,050


N 100

CONTACT(group) N Group Mean Std Deviation


1 37 35,459 9,873
2 32 30,000 9,333
3 31 39,774 10,459

ANOVA Table
Source of Variance SS DF MS F
Between Groups 1514,141 2,000 757,071 7,738
Within Groups 9490,609 97,000 97,841
Total 11004,750

P ,001
Eta Squared ,138
The ANOVA results indicate that at least two of the groups differed significantly
Tabla 3. Prueba F de Snedecor (ANOVA)
Como en este caso se cuenta con más de dos grupos, la prueba F de Snedecor no informa entre qué
grupos se producen las diferencias. Para averiguarlo debe observarse la tabla de contrastes
posteriores (Tabla 4). En esta tabla se comparan las diferencias entre cada grupo por separado, es
decir, el grupo 1 con el grupo 2, el grupo 1 con el grupo 3 y el grupo 2 con el grupo 3.
La forma de interpretar los contrastes posteriores es igual que la de cualquier otro contraste de
hipótesis. En realidad, no son más que pruebas T de Student para cada par de grupos observados.
Debe observarse por tanto, la probabilidad asociada a ese estadístico T (P-Unadjusted). Si ese valor
es inferior a 0,05, las diferencias entre las puntuaciones de los dos grupos son significativas.
En este ejemplo se han encontrado diferencias significativas entre los grupos 1 y 2 y entre los
grupos 2 y 3. En cambio, las diferencias no son estadísticamente significativas entre los grupos 1 y
3. Esta tabla también ofrece información sobre el valor exacto de esa diferencia de medias en la
columna “mean difference”
Post Hoc tests Comparison Mean Difference T-Value P - Unadjusted P - Bonferroni Eta Squared
Group_1
1 and 2 5,459 2,349 ,022 ,065 ,076
1 and 3 4,315 1,747 ,085 ,256 ,044
Group_2
2 and 3 9,774 3,917 ,000 ,001 ,201
Tabla 4. Contrastes posteriores (post hoc)
Finalmente los resultados se acompañan de un gráfico de barras que muestra las medias en
xenofobia de los tres grupos comparados (Figura 12).

17
Enrique Navarro Asencio (@eduktive)

Figura 12. Medias de los grupos

2.1.3 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS.


PRUEBA T DE STUDENT
Cuando se comparan las puntuaciones de los mismos sujetos en una variable determinada pero en
dos momentos temporales distintos (pretest y postest) o cuando los grupos están equiparados en
función de alguna característica de los sujetos, por ejemplo, que los niveles medios de inteligencia
sean iguales en los grupos a comparar, es necesario aplicar una prueba estadística adecuada a estas
características. La prueba idónea en este caso es T de Student para grupos relacionados.
El nombre de la prueba es el mismo que en el caso de los grupos independientes, pero la forma de
calcular el estadístico varía ligeramente. No obstante, ese cambio en el cálculo no afecta a la
manera de interpretar los resultados.
Por ejemplo, si el objetivo es conocer si la aplicación de un programa de educación intercultural
mejora los conocimientos sobre otras culturas y religiones, las hipótesis quedarían formuladas de
la siguiente forma:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
conocimientos sobre otras culturas antes y después del programa.
o Otra posibilidad es: No existen diferencias estadísticamente significativas entre el
pretest y postest de la variable conocimientos sobre otras culturas y religiones.
 Hipótesis Alterna: Sí existen diferencias estadísticamente significativas en el nivel de
conocimientos sobre otras culturas antes y después del programa.
o Otra posibilidad es: Sí existen diferencias estadísticamente significativas entre el
pretest y postest de la variable conocimientos sobre otras culturas y religiones.
Los resultados de la prueba T para grupos relacionados aparecen en la Tabla 5 y Figura 13. La
información que incluye esta tabla es similar al resto de contrastes. En primer lugar, las medias y
desviaciones típicas de las puntuaciones en el pretest y en el postest. Puede comprobarse que la
puntuación es más alta en el postest (11,690).
De la misma forma que en los casos anteriores, para verificar si esas diferencias entre pretest y
postest son estadísticamente significativas debe observarse el valor de probabilidad asociado al
estadístico, es decir, P. Al estar por debajo de 0,05, concretamente es igual 0,000, la hipótesis nula
tiene poca probabilidad de ocurrencia y debe rechazarse. Por tanto, las diferencias entre pretest y
18
Enrique Navarro Asencio (@eduktive)

postest son significativas, siendo más altas en el postest. Esto quiere decir que el programa de
educación intercultural ha mejorado el nivel de conocimientos sobre otras culturas y religiones.
EZAnalyze Results Report - Paired T-Test of INFORMA2 with INFORMA3

INFORMA2 (pretest) INFORMA3 (postest)


Mean: 8,850 11,690
Std. Dev.: 2,409 2,770

N Pairs: 100
Mean Difference: -2,840
SE of Diff.: ,208
Eta Squared: ,650
T-Score: 13,636
P: ,000
The difference between INFORMA2 and INFORMA3 is significant
Tabla 5. Resultados prueba T para dos grupos relacionados
Los resultados se acompañan de un gráfico de barras que plasma las medias de las puntuaciones
pretest y postest.

Figura 13. Gráfico de medias pretest y postest

2.1.4 COMPARACIÓN DE UN ÚNICO GRUPO. PRUEBA T DE STUDENT


También existe la posibilidad de comparar los resultados obtenidos por la muestra en una variable
determinada, por ejemplo, inteligencia, con una puntuación de esa variable que sirva como
referente. Esta puntuación de referencia es un dato conocido, es decir, se ha encontrado en algún
trabajo de investigación con características similares, es el dato de la población, etc.
Si el investigador pretende averiguar si la media en nivel de vocabulario de los sujetos de la
muestra difiere de los resultados obtenidos en otra investigación o en la población de referencia.
Por ejemplo, trata de confirmar que la media de su muestran en nivel vocabulario es igual a la de la
población, que fue igual a 15. Por tanto, las hipótesis se formularían de la siguiente manera:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel de
vocabulario de la muestra y un nivel de vocabulario igual 15.

19
Enrique Navarro Asencio (@eduktive)

 Hipótesis Alterna: Sí No existen diferencias estadísticamente significativas en el nivel de


vocabulario de la muestra y un nivel de vocabulario igual 15.
Los resultados de esta prueba se presentan mediante una tabla y un gráfico (Tabla 6 y ¡Error! No se
encuentra el origen de la referencia.). La tabla incluye los estadísticos descriptivos de la muestra en la
variable objeto de estudio (nivel de vocabulario). Incluye la media (16,583), la desviación típica
(6,344) y el número de sujetos (36). El valor de la columna NTV es el valor de comparación, en este
caso, una media de 15 puntos en nivel de vocabulario.
Para confirmar que las dos medias son distintas se debe poner atención en el valor de T (T-score) y
su probabilidad asociada (P). Una probabilidad inferior a 0,05 indica que las diferencias son
estadísticamente significativas. Pero no ocurre así, el valor de probabilidad es 0,143 y supera, por
tanto, el 0,05.
EZAnalyze Results Report - One Sample T-Test

Nivel de vocabulario previo (0- NTV


30)
N Valid: 36
N Missing: 0
Mean: 16,583 15,00
0
Std. Dev: 6,344

Mean Diff: 1,583


T-Score: 1,497
Eta ,060
Squared:
P: ,143
Tabla 6 y Figura 14. Resultados prueba T para una muestra.
Se debe aceptar por tanto la hipótesis nula formulada. No es posible afirmar la existencia de
diferencias estadísticamente significativas entre las dos medias comparadas.

2.2 PRUEBAS PARAMÉTRICAS DE RELACIÓN ENTRE VARIABLES


El análisis de correlación se utiliza con el objetivo estudiar la relación entre dos variables. En este
tipo de análisis no se diferencia entre variable dependiente e independiente, ambas tienen el
mismo papel.
La hipótesis nula que se pone a prueba en este análisis es la siguiente:
 Las variables (nombres de las variables) analizadas no están relacionadas.
Y, por tanto, la hipótesis alternativa es la que afirma la existencia de relación entre las variables:
 Las variables (nombres de las variables) analizadas sí están relacionadas.
De la misma forma que en los análisis de diferencias entre grupos, el tipo de prueba estadística
dependerá de las características de las variables analizadas y del tamaño muestral. Cuando las dos
variables correlacionadas son cuantitativas y se cuenta con al menos 30 casos, el estadístico
adecuado es la correlación de Pearson.

2.2.1 CORRELACIÓN ENTRE DOS VARIABLES CUANTITATIVAS. PEARSON

20
Enrique Navarro Asencio (@eduktive)

Este estadístico puede tomar valores entre -1 y +1. El cero quiere decir ausencia de correlación. A
medida que el valor se acerca a los extremos (-1 o +1) la correlación es más potente. El signo señala
la direccionalidad de la correlación. Un valor negativo quiere decir que a medida que aumentan los
valores de una variable disminuyen los de la otra (correlación inversa). En cambio, si el valor es
positivo, a medida que aumentan unos también lo hacen los otros y viceversa (correlación directa).
Por ejemplo, si se seleccionan 30 individuos y se mide su peso y altura. Utilizando estas dos
variables como referencia es posible elaborar un gráfico de dispersión como el siguiente (Figura
15):

Figura 15. Gráfico de dispersión con las variables peso y altura


Este gráfico representa con un punto a cada uno de los sujetos estudiados. Este punto representa
su altura y peso concretos y observando su forma de agrupación es posible averiguar la existencia
de cierta tendencia en los datos, como se muestra en el Figura 16.

Figura 16. Gráfico de dispersión con línea de tendencia.

21
Enrique Navarro Asencio (@eduktive)

A simple vista puede observarse una relación directa entre las variables peso y altura, es decir, a
media que la altura es mayor también lo es el peso. Aunque los gráficos de dispersión permiten
observar el sentido de la relación (ver Figura 17), para conocer el grado exacto de la relación es
necesario calcular un índice de correlación.

Figura 17. Tipos de relación entre variables


En la Tabla 7 aparecen los resultados de un análisis de correlación de Pearson entre las
puntuaciones de una escala de xenofobia y las de otra escala de dogmatismo, ambas son variables
cuantitativas. Las hipótesis correspondientes son:
 Hipótesis Nula: Las variables xenofobia y dogmatismo NO están relacionadas.
 Hipótesis Alternativa: Las variables xenofobia y dogmatismo SÍ están relacionadas.
EZAnalyze Results Report - Correlation of AXENOFO with DOGMAT

Pearson Correlation ,500


N 100,000
P ,000

The observed correlation is statistically significant


Tabla 7. Correlación de Pearson entre xenofobia y dogmatismo
El valor de la correlación entre las dos variables analizadas es de 0,5. Es por tanto un valor de
relación positivo y con intensidad media. La correlación se complementa con la probabilidad
asociada al estadístico (P), que en este caso es de 0,000. De la misma forma que en los contrastes
de medias, es necesario que esta probabilidad asociada se encuentre por debajo de 0,05 para
concluir que el valor de la correlación es significativo. En caso de que la probabilidad supere el 0,05
la correlación no sería significativa, independientemente del valor del coeficiente de Pearson.

22
Enrique Navarro Asencio (@eduktive)

Figura 18. Gráfico de dispersión entre xenofobia y dogmatismo


La tabla de correlación se acompaña del gráfico de dispersión (Figura 18) de las dos variables
analizadas. En este gráfico puede observarse la tendencia de la relación. En este caso positiva y
media.

2.3 PRUEBAS NO PARAMÉTRICAS DE DIFERENCIAS ENTRE GRUPOS


A continuación se describen las pruebas estadísticas para la comparación de grupos cuando las
variables dependientes analizadas no son cuantitativas o cuando el número de casos de la muestra
no alcanza los 30. Cada prueba no Paramétrica tiene su equivalente no Paramétrica.

2.3.1 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS


INDEPENDIENTES. PRUEBA U DE MANN-WHITNEY.
Cuando la variable dependiente no es cuantitativa y tiene un carácter ordinal o no se cuenta con
variables con una distribución normal, hay un estadístico equivalente a T de Student denominado
U de Mann Whitney. También se utiliza cuando el tamaño de los grupos es reducido (inferior o
igual a 30 casos), aunque se cuente con variables dependientes cuantitativas. Su función es la
misma que la prueba T pero en lugar de comparar las medias de los grupos compara rangos.
Los rangos son una transformación de las puntuaciones de la variable analizada para poder llevar a
cabo ese análisis no paramétrico. La interpretación es similar a una media, un mayor rango indica
valores mayores en los resultados de ese grupo.

23
Enrique Navarro Asencio (@eduktive)

Figura 19. Proceso de transformación de puntuación a rango


Uno de los casos en los que se aplica este tipo de prueba es cuando los dos grupos a comparar
tienen menos de 30 casos. A continuación se incluye un ejemplo concreto.
El objetivo es comparar los resultados en la variable comprensión lectora en función de sí los
estudiantes han asistido o no a educación preescolar. La variable comprensión lectora es una
variable cuantitativa obtenida a partir de un test, pero sólo se cuenta con 16 sujetos que han
asistido a preescolar y 18 que no.
Las hipótesis a contrastar son las siguientes:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel lectora
en función de la asistencia o no a educación preescolar.
 Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel
lectora en función de la asistencia o no a educación preescolar.
Los resultados del análisis se presentan en dos tablas distintas (Tabla 8 y Tabla 9). La primera de
ellas muestra los resultados descriptivos para los dos grupos analizados. Es posible identificar el
rango promedio en la variable comprensión lectora de ambos grupos. En este caso, los estudiantes
que si asistieron a preescolar obtienen un mayor rango en compresión lectora (22,56), frente al 13
obtenido por los que no asisten. Como ya se ha mencionado un mayor rango equivale a una mayor
puntuación en esa variable. No obstante, para conocer si esas diferencias iniciales son significativas
debe observarse la Tabla 9.
Asistencia a Preescolar N Mean Rank Sum of Ranks
Comprensión lectora (0-30) Sí 16 22,56 361,00
No 18 13,00 234,00
Total 34
Tabla 8. Rangos. Prueba U
El rechazo o aceptación de la hipótesis nula depende del valor del estadístico calculado, en esta
caso U, y su probabilidad asociada. De la misma forma que el resto de pruebas estadística, para que
los resultados sean significativos, es decir, rechazar la hipótesis nula y afirmar la diferencia entre
las puntuaciones de la variable dependiente, el valor de esa probabilidad debe ser inferior a 0,05.
24
Enrique Navarro Asencio (@eduktive)

Esto índica que la hipótesis nula planteada tiene pocas probabilidades de ocurrencia y, por tanto,
debe ser rechazada.
Comprensión lectora (0-30)
Mann-Whitney U 63,000
Wilcoxon W 234,000
Z -2,799
Asymp. Sig. (2-tailed) ,005
a. Not corrected for ties.
Tabla 9. Prueba U de Mann-Whitney
En este caso se pueden afirmar diferencias en la variable dependiente (comprensión lectora) entre
los grupos. El valor de la probabilidad asociada es igual a 0,005, inferior al 0,05 que se utiliza como
margen de error.
Para conocer qué grupo ha obtenido mayores puntuaciones en la variable dependiente debe
observarse la tabla de rangos. Un mayor rango índica que ese grupo obtiene mayores puntuaciones
en la variable dependiente.

2.3.2 DIFERENCIAS ENTRE LAS PUNTUACIONES DE TRES O MÁS GRUPOS


INDEPENDIENTES. PRUEBA H DE KRUSKAL-WALLYS
El equivalente no paramétrico del ANOVA es la prueba H de Kruskal-Wallis que tiene una lógica
similar a la prueba U de Mann-Whitney. En lugar de medias se analizan los rangos de los grupos.
La forma de interpretar los resultados es la misma que en los casos anteriores. Valores de
probabilidad asociados al estadístico de H de Kruskal-Wallis inferiores a 0,05 indican diferencias
entre los rangos y, por tanto, diferencias en las puntuaciones de los grupos.
Las hipótesis a contrastar son las siguientes:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en el nivel lectora
en función del nivel socioeconómico (alto-medio-bajo)
 Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en el nivel
lectora en función del nivel socioeconómico (alto-medio-bajo)
En este caso se cuenta con tres grupos de comparación pero los resultados son los mismos que se
obtienen con la prueba U de Mann-Whitney. Una primera tabla de rangos que describe las
puntuaciones medias de los tres grupos (Tabla 10) y otra para los resultados concretos del contraste
de hipótesis (Tabla 11).
Nivel socioeconómico N Mean Rank
Comprensión lectora (0-30)Alto 12 23,00
Medio 12 18,83
Bajo 12 13,67
Total 36
Tabla 10. Rangos. Prueba H
Se aplica la prueba no Paramétrica porque los grupos a comparar únicamente cuentan con 12 casos
cada uno. En la tabla anterior se observa que el grupo de nivel socioeconómico alto es el que mayor
rango promedio obtiene, con un valor de 23.
Para comprobar si las diferencias encontradas en la tabla de rangos son estadísticamente
significativas, se debe observar la Tabla 11.

25
Enrique Navarro Asencio (@eduktive)

Test Statisticsa
Comprensión lectora (0-30)
Chi-Square 4,738
df 2
Asymp. Sig. ,094
a. Kruskal Wallis Test
Tabla 11. Prueba H de Kruskal Wallis
Aunque en la tabla aparezca el estadístico Chi-square (chi-cuadrado), el estadístico utilizado es H
de Kruskal Wallis. Chi-cuadrado es solo una transformación porque H no tiene distribución de
probabilidad conocida y, por ese motivo, se transforma en chi para poder asignar esos valores de
probabilidad.
En este caso la probabilidad asociada al estadístico H es de 0,094. Valor que supera el 0,05
establecido como límite. Por tanto, no se pueden asumir diferencias estadísticamente significativas
entre los grupos comparados. Debe aceptarse la hipótesis nula.

2.3.3 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS.


PRUEBA W DE WILCOXON.
En el caso de contar con dos grupos relacionados, como las puntuaciones pretest y postest de un
mismo estudiante, pero no se cumplen los requisitos para aplicar pruebas paramétricas o las
variables analizadas son ordinales, la prueba W de Wilcoxon es el equivalente no paramétrico.
La prueba de Wilcoxon, de la misma forma que las pruebas no paramétricas U de Mann-Whitney y
H de Kruskal Wallis también utiliza rangos en lugar de medias para llevar a cabo la comparación.
Las hipótesis a contrastar son las siguientes:
 Hipótesis Nula: No existen diferencias estadísticamente significativas entre el pretest y
postest de la variable nivel de vocabulario recodificada (alto-medio-bajo)
 Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el
pretest y postest de la variable nivel de vocabulario recodificada (alto-medio-bajo)
Los resultados del contraste aparecen en dos tablas (Tabla 12 y Tabla 13). En la primera se
muestran los rangos diferenciados en tres categorías. En primer lugar los rangos negativos que
indican los casos en los que la puntuación del pretest es mayor que la del postest; en segundo lugar,
los rangos positivos que indican cuando la puntuación del postest es mayor a la del pretest; y,
finalmente, los empates.
En este ejemplo hay 0 rangos negativos, 3 positivos y 33 empates. Por tanto, en ningún caso la
puntuación del pretest es mayor que la del postest; en 3 casos ocurre al revés, es mayor el postest; y
en la mayoría de los casos (33) se obtiene la misma puntuación en el pretest y en el postest.
Media de Suma de
N Rangos Rangos
Nivel de Vocabulario (postest) - Nivel de Rangos Negativosa 0a ,00 ,00
Vocabulario (pretest) Rangos Positivosb 3b 2,00 6,00
Empatesc 33c
Total 36

26
Enrique Navarro Asencio (@eduktive)

Media de Suma de
N Rangos Rangos
Nivel de Vocabulario (postest) - Nivel de Rangos Negativosa 0a ,00 ,00
Vocabulario (pretest) Rangos Positivosb 3b 2,00 6,00
Empatesc 33c
Total 36
a. Nivel de Vocabulario (postest) < Nivel de Vocabulario (pretest)
b. Nivel de Vocabulario (postest) > Nivel de Vocabulario (pretest)
c. Nivel de Vocabulario (postest) = Nivel de Vocabulario (pretest)
Tabla 12. Rangos. Prueba W de Wilcoxon
Es necesario analizar la Tabla 13 para comprobar la existencia de diferencias estadísticamente
significativas entre pretest y postest.
Test Statisticsb
Nivel de Vocabulario
(postest) - Nivel de
Vocabulario (pretest)
Z -1,732a
Asymp. Sig. (2-tailed) ,083
a. Basado en rangos negativos.
b. Wilcoxon Signed Ranks Test
Tabla 13. Prueba W de Wilcoxon
El valor de probabilidad asociada al estadístico calculado es de 0,083, valor que se encuentra por
encima de 0,05. Por tanto, debe aceptarse la hipótesis nula y no se pueden afirmar diferencias
entre las puntuaciones de pretest y postest.

2.3.4 DIFERENCIAS ENTRE LAS PUNTUACIONES DE DOS GRUPOS RELACIONADOS.


PRUEBA MCNEMAR
Cuando se comparan dos grupos relacionados y la variable dependiente es cualitativa con dos
únicas categorías el estadístico adecuado es McNemar. Esta prueba equivale a la comparación de
dos proporciones de casos de la misma variable en dos momentos temporales distintos, por
ejemplo, si hay el mismo número de casos que aprueben la asignatura de matemáticas en la
primera y en la segunda evaluación.
Las hipótesis a contrastar son las siguientes:
 Hipótesis Nula: No existen diferencias estadísticamente significativas entre el número de
casos que supera el pretest y los que superan el postest de la variable nivel de vocabulario
recodificada (No supera-Supera)
 Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas entre el
número de casos que supera el pretest y los que superan el postest de la variable nivel de
vocabulario recodificada (No supera-Supera)
Los resultados del contraste aparecen en dos tablas (Tabla 14 y Tabla 15). La primera es una tabla
de contingencia que analiza el número de casos que hay en las distintas categorías de las variables
(cuántos casos no superan el pretest y postest; cuántos no superan el pretest y sí el postest; cuántos
casos superan el pretest y el postest; cuántos casos superan el pretest, pero no el postest). La
segunda tabla indica si los cambios entre pretest y postest son significativos.
Tabla de contingencia VOCA_Pre * VOCA_Post

27
Enrique Navarro Asencio (@eduktive)

VOCA_Post
No Supera Supera Total
VOCA_Pr No Recuento 10 7 17
e Supera % dentro de COM2 58,8% 41,2% 100,0%
Supera Recuento 5 8 13
% dentro de COM2 38,5% 61,5% 100,0%
Total Recuento 15 15 30
% dentro de COM2 50,0% 50,0% 100,0%
Tabla 14. Tabla de contingencia
Para comprobar si los cambios entre pretest y postest son estadísticamente significativos debe
observarse la siguiente tabla:
Pruebas de chi-cuadrado
Sig. exacta
Valor (bilateral)
Prueba de McNemar ,774a
N de casos válidos 30
a. Utilizada la distribución binomial
Tabla 15. Prueba de mcnemar
El resultado de la prueba indica que la probabilidad asociada al estadístico (o,774) supera al nivel
de error asumido (0,05) y, por tanto, debe aceptarse la hipótesis nula y afirmar que no hay un
mayor número de casos que supere la prueba de vocabulario en el postest que en el pretest.

2.3.5 COMPARACIÓN DE UN ÚNICO GRUPO. CHI-CUADRADO COMO BONDAD DE


AJUSTE.
Esta prueba de comparación se utiliza cuando el objetivo es comprobar si el número de casos que
hay en cada categoría (frecuencias observadas) de una variable cualitativa es el mismo (frecuencia
esperada).
Esta frecuencia esperada es el número de sujetos que se esperaba obtener en cada categoría de la
variable. Puede ser el mismo número en cada categoría o un número concreto establecido por el
investigador.
Por ejemplo, quiere comprobarse si el número de sujetos de cada categoría de la variable Madurez
Lectora es el mismo, es decir, si el mismo número de sujetos obtiene una madurez lectora baja,
media y alta. Las hipótesis a contrastar son las siguientes:
 Hipótesis Nula: No existen diferencias estadísticamente significativas en las frecuencias
(nº de casos) de cada categoría de la variable Madurez Lectora.
 Hipótesis Alternativa: Sí existen diferencias estadísticamente significativas en las
frecuencias (nº de casos) de cada categoría de la variable Madurez Lectora.
Los resultados de esta prueba se presentan en dos tablas (Tabla 16 y Tabla 17). En la primera
aparecen las frecuencias observadas (Observed N) que es el nº de sujetos en cada categoría de la
variable analizada, por ejemplo, hay 9 casos con madurez lectora baja y 19 con media; las
frecuencias esperadas (Expected N) si las categorías tuvieran el mismo nº de casos, 12 casos en
cada categoría; y el residual que es la diferencia entre las observadas y las esperadas. La segunda
tabla incluye los resultados del estadístico chi-cuadrado y su probabilidad asociada:
Observed N Expected N Residual

28
Enrique Navarro Asencio (@eduktive)

Baja 9 12,0 -3,0


Media 19 12,0 7,0
Alta 8 12,0 -4,0
Total 36

Tabla 16. Frecuencias observadas y esperadas de la variable Madurez Lectora (categorizada)


Es necesario observar la probabilidad asociada al estadístico chi-cuadrado (Tabla 17) para
confirmar la existencia de diferencias entre las frecuencias observadas y las esperadas.

Categorización Madurez Lectora


Chi-Square 6,167a
df 2
Asymp. Sig. ,046
a. 0 celdas (,0%) tienen una frecuencia esperada
inferior 5. La frecuencia minima esperada es 12,0.
Tabla 17. Prueba chi-cuadrado como bondad de ajuste.
En este ejemplo, la probabilidad asociada al estadístico chi-cuadrado es de 0,046, valor inferior a
0,05. Por tanto, debe rechazarse la hipótesis nula y confirmar que el número de casos de cada
categoría no es el mismo en la variable madurez lectora.

2.4 PRUEBAS NO PARAMÉTRICAS DE RELACIONES ENTRE VARIABLES


El objetivo del análisis de correlación no paramétrico es el mismo que persigue el análisis
paramétrico: cuantificar la relación existente entre dos variables. Las hipótesis, por tanto,
coinciden con las formuladas en el análisis de correlación paramétrico
 Hipótesis nula: Las variables (nombres de las variables) analizadas no están
relacionadas.
 Hipótesis alternativa: Las variables (nombres de las variables) analizadas sí están
relacionadas.
El tipo de estadístico de correlación adecuado dependerá de las características de las variables
analizadas. Cuando las dos variables correlacionadas están medidas a nivel de intervalo y siguen
una distribución normal el estadístico adecuado es la correlación de Pearson (ver apartado 2.2.1).
No obstante, contar con poca muestra o con variables de otra naturaleza son aspectos que
determinan el estadístico de correlación. Además de Pearson, otros tipos de coeficientes de
correlación no paramétricos son los siguientes:
 Rho de Spearman: se utiliza cuando las variables tienen naturaleza cualitativa ordinal o
también con variables cuantitativas pero con muestras pequeñas (menos de 30 casos).
Otras alternativas a este coeficiente son Tau b y Tau c y gamma.
 Chi-cuadrado: se utiliza cuando se analiza la relación entre dos variables cualitativas
nominales. Por ejemplo, la relación entre sexo (hombre-mujer) y rendimiento (alto-bajo).
También se utiliza para relacionar una variable nominal y otra ordinal.

29
Enrique Navarro Asencio (@eduktive)

2.4.1 CORRELACIÓN ENTRE DOS VARIABLES CUALITATIVAS ORDINALES.


SPEARMAN, TAU-B, TAU-C Y GAMMA
La correlación de Spearman se utiliza cuando las variables tienen naturaleza cualitativa ordinal.
También cuando las variables son cuantitativas pero se cuenta con poca muestra. El ejemplo
clásico de variables ordinales son los ítems de un cuestionario de opinión: valora de 1 a 5 tu grado
de acuerdo con las siguientes afirmaciones (variables tipo Likert).
La interpretación es idéntica a la correlación paramétrica. Tau b y Tau c de Kendall y Gamma son
una alternativa al coeficiente de correlación de Spearman.
La interpretación de estos coeficientes de correlación no paramétricos (Spearman, tau b, tau c y
gamma) es idéntica a la de Pearson. Sus valores oscilan entre -1 y +1. Recordemos que el valor cero
quiere decir ausencia de correlación. A medida que el valor se acerca a los extremos (-1 o +1) la
correlación es más potente. El signo señala la direccionalidad de la correlación. Un valor negativo
quiere decir que a medida que aumentan los valores de una variable disminuyen los de la otra
(correlación inversa). En cambio, si el valor es positivo, a medida que aumentan unos también lo
hacen los otros y viceversa (correlación directa).
Veamos un ejemplo. Se quiere analizar la relación entre dos variables ordinales. Son Madurez
lectora y nivel de vocabulario que inicialmente eran variables cuantitativas y se han recodificado en
tres categorías: baja-media-alta. Las hipótesis a contrastar son las siguientes:
 Hipótesis nula: Las variables madurez lectora y nivel de vocabulario, ambas con tres
categorías (baja-media-alta) no están relacionadas.
 Hipótesis alternativa: Las variables madurez lectora y nivel de vocabulario, ambas con
tres categorías (baja-media-alta) SÍ están relacionadas.
A modo de ejemplo, se han calculado los cuatro coeficientes posibles entre variables ordinales. En
la práctica únicamente se necesita uno de ellos. El más utilizado es Spearman (Tabla 18).
Categorización Categorización Nivel de
Madurez Lectora Vocabulario
Spearman's Categorización Madurez Correlation 1,000 ,916**
rho Lectora Coefficient
Sig. (2-tailed) . ,000
N 36 36
Categorización Nivel de Correlation ,916** 1,000
Vocabulario Coefficient
Sig. (2-tailed) ,000 .
N 36 36
**. Correlation is significant at the 0.01 level (2-tailed).
Tabla 18. Correlación de Spearman entre Madurez lectora y nivel de vocabulario categorizadas.
De la misma forma que en el resto de contraste de hipótesis, debe observarse el valor del
coeficiente, junto con el valor de la probabilidad asociada. Si ese valor es inferior a 0,05 el valor de
la correlación es significativo. En caso contrario no se podrá confirmar la relación entre las
variables estudiadas.
En este caso, el coeficiente de Spearman es igual a 0,916 y la probabilidad asociada al estadístico
(sig. (2-tailed) es 0,000, valor inferior a 0,05. Por tanto, la correlación es significativa.
El programa SPSS marca con un asterisco (*) las correlaciones que son significativas considerando
un nivel de error de 0,05 y con dos (**) las que lo son con 0,01, es decir, con un nivel de confianza
del 95% o del 99%

30
Enrique Navarro Asencio (@eduktive)

En la tabla de resultados (Tabla 18) aparecen dos coeficientes de correlación porque es una tabla
simétrica. Incluye los valores de correlación entre madurez lectora y nivel de vocabulario y también
entre nivel de vocabulario y madurez lectora.
El resto de coeficientes de correlación para variables ordinales (Tabla 19) muestran valores muy
similares:
Asymp. Std.
Value Error Approx. T Approx. Sig.
Ordinal by Ordinal Kendall's tau-b ,902 ,051 8,947 ,000
Kendall's tau-c ,813 ,091 8,947 ,000
Gamma 1,000 ,000 8,947 ,000
N of Valid Cases 36
Tabla 19. Correlación tau-b, tau-c y gamma entre Madurez lectora y nivel de vocabulario categorizadas.
Todos los coeficientes resultan significativos. Los valores de probabilidad asociada (Approx. Sig.)
son inferiores a 0,05. Un análisis en profundidad de cada uno de ellos indican que tau-b es el que
obtiene un valor más parecido a Spearman (Tau-b= 0,902 y Spearman= 0,916). El coeficiente
Gamma indica una correlación perfecta entre las variables, con un valor de 1. En cambio, tau-c es el
más conservador de los tres, con un valor de 0,813. No obstante, las diferencias entre coeficientes
son mínimas. En todos los casos la intensidad de la correlación es alta.

2.4.2 CORRELACIÓN ENTRE DOS VARIABLES CUALITATIVAS NOMINALES. CHI-


CUADRADO PARA LA INDEPENDENCIA
Finalmente, el coeficiente de correlación chi-cuadrado se utiliza cuando las variables analizadas
tienen naturaleza cualitativa (por ejemplo, lateralidad (izquierda-derecha) o sexo (mujer-varón),
etc.). También se emplea cuando se correlaciona una variable cualitativa nominal con otra ordinal.
El coeficiente chi-cuadrado se interpreta de forma distinta al resto de coeficientes de correlación
porque no hay valores negativos.
En los coeficientes de Pearson, Spearman, tau-b, tau-c y gamma los valores oscilan entre -1 y +1. En
el caso de chi-cuadrado únicamente puede indicarse si la correlación es significativa o no, en
función de la probabilidad asociada. Si es inferior a 0,05 será una relación significativa.
Únicamente pueden compararse coeficientes chi-cuadrado entre sí y, en ese caso, un mayor valor
quiere decir una relación más potente entre las variables.
Las hipótesis a contrastar son las siguientes:
 Hipótesis nula: Las variables asistencia a preescolar y nivel de vocabulario categorizada
(baja-media-alta) son independientes (o no están relacionadas).
 Hipótesis alternativa: Las variables asistencia a preescolar y nivel de vocabulario
categorizada (baja-media-alta) están relacionadas.
Los resultados se distribuyen en dos tablas. La primera (Tabla 20) es una tabla de contingencia que
muestra el número de sujetos con los que cuenta cada una de las categorías de las variables. O más
bien, del cruce de categorías de las dos variables analizadas.
En este ejemplo, cuántos alumnos han asistido a preescolar y tienen un nivel de vocabulario bajo (1
caso), cuántos medio (9 casos) y cuántos un nivel alto (6 casos). La tabla también proporciona la
misma información para los que no han asistido a preescolar, 6 casos tienen un nivel de
vocabulario bajo, 11 medio y 1 alto.

31
Enrique Navarro Asencio (@eduktive)

Analizando la tabla de contingencia se observa cierta tendencia. Hay un mayor número de casos
con nivel de vocabulario alto y que han asistido a preescolar. En cambio, los que no han asistido a
preescolar tienen un mayor número de casos con nivel de vocabulario bajo.
Categorización Nivel de Vocabulario
Baja Media Alta Total
Asistencia a Preescolar Sí 1 9 6 16
No 6 11 1 18
Total 7 20 7 34
Tabla 20. Tabla de contingencia de Asistencia a preescolar y nivel de vocabulario
Los resultados también incluyen un gráfico de barras (Figura 20) con la misma información que la
tabla de contingencia:

Figura 20. Grafico de barras desagregado


Para confirmar está relación debe observarse la tabla de chi-cuadrado (Tabla 21). Este coeficiente
no analiza rangos, estudia el número de casos de casos de cada categoría y su posible tendencia. En
la tabla aparecen varios coeficientes pero debe observare únicamente chi-cuadrado (chi-square).
La manera de conocer si el estadístico chi-cuadrado ha resultado significativo es la misma que en el
resto de contrastes de hipótesis. Valores de probabilidad (Asymp. Sig. (2-sided)) inferiores a 0,05
indican que la relación ha resultado significativa. Por tanto, las dos variables cualitativas
estudiadas están correlacionadas.
En este ejemplo la probabilidad asociada a chi-cuadrado es de 0,027, un valor inferior al 0,05. Por
tanto, las variables asistencia a preescolar y nivel de vocabulario están relacionadas. No es posible
conocer la intensidad de la relación a no ser que se compare con otros coeficientes chi-cuadrado.
Chi-cuadrado no tiene intervalos establecidos como el coeficiente de correlación de Pearson que
oscila entre -1 y +1. En ese caso, un mayor de chi indica mayor intensidad de la relación entre
variables.
Asymp. Sig. (2-
Value df sided)
Pearson Chi-Square 7,250a 2 ,027
Likelihood Ratio 8,007 2 ,018
32
Enrique Navarro Asencio (@eduktive)

Linear-by-Linear 6,957 1 ,008


Association
N of Valid Cases 34
a. 4 cells (66,7%) have expected count less than 5. The minimum
expected count is 3,29.
Tabla 21. Prueba Chi-cuadrado
Hay una adaptación del coeficiente de correlación chi-cuadrado que se utiliza cuando las dos
variables cualitativas analizadas tienen el mismo número de categorías. Por ejemplo, si tratamos de
relacionar el género (Mujer-Hombre) con la variable sociabilidad (alta sociabilidad-baja
sociabilidad). Es el coeficiente de contingencia
Los resultados también se presentan en dos tablas. La primera es una tabla de contingencia (Tabla
22) que representa las frecuencias de cada categoría obtenida con el cruce de las dos variables. En
este caso: mujeres con alta sociabilidad, mujeres con baja sociabilidad, varones con alta
sociabilidad y varones con baja sociabilidad. La segunda (Tabla 23) muestra los resultados
concretos del coeficiente de contingencia y su probabilidad asociada.
Extroversión y sociabilidad
Alta sociabilidad Baja sociabilidad Total
SEXO Mujer 30 18 48
Varón 25 27 52
Total 55 45 100
Tabla 22. Tabla de contingencia de sexo y sociabilidad
Los valores del coeficiente de contingencia oscilan entre 0 y 1. Valores cercanos a 1 indican una
relación muy potente entre las variables y cercanos a 0 indican ausencia de relación. No es posible
diferenciar entre relación directa o inversa. No obstante, para que el coeficiente resulte significativo
el valor de la probabilidad asociada debe ser inferior a 0,05.
Value Approx. Sig.
Nominal by Nominal Contingency Coefficient ,143 ,148
N of Valid Cases 100
Tabla 23. Coeficiente de Contingencia.
En este ejemplo, el valor del coeficiente de contingencia es 0,143 y la probabilidad asociada es igual
a 0,148. Este valor de probabilidad es superior a 0,05 y, por tanto, la relación entre las variables
sexo y sociabilidad no resulta significativa.

2.4.2 CORRELACIÓN ENTRE UNA VARIABLE CUALITATIVA NOMINAL DICOTÓMICA


Y UNA VARIABLE CUANTITATIVA
Cuando contamos con una variable cualitativa con dos categorías (dicotómica), por ejemplo,
acertar o fallar un ítem, ser fumador o no fumador, superar o no superar una prueba, etc. y se
pretende correlacionar con las puntuaciones de una variable cuantitativa. En este caso, la
correlación adecuada es la biserial-puntual.
Este estadístico de correlación es un caso particular de Pearson que se aplica cuando una de las
variables tiene valores de 0 y 1.
Sus resultados se interpretan de la misma forma que Pearson. El estadístico puede tomar valores
entre -1 y +1 y el cero quiere decir ausencia de correlación. A medida que el valor se acerca a los
extremos (-1 o +1) la correlación es más potente y el signo señala la direccionalidad de la
correlación.

33

Anda mungkin juga menyukai