Anda di halaman 1dari 7

INTRODUCCION

En investigacin existen muchos tipos de experimentos, dentro de los cuales es


frecuente encontrar el experimento con un solo factor. El anlisis de variancia
(ANDEVA) es la tcnica utilizada para interpretar los resultados de este tipo de
experimento. Sin embargo, es comn encontrar publicaciones en las que el
ANDEVA se utiliza incorrectamente y adems, en las que los anlisis posteriores
tras encontrar significancia en el ANDEVA tambin son incorrectos. Es criterio del
autor que las dos principales razones por las que esto sucede son: 1)
desconocimiento de los fundamentos tericos en los que se basa cada prueba y 2)
desapego de la prueba escogida con el verdadero objetivo de la investigacin. A
continuacin, en una primera seccin, se describe el fundamento terico del
ANDEVA y de las pruebas que pueden aplicarse posteriormente. En una segunda
seccin se presentan ejemplos prcticos que tienen el objetivo de mostrar al lector
la escogencia y aplicacin apropiadas de estas pruebas. Los ejemplos se basan
en experimentos de un solo factor, correspondientes a diseos irrestrictos
aleatorios con mediciones independientes.

El ANDEVA y PRUEBAS POSTERIORES


El anlisis de variancia es una tcnica que se usa para probar hiptesis acerca de
las medias de diferentes tratamientos que se ensayan (Daniel 1984). Para que
esto sea posible, las medias que se determinan tienen que provenir de mediciones
sobre muestras independientes, pues si las mediciones se hacen sobre la misma
muestra deben utilizarse tcnicas que contemplen mediciones repetidas. Adems,
el ANDEVA no puede utilizarse para porcentajes o proporciones de naturaleza
binomial (como por ejemplo porcentaje de clulas muertas), pues stos no
cumplen el supuesto de igualdad de variancias. Por el contrario, el ANDEVA si
aplica para porcentajes que responden a una distribucin normal (como por
ejemplo % de humedad de un alimento). Cuando el ANDEVA se utiliza para
analizar los datos de un experimento de un solo factor, la primera etapa es
comprobar si hay significancia del factor (tratamientos) que se estudi. Si no hay
significancia, un anlisis posterior es innecesario. De acuerdo con Gonzlez
(2008), procede reportar la no significancia e indicar que no hay evidencia para
concluir que los tratamientos ensayados provocan diferencia en el promedio
observado para la variable de inters. Junto con la no significancia, debe
reportarse la potencia de la prueba (1-) (para ms detalle acerca de la potencia
de prueba puede consultar diversos textos de estadstica o la publicacin de
Gonzlez (2008)). En estudios de un factor, si se comprueba la significancia de los
tratamientos (niveles del factor) tras aplicar el ANDEVA, se sabra entonces que al

menos uno de los promedios de la variable respuesta determinado para un


tratamiento, es diferente de los obtenidos para los otros tratamientos (Montgomery
2003). Para identificar cul o cules promedios son diferentes resulta necesario
realizar pruebas adicionales. Por ejemplo, puede ser que todos los promedios
sean diferentes entre s, o que haya dos grupos que se diferencian, o que
solamente uno se diferencie de los dems y as sucesivamente (Navarro 2006).
Cuando se quiere comparar los promedios ms a fondo, tras un ANDEVA para un
experimento de un solo factor, existen tres posibilidades generales: aplicar una
prueba de comparaciones mltiples, la prueba de contrastes ortogonales o un
anlisis de regresin. Las dos primeras tienen aplicacin cuando los tratamientos
que se comparan son cualitativos, mientras que en la regresin, cuando el objetivo
es estudiar una tendencia, los tratamientos son de naturaleza cuantitativa.
Pruebas de comparaciones mltiples
Existe una diversidad de pruebas de comparaciones mltiples, y resulta muy
importante conocer su fundamento terico para saber cundo es apropiado
aplicarlas. De acuerdo con Gacula y Singh (1984), entre las pruebas ms
conocidas estn: diferencia mnima significativa (LSD por sus siglas en ingls),
Dunnet, Duncan, Tukey, Newman-Keuls y Scheff. Este mismo autor indica que no
necesariamente se obtiene el mismo resultado al aplicar todas estas pruebas a un
mismo conjunto de datos. Esto demuestra la importancia de entender en qu
casos es aplicable cada una. Adicionalmente, es importante comprender que el
carcter mltiple de las comparaciones implica una desventaja para controlar el
Error (Tipo I). Se sugiere al lector interesado ahondar en este tema con base en
las referencias suministradas. A continuacin se describen las tres pruebas de
comparaciones mltiples con mayores diferencias entre s, y que adems, son las
de frecuente aplicacin en el campo de investigacin, pues son consideradas por
diversos autores como ms confiables que otras similares en una determinada
aplicacin (por ejemplo LSD versus Tukey en un mismo conjunto de datos).

LA PRUEBA DE DUNCAN
Despus de que se rechaz la hiptesis nula en un anlisis de varianza, es
necesario revisar a detalle y ver cules tratamientos son diferentes.
Para ello se utiliza la prueba de Duncan que sirve para comparar todos los pares
de medias. Fue desarrollado por primera vez por Duncan en 1951 pero
posteriormente l mismo modific su primer mtodo generando el que ahora se
denomina Nuevo mtodo de Rango Mltiple de Duncan. Esta prueba no requiere
de una prueba previa de F, como sucede con la DMS o sea que an sin ser
significativa la prueba F puede llevarse a cabo.
Prueba de Rangos Mltiples de Duncan
Este procedimiento es utilizado para realizar comparaciones mltiples de medias;
para realizar esta prueba no es necesario realizar previamente la prueba F y que
esta resulte significativa sin embargo, es recomendable efectuar esta prueba
despus que la prueba F haya resultado significativa, a fin de evitar
contradicciones entre ambas pruebas. La ventaja de esta prueba consiste en el
hecho de que no necesita que el valor de F sea significativo para poder usarla
La prueba de Duncan, tambin conocida como la prueba de rango mltiple, es
conveniente aplicarla cuando los tamaos de las muestras son iguales, deben
ordenarse de manera ascendente, y el error estndar de los promedios se
determina como:

En la tabla de Duncan de los rangos significativos se obtienen los valores r a(p,f)


para p=2,3,.,a, donde a es el nivel de significacin y f es el numero de grados
de libertad del error. Estos rangos se convierten en un conjunto de a -1 rangos
mnimos de significacin (por ejemplo, Rp) para p = 2,3,,a calculando

Ejemplo:
El experimento de la resistencia a la tensin
Para ilustrar el anlisis de varianza, se retoma al ejemplo que empez a
comentarse en la seccin 3-1. Recuerde que el ingeniero de desarrollo de
productos le interesa determinar si el peso porcentual del algodn en una fibra
sinttica afecta la resistencia a la tensin y he llevado a cabo un experimento
completamente aleatorizado con cinco niveles del peso porcentual del algodn
y cinco rplicas.

Peso
porcentu
al del
algodn
15
20
25
30
35

Resistencia a la tensin observada( lb / pulg


1

7
13
14
19
7

7
17
18
25
10

15
12
18
22
11

11
18
19
19
15

)
5

9
18
19
23
11

Promedios
y1= 9.8

y2=21.6

y3=15.4

y4=17.6 y5=10.8

La prueba del rango mltiple de Duncan puede aplicarse al ejemplo anterior.


Recuerde que MSE = 8.06, N = 25, n= 5, y hay 20 grados de libertad del error. Al
arreglar los promedios de los tratamientos en orden ascendente, se tiene
y1.=9.8
y 5 .=10 .8

y 3 .=15 . 4
y 4 .=17.6
y 2.=21. 6

49
77
88
10
8
54

El error estndar de cada promedio es Syi =

8.06 =1.27
5

. En el conjunto de

rangos significativos de la Tabla VII para a = 0.05, se obtiene r 0.05(2,20) = 2.95,


r0.05(3,20) = 3.10, r0.05(4,20) = 3.18, r0.05(5,20) = 3.25. Por lo tanto, los rangos de
significacin mnima son:

R2 = r0.05(2,20)Syi = (2.95)(1.27) = 3.75


R3 = r0.05(3,20)Syi = (3.10)(1.27) = 3.94
R4 = r0.05(4,20)Syi = (3.18)(1.27) = 4.04
R5 = r0.05(5,20)Syi = (3.25)(1.27) = 4.13

Los resultados de las comparaciones serian:

4 vs 1 : 21.6 9.8 = 11.8 > 4.13 (R5)


4 vs 5 : 21.6 9.8 = 10.8 > 4.04 (R4)
4 vs 2 : 21.6 9.8 = 6.2 > 3.94 (R3)
4 vs 3 : 21.6 9.8 = 4.0 > 3.75 (R2)
3 vs 1 : 17.6 9.8 = 7.8 > 4.04 (R4)
3 vs 5 : 17.6 9.8 = 6.8 > 3.95 (R3)
3 vs 2 : 17.6 9.8 = 2.2 > 3.75 (R2)
2 vs 1 : 15.4 9.8 = 5.6 > 3.94 (R3)
2 vs 5 : 15.4 9.8 = 4.6 > 3.75 (R2)
5 vs 1 : 10.8 9.8 = 1.0 > 3.75 (R2)

Por el anlisis se observa que hay diferencias significativas entre todos los pares
de medias con excepcin de la 3 y la 2 y la 5 y la 1.

BIBLIOGRAFIAS
Montgomery, DC. 2003. Diseo y anlisis de experimentos. Limusa Wiley,
Mxico D.F. p. 686. Navarro, JR. 2006. Diseo experimental: aplicaciones en
agricultura. Editorial UCR, San Jos. p.327.

Anda mungkin juga menyukai