Anda di halaman 1dari 7

2.

1 Familia de diseños para comparar tratamientos Los diseños experimentales más utilizados para
comparar tratamientos son: 1. Diseño completamente al azar (DCA) 2. Diseño en bloque
completamente al azar (DBCA) 3. Diseño en cuadro latino (DCL) 4. Diseño en cuadro grecolatino
(DCGL) La diferencia fundamental entre estos diseños es el número de factores de bloque que
incorporan o controlan de forma explícita durante el experimento. La comparación de los
tratamientos en cuanto a la respuesta media que logran, en cualquiera de estos diseños, se hace
mediante la hipótesis que se prueba con la técnica estadística llamada Análisis de Varianza
(ANOVA) con uno, dos, tres o cuatro criterios de clasificación, dependiendo del número de
factores de bloques incorporados al diseño. El modelo estadístico que describe el comportamiento
de la variable observada Y en cada diseño, incorpora un término adicional por cada factor de
bloqueo Controlado. De acuerdo con los modelos dados en la tabla, para cada diseño comparativo
se tienen al menos dos fuentes de variabilidad: los tratamientos o niveles del factor de interés y el
error aleatorio. Se agrega una nueva fuente de variabilidad por cada factor de bloque que se
controla directamente. Se observa que los diseños suponen que no hay efectos de interacción
entre los factores, lo cual sería lo deseable que ocurra; de no ocurrir así, tal efecto se recarga al
error y el problema de comparación no se resuelve con éxito. Un efecto de interacción entre dos
factores hace referencia a que el efecto de cada factor depende del nivel en que se encuentra el
otro.

2.2 El modelo de efectos fijos El modelo de efectos fijos (es cuando se estudian todos los posibles
tratamientos) de análisis de la varianza se aplica a situaciones en las que el experimentador ha
sometido al grupo o material analizado a varios factores, cada uno de los cuales le afecta sólo a la
media, permaneciendo la "variable respuesta" con una distribución normal. Este modelo se
supone cuando el investigador se interesa únicamente por los niveles del factor presentes en el
experimento, por lo que cualquier variación observada en las puntuaciones se deberá al error
experimental. En la práctica puede suceder que los tratamientos que se desea comparar sean
demasiados como para experimentar con todos. Cuando esto sucede es conveniente comparar
sólo una muestra de la población de tratamientos, de modo que pasa a ser una variable aleatoria
con su propia varianza que deberá estimarse a partir de los datos. En este capítulo sólo se
presenta el caso en que todos los tratamientos que se tienen se prueban, es decir, se supone una
población pequeña de tratamientos, lo cual hace posible compararlos a todos. En este caso, el
modelo dado por la ecuación (2.2) se llama modelo de efectos fijos.

2.3. Diseño completamente al azar y ANOVA Muchas comparaciones, como las antes
mencionadas, se hacen con base en el diseño completamente al azar (DCA), que es el más simple
de todos los diseños que se utilizan para comparar dos o más tratamientos, dado que sólo
consideran dos fuentes de variabilidad: los tratamientos y el error aleatorio. En la siguiente unidad
veremos diseños que consideran la influencia de otras fuentes de variabilidad (bloques).Este
diseño se llama completamente al azar porque todas las corridas experimentales se realizan en
orden aleatorio completo. De esta manera, si durante el estudio se hacen en total N pruebas, éstas
se corren al azar, de manera que los posibles efectos ambientales y temporales se vayan
repartiendo equitativamente entre los tratamientos. Ejemplo 1 Comparación de cuatro métodos
de ensamble. Un equipo de mejora investiga el efecto de cuatro métodos de ensamble A, B, C y D,
sobre el tiempo de ensamble en minutos con un nivel de significancia de 0.05. En primera
instancia, la estrategia experimental es aplicar cuatro veces los cuatro métodos de ensamble en
orden completamente aleatorio (las 16 pruebas en orden aleatorio). Los tiempos de ensamble
obtenidos se muestran en la tabla 2.1. Si se usa el diseño completamente al azar (DCA), se supone
que, además del método de ensamble, no existe ningún otro factor que influya de manera
significativa sobre la variable de respuesta (tiempo de ensamble) Ejemplo 2 Comparación de
cuatro tipos de cuero. Un fabricante de calzado desea mejorar la calidad de las suelas, las cuales se
pueden hacer con uno de los cuatro tipos de cuero A,B, C y D disponibles en el mercado. Para ello,
prueba los cueros con una máquina que hace pasar los zapatos por una superficie abrasiva; la
suela de éstos se desgasta al pasarla por dicha superficie. Como criterio de desgaste se usa la
pérdida de peso después de un número fijo de ciclos. Se prueban en orden aleatorio 24 zapatos,
seis de cada tipo de cuero. Al hacer las pruebas en orden completamente al azar se evitan sesgos y
las mediciones en un tipo de cuero resultan independientes de las demás. Los datos (en
miligramos) sobre el desgaste de cada tipo de cuero se muestran en la tabla

uu2.2 El análisis de la varianza de un criterio (ANOVA de un criterio) es una metodología para


analizar la variación entre muestras y la variación al interior de las mismas con varianzas, en lugar
de rangos. Como tal, es un método estadístico útil para comparar dos o más medias poblacionales.
El objetivo del análisis de varianza en el DCA es probar las hipótesis de igualdad de los
tratamientos con respecto a la media de la correspondiente variable de respuesta: Nota:
Primeramente explicare el cálculo manual tradicional para ANOVA, posteriormente el simplificado
y más práctico, así como su solución utilizando un paquete computacional. El método de ANOVA
con un criterio requiere del cálculo de dos estimaciones independientes parala varianza
poblacional común. Estas dos estimaciones se denotan por Se denomina estimación de la varianza
entre muestras (Método entre) Se denomina estimación de la varianza al interior de las muestras
(Método dentro) El estadístico entonces resulta y tiene una distribución muestral que sigue una
distribución F. Estadístico F para el ANOVA con un criterio El cual se contrastara con el valor de F
encontrado en tablas en relación a los grados de libertad del numerador entre grados de libertad
del denominador y con un (a) prefijado Se deduce que si F0 es grande, se contradice la hipótesis
de que no hay efectos de tratamientos; en cambio, si F0 8 Cada valor de la muestra obtenido de la
población A se compara con la media muestral A; cada elemento obtenido de la población B se
compara con la media muestral B, y así sucesivamente. La ecuación para calcular la estimación de
la varianza con el método dentro es: donde: (2,4) = Estimación de la varianza muestral con el
método entre. = i-ésimo elemento de los datos de grupo j. = media del grupo j C = número de
grupos n = número de elementos de la muestra en cada grupo. El número adecuado de grados
de libertad para el método dentro se calcula como c(n-1) si el número de observaciones en cada
grupo es igual. Como a cada elemento del grupo se le resta la media de ese grupo, sólo (n-1)
elementos de cada grupo pueden variar. Además como se tienen c grupos, c se multiplica por (n-1)
para obtener los grados de libertad para el método dentro. Grados de libertad para glw = C(n – 1)
Método entre El segundo método para estimar la varianza común de la población produce una
estimación válida sólo si la hipótesis nula es cierta. Para entender el método entre recuerde el
teorema del límite central. Este importante teorema en estadística establece que la distribución
de las medias muéstrales tiende a una distribución normal conforme crece el tamaño de la
muestra, con una media u y una desviación estándar Si el error estándar de la media esentonces la
varianza de la distribución es igual al error estándar al cuadrado, Esta varianza es una medida de
las diferencias entre todas las medias muéstrales que puedan obtenerse de la distribución y la
media de la población. La raíz cuadrada de esta varianza es el error estándar de la media, es decir,
la diferencia estándar entre una media muestral y la media poblacional. En ANOVA, para estimar la
varianza de la distribución muestral de medias, se debe estimar primero la media poblacional. La
media de todos los valores muestrales proporciona esa estimación. Después, se determina la
diferencia entre la media de cada grupo y esta media poblacional estimada, y estas diferencias se
elevan al cuadrado y se suman. Este valor, con frecuencia se llama la suma de cuadrados entre
(SCb). Esta suma se divide entonces entre el número adecuado de grados de libertad para obtener
la estimación de la varianza de la distribución muestral. La ecuación siguiente da el cálculo de la
estimación de la varianza de la distribución muestral de las medias: dónde: (2,5) Tabla ANOVA Los
resultados del análisis de varianza se presentan en una tabla ANOVA que resume los valores
importantes de la prueba. Esta tabla tiene un formato estándar que usan los libros y los problemas
de computadora que ejecutan ANOVA. La siguiente tabla muestra la forma general de la tabla
ANOVA. En dicha tabla se resumen los cálculos necesarios para la prueba de igualdad de las
medias poblacionales usando análisis de varianza. Primero se usa el método dentro para estimar
s2. Cada valor de los datos se compara con su propia media, y la suma de las |||diferencias al
cuadrado se divide entre los grados de libertad c(n-1). donde: j = Número de la columna i =
Número de la fila c = Número de columnas (grupos) n = Número de elementos en cada grupo
(tamaño de la muestra) La tabla ANOVA contiene columnas con las fuentes de variación, las sumas
de cuadrados, los grados de libertad, las estimaciones de la varianza y el valor F para el
procedimiento de análisis de varianza. Retomando el problema del efecto de cuatro métodos de
ensamble A, B, C y D, sobre el tiempo de ensamble en minutos tenemos: Completando la tabla
ANOVA, quedando de la siguiente manera Como la hipótesis a probar es H0: u1 = u2 = u3 = u4 H1:
No todas las poblaciones tienen la misma media El valor de F calculado por tabla cuando tenemos
un nivel de significancia de 0,05 y 3 grados de libertad en el numerador y 12 grados de libertad en
el denominador es F0,05 (3,12) = 3,49 Como nuestro estadístico de prueba F (9,42) excede el valor
crítico tabulado (3,49), rechazamos la hipótesis nula y aceptamos la alterna, concluyendo que sí
hay diferencia o efecto de los métodos de ensamble en cuanto a su tiempo promedio. Ahora
veremos el procedimiento y notación más comúnmente utilizado para la solución de ANOVA
ANOVA Como ya lo mencionamos el objetivo del análisis de varianza en el DCA es probar la
hipótesis de igualdad de los tratamientos con respecto a la media de correspondiente variable de
respuesta. Para probar la hipótesis dada por la relación: : Mediante la técnica de ANOVA, lo
primero es descomponer la variabilidad total de los datos en sus dos componentes: la variabilidad
debida a tratamientos y la que corresponde al error aleatorio (equivalente al método entre y
método dentro), como se hace a continuación. Una medida de la variabilidad total presente en las
observaciones de la tabla }

2.3 es la suma total de cuadrados ( SCT) dada por: donde la SCE mide la variación dentro de
tratamientos, ya que si hay mucha variación entre las observaciones de cada tratamiento entonces
Yij-Y tenderá a ser grande en valor absoluto. En forma abreviada, esta descomposición de la suma
total de cuadrados se puede describir como: La suma de cuadrados divididos entre sus respectivos
grados de libertad se llaman cuadrados medios. Los dos que más interesan son el cuadrado medio
de tratamientos ( CMTRET) y el cuadrado medio del error ( CME), que se denotan por: (2.13) sigue
una distribución F con (K-1) grados de libertad en el numerador y (N-K ) grados de libertad en el
denominador. De la ecuación (2.13) se deduce que si F0 es grande, se contradice la hipótesis de
que no hay efecto de tratamientos; en cambio, si F0 Toda la información necesaria para calcular el
estadístico F0 hasta llegar al valor-p se escribe en la llamada tabla de análisis de varianza (ANOVA)
que se muestra en la tabla

2.4. En esta tabla, las abreviaturas significan lo siguiente: FV= fuente de variabilidad (efecto), SC=
suma de cuadrados, GL= grados de libertad, CM= cuadrado medio, F0 estadístico de prueba, valor-
p = significancia observada Análisis del ejemplo 1 (comparación de cuatro tipos de métodos de
ensamble). La interrogante que se planteó en el problema de la comparación entre los cuatro tipos
de métodos de ensamble fue: ¿existen diferencias entre el tiempo promedio de los diferentes
métodos de ensamble? La respuesta a esta pregunta es el resultado de contrastar las hipótesis:
Diagrama de cajas simultáneos Los diagramas de cajas es una herramienta para describir el
comportamiento e unos datos, y es de suma utilidad para comparar procesos, tratamientos y, en
general, para hacer análisis por estratos (lotes, proveedores, turnos). En el resultado arrojado por
Minitab se observa en la figura (figura 2.1) que el método C parece diferente a los métodos A y B
en cuanto a sus medias; la media del método D también se ve diferente a la media del método A.
Por otra parte, se observa un poco más de variabilidad en el método C que en todos los demás. Lo
que sigue es verificar que lo que se observa en el diagrama de cajas implica diferencias
significativas entre los distintos tratamientos; por lo tanto, es necesario hacer pruebas estadísticas
porque los datos que se analizan en los diagramas de cajas son muestras. En general, cuando los
diagramas no se traslapan es probable que los tratamientos correspondientes sean diferentes
entre sí, y la probabilidad es mayor en la medida que los diagramas están basados en más datos.
Cuando se traslapan un poco puede ser que haya o no diferencias significativas, y en cualquier
caso es conveniente utilizar una prueba estadística para determinar cuáles diferencias son
significativas. Estas pruebas se verán en la siguiente sección. Análisis del ejemplo 2 (comparación
de cuatro tipos de cuero). La interrogante que se planteó en el problema de la comparación entre
los cuatro tipos de cuero fue: ¿existen diferencias entre el desgaste promedio de los diferentes
tipos de cuero? La respuesta a esta pregunta es el resultado de contrastar las hipótesis: En el
resultado arrojado por Excel, se muestra el análisis de varianza para este ejemplo. Como el valor-p
= 0,0000 es menor que la significancia prefijada a= 0,05 , se rechaza H0y se acepta que al menos
un par de tipos de cuero tiene un desgaste promedio diferente ANOVA unidireccional: A; B; C; D
Minitab

2.4 Comparaciones o pruebas de rangos múltiples El análisis de varianza es un procedimiento


poderoso para probar la homogeneidad de un conjunto de medias. Sin embargo, si rechazamos la
hipótesis nula ( ) y aceptamos la alterna (que no todas las medias son iguales) aún no sabemos
cuáles de las medias poblacionales son iguales y cuáles son diferentes. Comparación de parejas de
medias de tratamientos. Cuando no se rechaza la H0: 1 = 2 = 3, el objetivo del experimento
está cubierto y la conclusión es que los tratamientos no son diferentes. Si por el contrario se
rechaza H0, y por consiguiente se acepta la H1: No todas las poblaciones tienen la misma media,
es necesario investigar cuáles tratamientos resultaron diferentes, o cuáles provocan la diferencia.
Estas interrogantes se responden probando la igualdad de todos los posibles pares de medias,
para lo cual se han propuesto varios métodos, conocidos como métodos de comparaciones
múltiples o pruebas de rango múltiple. La diferencia primordial entre los métodos radica en la
potencia que tienen para detectar las diferencias entre las medias. Se dice que una prueba es más
potente si es capaz de detectar diferencias más pequeñas. Hay varios métodos estándar para
realizar comparaciones pareadas que apoyen la credibilidad de la tasa de error tipo I. Método de
la diferencia mínima significativa de Fisher (método LSD). Una vez que se rechazó en el ANOVA, el
problema es probar la igualdad de todos los posibles pares de medias con la hipótesis: En caso de
rechazar H0 se acepta la hipótesis alternativa la cual nos dice que las medias de los tratamientos i
y j son diferentes. El método LSD tiene una potencia importante, por lo que en ocasiones declara
significativas aun pequeñas diferencias. Ilustremos esta prueba continuando con el ejemplo 1, en
el cual, con el ANOVA se rechazó la hipótesis nula y se aceptó que al menos un par de medias de
tratamientos (métodos de ensamble) son diferentes entre sí. Para investigar cuáles pares de
medias son estadísticamente diferentes se prueban los seis posibles pares de hipótesis: En el
resultado de comparación de parejas arrojado por minitab, por el método de LSD, observamos que
este nos indica los intervalos de confianza para las comparaciones de cada par de muestras, por lo
que debemos tomar el punto medio de cada comparación (centro) y contrastarlo con el valor del
estadístico t de student obtenido en tablas (2,42) y tomar la decisión que corresponda Método de
Tukey. Es el método más conservador para comparar pares de medias de tratamientos, el cual
consiste en comparar las diferencias entre medias muéstrales con el valor crítico dado por:
Ejemplo. Al aplicar el método de Tukey al ejemplo 1 de los métodos de ensamble, a partir de la
tabla ANOVA correspondiente, se toma la información pertinente y de las tablas del rango
estudentizado (tabla 1) dada en el apéndice. En el resultado de comparación de parejas arrojado
por minitab, por el método de Tukey, observamos que este nos indica los intervalos de confianza
para las comparaciones de cada par de muestras, por lo que debemos tomar el punto medio de
cada comparación (centro) y contrastarlo con el valor del estadístico de rango estudentizado
obtenido en tablas (4,20) y sustituyendo en la formula obteniendo el valor de T 0,05 = 3,27, el cual
se contrasta con la diferencia de medias y se tomar la decisión que corresponda Método de
Duncan. En este método para la comparación de medias, si las muestras son de igual tamaño, los
promedios se acomodan en orden ascendente y el error estándar de los promedios se estima con
Este procedimiento de Duncan también se llama prueba de rango múltiple de Duncan. Este
procedimiento también se basa en la notación general del rango studentizado. El rango de
cualquier subconjunto de medias muestrales debe exceder cierto valor antes de que se encuentre
que cualquiera de las p medias es diferente. Este valor se llama rango de menor significancia para
las medias y se denota como En las comparaciones donde la diferencia observada es mayor que el
rango respectivo, se concluye que esas medias son significativamente diferentes. Si dos medias
caen entre otras dos que no son muy diferentes, entonces esas dos medias poblacionales también
se consideran estadísticamente iguales. Ejemplo. Supongamos que nos interesa probar las seis
hipótesis para los cuatro métodos de ensamble del problema anterior. de aquí se obtienen las
diferencias en el orden dado por el método de Duncan y se van comparando con el rango
correspondiente. En la siguiente tabla se resumen los resultados Método de Dunnet (Comparación
de tratamientos con un control). En muchos problemas científicos y de ingeniería no interesa
extraer inferencias con respecto a todas las posibles comparaciones entre las medias de los
tratamientos. En su lugar, el experimento a menudo dicta la necesidad de comparar de manera
simultánea cada tratamiento con un control. Por ejemplo, al comparar varios medicamentos para
el resfriado es conveniente que uno de los tratamientos sea que los pacientes no utilicen ningún
medicamento, esto sirve como referencia para decidir la posible utilidad de los medicamentos. Un
procedimiento de prueba desarrollado por C.W. Dunnett determina diferencias significativas entre
cada media del tratamiento y el control, en un solo nivel de significancia. .

2.5 Verificación de los supuestos del modelo


La validez de los resultados obtenidos en cualquier análisis de varianza queda supeditada a que los
supuestos del modelo se cumplan. Estos supuestos son: A) Normalidad B) Varianza constante
(igual varianza de los tratamientos) C) Independencia Esto es, la respuesta (Y) se debe distribuir de
manera normal, con la misma varianza en cada tratamiento y las mediciones deben ser
independientes. Estos supuestos sobre Y se traducen en supuestos sobre el termino error (E ) en el
modelo Es una práctica común utilizar la muestra de residuos para comprobar los supuestos del
modelo, ya que si los supuestos se cumplen, los residuos o residuales se pueden ver como una
muestra aleatoria de una distribución normal con media cero y varianza constante. Para
comprobar cada supuesto existen pruebas analíticas y gráficas que veremos a continuación. Por
sencillez, muchas veces se prefieren las pruebas gráficas. Éstas tienen el inconveniente de que no
son exactas, pero aun así , en la mayoría de las situaciones prácticas proporcionan la evidencia
suficiente en contra o a favor de los supuestos. Normalidad Un procedimiento gráfico para
verificar el cumplimiento del supuesto de normalidad de los residuos consiste en graficar los
residuos en papel o en la gráfica de probabilidad normal que se incluye casi en todos los paquetes
estadísticos. Esta gráfica del tipo X-Y tiene las escalas de tal manera que si los residuos siguen una
distribución normal, al graficarlos tienden a quedar alineados en una línea recta; por lo tanto, si
claramente no se alinean se concluye que el supuesto de normalidad no es correcto. Cabe
enfatizar el hecho de que el ajuste de los puntos a una recta no tiene que ser perfecto, dado que el
análisis de varianza resiste pequeñas y moderadas desviaciones al supuesto de normalidad.
Independencia La suposición de independencia en los residuos puede verificarse si se grafica el
orden en que se colectó un dato contra el residuo correspondiente. De esta manera, si al graficar
en el eje horizontal el tiempo (orden de corrida) y en el eje vertical los residuos, se detecta una
tendencia o patrón no aleatorio claramente definido, esto es evidencia de que existe una
correlación entre los errores y, por lo tanto, el supuesto de independencia no se cumple. Si el
comportamiento de los puntos es aleatorio dentro de una banda horizontal, el supuesto se está
cumpliendo. La violación de este supuesto generalmente indica deficiencias en la planeación y
ejecución del experimento; asimismo, puede ser un indicador de que no se aplico en forma
correcta el principio de aleatorización, o de que conforme se fueron realizando las pruebas
experimentales aparecieron factores que afectaron la respuesta observada. Por ello, en caso de
tener problemas con este supuesto, las conclusiones que se obtienen del análisis son endebles y
por ello es mejor revisar lo hecho y tratar de investigar por qué no se cumplió con ese supuesto de
independencia, a fin de reconsiderar la situación. En el ejemplo para comparar los cuatro tipos de
cuero, las gráficas resultantes figuras 2.2 y 2.3. Se observa el cumplimiento de los supuestos de
normalidad y varianza constante, sin embargo, en las dos gráficas es notorio un punto que se aleja
bastante del resto, el cual es un punto aberrante cuyo origen debe investigarse Elección del
tamaño de la muestra Una decisión importante en cualquier diseño de experimentos es decidir el
número de réplicas que se hará por cada tratamiento (tamaño de muestra). Por lo general, si se
esperan diferencias pequeñas entre tratamientos será necesario un mayor tamaño de muestra.
Aunque existen varios métodos para estimar el tamaño muestral, muchas veces tienen poca
aplicabilidad porque requieren cierto conocimiento previo sobre la varianza del error
experimental. Si recurrimos a la experiencia vemos que el número de réplicas en la mayoría de las
situaciones experimentales en las que se involucra un factor varía entre cinco y diez; incluso, en
algún caso puede llegar hasta 30. La tendencia podría inclinarse por un extremo de este rango e
incluso salirse de éste, de acuerdo con las siguientes consideraciones A menor diferencia que se
espera en los tratamientos, mayor será la cantidad de réplicas si se quieren detectar diferencias
significativas, y viceversa, es decir, si se esperan grandes diferencias quizá con pocas replicas sea
suficiente Si se espera mucha variación dentro de cada tratamiento, debido a la variación de
fuentes no controladas como métodos de medición, medio ambiente, materia prima, etc.,
entonces se necesitarán más réplicas Si son varios tratamientos (cuatro o más), entonces éste es
un punto favorable para reducir el número de réplicas. Además de lo anterior, es preciso
considerar los costos y el tiempo global del experimento. De aquí que si toman en cuenta las
consideraciones antes expuestas se podrá establecer el tamaño de muestra que permita
responder en una primera fase las preguntas más importantes que se plantearon con el
experimento

2.6 Uso de un software estadístico Excel a) En una hoja de Excel capturar primeramente la tabla de
datos b) En la misma hoja de cálculo seleccionar del cintillo superior Datos, luego Análisis de datos
c) Seleccionar análisis de varianza de un factor en la ventana desplegada d) En rango de entrada
(en ventana de captura) seleccionar todos los grupos, incluyendo su rótulo (sombrearlos con el
mouse), automáticamente se incluyen. e) En el siguiente recuadro seleccionar si nuestros datos
están ordenados en filia o columnas, además indicar si tenemos rótulos en los encabezados, e
indicar que los resultados los arroje en una hoja nueva Nota: Si no aparece Análisis de datos en la
parte superior derecha de la hoja de cálculo, se deberá de activar de la siguiente manera: · En el
símbolo del sistema en la parte superior izquierda de los encabezados dar clic. · En la ventana
desplegada seleccionar opciones de Excel en la parte inferior dando un clic. · De la ventana
desplegada señalar en el menú del lado izquierdo complementos · De la ventana desplegada en el
lado derecho, señalar en la parte inferior de la misma ir con un clic. · De la ventana desplegada
palomear el recuadro de herramientas para análisis, y aceptar Nota Como no está instalada esta
herramienta el sistema nos preguntara si queremos instalarla a lo que indicaremos que si, y la
instalara en un par de minutos. Minitab · En la hoja de cálculo que despliega Minitab capturar
nuestra tabla de datos indicando sus correspondientes rótulos en la primer fila que no está
numerada · En el cintillo superior indicar con el mouse Estadísticas · Del menú desplegado
seleccionar ANOVA, en el menú desplegado seleccionar Un solo factor (Desapilado) y dar clic con
el mouse En ventana de captura desplegada (Análisis de varianza- Un solo factor), en la parte
izquierda aparecerán automáticamente los grupos de tabla de datos En el cuadro superior
derecho (Respuestas (en columnas separadas)) indicar separando por un espacio (sin comas) los
nombres de las columnas que generalmente son letras, esto también se logra dando doble clic en
cada letra del cuadro de la izquierda, automáticamente son capturadas En nivel de confianza por
default es 95% Señalar Aceptar y nos arrojara el resultado ANOVA en la parte superior de la hoja
de calculo Si queremos hacer comparaciones de rango múltiples, entonces señalamos de la
ventana anterior comparaciones dando un clic. En la ventana desplegada señalaremos las
comparaciones que queramos, y en control nivel del grupo indicamos la A, y damos clic en aceptar
Si queremos las gráficas del supuesto del modelo entonces, damos clic a gráficas (antepenúltima
ventana) y señalamos tres en uno y damos clic en aceptar CONCLUSION BIBLIOGRAFIA Libro
estadística inferencial 2

Anda mungkin juga menyukai